[go: up one dir, main page]

WO2005015467A1 - Life supporting system - Google Patents

Life supporting system Download PDF

Info

Publication number
WO2005015467A1
WO2005015467A1 PCT/JP2004/011390 JP2004011390W WO2005015467A1 WO 2005015467 A1 WO2005015467 A1 WO 2005015467A1 JP 2004011390 W JP2004011390 W JP 2004011390W WO 2005015467 A1 WO2005015467 A1 WO 2005015467A1
Authority
WO
WIPO (PCT)
Prior art keywords
article
facility
living environment
information
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/011390
Other languages
French (fr)
Japanese (ja)
Inventor
Yoshihiko Matsukawa
Shusaku Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of WO2005015467A1 publication Critical patent/WO2005015467A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Definitions

  • the present invention relates to a life support system and a life support system that provide life support by managing articles as an example of an object existing in a living environment, for example, a living environment.
  • the present invention relates to a control method for a program and a life support system, and more particularly to a life support system that facilitates a user's operation on an article to provide life support, a program for the life support system, and a control method for the life support system.
  • the mouth pot has an entertainment-type mouth pot that behaves like a pet in an environment where pets cannot be kept, and heals human hearts, and is equipped with a large number of sensors, and detects obstacles in the room with sensors.
  • So-called housekeeping assistance mouth pots which automatically clean the inside of the room while receiving light, have been actually developed and commercialized. Elemental technologies include technologies that are indispensable for actually providing various types of housekeeping support, such as handling technology for freely grasping and transporting items in the home, and sensing technology for recognizing the state in the space where robots move. Etc. are being actively developed.
  • Japanese Patent Application Laid-Open No. 7-237159 discloses a method in which articles to be handled are limited and an instruction to load the articles on a pallet is easily provided.
  • a virtual article diagram according to the actual situation is displayed on the monitor, and the user gives an instruction while looking at the virtual article diagram. That is, the user instructs the work procedure for loading the rectangular parallelepiped article on the pallet by moving the article on the virtual article diagram and inputting the position.
  • Such a moving operation is performed by intuitive operations such as dragging and dropping a mouse.
  • the procedure of loading the articles on the pallet is completed by repeating such an instruction operation.
  • the system that executes the above method sequentially accumulates the location before and after the movement of all the articles as work information by these instruction operations. Then, when the instruction is completed, the robot goes to the place before the movement for each article, grasps it, moves to the place after the movement, and releases the grasp to install the article. The work is completed when all the goods transport operations are completed.
  • the input operation of the load handling setting can be intuitively performed while watching the loading status of the load handling articles displayed on the monitor, thereby simplifying the operation.
  • the technique disclosed in the above-mentioned Japanese Patent Application Laid-Open No. Hei 7-23771-59, in which a cargo handling procedure is set in a virtual article diagram, is to instruct a home robot to carry out an operation of holding and transporting an article.
  • the present invention can be applied to a system in which a person who has difficulty carrying an article due to a decrease in muscular strength, such as an elderly person, can grasp and move an article indoors while watching a monitor screen.
  • the articles are not always visible at home. It is not always arranged. Specifically, household items are not only placed on the floor and tables, but also in equipment (refrigerators, drawers, closets, boxes, etc.). In some cases, goods are hidden behind equipment. For this reason, it is difficult to apply the conventional technology as it is in a residential environment such as a home, and there is a need for a technology that can easily operate articles and the like in such facilities using interface means. Disclosure of the invention
  • the present invention has been made in view of power, and its purpose is to easily perform an operation via an interface unit even on an article inside a facility or an article shielded by a facility. It is an object of the present invention to provide a life support system that provides a life support by enabling the above, a program for the life support system, and a control method of the life support system.
  • a display device that displays the actual situation of a living environment, and an article operation device that receives an operation instruction for designating equipment in the living environment on a display on the display device are provided.
  • the interior of the facility is determined based on the information on the article in the living environment and the structural information on the facility in the living environment and the space in the living environment.
  • a life support system including a control unit that controls information of an article or an article concealed in the facility to be displayed on the display device.
  • a procedure for displaying the actual situation of a living environment on a display device, and an operation instruction for designating a facility in the living environment is input on the display on the display device, and the facility is displayed.
  • the articles inside the facilities or the articles hidden in the facilities are Provided is a life support system program for causing a computer to execute a procedure for displaying information on the display device.
  • an actual situation of a living environment is displayed on a display device, and an operation instruction for designating equipment in the living environment is input on a display on the display device.
  • the interior of the equipment is determined based on the information of the articles in the living environment and the structural information of the equipment in the living environment and the space of the living environment.
  • a control method of a life support system which controls information of an article or an article hidden in the facility to be displayed on the display device.
  • the display device displays the equipment.
  • Information on the items inside or those shielded by equipment is displayed. Therefore, while viewing the display on the display device, the user can obtain information on not only the articles existing outside the facility but also articles inside the facility or articles shielded by the facility. Therefore, it is possible to easily operate even an irregularly or randomly arranged article. Therefore, it becomes possible to perform operations on various articles existing in the living environment, for example, the living environment.
  • the user looks at the display on the display device and not only displays the articles outside the facility but also the inside of the facility.
  • Information on goods or goods shielded by equipment can also be obtained.
  • either one of the information on the article hidden inside the equipment and the information on the article shielded (hidden behind the equipment) by the equipment is displayed selectively and switchably, so that Even if there is an article both inside and in a part shielded by equipment, information on those articles can be displayed separately. Therefore, the user can easily operate the article.
  • a user can obtain information on an article inside the equipment or an article shielded by the equipment by a simple operation of simply specifying the equipment on the display of the display device using the article operation device. it can. Therefore, it is possible to easily obtain information not only on articles outside the facility but also on articles inside the facility or articles shielded by the facility. However, the operation can be easily performed. Therefore, it is possible to easily operate an article in a living space, for example, a living space via the article operating device (interface means).
  • FIG. 1 is a block diagram showing the overall configuration of the life support system according to the first embodiment of the present invention.
  • FIGS. 2A to 2C show the background difference method, respectively.
  • FIG. 2 is an explanatory diagram showing a camera and the like used in the room and a room.
  • FIG. 3A is a conceptual diagram showing a configuration and description contents of article data in the life support system in a state before clearing
  • FIG. 3B is a diagram showing a configuration of the article data and examples of description contents. A conceptual diagram in the state after clearing is shown,
  • FIGS. 4A and 4B are schematic views of the environment of the living support system taken at two different times, respectively.
  • FIG. 5A is a diagram of an actual situation for explaining the environment map information database in the life support system
  • FIG. 5B is a diagram of a three-dimensional model for explaining the environment map information database in the life support system.
  • FIG. 5C is a diagram of the plane model of FIG. 5A for explaining the environment map information database in the life support system
  • FIG. 6 is an example of data of the environment map information database in the life support system.
  • FIGS. 7A and 7B are diagrams showing examples of equipment and equipment attribute data in the life support system, respectively.
  • FIG. 8 is a diagram showing, in a table form, equipment operation commands stored in an equipment operation information storage unit in the life support system,
  • FIG. 9A is a conceptual diagram showing an example of an operation screen in the life support system
  • FIG. 9B is a conceptual diagram showing an example of a screen map corresponding to the operation screen in FIG. 9A.
  • FIG. 10A, FIG. 10B, FIG. 10C, FIG. 10D, and FIG. 10E respectively show examples of display forms of articles stored inside the equipment in the life support system.
  • FIG. 10A, FIG. 10B, FIG. 10C, FIG. 10D, and FIG. 10E respectively show examples of display forms of articles stored inside the equipment in the life support system.
  • FIG. 11 is a diagram showing the correspondence between the condition for switching the display mode inside the facility and the display mode in the life support system
  • FIGS. 12A and 12B are diagrams showing an example of the equipment in the life support system and the equipment behind it, a place on the floor surface, and a display form of articles, respectively.
  • Figures 13A, 13B, 13C, and 13D are conceptual diagrams showing examples of hierarchical screen maps corresponding to the environment of Figure 12A, respectively.
  • FIG. 14 is a perspective view showing a configuration of a mouth pot in the life support system.
  • FIG. 15 is an example of a list of mouth bot control commands stored in a robot control command database in the life support system. Is a tabular diagram showing
  • Fig. 16 is a diagram showing an example of the confirmation screen in the life support system.
  • Fig. 17 is a state in which the information written on the electronic tag placed on the bottom of the plastic bottle is read by the tag reader of the refrigerator.
  • FIG. 16 is a diagram showing an example of the confirmation screen in the life support system.
  • Fig. 17 is a state in which the information written on the electronic tag placed on the bottom of the plastic bottle is read by the tag reader of the refrigerator.
  • Fig. 18 is an explanatory diagram in the case of having the operation program of the robot arm and the hand of the mouth pot as the equipment attribute data.
  • FIG. 19 is a diagram showing an example of an operation program of the robot arm and the hand of FIG. 18;
  • FIG. 20 is an explanatory diagram for explaining where in the equipment the article is to be placed when moving into the equipment.
  • a display device that displays the actual situation of a living environment
  • An article operation device for inputting an operation instruction for designating facilities in the living environment on a display on the display device
  • the article or the article inside the facility can be specified based on the information on the article in the living environment and the structural information of the facility in the living environment and the space in the living environment.
  • a life support system including control means for controlling information of an article hidden in the facility to be displayed on the display device.
  • An environment map information database that stores structural information of the facilities in the living environment and the space in the living environment
  • the control means is connected to the display device, the article operation device, the article database, and the environment map information database respectively, and when the equipment is designated by the article operation device, the article database and the environment map information Referring to a database, based on the information of the articles in the living environment and the structural information of the facilities in the living environment and the space of the living environment, the articles in the facilities or the articles hidden in the facilities are determined.
  • a life support system according to the first aspect wherein information is controlled to be displayed on the display device.
  • the control means when the article operating device designates one of a plurality of facilities in the living environment by the article operating device, the control means includes information on goods in the living environment and the living environment. Based on the structural information of the facilities in the environment and the space of the living environment, the facility and any one of the facilities behind it can be freely selected, and the interior of the selected facility can be switched.
  • the life support system according to the first aspect wherein information of an article or an article hidden in the facility is controlled to be displayed on the display device.
  • control unit when the control unit specifies one of a plurality of facilities in the living environment by the article operating device, the information on the goods in the living environment and the life Based on the structural information of the facilities in the environment and the space of the living environment, the facility and any one of the facilities behind it can be freely selected, and the interior of the selected facility can be switched.
  • a life support system according to a second aspect, wherein control is performed to display information on an article or an article hidden in the facility on the display device.
  • a sensing unit for detecting information on the article
  • a database control unit for updating information on the article based on a detection result of the sensing unit
  • life support system according to any one of the first to fourth aspects, further comprising: I will provide a.
  • an article moving device for moving an article
  • an article moving control unit that moves the article to the moving location by the article moving apparatus
  • the life support system according to any one of the first to fourth aspects, comprising:
  • the article operating device displays a force sol for operating an item on a display of the display device
  • the control unit pops up information on an article inside the facility or an article concealed by the facility either alone or together with the structural information of the facility.
  • a life support system according to any one of the first to fourth aspects, wherein the life support system is displayed in an upload list format.
  • the article operating device displays a cursor for operating an article on a display of the display device
  • At least one of the facilities in the living environment is provided with photographing means for photographing the inside of the facility or an area concealed by the facility,
  • the control means When the cursor is placed on the facility on the display of the display device, the control means displays an image of an article taken by the photographing means and inside the facility or in a region hidden by the facility.
  • the life support system according to any one of the first to fourth aspects of the present invention is provided.
  • the article operating device displays a cursor for operating an article on a display of the display device
  • At least one of the facilities in the living environment is provided with a transmission device that makes the inside of the facility or an area hidden by the facility visible.
  • the control means When the cursor is placed on the facility on the display of the display device, the control means is configured to transparently display an article inside the facility or an article concealed by the facility by the transmission device. 4.
  • the life support system according to any one of the aspects 4 to 4 is provided.
  • the facility includes a storage body that performs storage or removal of articles.
  • the life support system according to any one of the first to fourth aspects, further comprising control means for causing the storage body to execute the operation when the storage body is designated by the article operating device. .
  • the storage body includes a door that can be opened and closed, and the control unit opens or closes the door of the storage body when the storage body is designated by the article operating device.
  • a life support system according to a tenth aspect, wherein the life support system is closed.
  • one of a plurality of display forms is selected based on at least one of the attribute of the facility, the attribute of the article, the attribute of the user, and the operation content, and the article information is selected.
  • the life support system according to any one of the first to fourth aspects, wherein control is performed so as to further include an in-facility display means for displaying on the display device.
  • a procedure for displaying the actual situation of a living environment on a display device, and an operation instruction for designating a facility in the living environment on a display on the display device is input to the facility.
  • the fifteenth aspect of the present invention further, when one of a plurality of facilities in the living environment is designated, information on articles in the living environment, the facilities in the living environment, and the living Based on the structural information of the environment space, the facility and any one of the facilities behind it can be switched freely and can be selected and hidden in the article inside the selected facility or the facility
  • the life support system program according to the thirteenth aspect further comprising a procedure of controlling information of an article to be displayed on the display device.
  • the actual situation of the living environment is displayed on a display device, and an operation instruction for designating facilities in the living environment is input on the display of the display device.
  • the equipment By specifying the equipment by being forced, based on the information of the goods in the living environment and the structural information of the equipment in the living environment and the space of the living environment, the goods or Provided is a control method for a life support system, which controls information of articles hidden in the facility to be displayed on the display device.
  • any one of the facility and the facility located behind it is determined based on the information on the goods in the living environment and the structural information on the facilities and the space in the living environment in the living environment. 15th mode, further comprising the step of: controlling the display device to freely select one of them and displaying information of an article inside the selected facility or an article concealed by the facility on the display device.
  • the control method of the life support system described in (1) is provided.
  • the overall configuration of the life support system according to the present embodiment will be described, and then the operation of the life support system (specifically, the article management system) will be described along with specific examples.
  • FIG. 1 is a block diagram showing an example of the overall configuration of the life support system 100 in the present embodiment.
  • the life support system 100 is roughly divided into four subsystems, namely, an environmental management server 101 (hereinafter sometimes simply referred to as a server) and an article as an example of an object in a living environment. It is composed of a robot 102 as an example of an article moving device, an operation terminal 103, and equipment 104.
  • an environmental management server 101 hereinafter sometimes simply referred to as a server
  • an article as an example of an object in a living environment. It is composed of a robot 102 as an example of an article moving device, an operation terminal 103, and equipment 104.
  • the environmental management server 101 which is the first subsystem, includes a first sensing unit 105 for grasping a situation in a living environment, for example, a living environment (hereinafter, simply referred to as an environment), and a first sensing unit 105.
  • An article search / management means 106 for managing and searching for objects such as articles and moving objects (for example, people and mouth pots) existing in the environment based on the situation grasped by being connected to the Articles and moving objects connected to the management means 106
  • An article database 107 for storing data for management and search of the environment, and an environment map information managing means 108 connected to the first sensing section 105 for storing information on the entire environment other than the articles.
  • An environment map information database 109 connected to the environment map information management means 108 and storing data for managing information of the entire environment, an article database 107 and an environment map information database 109, etc. 1st sending and receiving unit 110, which receives inquiries about stored data from the outside and sends information to the outside in response to it, etc., article search and management means 106, and environment map information management means 108 And the first transmission / reception unit 110, respectively.
  • an inquiry about data stored in the article database 107, the environment map information database 109, or the like is externally sent to the first transmission / reception unit 110.
  • reference numeral 99 denotes an input device such as a keyboard, a mouse, and a touch panel that can be manually input by a user, and is connected to the article search / management means 106 and the environment map information management means 108.
  • the system manages and searches for objects, such as articles and moving objects, existing in the environment, which are information stored in the article database 107, and obtains information on the entire environment other than the articles. So that they can be managed.
  • the living environment in the present embodiment means an environment in which people and goods exist with mutual relations, such as a house and an office.
  • Environmental map information includes structural information on a room (a “space” formed by walls, floors, and ceilings) as an example of the environment, and furniture and large appliances (refrigerators, microwave ovens, It consists of structural information such as “equipment” 104) such as machines and dishwashers, and is attached to the space and equipment 104, respectively.
  • Structural information is defined as a surface on which other objects (referred to as articles) can be installed at least inside the space and above it, inside the equipment and above it (for example, on the floor and equipment in a room).
  • Means the area information (for example, the position coordinates of the vertices of the circumscribed polygon on the surface).
  • the area information means information on an area represented by coordinate system information and display information based on a shape or the like.
  • a small box is an article. Since the product can be stored or installed, it can be treated as equivalent to the equipment.
  • each component of the environment management server 101 will be described in order.
  • the first sensing unit 105 includes all monitored objects existing in an operation environment (for example, a house, an office, a store, and the like) as an example of the environment, that is, articles, furniture, people existing in the environment, and a robot 1. It constantly monitors the position and state of 02 and the like. In addition, the first sensing unit 105 detects when a new article is newly brought into the environment by a human, a robot 102, or the like.
  • an operation environment for example, a house, an office, a store, and the like
  • the first sensing unit 105 detects when a new article is newly brought into the environment by a human, a robot 102, or the like.
  • the specific configuration of the first sensing unit 105 is not particularly limited, for example, a device using an image sensor, a device using an electronic tag, and the like can be suitably used.
  • a device and a method using an image sensor and a device and a method using an electronic tag will be described as specific examples of the device and the method for detecting an article or a moving object.
  • the type of image sensor used here is not particularly limited, but a camera (image sensor) 105 A as an example of a photographing means is preferably used for efficiently monitoring a wide area such as indoors with a small facility. Can be. That is, as shown in Fig. 2D, the camera 105A is fixedly installed on the ceiling or wall of the indoor room 104Z, and the captured images are used to detect objects. May go.
  • the background subtraction method is a method in which a model image as a background is prepared in advance, and a difference between a current input image and the model image is obtained to obtain an object from the image.
  • the first sensing section 105 aims to detect and monitor articles and moving objects in the environment. Therefore, if there is no environmental change, for example, a single image in which there is no article or the like in the environment can be used as the model image. On the other hand, if the environment fluctuates greatly, an image obtained by averaging images taken continuously over a certain period of time may be used.
  • FIG. 2A to 2D are assistance diagrams for specifically explaining the background subtraction method
  • FIG. 2B is a diagram illustrating an example of the model image.
  • Figure 2A shows the force that captured the image in Figure 2B
  • FIG. 2C is a diagram showing an input image taken at a certain point in time using the same camera 105A as the camera 105A
  • FIG. 2C shows the model image of FIG. 2B from the input image of FIG. 2A.
  • FIG. 9 is a diagram showing an example of a background difference image obtained by subtraction. As can be seen from FIG. 2C, only the part having a difference between the input image and the model image emerges in the background difference image.
  • FIG. 2D is an explanatory diagram showing a relationship between the first sensing unit 105 including the camera 105A used in the background subtraction method and the room 104Z.
  • the number of cameras used may be one, but if two or more cameras are used, it is possible to acquire the shape and posture information of the article using stereoscopic three-dimensional measurement technology. .
  • the first sensing unit 105 is connected to a camera (image sensor) 105 A and a camera 105 A so that the background subtraction method can be performed and the operation result is searched for an article.
  • It has an arithmetic unit 105B that can be output to the management means 106 and the environment map information management means 108.
  • the electronic tag 80 is, as shown in FIG. 17, a device composed of an IC 80A for storing data and an antenna 80B for transmitting data wirelessly.
  • the device 81 information can be written to the IC 80A of the electronic tag 80, and information written to the IC 80A can be read.
  • an electronic tag 80 is arranged on the bottom surface 82 A of the pet bottle 82, and a reader / writer (an example of a tag reader) 81 of the refrigerator 104 B uses an IC 8 of the electronic tag 80. This shows a state in which information written in the OA is read.
  • the tag's IC 8 OA contains attribute data that characterizes the item, that is, the type of the item. It is possible to store data such as type, date of manufacture, shape, weight, and product image. By storing such data in the IC tag OA of the electronic tag and making the data freely accessible, more advanced article management becomes possible. By doing so, for example, the shape and weight can be used for gripping and installing articles, the date of manufacture can be used for quality control, and the type of article can be used for searching for items. This will bring great benefits to users. Also, only the product code (similar to a barcode) standardized in the industry is stored in the IC 8 OA itself of the electronic tag, and communication between the product code and the attribute data, such as an external server or the Internet, is stored.
  • data such as type, date of manufacture, shape, weight, and product image.
  • It may be configured to use a means to inquire the manufacturer of the attribute data of the article.
  • the first sensing unit 105 is connected to the electronic tag 80 including the IC 8 OA and the antenna 8 OB, and to the wireless connection with the electronic tag 80.
  • the first sensing unit 105 includes at least one of a camera, an electronic tag, and other sensors.
  • the information (for example, attribute data of the new article or the moving object) is stored in an article search / management unit 106 described later. (Example of database control means) Registered / updated in the article database 107 via.
  • the goods database 107 is a database that stores data such as what kind of goods (including equipment), when, and where. The details will be described below with reference to the drawings.
  • FIG. 3A and FIG. 3B are conceptual diagrams showing an example of the data structure of the article database 107 and an example of the description.
  • Fig. 3B shows the contents of the article database after a certain time has elapsed since Fig. 3A.
  • each item data constituting the item database 107 has the following six attributes: 1) item ID, 2) item name, 3) person mainly used (owner), 4) Time, 5) Location, 6) Item image.
  • Article ID ID for distinguishing individual articles. If the same kind of goods are physically different, they need to be treated as different goods. Therefore, different IDs are assigned to the same kind of goods. For example, if there are two PET bottles, two goods IDs “D # 0001” and “D # 0002” are attached to each.
  • Article name indicating the type of the article. Unlike the article ID, if the type is the same, the name will be the same. For example, plastic bottles and pizza.
  • Person who mainly uses owner: The person who mainly uses the product or the owner, and this is listed. This makes it possible to preferentially display goods to be used according to the user. For example, father, mother, child.
  • Time The time when the item was most recently operated (used or moved). For example, "2002/10/10 10:00" means 10:00 am on October 10, 2002.
  • Location The place where the article moved when it was most recently operated (used or moved). The location is specified by the ID number of the environment attribute data 601 or the facility attribute data 602 registered in the environment map information database 109 described later (see FIG. 6). Also, for items whose spatial position is difficult or impossible to identify using only the ID number, the coordinate value of the item is set.
  • the location is “refrigerated room” or “freezer room”, it is possible to specify that the article exists in them alone, so no coordinate value is specified (for example, “refrigerated room” Is “Cold—room # 0001”, and “Freezer” is “Freezer # 0001”.)
  • "floor”"i 1 oor # 000 If the specified location covers a wide area as in ⁇ 1 '' and the location of the specific article cannot be specified by the location name alone, the coordinate value for specifying the location is assigned (for example, For "D # 0001", “floor # 0001 (X1, y1, 0)", for pizza "F # 0001", “floor # 0001 (x2, y2, 0)", etc.).
  • the initial setting of the location of the article, the update when the article moves, and the provision of the coordinate value as additional information are automatically performed by the calculation section 105B of the first sensing section 105.
  • the determination as to whether or not to provide a coordinate value when indicating the location of the article may be determined based on the performance of the robot 102 that grips and transports the article. If the performance of the robot 102 is very low, for example, when grasping an article in the refrigerator compartment, if the exact position coordinate value of the article is required, the location (coordinate value) of the article in the refrigerator compartment is given. You may do so.
  • Article image An image of the article.
  • attributes such as the three-dimensional shape of the article and the exact position / posture data (not shown) of the article may be added.
  • the robot 102 can more easily grip the article.
  • the time “place” article image can be recorded for each time and stored as a history. As a result, it is possible to instruct the position of an article at a certain point in the past or to display an image.
  • At least necessary article attributes are article ID, time (time), and position (location).
  • the manufacturer can be queried for other attributes using the Internet. It is desirable to have the “owner” attribute, but it is not necessary for some applications.
  • FIGS. 4A and 4B are schematic diagrams in which a state of a certain environment (for example, one room 104Z) is photographed at two different times.
  • FIGS. 4A and 4B correspond to FIGS. 3A and 3B, respectively. That is, it is assumed that the database storing the article data existing in the room 104Z, which is an example of the environment at each time, matches the database shown in FIGS. 3A and 3B, respectively.
  • 104A is a table
  • 104B is a refrigerator
  • 104C is a freezer
  • 104D is a refrigerator
  • 104E is a microwave oven
  • 104F is a wastebasket
  • 104G is a recycle bin
  • 104H is a floor
  • 104H J is the wall
  • 104 K is the ceiling
  • 104 L is the door
  • 104 M is the cupboard.
  • Figure 3A shows, as an example, the contents stored in the database at 9 o'clock on October 10, 2002.
  • the database contains seven items: PET bottles, pizza, notebooks, bananas, paper waste, ice cream, and milk. Of these, five items, such as plastic bottles, pizza, notebooks, bananas, and paper waste, are scattered on the floor 104H, as can be seen in the example of Fig. 4A. Therefore, as shown in Figure 3A, the value of the location of each article in the database is "floor".
  • the remaining goods, ice cream, and milk are stored in the freezer compartment 104C and the refrigerator compartment 104D (not explicitly shown in FIG. 4A).
  • the value of the location of each article is described as “freezer # 0001” which is a “freezer room” and “Co 1 d-room # 0001” which is a “refrigerator room”.
  • Figure 3B shows the state of the database at 20:00 on October 10, 2010, a little after the environmental change.
  • This deletion process may be performed manually, or may be automatically deleted by reading a sensor such as a tag with a reader / writer. Also, since food is virtually extinct from the real world when someone eats it, the place data may describe the person who ate the food instead of describing the place.
  • the article search / management means 106 uses the first sensing unit 105 and the input device 99 to retrieve information on the articles obtained by the user's manual input for all articles placed in the environment. If there is an inquiry about goods etc. stored in the goods database 107 or from outside the environmental management server 101 via the first transmitting / receiving unit 110 and the first control means 111, Necessary information according to the content of the inquiry is retrieved from the article database 107 by the article search / management means 106 and sent to the inquiry destination via the first control means 111 and the first transceiver 110. Perform the process of sending. Access to the article database 107 is permitted only to the article search and management means 106, and writing and reading are performed simultaneously for the same article data. It is managed not to be.
  • the article database 107 is registered / updated via the article search / management means 106. It is also possible to search for the location of the item by using the operation terminal 103 described below and specifying a search key to narrow down the attributes of the item that you want to know, such as the date and the type of the item. is there.
  • the environment map information management means 108 manages the map information in the room as an example of the environment.
  • 5A to 5C are conceptual diagrams showing an example of the environment map information database 109 in comparison with the actual situation.
  • FIG. 5A is a diagram showing the actual situation
  • FIG. 5B is an environment map.
  • FIG. 5C is a diagram showing a simplified model of the actual situation as a loop information database 109
  • FIG. 5C is a diagram showing the plane of the actual situation further simplified.
  • the environment map information database 109 may be represented as three-dimensional data as described above, or may be more simply planar data.
  • the data should be created according to the purpose of the map and the time required to create the map.For example, if it is necessary to create a three-dimensional model in a very short time, model the three-dimensional object with the smallest cuboid that covers it And so on.
  • the model in Figure 5B is such an example.
  • the table 104A located at the center in FIG. 5A is modeled as a rectangular parallelepiped.
  • plane data In the model shown in Fig. 5C, the taper located in the center is represented by a rectangular area (rectangular area of the hatched part in Fig. 5C) that is orthogonally projected onto the plane, and this area cannot be moved by robots. It is defined as an area.
  • the X-axis (direction along one side of the room floor) and the Y-axis (along the other side orthogonal to one side of the room floor) shown in FIGS.
  • the position coordinate system in the real world composed of one Z axis (room height direction) is called the real world coordinate system.
  • FIG. 6 is a diagram showing an example of data in the environment map information database 109.
  • the environment map information database 109 is roughly composed of two elements, environment attribute data 601 and equipment attribute data 602.
  • the environment attribute data 6001 is, in short, detailed data of a room as an example of an environment.
  • the environment attribute data The floor data “floor # 0001” and “floor # 0002J” are recorded for the two floors (note that the second floor data “f1 oor # 0002” is not shown).
  • the floor data describes position coordinates (position coordinates in the real world coordinate system) of vertices (corners) when the floor is a polygon. Is attached to each surface. For example, in the case of data for a square floor, as shown in Figures 6 and 5A,
  • the lowest floor height in the room is set to 0 as a reference for coordinate values.
  • the first four coordinate values indicate the coordinates of the vertex of the floor, and the last number “0” indicates the material of the floor.
  • the floor material is, for example, “0” is flooring, “1” is tatami, “2” is carpet, etc., and corresponding numbers are determined in advance for each material. If there are multiple floors with different heights in a room, these floor data need only be prepared for the number of floors.
  • the equipment attribute data 602 lists the equipment 104 existing in the environment (specifically, the room) configured by the environment attribute data 601.
  • the facilities 104 are household goods which are not moved and used in a normal state, such as furniture and large home appliances.
  • a facility 104 such as a table 104A, a freezer compartment 104C, a refrigerator compartment 104D, and trash cans 104F and 104G is provided. Since they exist, the respective data are stored in the environment map information database 109, and those attributes are stored in the equipment attribute data 602.
  • the table 104A stores the position coordinate values of the respective corners of the surface 1 and the surface 2 as the position coordinates.
  • position coordinate values of respective corners of the surface 1 and the surface 2 are stored as position coordinates.
  • the position coordinate values of the respective corners of the surface 1 and the surface 2 are stored as the position coordinates.
  • the trash cans 104F and 104G also have their location coordinates as Is stored.
  • the freezing compartment 104C and the refrigeration compartment 104D are integrally called a refrigerator 104B.However, in the present embodiment, the facilities are distinguished by location where goods can be stored or installed. Instead of treating the refrigerator 104B as one facility, the freezer compartment 104C and the refrigerator compartment 104D are distinguished as one independent facility.
  • the equipment attribute data 602 includes, as attributes of each equipment, data of a plurality of surfaces when the surface of the relevant equipment 104 is approximated by a polyhedron, types of the relevant equipment 104, and installed on the available surface of the relevant equipment 104. Main article shapes and postures are stored.
  • the surface data of the equipment describes the coordinate values of the vertices of the surface (position coordinate values in real world coordinates), and a flag indicating whether or not an object can be installed on the surface has a flag for each surface. It is attached. For example, if the number of vertices is 4
  • the first four coordinate values indicate the position coordinate values of the four vertices
  • the last number “lj is a flag that means that the article can be set. Depending on the type of equipment, this flag can be switched depending on the situation, such as when the door is open and the surface on which goods can be installed is exposed or closed. Whether the surface on which articles can be installed is not exposed, etc.
  • Figures 7A and 7B are auxiliary figures to show such a typical example.
  • FIGS. 7A and 7B the attribute data of the equipment related to the freezing room 104C is shown. That is, FIG. 7 shows the attribute data when the door 104-1 of the freezer compartment 104 is closed.
  • the attribute data when the door 104C-1 of the freezer compartment 104C is open is-((X21, Y21, Z21),
  • the last value of the flag changes according to the opening and closing of the door 104C-1 of the freezing room 104C. That is, when the door 104C-1 of the freezer compartment 104C is closed, the article cannot be stored inside the door 104C-1 as it is, and the flag is set to 10 ". On the other hand, when the door 104C-11 of the freezer compartment 104C is open, the state is such that the articles can be stored therein as it is, so that the flag is set to “1”. In the freezer compartment 104C shown in FIG. 7B, the surface 104C-2 on which the articles are placed protrudes to the front when the door 104C-1 is opened so that the articles can be taken in and out using the robot 102.
  • the mouth pot 102 carries out articles only when the surface 104C-2 is protruding (that is, when the door 104C-1 is open). It is also possible to perform the operation of placing an object on the surface 104C-2 and the operation of removing the object installed on the surface 104C-2 while referring to the coordinate values of the surface 104C-2. It is. When the door 104C-1 is closed, the surface (article installation surface) 104C-2 is stored in the freezer compartment 104C.
  • the actual coordinate value of the surface 104C-2 changes.
  • the robot 102 does not insert or remove an article into the freezer compartment 104C, so that the coordinate values described as the equipment attribute data 602 are not changed. Leave as it is.
  • an article it is determined whether or not an article can be installed as the equipment attribute data 602.
  • the identification flag is shown, other information may be added as needed.
  • the surface material may be added.
  • a trajectory of the approach of the robot hand 202 to the surface for placing an article on the surface or removing an object from the surface may be added.
  • a program for moving the mouth bot hand 202 can be stored and used.
  • a standard program specification for moving the robot arm 201 is determined in advance, and when using a robot 102 capable of arm control according to the specification, one of the equipment attribute data 602 is used.
  • the program stored as a unit may be downloaded to the robot 102 as appropriate, and the downloaded program may be used to move the robot 102. This eliminates the need for the robot 102 to prepare individual gripping control programs for all equipment, and reduces the memory capacity for storing programs.
  • FIG. 18 shows the operation program of the robot arm 201 and the hand 202 of the robot 1 ⁇ 2 (operation to open the door 104E-1 of the microwave oven 104E-1) as equipment attribute data. It is an explanatory view of a case.
  • FIG. 19 is an example of an operation program of the robot arm 201 and the hand 202 of FIG.
  • the operation of opening E-1 is made up of.
  • the movements described in Fig. 19 are the coordinates of the tip of the mouth pot arm 201, the traveling vector of the arm 201, and the movement miracle of the tip of the arm 201 (movement miracle such as movement (iii)). In the case of linear approximation), the direction of the hand 202, and the operation of the hand 202 after the movement is completed.
  • the coordinates in Fig. 19 are all coordinate systems defined in the microwave oven, and the mouth pot 102 uses the robot's own coordinate system based on its own position / posture and the position / posture of the microwave oven 104E. To Convert and execute operation.
  • the first control means 111 of the environment management server 101 is a part for controlling the entire environment management server 101.
  • the main control contents include the following.
  • the first control means 111 sends the article search and management means 1 according to the contents.
  • a request for reference to the data is issued to the environment map information management means 106 or 06.
  • the first control means 111 sends the result transmitted from the article search / management means 106 or the environment map information management means 108 in response to the request to the first transmission / reception unit 110. Send to the inquiry source via
  • the first control means 111 interprets the request for registration / update of various data in the server 101 sent from the outside via the first transmission / reception unit 110, and interprets the content. Accordingly, the data registration / update request is issued to the article search / management means 106 or the environment map information management means 108.
  • the facility 104 which is the second subsystem of the life support system 100 of the present embodiment, is a facility having a place for storing or installing articles for a certain purpose (for example, a storage or installation body).
  • a certain purpose for example, a storage or installation body.
  • “with purpose” means, for example, “save” in a refrigerator or “warm” in a microwave oven.
  • the term “storage” is generally used to mean storage or the like, but the storage in the present embodiment also includes temporarily putting an article in a place where the above-mentioned purpose is applied. Therefore, putting food in a refrigerator or microwave oven is also called storage.
  • the installation also includes temporarily placing the article in a location for the purpose.
  • the equipment 104 has, as its basic configuration, an equipment operation information storage unit 122 for operating the equipment 104 in response to an operation instruction from the outside, and the equipment 1 A fourth sensing unit 1 2 3 for acquiring raw data belonging to another article in 04, and receiving the operation instruction from outside or transmitting the result of performing the operation to the instruction source.
  • the fourth transceiver 140 controls the fourth transceiver 140, the fourth transceiver 140, the facility operation information storage 122, and the fourth sensing unit 123, respectively, for example, when the fourth transceiver 140 receives an external operation instruction.
  • the fourth control unit 121 controls the operation of the facility 104 and transmits the result of the operation according to the operation instruction from the fourth transmission / reception unit 140 to an instruction source.
  • the fourth sensing unit 123 is similar to the first sensing unit 105 of the environmental management server 101. That is, the fourth sensing unit 123 is a device that performs sensing in order to grasp the situation in each of the facilities 104, and transmits the sensed information and the structural information of the facility 104 to a predetermined device by using the fourth control unit 121. It is connected to the.
  • the fourth sensing unit 123 constantly monitors the positions and states of all the monitoring objects existing in the equipment 104 in which the fourth sensing unit 123 is located, that is, the articles.
  • the fourth sensing unit 123 detects, when a new article is newly brought into the facility 104 by a person or a mouth bot 102 or the like, it is also detected.
  • the sensed information and the structural information of the equipment 104 are stored in the article database 107 and the environment map information database 109 of the environment management server 101 via the network 98.
  • the specific configuration of the fourth sensing unit 123 is not particularly limited, for example, similarly to the first sensing unit 1 ⁇ ⁇ ⁇ ⁇ ⁇ 5, it is preferable to use a device using an image sensor, a device using an electronic tag, or the like. Can be.
  • an intuitive Graphical Interface (GUI) using actual images in the facility 104 can be realized.
  • GUI Graphical Interface
  • the facility operation information storage unit 122 mainly stores a command (facility operation command) for remotely controlling the facility 104 from outside.
  • FIG. 8 is a diagram showing the equipment operation commands stored in the equipment operation information storage unit 122 in a table format.
  • the descriptive information in the table is, in order from the left column, a facility ID for distinguishing facilities existing in the environment, a facility operation command name for controlling the facility from outside, a processing procedure corresponding to the command, It is the return value of the result of processing.
  • refrigeration compartment 104D and freezer compartment 104C
  • the refrigerator compartment 104D and the freezer compartment 104C transmit these commands from an external device (for example, the robot 102, a personal computer or an operation terminal such as a PDA (Personal Digital Assistance) or a mobile phone) to the refrigerator compartment 104B-2 (the 4) It functions as an example of the transmission / reception unit 140.)
  • an external device for example, the robot 102, a personal computer or an operation terminal such as a PDA (Personal Digital Assistance) or a mobile phone
  • PDA Personal Digital Assistance
  • B-1 which functions as an example of the fourth control means 121).
  • the doors 104D-1 and 104C-1 of the refrigerator compartment 104D and the freezer compartment 104C are connected to the refrigerator compartment automatic opening and closing mechanism 104B-3 and the refrigerator compartment door automatic opening and closing mechanism 104B-4 by the refrigerator control means 104B.
  • the operation is controlled by -1, and each is automatically and independently opened and closed.
  • ⁇ Ac k '' is given to the external device that is the command source, and when the processing of the equipment operation command fails, the command source is “Nack” is returned as a return value to the external device from the refrigerator transmitting / receiving section 104 B-2 by the refrigerator control means 104B-1.
  • the equipment 104 is a refrigerator compartment 104D or a freezer compartment 104C, it is desirable that the inside of each compartment can be seen through without opening each door. You can prepare two commands, “door # transparent #on” and “idoor # transparent # off”.
  • a door that can be switched between transparent and non-transparent is, for example, a refrigerator door with a liquid crystal shutter or a blind. It can be realized by switching between transparent and non-transparent by 1.
  • the microwave oven 104E In the third example, the microwave oven 104E,
  • FIG. 1 When “warm # start” is received as an equipment operation command from an external device (for example, the mouth pot 102) by the microwave transmission / reception unit (which functions as another example of the fourth transmission / reception unit 140), FIG. As shown in the processing procedure, the heating is started under the control of the microwave control means (which functions as another example of the fourth control means 121). At this time, if there is an article in the microwave oven and the warming process can be started, “Ac k” is sent to the command source, and otherwise, the external device that is the command source is sent to the external device. “Nack” is returned from the microwave transmitting / receiving unit by the microwave control means as return values.
  • the microwave control means When the equipment operation command “wa rm # end” is received from the external device by the microwave transmitter / receiver, it is checked by the microwave control means whether the heating has been completed, and if the heating has been completed by the microwave control means, “True” If the heating process is still in progress, “F a 1 se” is returned from the microwave transmitting / receiving unit as a return value to the external device that is the source of the command.
  • the microwave oven control unit if If there is an article, “True” is returned.
  • “Fa1se” is returned from the microwave transmitting / receiving unit as a return value to the external device that is the source of the command.
  • the presence or absence of the article can be confirmed by using an image sensor and a weight sensor, or an electronic tag sensor if an electronic tag is attached to the article.
  • equipment 104 refrigerator compartment 104D, freezer compartment 104C and electric
  • the examples of the facility operation commands are briefly described by giving three examples of 04 E. However, the necessary facility operation commands may be prepared according to the function of each facility 104. Also, when the manufacturer of the facility 104 prepares a new facility operation command for the facility 104, the new command is written to the storage means of the facility 104 using any storage medium, or If the relevant equipment 104 is connected to the manufacturer via the external network 98, the equipment operation command is sent to the equipment 104 via the network 98, written into the storage means, and used as a new operation command. It can be possible.
  • the operation terminal 103 which is the third subsystem of the life support system 100, is a terminal device for the user to instruct the operation of articles in the environment.
  • the operation terminal 103 has a basic configuration in which an article movement instruction is performed by a user's operation of designating an article, moving the article to a predetermined place, or the like.
  • An operation device 1 18 for inputting an operation instruction such as an operation instruction a display device 1 19 for displaying an operation screen, and a display on the operation screen of the display device 1 19 for indicating an article or a location in the equipment.
  • An in-facility display unit 124 that generates a form and superimposes and synthesizes a balloon image as shown in FIGS. 10 to 1OC and FIG.
  • the user gives an instruction for article operation while referring to the image displayed on the display device 119.
  • a real-time video image of the actual situation taken by a camera or the like is displayed on the display device 119 as it is, and the user operates the article while watching the video image.
  • a pointing device mouse, Touch panel, line-of-sight input
  • keyboard cursor movement are used.
  • 4A and 4B were used to explain the contents of the article database 107 described above.On the other hand, these figures also show real-time images of actual situations taken with cameras or the like. Corresponding (excluding lead lines and reference symbols). That is, FIGS. 4A and 4B show examples of operation screens before the article operation (before article clearing) and after the article operation (after article clearing), respectively.
  • the above operation is a very simple operation consisting of two steps.
  • the curve with the arrow in Fig. 4A is an example of the movement locus of the mouse cursor during drag and drop. For example, if you want to place Notebook S # 0 0 0 1 on the tape, first move the mouse cursor to Notebook S # 0 0 0 1 and drag it, then move the cursor over the table in that state, Drop the mouse.
  • the same coordinate value is then referred to in the article mask data.
  • a pointer to the article data is described as an attribute immediately at the coordinates where the article exists.
  • the problem here is how to create the article mask data. If the camera image for detecting an article using the background subtraction method described above is used as it is in a display screen for article operation, the result of the background subtraction method may be used. This is because the position of the article in the screen is detected as a result of the background subtraction, and can be used as it is as the mask data.
  • FIG. 9A and 9B are conceptual diagrams showing examples of an operation screen and a corresponding screen map.
  • FIG. 9A shows an operation screen
  • FIG. 9B shows a screen map.
  • the screen map indicates where on the operation screen the entities corresponding to the environment attribute data 601 and the equipment attribute data 602 specified in the above-described environment map information database 109 exist. This is the data to be distinguished.
  • the screen map can be stored, for example, as image data.
  • a screen map is image data in which each pixel is represented by an integer value, and a pair of the value and the location is
  • the examples given here include refrigerators and freezers that have an internal structure, but in order to specify more specific items and locations inside them, it is necessary to perform operation processing inside the equipment described below. is there.
  • the place to store the goods can be at any position in the refrigerator compartment and the freezer compartment, the method of indicating the place described here is sufficient.
  • the equipment 104 to be registered in the environmental map information database 109 is hardly moved once in principle once installed. Therefore, if it is difficult to automatically create the environmental map information database 109, it may be created manually. Of course, if the three-dimensional model of each facility 104 is known and the location of the installation can be calculated accurately, the creation of the environment map information database 109 can be automated.
  • the display device 1 19 You can find out by using the screen map (see Figure 9B) displayed on the screen.
  • the article operation device 1 1 8 was designated by a mouse cursor using a mouse as an example. If the location is the facility 104, under the control of the third control means 120, the internal structure of the facility 104 and the articles inside it are displayed in some form by the facility display means 124. The user can indicate the position and the article inside the equipment with the mouse cursor. The structure and goods inside the equipment can be known by referring to the environmental map information database 109 and the goods database 107. As described above, in the article database 107, for example, when articles are stored inside the facility 104 or installed at the top of the facility 104, the article database 1 07 The information of the article storage or installation location has been updated.
  • the third control means 120 under the control of the third control means 120, what kind of articles are stored or installed in each facility 104 is determined by the third transmission / reception unit 142, the network 98, and the first transmission / reception unit. It can be easily grasped only by referring to the article database 107 via the 110, the first control means 111, and the article search / management means 106.
  • the in-facility display means 124 As a display form of the structure and articles inside the facility 104 by the in-facility display means 124, for example, the following can be considered.
  • each article image inside the equipment is displayed for a certain time, for example, in a pop-up display.
  • the specification of a specific article may be performed by moving the mouse cursor indicated by an arrow to the display position of the specific article while each article is displayed for a certain period of time, or of course, using another method. It does not matter.
  • FIG. 10A shows an example in which, when the mouse cursor indicated by an arrow is moved to the freezer compartment, an image of the ice cream, which is an article stored therein, is displayed in a pop-up.
  • This display example is suitable for moving an article in the equipment to another.
  • characters may be used instead of the image.
  • the first display mode when a product is moved into the facility, the location in the facility is left to the life support system (specifically, the following method).
  • the first control means 111 searches for a place where the article can be installed, based on the information of the environment map information management means 108 and the article search management means 106.
  • the position and size (shape) of the already installed articles are the article search management means 10 6, it is possible to find a place that is not already occupied by another item in the environment map (for example, the second shelf of the refrigerator) managed by the environment map information management means 108. it can.
  • FIG. 20 is a diagram showing a method of obtaining an installation possibility. This example shows the case where the equipment to be installed is the refrigerator compartment 104D and the items (food dishes) on the second shelf 104D-2 from the bottom are to be installed.
  • a template 104D-4 of the size of the article (dish) to be installed is prepared, and the template 104D-4 is accommodated in the pixel 0 area. (The trajectory is indicated by 104D-6.) Then, the location 104D-5 where the article (dish) to be installed fits is determined and set as the installation position.
  • the second display mode hierarchical display is performed for each type as shown in FIG. 10B. If the equipment 104 indicated by the arrow indicated by the mouse cursor is the refrigerator compartment 104D, the food categories such as meat and vegetables are displayed first, and then the food corresponding to the category selected hierarchically Is displayed. For example, pork and chicken are displayed for meat, and carrots and lettuce are displayed for vegetables.
  • This second display mode is suitable for searching for desired items without making the structure of the equipment visible to the user (operator).
  • some of the equipment 104 may have a plurality of storage locations or installation locations (such as shelves), but the storage location or installation location may be displayed in a hierarchy.
  • the storage location or installation location may be displayed in a hierarchy.
  • the equipment 104 indicated by the mouse cursor indicated by the arrow is the refrigerator 104B
  • the foods (articles) are displayed in order of decreasing expiration date, such as by 10 pieces.
  • the display may be performed by changing the color or the size of the character.
  • a camera 123A is installed in a refrigerator compartment 104D, which is an example of equipment, to sense goods (for example, using the fourth sensing unit 123)
  • a mouse cursor indicated by an arrow
  • the image in the refrigerator compartment 104D is displayed, and the same technology as that for pointing the goods and places on the floor and table is used.
  • An article or location on the image in the refrigerator compartment 104D is indicated by a mouse cursor.
  • operability is further improved by enlarging and displaying the image in the refrigerator compartment 104D to be displayed.
  • the interior will be dark and it will not be possible to take a picture with the power of the camera. Is desirable. Furthermore, by displaying the photographed image of the refrigerator compartment 104D on the door of the refrigerator compartment 104D on the screen, it is possible to intuitively operate the instruction with the same appearance as usual.
  • a desired equipment for example, a storage body
  • a desired equipment for example, a storage body
  • a refrigerator for example, a refrigerator
  • the third control means 1 2 the setting is performed via the third transmitting and receiving
  • the command “door #ope nj” is sent to the fourth control means 121 via the fourth transmission / reception unit 140 of the refrigerator 140B having “C o 1 d—ro om # 0001” (refrigeration room), which is an example of the storage 104.
  • the door of the refrigerator compartment is opened, and the interior of the refrigerator compartment is directly displayed on the display screen, and when it is determined that the instruction of the article or the storage place has been completed by the article operating device 118, the third control means 120, (3) A command of “door #clos eJ” is transmitted to the fourth control means 121 via the fourth transmission / reception unit 140 of the refrigerator 140 B via the transmission / reception unit 142 and the network 98. Since the doors are opened and closed, facilities that do not control temperature and humidity, such as closets and shoe boxes, are more suitable than refrigerators.
  • FIG. 10E in the case of equipment that controls temperature, humidity, etc., such as a refrigerator compartment or a freezer compartment, some or all of the walls are made walls that can be switched between transparent and non-transparent.
  • a fifth display mode in which the wall surface is transmitted and non-transmitted at the same timing as the opening and closing of the door described above may be adopted.
  • each of the display modes can be realized by using such a command. It is also effective to switch these display modes according to the situation or the type of equipment. For example, when the dragged item is placed in the facility, it is displayed in the first display mode, while when the user designates the item in the facility, it is displayed in any of the second to fourth display modes.
  • a display form table as shown in FIG. 11 is prepared in the storage section of the in-facility display means 124, and the in-facility display means 124 performs a user operation based on this table. And the display mode is switched according to the equipment.
  • the numbers of the display forms (forms 1 to 5) in FIG. 11 correspond to the first to fifth display forms in FIGS. 10A to 10E, respectively.
  • the display form may be changed according to the person who operates, the equipment to be operated, or the article to be operated. That is, the display mode may be appropriately selected according to various attributes.
  • the user is able to use the system by logging in to the life support system, and the user is determined by the session of the mouth login. It is possible to do so.
  • authentication technologies such as fingerprint recognition and iris recognition.
  • the expiration date of each article can also be recorded in the article database. It is also effective to preferentially display items with earlier expiration dates by using.
  • the area hidden by the equipment can be indicated by a mouse or the like, similarly to the inside of the equipment described above.
  • One way to achieve this is to consider the other equipment hidden behind it, the floor of the room, etc. as part of its own structure for the equipment in the front, and 3
  • the display mode can be applied as it is.
  • FIG. 12A shows an example in which this is realized in the pop-up list format of the first display mode.
  • the user is an unspecified person, and the user moves the mouse cursor using a mouse, which is an example of the article operation device 118, to the cupboard 104M in front of the operation screen of the display device 119.
  • the in-facility display means 124 allows the front cupboards 104 M, and the cupboards 104. Behind M (hidden behind cupboard 104 M, respectively)
  • the contents of the storage room 104 B and floor 104 H are popped up, and the items stored or installed in each are displayed. It is possible to specify with a mouse.
  • FIG. 12B shows that when the user is a “child”, the child moves the mouse cursor with a mouse, which is an example of the article operation device 118, in front of the operation screen of the display device 119.
  • the following is an example of the display when matching (or clicking) the cupboard 104M in.
  • the items popped up in Fig. 12A only items that are mainly used by children are displayed.
  • a method is needed to know how much equipment is hidden behind the point indicated by the mouse.
  • a screen map see Fig. 9B
  • this is extended and a sufficient number of screen maps (hierarchical screen maps) are prepared in the in-facility display means 124, and under the control of the third control means 120, the in-facility display means 1 According to 24, all equipments are arranged on each screen map so that multiple equipments do not overlap in one screen map.
  • FIGS. 13 to 13 are hierarchical screen maps corresponding to the environment of FIG. 12A.
  • Fig. 13A is the screen map of the innermost part (floor and wall screen map)
  • Fig. 13B is the screen map of one nearer from the back (the floor and wall, and the screen map of the refrigerator with two wastebaskets in addition to the floor).
  • 13C is the screen map of the foreground (screen map of the cupboard in addition to the floor and wall)
  • Fig. 13D is the screen map of the foreground (screen map of the table in addition to the floor and wall). .
  • the equipment does not overlap in each screen map.
  • the display inside the equipment behind the point indicated by the mouse is displayed on another switch-like input device (for example, wheel ⁇ ⁇ mouse wheel or the up and down arrow keys on the keyboard), which is an example of the article operation device 118.
  • the screen map can be selectively changed from the near side or the back side by the in-facility display means 124 under the control of the third control means 120.
  • the in-facility display means 124 under the control of the third control means 120.
  • the in-facility display means 124 can display the contents in a pop-up order in the reverse order with the "down" arrow key.
  • the display in the facility is controlled under the control of the third control means 120. With the means 124, the pop-up display can be erased.
  • the third control means 120 receives the above-mentioned operation instruction from the article operation device 118, generates instruction data, and sends the instruction data to the second transmitting / receiving unit 141 of the robot 102.
  • the transmission is performed via the third transmission / reception unit 142 and the network 98.
  • the instruction data is data from which an action plan of the robot 102 is created by the action plan creation means 117 of the robot 102.
  • This instruction data has the following two values: (article to be operated, destination). For example, when a notebook is moved on a table, "notebook S # 001, table" is the instruction data.
  • As the destination only the location registered in the environment attribute data 601 or the facility attribute data 602 registered in the environment map information database can be designated.
  • the specific coordinates are added to the destination and the specific coordinate values are added to the real world coordinate system (the actual position based on the environment).
  • This is a coordinate system that expresses the coordinates, and may be specified by the coordinate values of the coordinate system shown in Figs. 5A to 5C. For example, when an article is placed on a fixed place on the floor, this is specified as "article, floor (xl, y1, 0)".
  • the coordinate values in the real world coordinate system of the location designated on the display screen are stored in the environment map information database 109, for example, the information of the three-dimensional model version environment map shown in FIG. 5B.
  • the robot 102 which is the fourth subsystem, plays a role of actually holding and carrying articles in the environment in the life support system 100 according to the present embodiment.
  • the mouth pot 102 has, as a basic configuration, an article 400 that detects an obstacle around the mouth bot 102 and grips the object. (For example, an obstacle sensor) that obtains information of the robot, a gripper that grips the article, and a movement that plans the movement of the robot using the environment map information database.
  • the second control means 1 1 6 (article movement control means) for controlling the movement of the mouth bot 102 by controlling the movement plan creating means 1 1 4, the action plan creating means 1 17 and the driving section 1 15 respectively. ).
  • the operation terminal 103 (specifically, the article operating device 118, the third control means 120, and the third transmitting / receiving unit 144) is used.
  • the user issues an instruction, and the instruction data obtained by encoding the instruction content is transmitted to the network.
  • the action plan creation unit 1 17 sends the robot 10 2 itself from the instruction data.
  • a list of robot control commands for action is generated, and the second control means 1 16 of the robot 102 processes the robot control commands in order to perform the gripping and transporting operation of the article 400. Execute.
  • the robot control command referred to here is a command for performing gripping by the robot 102, movement of the robot 102, and control of the facility 104 related to the operation of the robot 102.
  • ⁇ grip When divided, mainly ⁇ grip
  • “Move” is represented by “moVe, coordinate value” or “moVe, equipment ID”.
  • the robot 102 moves from the current position to the position specified by the coordinate value or the device 104 specified by the device ID.
  • the coordinate values are specified in the real world coordinate system, and the movement route is planned by the movement plan creation means 114.
  • the movement plan creating means 114 creates a route that approaches the facility 104 to a predetermined distance.
  • the coordinates of the location of the facility 104 can be obtained by referring to the facility attribute data 602 in the environment map information database 109 via the network 98.
  • “Kibamo” is represented by “grab, article IDJ.
  • the robot 102 grasps the article 400 specified by the article ID.
  • the location of the article 400 is After grasping by referring to the article database 107 described above via the network 98, a grasp plan as an example of the action plan is created by the action plan creating means 117, and based on the created grasp plan, Then, a gripping plan is performed by the gripping units 113 to grip the article 400.
  • Equipment operation is represented by “the robot's own ID, equipment ID, and equipment operation command J.
  • the robot 102 specifies the equipment 104 specified by the equipment ID.
  • the obtained equipment operation command is transmitted via the network 98.
  • the equipment operation command is an operation instruction command received by the individual equipment 104 from the external device, and each equipment 104 is connected to the network 98.
  • the operation instruction command is received via the control instruction unit, a process corresponding to the operation instruction command is performed under the control of the respective control means.
  • a facility operation command is sent to a certain facility 104, the received facility 104 processes the command in accordance with the operation instruction command, and then sends the processing result from the facility 104 to the robot 102 itself. This is to get a reply via 8.
  • the content of this reply allows the robot 102 to check and confirm whether or not the force has been processed by the facility 104 in accordance with the operation instruction command.
  • robot control commands have been described as typical examples. However, the robot control commands are not limited to these four types, and needless to say, may be increased or decreased as needed.
  • FIG. 14 is a schematic diagram showing an example of the robot 102.
  • the direction in which the tip of the arm 102 faces is the front of the mouth pot 102, and the robot
  • Two driving units 1 15 are provided on each side of the pot body 102 A, and a total of four wheels 1 15 A and four wheels 1 15 A or at least two wheels 1 15 on both sides And a driving device such as a motor for driving A.
  • a driving device such as a motor for driving A.
  • an example of wheels is shown as the drive unit 115.
  • an optimum device or mechanism may be selected for the drive unit 115 according to the place or environment where the robot 102 is used. For example, when moving on uneven ground, a crawler-type multi-legged drive may be used.
  • the driving unit 1 15 is not necessarily required when the gripping unit 113 including the arm 201 and the hand 202 is an example of an environment. is not.
  • the sensor 112 detects an obstacle or the like in the vicinity of the robot 102.
  • the sensor 112 functions as an example of the ultrasonic sensor 112a and the visual sensor
  • the robot body 1 It is composed of a stereo camera 111b arranged on the front of 02A, and a collision sensor 112c arranged on the front and back of the robot body 102A.
  • the ultrasonic sensors 111a are attached to the front, back, left, and right sides of the robot main body 102A at three force points each, and measure the time it takes to emit ultrasonic waves and receive the reflected waves. And the distance from the ultrasonic sensor 1 1 2a to the obstacle It calculates the approximate distance.
  • a short-range obstacle is detected before the collision by the ultrasonic sensor 112a.
  • the stereo camera 1 1 2b inputs the surrounding situation as an image, and performs processing such as recognition on the image by the second control means 1 16 so that it can judge the presence or absence of obstacles and more accurately identify the object to be grasped. Information is obtained by the second control means 116.
  • the collision sensor 112c is a sensor that detects that the sensor 112c has an impact with a predetermined force. The collision sensor 112c detects that the robot has come or that the robot 102 itself has hit while moving.
  • the movement plan creating means 114 When receiving the robot control command to move the robot 102 to the designated place, the movement plan creating means 114 sends the movement route from the current position to the designated place via the network 98. It is created using the environment map information database 109 acquired from the environment management server 101. Naturally, if there is an obstacle between the current position and the destination, a route is needed to avoid it. Since the area in which 2 is movable is described in advance, the movement route in that area may be created by the movement plan creating means 114. Once the movement route is created by the movement plan creation means 114, the sensor detects an obstacle after the robot 102 starts to move under the control of the second control means 116. In this case, a new route for avoiding the obstacle is recreated by the movement plan creating means 114 each time. In creating a moving route, the Dijkstra method, which is the most general method, is used.
  • the gripper 113 is a device or mechanism for gripping an article.
  • an arm 201 composed of multiple joints as shown in FIG. 14 and a hand disposed at the tip of the arm 201 are provided. It is composed of 202.
  • the gripper 113 moves the tip of the arm 201 to that position, and performs a gripping operation of the hand 202.
  • the arm control for moving the hand 202 to the gripping position may be performed by the gripper 113.
  • the gripper 113 also performs a release operation of the hand 202 when instructed to release by the robot control command.
  • the second control means 1 16 parses the list of robot control commands sent from the external device via the network 98 and the second transmitting / receiving section 141, and sequentially executes the robot control commands. To go. If the sent robot control command is the above-mentioned instruction data, the contents are converted into action plan creation means 11 1 in order to convert the instruction data into an executable pot control command of the robot 102. 7 and receive the processed result and execute the robot control commands in order.
  • the action plan creating means 1 17 can be operated by the robot by simply performing a simple operation of a user designating an article and moving the designated article to a predetermined place using the article operating device 1 18 of the operation terminal 103. This is a means provided so that a work instruction to 102 can be given. Specifically, when the robot 102 receives the instruction data from the operation terminal 103 via the network 98, the action plan creating means 117 may, if necessary, change the second control means 116. While referring to the robot control command DB (database) 90 connected to the CPU, a list of robot control commands for the mouth pot 102 to execute the continuous operation is generated based on the instruction data.
  • the robot control command DB database
  • the mouth bot control command DB90 a list of robot control commands when the robot 102 performs the equipment operation is stored in advance for each equipment. The reason is as follows.
  • the instruction data contains only two pieces of data, that is, two pieces of data of “article to be operated and destination”. If the target article is in a state where it can be grasped immediately before the mouth pot 102 or the moving place is a spatially open place, the robot control command DB 90 is not particularly necessary. However, in reality, the target article is rarely in front of the robot 102, and usually the mouth pot 102 (or the gripper 113) must move to the vicinity of the article to be operated. No. If the article is inside a facility closed by a door, the door must be opened, the article grasped, and then the door closed. Furthermore, depending on the equipment 104, more complicated processing may be required after storing or installing articles.
  • FIG. 15 is a tabular diagram showing an example of a list of robot control commands stored in the robot control command DB90.
  • the figure includes a table for two different facilities (refrigerator and microwave oven). In the leftmost column of each table, the ID of the facility 104 operated by the robot 102 is described. "Location attribute" in the right column indicates the source or destination,
  • Destination This refers to the case where goods are stored or installed in a certain facility 104, and if necessary, some processing is performed on the goods stored or installed using the various functions of the above-mentioned facility 104. I do.
  • the rightmost column shows the robot control command list corresponding to the location attribute.
  • the “$ object” in the above means that the ID of the article to be operated is included. Information that changes in value depending on the situation is treated as a variable by prefixing a $, and when the article to handle it is specifically determined by the instruction data, a value is set for the variable. I do. By doing so, generality can be given to the robot control commands.
  • the command list of the destination of the microwave oven is "Robot # 0001, Microwav e # ovene # 0001, doro
  • the microwave oven may be provided with a mechanism for recognizing the contents of the article and switching the specific heating method of the “warming” process accordingly.
  • the microwave oven has the functions of "warm” and “thaw” as the detailed functions of the "warm-up”
  • the thing put in the microwave oven can be used for any method, for example, image processing or object.
  • the electronic tag may be recognized by a reader / writer arranged in a microwave oven or its vicinity, or the like, and the “heating of the dish” and the “thawing” may be appropriately switched according to the result.
  • another method may be used for this switching.
  • the microwave oven does not have the recognition function
  • the robot 102 may have the function, and the robot 102 may recognize the contents of the object and send the result to the microwave oven. .
  • Figure 16 shows a screen for confirming the instruction to move the goods.
  • the moving object "pizza”, the moving source “refrigerator”, the moving destination “microwave oven”, and the processing at the moving destination "warm” are displayed by characters.
  • a dotted arrowed curve from the source to the destination is shown. If the source or destination is not equipment, nothing may be displayed. For example, if the pizza is on the floor, the source is not a facility, so it is not displayed, and only the "microwave oven” at the destination need be displayed.
  • this confirmation screen can be displayed in characters such as equipment or goods, Key display may be performed.
  • a correction may be made in this confirmation processing. For example, in the above example, if the item to be moved to the microwave is “frozen meat” instead of “pizza”, then the processing in the microwave should be “thaw” instead of “warm”. As shown in Fig. 15, if the last command in the robot control command sequence at the destination of the microwave oven is only "warm” or "warm #start” as shown in Fig. 15, execute it. Resulting in. Therefore, even if the item put in the microwave is “frozen meat”, the microwave oven “warms” the “frozen meat” if the user does nothing. When such a processing error occurs, it may be corrected by the user before executing the processing.
  • the living support system 100 based on FIG. 1 is composed of four subsystems: an environment management server 101, a robot 102, facilities 104, and an operation terminal 103.
  • the subsystems are configured to exchange information with each other via a wireless or wired network 98.
  • a configuration in which the operation terminal 103 is attached to the environment management server 101, the facility 104, the robot 102, or a plurality of locations thereof may be adopted.
  • the configuration may be such that a plurality of robots 102 work in parallel while cooperating, instead of one robot.
  • FIG. 1 for the sake of simplicity, only one facility 104 is shown.If there are a plurality of facilities, the plurality of facilities 104 are included in the life support system 100. Each is incorporated.
  • the system automatically executes the above operation as it is, for example, just waiting at the table.
  • the user can do other things until the hot pizza comes to his place, for example, sitting at a table, and can use his time more efficiently.
  • a scheduling function for efficiently performing a plurality of processes. For example, when taking out multiple types of articles from a facility and moving them to different locations, only the process of taking out the multiple types of articles is performed at once, and scheduling is performed so that all processes are efficient. May be. For this purpose, it is not necessary to limit the number of arms 201 of the working robot 102 to one, and a multi-arm configuration may be employed so that a plurality of articles can be handled simultaneously at a time.
  • the above-described embodiment and its modified examples can be realized using a computer program.
  • a life support system program that allows a computer to execute the life support system according to the present invention includes a computer program that executes some or all of the operations of the above-described embodiment and its modifications. It is to be noted that, by appropriately combining arbitrary embodiments and modified examples among the various embodiments and modified examples, the effects of the respective embodiments and modified examples can be achieved.
  • the present invention relates to a living support system for managing articles in a living environment such as a house or an office, for example, a living environment, and a control program therefor.
  • a living environment such as a house or an office, for example, a living environment
  • various electronic devices such as a computer and a portable information terminal (such as a mobile phone) are used as an article operation device to instruct an operation on the article, and the article is moved by an article moving device such as a robot based on the instruction.
  • an article moving device such as a robot based on the instruction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

A life supporting system for managing articles in living environment in which articles hidden in a facility (e.g. a refrigerator, a drawer, a closet, a box) can also be operated through an interface means for operating the articles on a screen in conforming with the real situation. The life supporting system (100) comprises a display (119) for displaying the real situation in a room, an article operating unit (118) for specifying an article using the display (119), a means (124) for generating data for displaying the information on articles in the facility (104) on the display (119) based on the information in an article database (107) and an environmental map information data base (109), and a control means (120) for displaying the information on articles hidden in the facility (104) on the display (119) when the facility (104) is specified by the article operating unit (118).

Description

生活支援システム  Life support system

技術分野 Technical field

本発明は、 生活環境例えば居住環境内に存在する物体の一例としての物品を管 理することにより生活支援を行う生活支援システム及ぴ生活支援システム用プロ 明  The present invention relates to a life support system and a life support system that provide life support by managing articles as an example of an object existing in a living environment, for example, a living environment.

グラム並びに生活支援システムの制御方法に係り、 特に、 ユーザによる物品に対 する操作を容易化して生活支援を行う生活支援システム、 及び生活支援システム 用プロダラム並びに生活支援システムの制御方法に関する。 The present invention relates to a control method for a program and a life support system, and more particularly to a life support system that facilitates a user's operation on an article to provide life support, a program for the life support system, and a control method for the life support system.

書 背景技術  Background art

ロボットに物品を移動させて何らかの仕事をさせることは、 実に多くの分野で 行われている。 例えば、 工場での自動製品組み立てラインにおける部品の把持運 搬、 自動化された倉庫での在庫品の運搬 '管理などである。 一方で今日では、 か くのごとく産業用としては成熟してきたロボット技術を生かし、 家庭内で口ポッ トに仕事をさせる試みがなされている。 すなわち、 口ポットが家庭で人間と共存 しながら人間の生活を支援するという壮大な目標に向けて、 家庭向けのロボット の研究開発がさかんに行われるようになつてきた。  Making robots move objects to do some work is done in many fields. For example, gripping and transporting parts on an automated product assembly line at a factory, and transporting and managing inventory in an automated warehouse. On the other hand, today, attempts are being made to make mouth pots work at home by utilizing robot technology that has matured for industrial use. In other words, research and development of robots for home use have been actively pursued with the spectacular goal of the mouth pot supporting human life while coexisting with humans at home.

例えば、 ぺットの飼えない環境でペットのような振る舞いをすることで人の心 を癒すなどのエンタテイメント系の口ポットや、 多数のセンサを備え、 部屋の中 の障害物をセンサで検知してよけながら自動で部屋の中を掃除するなどの、 いわ ゆる家事支援系の口ポットなどが、 実際に開発、 製品化されている。 また要素技 術としては、 様々な家事支援を実際に行うために必要不可欠な技術、 例えば家庭 内の物品を自由に把持し運搬するハンドリング技術、 ロボットが移動する空間内 の様子を認識するセンシング技術なども、 さかんに開発されている。  For example, it has an entertainment-type mouth pot that behaves like a pet in an environment where pets cannot be kept, and heals human hearts, and is equipped with a large number of sensors, and detects obstacles in the room with sensors. So-called housekeeping assistance mouth pots, which automatically clean the inside of the room while receiving light, have been actually developed and commercialized. Elemental technologies include technologies that are indispensable for actually providing various types of housekeeping support, such as handling technology for freely grasping and transporting items in the home, and sensing technology for recognizing the state in the space where robots move. Etc. are being actively developed.

ところが、 前記ハンドリング技術やセンシング技術が成熟したとしても、 それ によつて直ちにロボットによる家事支援が実現できるとは限らない。 なぜならば、 前記技術の他に、 ロボットに簡単に指示を与えるための技術、 すなわちインター フェース技術の開発が必要不可欠だからである。 言い換えると、 ユーザの使い勝 手を良くする技術が必要であるからである。 例えば、 家庭内の物品をある場所か ら別の場所に運んだり、 ゴミを捨てたりという操作を、 簡単に指示できるような 技術である。 However, even if the above-mentioned handling technology and sensing technology have matured, it is not always possible to immediately realize housework support by a robot. because, This is because, in addition to the above-mentioned technologies, a technology for easily giving instructions to the robot, that is, an interface technology must be developed. In other words, it is necessary to have a technology that improves the usability of the user. For example, it is a technology that can easily give instructions to carry home goods from one place to another, or to throw away garbage.

産業用の口ポットの場合、 このような操作指示は比較的簡単である。 例えば、 特開平 7 _ 2 3 7 1 5 9号公報には、 扱う物品を限定し、 その物品をパレツトに 積載する指示を簡単に行う方法が開示されている。 本方法では、 実状況に則した 仮想物品図をモニタに表示し、 ユーザは前記仮想物品図を見ながら指示を行う。 すなわち、 ユーザは、 パレットに直方体形状の物品を積み込む作業手順を、 仮想 物品図上で物品を移動させて位置を入力することで指示する。 このような移動作 業は、 マウスのドラッグとドロップなどの直感操作によって行われる。 前記方法 では、 このような指示作業を繰り返すことで、 パレットへの物品の積載手順が完 成される。  In the case of an industrial mouth pot, such operation instructions are relatively simple. For example, Japanese Patent Application Laid-Open No. 7-237159 discloses a method in which articles to be handled are limited and an instruction to load the articles on a pallet is easily provided. In this method, a virtual article diagram according to the actual situation is displayed on the monitor, and the user gives an instruction while looking at the virtual article diagram. That is, the user instructs the work procedure for loading the rectangular parallelepiped article on the pallet by moving the article on the virtual article diagram and inputting the position. Such a moving operation is performed by intuitive operations such as dragging and dropping a mouse. In the above method, the procedure of loading the articles on the pallet is completed by repeating such an instruction operation.

前記方法を実行するシステムは、 これらの指示作業によって、 全ての物品の移 動前の場所と移動後の場所とを作業情報として順に蓄積していく。 そして、 指示 が終わると、 それぞれの物品についてロボットが移動前の場所に行き、 それを把 持して移動後の場所まで運ぴ、 把持を解放することで設置する。 この物品運搬操 作が全て終わると、 作業が完了する。  The system that executes the above method sequentially accumulates the location before and after the movement of all the articles as work information by these instruction operations. Then, when the instruction is completed, the robot goes to the place before the movement for each article, grasps it, moves to the place after the movement, and releases the grasp to install the article. The work is completed when all the goods transport operations are completed.

したがって、 前記システムでは、 モニタ表示された荷扱い物品の積載状況を見 ながら直感的に荷扱い設定の入力作業を行うことができるため、 操作が簡単にな る。  Therefore, in the above-mentioned system, the input operation of the load handling setting can be intuitively performed while watching the loading status of the load handling articles displayed on the monitor, thereby simplifying the operation.

前記特開平 7— 2 3 7 1 5 9号公報に開示された、 仮想物品図内で荷扱い手順 を設定するという技術は、 家庭用ロボットに対して物品の把持運搬作業を指示す ることにも適用可能である。 例えば、 老人など筋力の低下によって物品の持ち運 びが不自由な人が、 モニタ画面を見ながら屋内の物品の把持移動を行えるような システムに適用できる。  The technique disclosed in the above-mentioned Japanese Patent Application Laid-Open No. Hei 7-23771-59, in which a cargo handling procedure is set in a virtual article diagram, is to instruct a home robot to carry out an operation of holding and transporting an article. Is also applicable. For example, the present invention can be applied to a system in which a person who has difficulty carrying an article due to a decrease in muscular strength, such as an elderly person, can grasp and move an article indoors while watching a monitor screen.

しかしながら、 予め画一的処理が可能なように物品の形状や配置が整えられて いる産業用分野と異なり、 家庭内においては、 物品は必ずしも目に見える位置に 配置されているとは限らない。 具体的には、 家庭内の物品は床やテーブルの上に 配置されているだけではなく、 設備 (冷蔵庫、 引き出し、 押入、 箱等) 内にも配 置されている。 また、 物品が設備の陰に隠れている場合もある。 そのため、 家庭 等の居住環境内において従来技術をそのまま適用することは困難であり、 このよ うな設備内の物品等をもィンターフェース手段を用いて簡単に操作できる技術が 待ち望まれている。 発明の開示 However, unlike the industrial field, in which the shapes and arrangements of the articles are arranged so that uniform processing can be performed in advance, the articles are not always visible at home. It is not always arranged. Specifically, household items are not only placed on the floor and tables, but also in equipment (refrigerators, drawers, closets, boxes, etc.). In some cases, goods are hidden behind equipment. For this reason, it is difficult to apply the conventional technology as it is in a residential environment such as a home, and there is a need for a technology that can easily operate articles and the like in such facilities using interface means. Disclosure of the invention

本発明は、 力かる^に鑑みてなされたものであり、 その目的とするところは、 インターフェース手段を介した操作を、 設備の内部の物品又は設備に遮蔽された 物品に対しても容易に行うことを可能にすることにより生活支援を行う生活支援 システム及び生活支援システム用プロダラム並びに生活支援システムの制御方法 を提供することにある。  SUMMARY OF THE INVENTION The present invention has been made in view of power, and its purpose is to easily perform an operation via an interface unit even on an article inside a facility or an article shielded by a facility. It is an object of the present invention to provide a life support system that provides a life support by enabling the above, a program for the life support system, and a control method of the life support system.

本発明の 1つの態様によれば、 生活環境の実状況を表示する表示装置と、 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力される物品操作装置とを備え、  According to one aspect of the present invention, a display device that displays the actual situation of a living environment, and an article operation device that receives an operation instruction for designating equipment in the living environment on a display on the display device are provided. Prepare,

前記物品操作装置によつて前記設備を指定することにより、 前記生活環境内の 物品の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基 づいて、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示 装置に表示するように制御する制御手段とを備える生活支援システムを提供する。 本発明の別の態様によれば、 生活環境の実状況を表示装置で表示する手順と、 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力されて前記設備が指定されることにより、 前記生活環境内の物品の情報と前記 生活環境内の前記設備及び前記生活環境の空間の構造情報に基づいて、 前記設備 の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示する手 順とをコンピュータに実行させるための生活支援システム用プログラムを提供す る。  By specifying the facility by the article operating device, the interior of the facility is determined based on the information on the article in the living environment and the structural information on the facility in the living environment and the space in the living environment. There is provided a life support system including a control unit that controls information of an article or an article concealed in the facility to be displayed on the display device. According to another aspect of the present invention, a procedure for displaying the actual situation of a living environment on a display device, and an operation instruction for designating a facility in the living environment is input on the display on the display device, and the facility is displayed. By being designated, based on the information of the articles in the living environment and the structural information of the facilities in the living environment and the space in the living environment, the articles inside the facilities or the articles hidden in the facilities are Provided is a life support system program for causing a computer to execute a procedure for displaying information on the display device.

本発明のさらに別の態様によれば、 生活環境の実状況を表示装置により表示し、 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力されることによつて前記設備を指定されることにより、 前記生活環境内の物品 の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基づい て、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置 に表示するように制御する、 生活支援システムの制御方法を提供する。 According to still another aspect of the present invention, an actual situation of a living environment is displayed on a display device, and an operation instruction for designating equipment in the living environment is input on a display on the display device. When the equipment is designated by being pressed, the interior of the equipment is determined based on the information of the articles in the living environment and the structural information of the equipment in the living environment and the space of the living environment. Provided is a control method of a life support system, which controls information of an article or an article hidden in the facility to be displayed on the display device.

前記生活支援システムでは、 ユーザが物品操作装置 (マウス等) を用いて表示 装置の表示 (ディスプレイの画像等) 上で設備 (テーブル、 冷蔵庫、 ゴミ箱等) を指示すると、 表示装置には当該設備の内部の物品又は設備に遮蔽された物品の 情報が表示される。 したがって、 ユーザは表示装置の表示を見ながら、 設備の外 部に存在する物品だけでなく、 設備の内部の物品又は設備に遮蔽された物品の情 報をも得ることができる。 そのため、 不規則又は無秩序に配置された物品に対し ても、 容易に操作を行うことができる。 したがって、 生活環境例えば居住環境内 に存在する様々な物品に対して操作を行うことが可能となる。  In the life support system, when a user instructs equipment (table, refrigerator, trash can, etc.) on a display (image of a display, etc.) of a display device using an article operating device (mouse, etc.), the display device displays the equipment. Information on the items inside or those shielded by equipment is displayed. Therefore, while viewing the display on the display device, the user can obtain information on not only the articles existing outside the facility but also articles inside the facility or articles shielded by the facility. Therefore, it is possible to easily operate even an irregularly or randomly arranged article. Therefore, it becomes possible to perform operations on various articles existing in the living environment, for example, the living environment.

また、 生活支援システム用プログラムを実行することにより、 又は、 生活支援 システムの制御方法によれば、 ユーザは表示装置の表示を見ながら、 設備の外部 に存在する物品だけでなく、 設備の内部の物品又は設備に遮蔽された物品の情報 をも得ることができる。 さらに、 前記設備の内部に隠れた物品の情報及び前記設 備に遮蔽された (設備の陰に隠れた) 物品の情報のいずれか一方が選択的且つ切 替自在に表示されるので、 設備の内部及び設備に遮蔽された部分のいずれにも物 品が存在する場合であっても、 それら物品の情報を別々に表示させることができ る。 したがって、 ユーザは物品の操作を容易に行うことができる。  In addition, according to the life support system program, or according to the control method of the life support system, the user looks at the display on the display device and not only displays the articles outside the facility but also the inside of the facility. Information on goods or goods shielded by equipment can also be obtained. Further, either one of the information on the article hidden inside the equipment and the information on the article shielded (hidden behind the equipment) by the equipment is displayed selectively and switchably, so that Even if there is an article both inside and in a part shielded by equipment, information on those articles can be displayed separately. Therefore, the user can easily operate the article.

本発明によれば、 物品操作装置を用いて表示装置の表示上で設備を指定するだ けの簡単な操作によって、 ユーザは設備の内部の物品又は設備に遮蔽された物品 の情報を得ることができる。 したがって、 設備の外部に存在する物品だけでなく、 設備の内部の物品又は設備に遮蔽された物品の情報も容易に取得することができ るので、 不規則力 無秩序に配置されている物品に対しても、 操作を容易に実行 することが可能となる。 したがって、 物品操作装置 (インターフェース手段) 介して、 生活空間例えば居住空間内の物品の操作を容易に実行することができる。 図面の簡単な説明 本発明のこれらと他の目的と特徴は、 添付された図面についての好ましい実施 形態に関連した次の記述から明らかになる。 この図面においては、 ADVANTAGE OF THE INVENTION According to the present invention, a user can obtain information on an article inside the equipment or an article shielded by the equipment by a simple operation of simply specifying the equipment on the display of the display device using the article operation device. it can. Therefore, it is possible to easily obtain information not only on articles outside the facility but also on articles inside the facility or articles shielded by the facility. However, the operation can be easily performed. Therefore, it is possible to easily operate an article in a living space, for example, a living space via the article operating device (interface means). Brief Description of Drawings These and other objects and features of the present invention will become apparent from the following description in connection with the preferred embodiments of the accompanying drawings. In this drawing,

図 1は、 本発明の第 1実施形態に係る生活支援システムの全体構成を示したブ 口ック図であり、  FIG. 1 is a block diagram showing the overall configuration of the life support system according to the first embodiment of the present invention.

図 2 A、 図 2 B、 図 2 C、 図 2 Dは、 それぞれ、 前記生活支援システムでの背 景差分法を説明するための説明図、 及び図 2 A〜図 2 Cで前記背景差分法で使用 するカメラなどと部屋とを示す説明図であり、  2A, 2B, 2C, and 2D are explanatory diagrams for explaining the background subtraction method in the life support system, and FIGS. 2A to 2C show the background difference method, respectively. FIG. 2 is an explanatory diagram showing a camera and the like used in the room and a room.

図 3 Aは、 前記生活支援システムでの物品データの構成と記載内容例を示した、 片づけ前の状態での概念図であり、 図 3 Bは物品データの構成と記載内容例を示 した、 片づけ後の状態での概念図を示し、  FIG. 3A is a conceptual diagram showing a configuration and description contents of article data in the life support system in a state before clearing, and FIG. 3B is a diagram showing a configuration of the article data and examples of description contents. A conceptual diagram in the state after clearing is shown,

図 4 A、 図 4 Bは、 それぞれ、 前記生活支援システムでのある環境の様子を異 なる 2つの時刻にお 1/ヽて撮影した模式図であり、  FIGS. 4A and 4B are schematic views of the environment of the living support system taken at two different times, respectively.

図 5 Aは、 前記生活支援システムでの環境マップ情報データベースを説明する ための実際の状況の図、 図 5 Bは前記生活支援システムでの環境マップ情報デー タベースを説明するための立体モデルの図、 図 5 Cは前記生活支援システムでの 環境マップ情報データベースを説明するための図 5 Aの平面モデルの図であり、 図 6は、 前記生活支援システムでの環境マップ情報データベースのデータの一 例を示した図であり、  FIG. 5A is a diagram of an actual situation for explaining the environment map information database in the life support system, and FIG. 5B is a diagram of a three-dimensional model for explaining the environment map information database in the life support system. FIG. 5C is a diagram of the plane model of FIG. 5A for explaining the environment map information database in the life support system, and FIG. 6 is an example of data of the environment map information database in the life support system. FIG.

図 7 A、 図 7 Bは、 それぞれ、 前記生活支援システムでの設備と設備属性デー タの一例を示した図であり、  FIGS. 7A and 7B are diagrams showing examples of equipment and equipment attribute data in the life support system, respectively.

図 8は、 前記生活支援システムでの設備操作情報記憶部に記憶されている設備 操作コマンドを表形式で示した図であり、  FIG. 8 is a diagram showing, in a table form, equipment operation commands stored in an equipment operation information storage unit in the life support system,

図 9 Aは前記生活支援システムでの操作画面の例を示す概念図、 図 9 Bは図 9 Aの操作画面に対応した画面マップの例を示す概念図であり、  9A is a conceptual diagram showing an example of an operation screen in the life support system, and FIG. 9B is a conceptual diagram showing an example of a screen map corresponding to the operation screen in FIG. 9A.

図 1 0 A、 図 1 0 B、 図 1 0 C、 図 1 0 D、 図 1 0 Eは、 それぞれ、 前記生活 支援システムでの設備内部に収納されている物品の表示形態の例を示した図であ り、  FIG. 10A, FIG. 10B, FIG. 10C, FIG. 10D, and FIG. 10E respectively show examples of display forms of articles stored inside the equipment in the life support system. FIG.

図 1 1は、 前記生活支援システムでの設備内部の表示形態を切り替える条件と 表示形態との対応を表した図であり、 図 1 2 A、 図 1 2 Bは、 それぞれ、 前記生活支援システムでの設備及びその背 後の設備 ·床面の場所や物品の表示形態の一例を表した図であり、 FIG. 11 is a diagram showing the correspondence between the condition for switching the display mode inside the facility and the display mode in the life support system, FIGS. 12A and 12B are diagrams showing an example of the equipment in the life support system and the equipment behind it, a place on the floor surface, and a display form of articles, respectively.

図 1 3 A、 図 1 3 B、 図 1 3 C、 図 1 3 Dは、 それぞれ、 図 1 2 Aの環境に対 応した階層化画面マップの例を示した概念図であり、  Figures 13A, 13B, 13C, and 13D are conceptual diagrams showing examples of hierarchical screen maps corresponding to the environment of Figure 12A, respectively.

図 1 4は、 前記生活支援システムでの口ポットの構成を示す斜視図であり、 図 1 5は、 前記生活支援システムでのロボット制御コマンドデータベースに記 憶された口ボット制御コマンドのリストの例を示した表形式の図であり、  FIG. 14 is a perspective view showing a configuration of a mouth pot in the life support system. FIG. 15 is an example of a list of mouth bot control commands stored in a robot control command database in the life support system. Is a tabular diagram showing

図 1 6は、 前記生活支援システムでの確認画面の例を示した図であり、 図 1 7は、 ペットボトルの底面に配置された電子タグに書き込まれた情報を、 冷蔵庫のタグリーダにより読み取る状態を示す説明図であり、  Fig. 16 is a diagram showing an example of the confirmation screen in the life support system. Fig. 17 is a state in which the information written on the electronic tag placed on the bottom of the plastic bottle is read by the tag reader of the refrigerator. FIG.

図 1 8は、 設備属性データとして口ポットのロボットアーム及びハンドの動作 プログラムを持たせる場合の説明図であり、  Fig. 18 is an explanatory diagram in the case of having the operation program of the robot arm and the hand of the mouth pot as the equipment attribute data.

図 1 9は、 図 1 8のロポットアーム及ぴハンドの動作プログラムの例を示す図 であり、  FIG. 19 is a diagram showing an example of an operation program of the robot arm and the hand of FIG. 18;

図 2 0は、 物品を設備内に移動するとき、 設備内のどの場所に置くかを説明す るための説明図である。 発明を実施するための最良の形態  FIG. 20 is an explanatory diagram for explaining where in the equipment the article is to be placed when moving into the equipment. BEST MODE FOR CARRYING OUT THE INVENTION

本発明の記述を続ける前に、 添付図面において同じ部品については同じ参照符 号を付している。  Before continuing the description of the present invention, the same parts are denoted by the same reference numerals in the accompanying drawings.

本発明の実施形態を説明する前に、 まず、 本発明の種々の態様について説明す る。  Before describing the embodiments of the present invention, first, various aspects of the present invention will be described.

本発明の第 1態様によれば、 生活環境の実状況を表示する表示装置と、  According to a first aspect of the present invention, a display device that displays the actual situation of a living environment,

. 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力される物品操作装置とを備え、 An article operation device for inputting an operation instruction for designating facilities in the living environment on a display on the display device;

前記物品操作装置によって前記設備を指定することにより、 前記生活環境内の 物品の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基 づいて、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示 装置に表示するように制御する制御手段とを備える生活支援システムを提供する。 本発明の第 2態様によれば、 前記生活環境内の前記物品の情報を記憶する物品 : rータベースと、 By specifying the facility by the article operating device, the article or the article inside the facility can be specified based on the information on the article in the living environment and the structural information of the facility in the living environment and the space in the living environment. There is provided a life support system including control means for controlling information of an article hidden in the facility to be displayed on the display device. According to a second aspect of the present invention, an article storing information of the article in the living environment:

前記生活環境内の前記設備及び前記生活環境内の前記空間の構造情報を記憶す る環境マップ情報データベースとをさらに備え、  An environment map information database that stores structural information of the facilities in the living environment and the space in the living environment;

前記制御手段は、 前記表示装置と前記物品操作装置と前記物品データベースと 前記環境マップ情報データベースとにそれぞれ接続されて、 前記物品操作装置に よって前記設備を指定すると、 前記物品データベース及び前記環境マップ情報デ ータベースを参照して前記生活環境内の物品の情報と前記生活環境内の前記設備 及び前記生活環境の空間の構造情報に基づいて、 前記設備の内部の物品又は前記 設備に隠蔽された物品の情報を前記表示装置に表示するように制御する第 1の態 様に記載の生活支援システムを提供する。  The control means is connected to the display device, the article operation device, the article database, and the environment map information database respectively, and when the equipment is designated by the article operation device, the article database and the environment map information Referring to a database, based on the information of the articles in the living environment and the structural information of the facilities in the living environment and the space of the living environment, the articles in the facilities or the articles hidden in the facilities are determined. A life support system according to the first aspect, wherein information is controlled to be displayed on the display device.

本発明の第 3態様によれば、 前記制御手段は、 前記物品操作装置によって前記 生活環境内の複数の設備のうちの 1つの設備を指定すると、 前記生活環境内の物 品の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基づ いて、 当該設備及びその背後に存在する設備のいずれか 1つを切替自由に選択可 能とし、前記選択された設備の内部の物品又は前記設備に隠蔽された物品の情報 を前記表示装置に表示するように制御する第 1の態様に記載の生活支援システム を提供する。 '  According to a third aspect of the present invention, when the article operating device designates one of a plurality of facilities in the living environment by the article operating device, the control means includes information on goods in the living environment and the living environment. Based on the structural information of the facilities in the environment and the space of the living environment, the facility and any one of the facilities behind it can be freely selected, and the interior of the selected facility can be switched. The life support system according to the first aspect, wherein information of an article or an article hidden in the facility is controlled to be displayed on the display device. '

本発明の第 4態様によれば、 前記制御手段は、 前記物品操作装置によって前記 生活環境内の複数の設備のうちの 1つの設備を指定すると、 前記生活環境内の物 品の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基づ いて、 当該設備及びその背後に存在する設備のいずれか 1つを切替自由に選択可 能とし、 前記選択された設備の内部の物品又は前記設備に隠蔽された物品の情報 を前記表示装置に表示するように制御する第 2の態様に記載の生活支援システム を提供する。  According to a fourth aspect of the present invention, when the control unit specifies one of a plurality of facilities in the living environment by the article operating device, the information on the goods in the living environment and the life Based on the structural information of the facilities in the environment and the space of the living environment, the facility and any one of the facilities behind it can be freely selected, and the interior of the selected facility can be switched. A life support system according to a second aspect, wherein control is performed to display information on an article or an article hidden in the facility on the display device.

本発明の第 5態様によれば、 前記物品の情報を検出するセンシング部と、 前記センシング部の検出結果に基づいて前記物品の情報を更新するデータべ一 ス制御手段と、  According to a fifth aspect of the present invention, a sensing unit for detecting information on the article, a database control unit for updating information on the article based on a detection result of the sensing unit,

をさらに備えている第 1〜 4のいずれか 1つの態様に記載の生活支援システム を提供する。 The life support system according to any one of the first to fourth aspects, further comprising: I will provide a.

本発明の第 6態様によれば、 物品を移動させる物品移動装置と、  According to a sixth aspect of the present invention, an article moving device for moving an article,

前記物品操作装置によつて前記物品と当該物品の移動場所とが指示操作として 入力されると、 前記物品移動装置により前記物品を前記移動場所へ移動させる物 品移動制御手段と、  When the article and the moving location of the article are input as an instruction operation by the article operating device, an article moving control unit that moves the article to the moving location by the article moving apparatus;

を備えている第 1 ~ 4のいずれか 1つの態様に記載の生活支援システムを提供 する。  The life support system according to any one of the first to fourth aspects, comprising:

本発明の第 7態様によれば、 前記物品操作装置は、 前記表示装置の表示上に物 品操作のための力一ソルを表示させ、  According to a seventh aspect of the present invention, the article operating device displays a force sol for operating an item on a display of the display device,

前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を単独 であるいは前記設備の構造情報と共にポップァップリスト形式で表示する第 1〜 4のいずれか 1つの態様に記載の生活支援システムを提供する。  When the cursor is placed on the facility on the display of the display device, the control unit pops up information on an article inside the facility or an article concealed by the facility either alone or together with the structural information of the facility. A life support system according to any one of the first to fourth aspects, wherein the life support system is displayed in an upload list format.

本発明の第 8態様によれば、 前記物品操作装置は、 前記表示装置の表示上に物 品操作のためのカーソルを表示させ、  According to an eighth aspect of the present invention, the article operating device displays a cursor for operating an article on a display of the display device,

前記生活環境内の前記設備の少なくとも 1つには、 前記設備の内部又は前記設 備に隠蔽された領域を撮影する撮影手段が設けられ、  At least one of the facilities in the living environment is provided with photographing means for photographing the inside of the facility or an area concealed by the facility,

前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記撮影手段により撮影されかつ前記設備の内部又は前記設備に隠 蔽された領域の物品の映像を表示するように制御する第 1〜 4のいずれか 1つの 態様に記載の生活支援システムを提供する。  When the cursor is placed on the facility on the display of the display device, the control means displays an image of an article taken by the photographing means and inside the facility or in a region hidden by the facility. The life support system according to any one of the first to fourth aspects of the present invention is provided.

本発明の第 9態様によれば、 前記物品操作装置は、 前記表示装置の表示上に物 品操作のためのカーソルを表示させ、  According to a ninth aspect of the present invention, the article operating device displays a cursor for operating an article on a display of the display device,

前記生活環境内の設備の少なくとも 1つには、 前記設備の内部又は前記設備に 隠蔽された領域を視認自在とする透過装置が設けられ、  At least one of the facilities in the living environment is provided with a transmission device that makes the inside of the facility or an area hidden by the facility visible.

前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記透過装置により、 前記設備の内部の物品又は前記設備に隠蔽さ れた物品を透過表示する第 1〜4のいずれか 1つの態様に記載の生活支援システ ムを提供する。 本発明の第 1◦態様によれば、 前記設備には、 物品の収納又は取り出し動作を 行う収納体を含み、 When the cursor is placed on the facility on the display of the display device, the control means is configured to transparently display an article inside the facility or an article concealed by the facility by the transmission device. 4. The life support system according to any one of the aspects 4 to 4 is provided. According to a first embodiment of the present invention, the facility includes a storage body that performs storage or removal of articles.

前記物品操作装置によつて前記収納体が指定されると、 前記収納体に前記動作 を実行させる制御手段を備えている第 1〜 4のいずれか 1つの態様に記載の生活 支援システムを提供する。  The life support system according to any one of the first to fourth aspects, further comprising control means for causing the storage body to execute the operation when the storage body is designated by the article operating device. .

本発明の第 1 1態様によれば、 前記収納体は、 開閉自在なドアを備え、 前記制御手段は、 前記物品操作装置によって前記収納体が指定されると、 前記 収納体のドアを開放又は閉鎖する第 1 0の態様に記載の生活支援システムを提供 する。  According to the eleventh aspect of the present invention, the storage body includes a door that can be opened and closed, and the control unit opens or closes the door of the storage body when the storage body is designated by the article operating device. A life support system according to a tenth aspect, wherein the life support system is closed.

本発明の第 1 2態様によれば、 前記設備の属性、 前記物品の属性、 ユーザの属 性、 及び操作内容の少なくとも 1つに基づいて、 複数の表示形態から 1つを選択 し前記物品情報を前記表示装置に表示する設備内表示手段をさらに備えるように 制御する第 1〜 4のいずれか 1つの態様に記載の生活支援システムを提供する。 本発明の第 1 3態様によれば、 生活環境の実状況を表示装置で表示する手順と、 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力されて前記設備が指定されることにより、 前記生活環境内の物品の情報と前記 生活環境内の前記設備及び前記生活環境の空間の構造情報に基づいて、 前記設備 の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示する手 順とをコンピュータに実行させるための生活支援システム用プログラムを提供す る。  According to the 12th aspect of the present invention, one of a plurality of display forms is selected based on at least one of the attribute of the facility, the attribute of the article, the attribute of the user, and the operation content, and the article information is selected. The life support system according to any one of the first to fourth aspects, wherein control is performed so as to further include an in-facility display means for displaying on the display device. According to the thirteenth aspect of the present invention, a procedure for displaying the actual situation of a living environment on a display device, and an operation instruction for designating a facility in the living environment on a display on the display device is input to the facility. Is designated, based on the information on the articles in the living environment and the structural information on the facilities in the living environment and the space in the living environment, the articles inside the facilities or the articles hidden in the facilities. And a procedure for displaying information on the display device by a computer.

本発明の第 1 4態様によれば、 さらに、 前記生活環境内の複数の設備のうちの 1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境内の前記 設備及び前記生活環境の空間の構造情報に基づいて、 当該設備及びその背後に存 在する設備のいずれか 1つを切替自由に選択可能とし、 前記選択された設備の内 部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示するように 制御する手順をさらに備える、 第 1 3の態様に記載の生活支援システム用プログ ラムを提供する。  According to the fifteenth aspect of the present invention, further, when one of a plurality of facilities in the living environment is designated, information on articles in the living environment, the facilities in the living environment, and the living Based on the structural information of the environment space, the facility and any one of the facilities behind it can be switched freely and can be selected and hidden in the article inside the selected facility or the facility The life support system program according to the thirteenth aspect, further comprising a procedure of controlling information of an article to be displayed on the display device.

本発明の第 1 5態様によれば、 生活環境の実状況を表示装置により表示し、 前記表示装置における表示上で前記生活環境内の設備を指定する操作指示が入 力されることによって前記設備を指定されることにより、 前記生活環境内の物品 の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情報に基づい て、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置 に表示するように制御する、 生活支援システムの制御方法を提供する。 According to the fifteenth aspect of the present invention, the actual situation of the living environment is displayed on a display device, and an operation instruction for designating facilities in the living environment is input on the display of the display device. By specifying the equipment by being forced, based on the information of the goods in the living environment and the structural information of the equipment in the living environment and the space of the living environment, the goods or Provided is a control method for a life support system, which controls information of articles hidden in the facility to be displayed on the display device.

本発明の第 1 6態様によれば、 さらに、 前記生活環境内の複数の設備のうちの According to the sixteenth aspect of the present invention, further, among the plurality of facilities in the living environment,

1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境内の前記 設備及び前記生活環境の空間の構造情報に基づいて、 当該設備及びその背後に存 在する設備のいずれか 1つを切替自由に選択可能とし、 前記選択された設備の内 部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示するように 制御することをさらに備える、 第 1 5の態様に記載の生活支援システムの制御方 法を提供する。 When one facility is designated, any one of the facility and the facility located behind it is determined based on the information on the goods in the living environment and the structural information on the facilities and the space in the living environment in the living environment. 15th mode, further comprising the step of: controlling the display device to freely select one of them and displaying information of an article inside the selected facility or an article concealed by the facility on the display device. The control method of the life support system described in (1) is provided.

以下、 本発明の実施形態を図面に基づいて詳細に説明する。  Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、 本実施形態に係る生活支援システムの全体構成について説明し、 続いて、 生活支援システム (具体的には物品管理システム) の動作を具体例と共に説明す る。  First, the overall configuration of the life support system according to the present embodiment will be described, and then the operation of the life support system (specifically, the article management system) will be described along with specific examples.

一生活支援システムの全体構成一  Overall configuration of one life support system 1

図 1は、 本実施形態における生活支援システム 1 0 0の全体構成の例を示した ブロック図である。 生活支援システム 1 0 0は、 大きく分けて 4つのサブシステ ム、 すなわち環境管理サーバ 1 0 1 (以下、 単にサーバと称することもある) と、 生活環境内での物体の一例としての物品を移動させる物品移動装置の一例として のロボット 1 0 2と、 操作端末 1 0 3と、 設備 1 0 4とより構成される。  FIG. 1 is a block diagram showing an example of the overall configuration of the life support system 100 in the present embodiment. The life support system 100 is roughly divided into four subsystems, namely, an environmental management server 101 (hereinafter sometimes simply referred to as a server) and an article as an example of an object in a living environment. It is composed of a robot 102 as an example of an article moving device, an operation terminal 103, and equipment 104.

以下では、 環境管理サーバ 1 0 1、 設備 1 0 4、 操作端末 1 0 3、 ロボット 1 0 2の順に、 それぞれのサブシステムの構成及び動作を説明することとする。  In the following, the configuration and operation of each subsystem will be described in the order of the environmental management server 101, equipment 104, operation terminal 103, and robot 102.

一環境管理サーバー  Environmental management server

1番目のサブシステムである環境管理サーバ 1 0 1は、 生活環境例えば居住環 境 (以下、 単に環境という) 内の状況を把握する第 1センシング部 1 0 5と、 第 1センシング部 1 0 5に接続されて把握した状況に基づいて環境内に存在する物 体例えば物品及び移動体 (例えば人や口ポット等) の管理や検索を行う物品検 索■管理手段 1 0 6と、 物品検索 ·管理手段 1 0 6と接続されて物品及び移動体 の管理や検索のためのデータを記憶する物品データベース 1 0 7と、 第 1センシ ング部 1 0 5に接続されて物品以外の環境全体の情報を記憶する環境マップ情報 管理手段 1 0 8と、 環境マップ情報管理手段 1 0 8に接続されて環境全体の情報 の管理のためのデータを記憶する環境マップ情報データベース 1 0 9と、 物品デ ータベース 1 0 7や環境マップ情報データベース 1 0 9等に格納されたデータに 関する問い合わせを外部から受け、 また、 それに応えて外部に情報を発信等する 第 1送受 部 1 1 0と、 物品検索 ·管理手段 1 0 6と環境マップ情報管理手段 1 0 8と第 1送受信部 1 1 0とをそれぞれ制御して、 例えば、 物品データベース 1 0 7や環境マップ情報データベース 1 0 9等に格納されたデータに関する問い合 わせを外部から第 1送受信部 1 1 0が受けたとき、 所定の動作制御を行うととも に、 前記所定の動作制御の結果に基づき第 1送受信部 1 1 0から外部に情報を発 信等するように動作制御する第 1制御手段 1 1 1とを備えている。 なお、 後述す るように、 9 9はユーザによる手入力可能なキーボード、 マウス、 タツチパネル などの入力装置であり、 物品検索 ·管理手段 1 0 6と環境マップ情報管理手段 1 0 8とに接続されて、 手入力された情報に基づいて、 物品データベース 1 0 7に 格納された情報である環境内に存在する物体例えば物品及び移動体の管理や検索 を行うとともに、 物品以外の環境全体の情報を管理することができるようにして いる。 The environmental management server 101, which is the first subsystem, includes a first sensing unit 105 for grasping a situation in a living environment, for example, a living environment (hereinafter, simply referred to as an environment), and a first sensing unit 105. An article search / management means 106 for managing and searching for objects such as articles and moving objects (for example, people and mouth pots) existing in the environment based on the situation grasped by being connected to the Articles and moving objects connected to the management means 106 An article database 107 for storing data for management and search of the environment, and an environment map information managing means 108 connected to the first sensing section 105 for storing information on the entire environment other than the articles. An environment map information database 109 connected to the environment map information management means 108 and storing data for managing information of the entire environment, an article database 107 and an environment map information database 109, etc. 1st sending and receiving unit 110, which receives inquiries about stored data from the outside and sends information to the outside in response to it, etc., article search and management means 106, and environment map information management means 108 And the first transmission / reception unit 110, respectively. For example, an inquiry about data stored in the article database 107, the environment map information database 109, or the like is externally sent to the first transmission / reception unit 110. Received A first control means for performing predetermined operation control and performing operation control so as to transmit information from the first transmission / reception unit 110 to the outside based on a result of the predetermined operation control. It has. As will be described later, reference numeral 99 denotes an input device such as a keyboard, a mouse, and a touch panel that can be manually input by a user, and is connected to the article search / management means 106 and the environment map information management means 108. Based on the manually input information, the system manages and searches for objects, such as articles and moving objects, existing in the environment, which are information stored in the article database 107, and obtains information on the entire environment other than the articles. So that they can be managed.

なお、 本実施形態における居住環境とは、 例えば家屋やオフィスなど、 人と物 品とが相互に関わり合いをもつて存在し合う環境を意味する。  Note that the living environment in the present embodiment means an environment in which people and goods exist with mutual relations, such as a house and an office.

環境マップ情報は、 環境の一例としての部屋 (壁、 床、 天井により形成される 「空間」 ) の構造情報や、 その部屋内に配置されている家具及び大型家電 (冷蔵 庫、 電子レンジ、 洗濯機、 食器洗い乾燥機等の 「設備」 1 0 4 ) などの構造情報 より構成されており、 空間や設備 1 0 4にそれぞれ付随するものである。 構造情 報とは、 少なくとも空間の内部及びその上部や設備の内部及ぴその上部に存在す る、 他の物体 (物品と呼ぶ) を設置可能な面 (例えば、 部屋であれば床、 設備で あれば棚) の領域情報 (例えば、 その面の外接多角形の頂点の位置座標情報な ど) を意味する。 領域情報は、 座標系の情報と、 形状などによる表示情報などに より表される領域の情報を意味する。 なお、 小型の箱は物品であり、 その他の物 品を収納又は設置可能であるため、 設備に準ずるものとして扱うこともできる。 以下、 環境管理サーバ 1 0 1の各構成要素について順に説明する。 Environmental map information includes structural information on a room (a “space” formed by walls, floors, and ceilings) as an example of the environment, and furniture and large appliances (refrigerators, microwave ovens, It consists of structural information such as “equipment” 104) such as machines and dishwashers, and is attached to the space and equipment 104, respectively. Structural information is defined as a surface on which other objects (referred to as articles) can be installed at least inside the space and above it, inside the equipment and above it (for example, on the floor and equipment in a room). Means the area information (for example, the position coordinates of the vertices of the circumscribed polygon on the surface). The area information means information on an area represented by coordinate system information and display information based on a shape or the like. In addition, a small box is an article. Since the product can be stored or installed, it can be treated as equivalent to the equipment. Hereinafter, each component of the environment management server 101 will be described in order.

<第 1センシング部 >  <First sensing part>

第 1センシング部 1 0 5は、 前記環境の一例としての操作環境内 (例えば家屋 やオフィス、 店舗など) に存在するすべての監視対象物、 すなわち物品、 家具、 環境内に存在する人、 ロボット 1 0 2等の位置や状態を常に監視するものである。 また、 第 1センシング部 1 0 5は、 新たな物品が人やロボット 1 0 2等によって 環境内に新たに持ち込まれた場合には、 それも検出する。  The first sensing unit 105 includes all monitored objects existing in an operation environment (for example, a house, an office, a store, and the like) as an example of the environment, that is, articles, furniture, people existing in the environment, and a robot 1. It constantly monitors the position and state of 02 and the like. In addition, the first sensing unit 105 detects when a new article is newly brought into the environment by a human, a robot 102, or the like.

第 1センシング部 1 0 5の具体的構成は特に限定されないが、 例えば、 画像セ ンサを用いる装置や電子タグを用いる装置などを好適に利用することができる。 ここでは、 物品や移動体を検出する装置及び方法の具体例として、 画像センサを 使う装置及び方法と電子タグを使う装置及び方法とを説明する。  Although the specific configuration of the first sensing unit 105 is not particularly limited, for example, a device using an image sensor, a device using an electronic tag, and the like can be suitably used. Here, a device and a method using an image sensor and a device and a method using an electronic tag will be described as specific examples of the device and the method for detecting an article or a moving object.

まず、 画像センサを用いる方法について説明する。 ここで用いる画像センサの 種類は特に限定されないが、 屋内のような広い範囲を少ない設備で効率良く監視 するものとして、 撮影手段の一例としてのカメラ (画像センサ) 1 0 5 Aを好適 に用いることができる。 すなわち、 図 2 Dに示されるように、 カメラ 1 0 5 Aを 屋内の部屋 1 0 4 Zの天井や壁などに固定して設置し、 それらの撮影画像を使つ て、 物品の検出などを行ってもよい。  First, a method using an image sensor will be described. The type of image sensor used here is not particularly limited, but a camera (image sensor) 105 A as an example of a photographing means is preferably used for efficiently monitoring a wide area such as indoors with a small facility. Can be. That is, as shown in Fig. 2D, the camera 105A is fixedly installed on the ceiling or wall of the indoor room 104Z, and the captured images are used to detect objects. May go.

環境内に設置されたカメラ 1 0 5 Aの画像を用いて物品を検出する一般的な方 法として、 背景差分法が知られている。 背景差分法とは、 あらかじめ背景として のモデル画像を用意しておき、 現在の入力画像と前記モデル画像との差分を取る ことにより、 対象物を画像から得る方法である。 本実施形態に係る第 1センシン グ部 1 0 5では、 環境内の物品や移動体を検出及ぴ監視することを目的としてい る。 そのため、 モデル画像として、 例えば環境変動が無い場合は、 環境内に物品 等の全く存在しない一枚の画像を使うことができる。 一方、 環境変動が激しい場 合は、 ある時間に連続して撮影された画像を平均して得られた画像を使っても良 い。  As a general method for detecting an article using an image of a camera 105A installed in an environment, a background subtraction method is known. The background subtraction method is a method in which a model image as a background is prepared in advance, and a difference between a current input image and the model image is obtained to obtain an object from the image. The first sensing section 105 according to the present embodiment aims to detect and monitor articles and moving objects in the environment. Therefore, if there is no environmental change, for example, a single image in which there is no article or the like in the environment can be used as the model image. On the other hand, if the environment fluctuates greatly, an image obtained by averaging images taken continuously over a certain period of time may be used.

図 2 A〜図 2 Dは背景差分法を具体的に説明するための捕助図であり、 図 2 B は前記モデル画像の例を示した図である。 図 2 Aは、 図 2 Bの画像を撮影した力 メラ 1 0 5 Aと同じカメラ 1 0 5 Aを用いて撮影されたある時点における入力画 像を示した図であり、 図 2 Cは、 図 2 Aの入力画像から図 2 Bのモデル画像を差 し引いて得られた背景差分画像の例を示した図である。 図 2 Cから分かるように、 入力画像とモデル画像とで差のある部分のみが、 背景差分画像において浮き出て くる。 このように、 背景差分法では、 背景差分画像で浮き出てきた部分のみをそ れぞれ取り出すことにより、 環境内の物品を検出することができる。 図 2 Dは前 記背景差分法で使用するカメラ 1 0 5 Aを含む第 1センシング部 1 0 5と部屋 1 0 4 Zとの関係を示す説明図である。 なお、 使用するカメラの台数は 1台でもよ いが、 2又は 3台以上のカメラを用いれば、 ステレオ視による三次元計測技術を 用いて物品の形状及び姿勢情報も取得することが可能となる。 2A to 2D are assistance diagrams for specifically explaining the background subtraction method, and FIG. 2B is a diagram illustrating an example of the model image. Figure 2A shows the force that captured the image in Figure 2B FIG. 2C is a diagram showing an input image taken at a certain point in time using the same camera 105A as the camera 105A, and FIG. 2C shows the model image of FIG. 2B from the input image of FIG. 2A. FIG. 9 is a diagram showing an example of a background difference image obtained by subtraction. As can be seen from FIG. 2C, only the part having a difference between the input image and the model image emerges in the background difference image. As described above, in the background subtraction method, it is possible to detect articles in the environment by extracting only the portions that emerge from the background difference image. FIG. 2D is an explanatory diagram showing a relationship between the first sensing unit 105 including the camera 105A used in the background subtraction method and the room 104Z. The number of cameras used may be one, but if two or more cameras are used, it is possible to acquire the shape and posture information of the article using stereoscopic three-dimensional measurement technology. .

よって、 この例では、 前記第 1センシング部 1 0 5は、 カメラ (画像センサ) 1 0 5 Aと、 カメラ 1 0 5 Aに接続されて前記背景差分法を実施可能でかつ演算 結果を物品検索 ·管理手段 1 0 6と環境マップ情報管理手段 1 0 8とに出力可能 な演算部 1 0 5 Bとを備えて構成している。  Therefore, in this example, the first sensing unit 105 is connected to a camera (image sensor) 105 A and a camera 105 A so that the background subtraction method can be performed and the operation result is searched for an article. · It has an arithmetic unit 105B that can be output to the management means 106 and the environment map information management means 108.

次に、 電子タグを用いた物品の検出方法について説明する。 近年、 電子タグを 用いて物品や移動体の位置を検出する方法が開発されている。 本実施形態では、 それら方法のほとんどすべてを応用することができ、 例えば、 特開 2 0 0 0— 3 5 7 2 5 1号公報に開示された技術を利用することができる。 具体的には、 部屋 内に取り付けた 3つのタグリーダを用レ、、 物品に取り付けられた電子タグ (同一 の物品 I Dを持つ) の電波強度から 3点測量の方法を用いて、 物品の位置及び I Dを検出することができる。  Next, a method for detecting an article using an electronic tag will be described. In recent years, methods for detecting the position of an article or a moving object using an electronic tag have been developed. In the present embodiment, almost all of these methods can be applied, and for example, the technology disclosed in Japanese Patent Application Laid-Open No. 2000-35702 can be used. Specifically, using the three tag readers installed in the room, the position of the article and the location of the article using the three-point survey method based on the radio wave intensity of the RFID tag (with the same article ID) attached to the article ID can be detected.

ここで電子タグ 8 0とは、 図 1 7に示されるように、 データを蓄える I C 8 0 Aと、 データを無線で送信できるアンテナ 8 0 Bとより構成されるデバイスであ り、 リーダライタと呼ばれる装置 8 1によって電子タグ 8 0の I C 8 O Aに情報 を書き込んだり、 I C 8 O Aに書き込まれた情報を読みとつたりすることができ る。 図 1 7では、 ぺットボトル 8 2の底面 8 2 Aに電子タグ 8 0が配置されてお り、 冷蔵庫 1 0 4 Bのリーダライタ (タグリーダの一例) 8 1により、 電子タグ 8 0の I C 8 O Aに書き込まれた情報を読み取る状態を示している。  Here, the electronic tag 80 is, as shown in FIG. 17, a device composed of an IC 80A for storing data and an antenna 80B for transmitting data wirelessly. By using the device 81, information can be written to the IC 80A of the electronic tag 80, and information written to the IC 80A can be read. In FIG. 17, an electronic tag 80 is arranged on the bottom surface 82 A of the pet bottle 82, and a reader / writer (an example of a tag reader) 81 of the refrigerator 104 B uses an IC 8 of the electronic tag 80. This shows a state in which information written in the OA is read.

電子タグの I C 8 O Aには、 物品を特徴づける属性データ、 すなわち物品の種 類、 製造年月日、 形状、 重さ、 物品画像などのデータを記憶させることが可能で ある。 このようなデータを電子タグの I C 8 O Aに記憶させ、 そのデータを参照 自在にすることにより、 より高度な物品管理が可能となる。 そうすれば、 例えば、 形状及び重さを物品の把持や設置に際して利用したり、 製造年月日を品質期限の 管理に用いたり、 物品の種類を捜し物の検索に用いることが可能になる等、 ユー ザに大きなメリットをもたらすことになる。 また、 電子タグの I C 8 O A自体に は業界で規格化された商品コード (バーコードと同様) だけを記憶させておき、 商品コードと前記属性データを関連づけた外部のサーバーや、 インターネットな どの通信手段を用いて製造元にその物品の前記属性データを問い合わせるよう構 成してもよい。 さらに、 電子タグの I C 8 O Aには過去の位置 (その他属性デー タの) 履歴を持たせておき、 時刻 '位置、 その他の属性データを用いて過去に存 在した物品を調べることも可能である。 The tag's IC 8 OA contains attribute data that characterizes the item, that is, the type of the item. It is possible to store data such as type, date of manufacture, shape, weight, and product image. By storing such data in the IC tag OA of the electronic tag and making the data freely accessible, more advanced article management becomes possible. By doing so, for example, the shape and weight can be used for gripping and installing articles, the date of manufacture can be used for quality control, and the type of article can be used for searching for items. This will bring great benefits to users. Also, only the product code (similar to a barcode) standardized in the industry is stored in the IC 8 OA itself of the electronic tag, and communication between the product code and the attribute data, such as an external server or the Internet, is stored. It may be configured to use a means to inquire the manufacturer of the attribute data of the article. In addition, it is also possible to keep a history of past positions (other attribute data) in the IC 8 OA of electronic tags, and use the time and position and other attribute data to check for existing items in the past. is there.

よって、 この例では、 前記第 1センシング部 1 0 5は、 図 1 7に示されるよう に、 I C 8 O Aとアンテナ 8 O Bとより構成される電子タグ 8 0と、 電子タグ 8 0と無線接続可能でかつ物品検索 ·管理手段 1 0 6と環境マップ情報管理手段 1 Therefore, in this example, as shown in FIG. 17, the first sensing unit 105 is connected to the electronic tag 80 including the IC 8 OA and the antenna 8 OB, and to the wireless connection with the electronic tag 80. Possible and article search · Management means 106 and environmental map information management means 1

0 8とに出力可能なリーダライタ 8 1とを備えて構成している。 08 and a reader / writer 81 capable of outputting the same.

以上、 センシング技術の具体例として、 カメラ及び電子タグをそれぞれ用いた 物品及び移動体の検出方法をそれぞれ説明したが、 第 1センシング部 1 0 5は、 もちろんこれ以外の方法を用レ、るものであってもかまわない。 前記第 1センシン グ部 1 0 5は、 カメラ、 電子タグ及びその他のセンサのうち少なくとも 1つ以上 を含むものとする。  As described above, the method of detecting an article and a moving object using a camera and an electronic tag, respectively, has been described as specific examples of the sensing technology. However, the first sensing unit 105 may, of course, use other methods. It may be. The first sensing unit 105 includes at least one of a camera, an electronic tag, and other sensors.

なお、 第 1センシング部 1 0 5によつて新たな物品や移動体が検出されると、 その情報 (例えば新たな物品や移動体の属性データ) は、 後述の物品検索 ·管理 手段 1 0 6 (データベース制御手段の一例) を介して物品データベース 1 0 7に 登録 ·更新される。  When a new article or a moving object is detected by the first sensing unit 105, the information (for example, attribute data of the new article or the moving object) is stored in an article search / management unit 106 described later. (Example of database control means) Registered / updated in the article database 107 via.

く物品データベース >  Ku Articles Database>

物品データベース 1 0 7は、 どのような物品 (設備も含む) 1 いつ、 どの場 所に置かれたか等のデータを蓄えておくデータベースである。 以下、 図面を用い てその詳細を説明する。 図 3 A及び図 3 Bは、 物品データベース 107のデータの構成例と記載内容例 とを示した概念図である。 図 3 Bは図 3 Aから一定時間経過したのちの物品デー タベースの内容である。 The goods database 107 is a database that stores data such as what kind of goods (including equipment), when, and where. The details will be described below with reference to the drawings. FIG. 3A and FIG. 3B are conceptual diagrams showing an example of the data structure of the article database 107 and an example of the description. Fig. 3B shows the contents of the article database after a certain time has elapsed since Fig. 3A.

本実施形態においては、 物品データベース 107を構成する個々の物品データ は、 以下に説明する 6つの属性、 1) 物品 ID、 2) 物品名称、 3) 主に使用す る人 (持ち主) 、 4) 時刻、 5) 場所、 6) 物品画像を持つ。  In the present embodiment, each item data constituting the item database 107 has the following six attributes: 1) item ID, 2) item name, 3) person mainly used (owner), 4) Time, 5) Location, 6) Item image.

1) 物品 ID:個々の物品を区別するための I Dである。 種類の同じ物品であ つても物理的に別の存在であれば、 それらを別の物品として扱う必要がある。 そ のため、 同種の物品であっても、 異なる I Dが割り当てられる。 例えば、 ペット ボトルが 2本ある場合には、 「D#0001」 と 「D#0002」 との 2つの物 品 I Dがそれぞれに付けられる。  1) Article ID: ID for distinguishing individual articles. If the same kind of goods are physically different, they need to be treated as different goods. Therefore, different IDs are assigned to the same kind of goods. For example, if there are two PET bottles, two goods IDs “D # 0001” and “D # 0002” are attached to each.

2 ) 物品名称:当該物品の種類を表す名称である。 前記物品 I Dとは異なり、 種類が同一であれば、 名称は同一となる。 例えば、 ペットボトルやピザなどであ る。  2) Article name: Name indicating the type of the article. Unlike the article ID, if the type is the same, the name will be the same. For example, plastic bottles and pizza.

3) 主に使用する人 (持ち主) :当該物品を主に使用する人、 あるいは持ち主 のことであり、 これを列挙しておく。 これにより、 利用者に応じて使用する物品 を優先的に表示することが可能となる。 例えば、 父、 母、 子供などである。  3) Person who mainly uses (owner): The person who mainly uses the product or the owner, and this is listed. This makes it possible to preferentially display goods to be used according to the user. For example, father, mother, child.

4) 時刻:当該物品が最も最近に操作 (使用又は移動など) された時刻のこと である。 例えば、 「2002/10/10 10 : 00」 は、 2002年 10月 10日の午前 10時を意味する。  4) Time: The time when the item was most recently operated (used or moved). For example, "2002/10/10 10:00" means 10:00 am on October 10, 2002.

5) 場所:当該物品が最も最近に操作 (使用又は移動など) されたときに、 当 該物品が移動した場所のことである。 場所については、 後述する環境マップ情報 データベース 109に登録されている環境属性データ 601又は設備属性データ 602の I D番号で指定される (図 6参照) 。 また、 ID番号だけでは空間的位 置が特定しにくい、 又はできない物品については、 その物品の座標値を設定する。 例えば、 場所が 「冷蔵室」 や 「冷凍室」 となっていれば、 それだけで当該物品が それらの中に存在するということが特定できるため、 座標値は指定しない (例え ば、 「冷蔵室」 は 「Co l d— r o om#0001」 とし、 「冷凍室」 は 「F r e e z e r #0001」 とするなど。 ) 。 一方、 「床」 「i 1 o o r # 000 1」 のように、 指定された場所が広い範囲に渡り、 場所名だけでは具体的な物品 の存在位置が特定できない場合は、 前記位置を特定するための座標値を付与する (例えば、 ぺットポトノレ 「D #0001」 については 「f l o o r #0001 (X 1, y 1 , 0) 」 、 ピザ 「F# 0001」 については 「f l o o r #000 1 (x 2, y 2, 0) 」 など) 。 物品の存在場所ィ直の初期設定及び移動した場合 の更新や付加情報としての前記座標値の付与は、 前記第 1センシング部 105の 演算部 105 Bによって自動的に行われることが好ましい。 しかしながら、 人手 で行っても構わないことは勿論である。 物品の場所を示す際に座標値を付与する か否かの判断は、 前記物品を把持運搬するロボット 102の性能によって決めれ ばよい。 もしロボット 102の性能が非常に低く、 例えば、 冷蔵室内にある物品 を把持する場合でもその物品の正確な位置座標値が必要であれば、 冷蔵室内の物 品の場所 (座標値) を付与するようにしてもよい。 5) Location: The place where the article moved when it was most recently operated (used or moved). The location is specified by the ID number of the environment attribute data 601 or the facility attribute data 602 registered in the environment map information database 109 described later (see FIG. 6). Also, for items whose spatial position is difficult or impossible to identify using only the ID number, the coordinate value of the item is set. For example, if the location is “refrigerated room” or “freezer room”, it is possible to specify that the article exists in them alone, so no coordinate value is specified (for example, “refrigerated room” Is “Cold—room # 0001”, and “Freezer” is “Freezer # 0001”.) On the other hand, "floor""i 1 oor # 000 If the specified location covers a wide area as in `` 1 '' and the location of the specific article cannot be specified by the location name alone, the coordinate value for specifying the location is assigned (for example, For "D # 0001", "floor # 0001 (X1, y1, 0)", for pizza "F # 0001", "floor # 0001 (x2, y2, 0)", etc.). It is preferable that the initial setting of the location of the article, the update when the article moves, and the provision of the coordinate value as additional information are automatically performed by the calculation section 105B of the first sensing section 105. However, it goes without saying that it may be done manually. The determination as to whether or not to provide a coordinate value when indicating the location of the article may be determined based on the performance of the robot 102 that grips and transports the article. If the performance of the robot 102 is very low, for example, when grasping an article in the refrigerator compartment, if the exact position coordinate value of the article is required, the location (coordinate value) of the article in the refrigerator compartment is given. You may do so.

6) 物品画像:当該物品の画像のことである。  6) Article image: An image of the article.

ここでは、 各物品の特徴を区別するために 6つの属性を持たせた例を示したが、 もちろん必要に応じてそれ以外の属性を持たせてもよい。 例えば、 物品の 3次元 形状、 物品の正確な位置 '姿勢のデータ (図示せず) などを属性として付与して もよい。 このような属性を付与することにより、 ロボット 102の物品把持をよ り容易に行うことができる。 また、 時刻 '場所'物品画像は時刻毎に記録し、 履 歴として保持することも可能である。 これにより、 過去のある時点での物品の位 置を指示したり、 画像を表示することが可能となる。  Here, an example is shown in which six attributes are provided to distinguish the characteristics of each article, but other attributes may be provided as necessary. For example, attributes such as the three-dimensional shape of the article and the exact position / posture data (not shown) of the article may be added. By providing such an attribute, the robot 102 can more easily grip the article. In addition, the time “place” article image can be recorded for each time and stored as a history. As a result, it is possible to instruct the position of an article at a certain point in the past or to display an image.

ここで、 少なくとも必要な物品属性は、 物品 I D、 時間 (時刻) 、 位置 (場 所) であるとするのが好ましい。 物品 IDが分かれば、 インターネットを用いて 製造者にその他の属性を問い合わせることが可能だからである。 「持ち主」 の属 性はあるのが望ましいが、 用途によっては必ずしも必要ではない。  Here, it is preferable that at least necessary article attributes are article ID, time (time), and position (location). Once the product ID is known, the manufacturer can be queried for other attributes using the Internet. It is desirable to have the “owner” attribute, but it is not necessary for some applications.

さらに、 他の属性としては次のようなものがある。  In addition, other attributes include:

7) 設備属性データ:物品が設備であった場合の構造情報:これについては、 環境マップ情報データベース 109のところで設備属性データとして後述する。 次に、 物品データベース 107の内容と実際の状況とを対比させながら、 デー タの内容が時間の経過に伴って変更されていく様子を説明する。 図 4 A及び図 4 Bは、 ある環境 (一例として 1つの部屋 104Z) の様子を異 なる 2つの時刻において撮影した模式図である。 こで'は、 図 4 A及び図 4 Bが それぞれ図 3 A及び図 3 Bに対応しているものとする。 すなわち、 それぞれの時 刻における前記環境の一例である部屋 104 Zに存在する物品データを格納した データベースが、 それぞれ図 3 A及び図 3 Bのデータベースと一致しているもの とする。 それぞれの図において、 104 Aはテーブル、 104 Bは冷蔵庫、 10 4 Cは冷凍室、 104 Dは冷蔵室、 104 Eは電子レンジ、 104 Fはくずかご、 104Gはリサイクル用ゴミ箱、 104Hは床、 104 Jは壁、 104 Kは天井、 104 Lはドア、 104 Mは食器棚を指す。 7) Equipment attribute data: Structural information when the article is equipment: This will be described later as equipment attribute data in the environment map information database 109. Next, how the contents of the data are changed over time while comparing the contents of the article database 107 with the actual situation will be described. FIGS. 4A and 4B are schematic diagrams in which a state of a certain environment (for example, one room 104Z) is photographed at two different times. Here, it is assumed that FIGS. 4A and 4B correspond to FIGS. 3A and 3B, respectively. That is, it is assumed that the database storing the article data existing in the room 104Z, which is an example of the environment at each time, matches the database shown in FIGS. 3A and 3B, respectively. In each figure, 104A is a table, 104B is a refrigerator, 104C is a freezer, 104D is a refrigerator, 104E is a microwave oven, 104F is a wastebasket, 104G is a recycle bin, 104H is a floor, 104H J is the wall, 104 K is the ceiling, 104 L is the door, 104 M is the cupboard.

図 3Aは、 例として、 2002年 10月 10日の 9時の時点でのデータベース に格納された内容を表している。 このデータベースには、 ペットボトル、 ピザ、 手帳、 バナナ、 紙くず、 アイスクリーム、 牛乳の 7つの物品が登録されている。 このうち、 ペットボトル、 ピザ、 手帳、 バナナ、 紙くずの 5つの物品については、 図 4 Aの例で分かるように床 104Hの上に散乱している。 そのため、 図 3 Aに 示すように、 データベースにおける各物品の場所の値としては、 「床」 である Figure 3A shows, as an example, the contents stored in the database at 9 o'clock on October 10, 2002. The database contains seven items: PET bottles, pizza, notebooks, bananas, paper waste, ice cream, and milk. Of these, five items, such as plastic bottles, pizza, notebooks, bananas, and paper waste, are scattered on the floor 104H, as can be seen in the example of Fig. 4A. Therefore, as shown in Figure 3A, the value of the location of each article in the database is "floor".

「f l o o r #0001」 だけではなく、 それぞれの床 104 Hの上の位置座標 値も付加情報として付与されている。 Not only “flor # 0001” but also the position coordinate value on each floor 104H is given as additional information.

一方、 残りの物品、 アイスクリーム、 牛乳については、 冷凍室 104 C内及び 冷蔵室 104Dに保存されており (図 4 Aでは明示されていない。 ) 、 場所があ る程度限定できるため、 データベースにおける各物品の場所の値としては 「冷凍 室」 である 「f r e e z e r #0001」 と 「冷蔵室」 である 「C o 1 d— r o om#0001」 と記されている。  On the other hand, the remaining goods, ice cream, and milk are stored in the freezer compartment 104C and the refrigerator compartment 104D (not explicitly shown in FIG. 4A). The value of the location of each article is described as “freezer # 0001” which is a “freezer room” and “Co 1 d-room # 0001” which is a “refrigerator room”.

次に、 2002年 10月 10 Sの 10時の時点に、 下記の環境変化があつたと する。 すなわち、  Next, suppose that the following environmental changes occurred at 10 o'clock on October 10, 2002 S. That is,

1) ユーザによって床 104Hの上の物品 (ペットボトル、 ピザ、 手帳、 バナ ナ、 紙くずの 5つの物品) の片づけが指示される (それぞれの片づけ先は図 4 A の矢印付き曲線に示した通り。 ) 。 すなわち、 ペットボトルはリサイクル用ゴミ 箱 104G内に入れる。 ピザとバナナは冷蔵室 104 D内に入れる。 手帳はテー プル 104Aの上に置く。 紙くずはくずかご 104 F内に入れる。 その指示を受 けてロボット丄 0 2が物品の片づけを実行した。 1) The user is instructed to clear the items (five items of plastic bottles, pizza, notebooks, bananas, and paper waste) on the floor 104H (the clearing destinations are as shown by the curves with arrows in Fig. 4A). )). In other words, PET bottles are placed in the recycle bin 104G. Pizza and bananas are placed in Refrigerator 104D. The notebook is placed on the 104A tape. Put the waste paper in the wastebasket 104F. Receiving that instruction Then, the robot # 02 performed the article clearing.

2 ) ユーザが冷凍室 1 0 4 C及び冷蔵室 1 0 4 D内のアイスクリーム、 牛乳を 飲食して、 アイスクリームと牛乳が消滅した。  2) The user eats and drinks ice cream and milk in the freezer compartment 104C and the refrigerator compartment 104D, and the ice cream and milk disappear.

図 3 Bは、 このような環境変化の後、 少し時間が経過した 2 0 0 2年 1 0月 1 0日の 2 0時のデータベースの様子を示している。  Figure 3B shows the state of the database at 20:00 on October 10, 2010, a little after the environmental change.

図 4 Bに示すように、 図 4 Aの時点で床 1 0 4 Hの上に散乱していた物品であ る、 ペットボトル、 ピザ、 手帳、 バナナ、 紙くずの 5つの物品は、 前記指示通り に片づけられ、 それに伴ってデータベースの場所の値は書き変わっている (図 3 B参照) 。 また、 食されることで消滅した物品である、 アイスクリーム、 牛乳に ついては、 データベースから削除されてデータベース内には無い様子が分かる As shown in FIG. 4B, the five articles, PET bottles, pizza, notebooks, bananas, and paper waste, which were scattered on the floor 104H at the time of FIG. The value of the database location has been rewritten accordingly (see Figure 3B). In addition, ice cream and milk, which disappeared after being eaten, are deleted from the database and are not in the database.

(図 3 B参照) 。 この削除の処理は人手で行ってもよいし、 またタグなどのセン サをリーダライタで読み取ることによって自動的に削除してもよい。 また、 食べ 物については誰かが食べることによつて実世界から事実上消滅するので、 場所デ ータには、 場所を記述する代わりに食べた人を記述するようにしてもよい。 (See Figure 3B). This deletion process may be performed manually, or may be automatically deleted by reading a sensor such as a tag with a reader / writer. Also, since food is virtually extinct from the real world when someone eats it, the place data may describe the person who ate the food instead of describing the place.

なお、 食されてもアイスクリーム又は牛乳が消滅しなかった場合、 例えば、 半 分だけ飲食した場合には、 元の場所の値がそのまま表示されており、 消滅しない。 このように、 物品が移動したり環境内から消滅すると、 物品データベース 1 0 7のデータ内容は逐次更新され、 物品データベース 1 0 7には常に最新の情報が 保たれる。 以上が、 物品データベース 1 0 7の内容の説明である。  If the ice cream or milk does not disappear even after eating, for example, if you eat and drink only half, the value of the original place is displayed as it is and does not disappear. Thus, when an article moves or disappears from the environment, the data content of the article database 107 is updated successively, and the latest information is always kept in the article database 107. The above is the description of the contents of the article database 107.

<物品検索■管理手段〉  <Article search ■ management means>

物品検索 ·管理手段 1 0 6は、 環境内に置かれているあらゆる物品に関して、 第 1センシング部 1 0 5や入力装置 9 9を使用してユーザの手入力によって得ら れた物品の情報を物品データベース 1 0 7に蓄積したり、 環境管理サーバ 1 0 1 の外部から第 1送受信部 1 1 0及ぴ第 1制御手段 1 1 1を介して物品等に関する 問い合わせがあった場合には、 その問い合わせの内容に応じて必要な情報を物品 検索 ·管理手段 1 0 6により物品データベース 1 0 7力 ら取り出し、 第 1制御手 段 1 1 1及び第 1送受信部 1 1 0を介して問い合わせ先に送るという処理を行う。 なお、 物品データベース 1 0 7へのアクセスは物品検索 ·管理手段 1 0 6のみに 許可されており、 同じ物品データに対して、 書き込みと読み出しとが同時に行わ れないよう管理されている。 ロボット 1 0 2及び操作端末: L 0 3から物品の情報 登録■更新の要請を受けたときには、 物品検索■管理手段 1 0 6を介して物品デ ータベース 1 0 7の登録 ·更新を行う。 また、 後述する操作端末 1 0 3を用い、 日付や物品の種類など、 知りたい物品の属性を絞り込むための検索キーを指定す ることで、 探している物品の場所を検索することも可能である。 The article search / management means 106 uses the first sensing unit 105 and the input device 99 to retrieve information on the articles obtained by the user's manual input for all articles placed in the environment. If there is an inquiry about goods etc. stored in the goods database 107 or from outside the environmental management server 101 via the first transmitting / receiving unit 110 and the first control means 111, Necessary information according to the content of the inquiry is retrieved from the article database 107 by the article search / management means 106 and sent to the inquiry destination via the first control means 111 and the first transceiver 110. Perform the process of sending. Access to the article database 107 is permitted only to the article search and management means 106, and writing and reading are performed simultaneously for the same article data. It is managed not to be. When a request for registration / update of article information is received from the robot 102 and the operation terminal: L 03, the article database 107 is registered / updated via the article search / management means 106. It is also possible to search for the location of the item by using the operation terminal 103 described below and specifying a search key to narrow down the attributes of the item that you want to know, such as the date and the type of the item. is there.

<環境マップ情報管理手段 >  <Environmental map information management means>

環境マップ情報管理手段 1 0 8は環境の一例としての部屋内のマップ情報の管 理を行う。 図 5 A〜図 5 Cは環境マップ情報データベース 1 0 9の例を実状況と 対比して示した概念図であり、 図 5 Aは実際の状況を表した図、 図 5 Bは環境マ ップ情報データベース 1 0 9として実際の状況を簡略化した立体モデノレで示した 図、 図 5 Cは実際の状況をさらに簡略化して平面モデレで示した図である。 環境 マップ情報データベース 1 0 9は、 このように立体データとして表してもよいし、 より簡単に平面データとしてもよい。 データはマップの用途やマップ作成に要す る手間に応じて作成すればよく、 例えば立体モデルを非常に短時間で作る必要が あれば、 立体物に関してはそれを覆う最小の直方体でモデル化するなどすればよ い。 例えば、 図 5 Bのモデルはそのような例である。 図 5 Bでは、 図 5 Aにおい て中央に位置するテーブル 1 0 4 Aは直方体でモデルィ匕されている。 平面データ でも同様であり、 図 5 Cのモデルにおいては、 中央に位置するテープノレを平面に 正射影した矩形領域 (図 5 Cのハッチ部分の矩形領域) で表し、 この領域をロボ ット移動不可領域として定めている。 なお、 以降の説明の都合上、 この図 5 A〜 図 5 Cに記載の X軸 (部屋の床の一辺に沿った方向) 一Y軸 (部屋の床の一辺と 直交する他の辺に沿った方向) 一 Z軸 (部屋の高さ方向) で構成された実世界で の位置座標系を実世界座標系と呼ぶこととする。  The environment map information management means 108 manages the map information in the room as an example of the environment. 5A to 5C are conceptual diagrams showing an example of the environment map information database 109 in comparison with the actual situation. FIG. 5A is a diagram showing the actual situation, and FIG. 5B is an environment map. FIG. 5C is a diagram showing a simplified model of the actual situation as a loop information database 109, and FIG. 5C is a diagram showing the plane of the actual situation further simplified. The environment map information database 109 may be represented as three-dimensional data as described above, or may be more simply planar data. The data should be created according to the purpose of the map and the time required to create the map.For example, if it is necessary to create a three-dimensional model in a very short time, model the three-dimensional object with the smallest cuboid that covers it And so on. For example, the model in Figure 5B is such an example. In FIG. 5B, the table 104A located at the center in FIG. 5A is modeled as a rectangular parallelepiped. The same applies to plane data. In the model shown in Fig. 5C, the taper located in the center is represented by a rectangular area (rectangular area of the hatched part in Fig. 5C) that is orthogonally projected onto the plane, and this area cannot be moved by robots. It is defined as an area. For convenience of the following description, the X-axis (direction along one side of the room floor) and the Y-axis (along the other side orthogonal to one side of the room floor) shown in FIGS. The position coordinate system in the real world composed of one Z axis (room height direction) is called the real world coordinate system.

<環境マップ情報データベース〉  <Environmental map information database>

図 6は環境マップ情報データベース 1 0 9のデータの一例を示した図である。 環境マップ情報データベース 1 0 9は、 大きく分けて環境属性データ 6 0 1と設 備属性データ 6 0 2との 2つの要素から構成される。  FIG. 6 is a diagram showing an example of data in the environment map information database 109. The environment map information database 109 is roughly composed of two elements, environment attribute data 601 and equipment attribute data 602.

環境属性データ 6 0 1は、 簡単に言い換えると環境の一例としての部屋の詳細 なデータのことであり、 本実施形態では、 例として、 環境属性データ 6 0 1には 2つの床の床面データ 「f l o o r # 0001」 と 「f l o o r #0002J 力 記録されている (なお、 第 2の床面データ 「f 1 o o r #0002」 は図示せ ず) 。 前記床面データには、 その床面が多角形であるときの頂点 (隅) の位置座 標値 (実世界座標系での位置座標値) が記述されており、 また、 その床面の材質 が面毎に付されている。 例えば、 四角形の床面のデータの場合、 図 6及ぴ図 5 A に示したように、 The environment attribute data 6001 is, in short, detailed data of a room as an example of an environment. In the present embodiment, as an example, the environment attribute data The floor data “floor # 0001” and “floor # 0002J” are recorded for the two floors (note that the second floor data “f1 oor # 0002” is not shown). The floor data describes position coordinates (position coordinates in the real world coordinate system) of vertices (corners) when the floor is a polygon. Is attached to each surface. For example, in the case of data for a square floor, as shown in Figures 6 and 5A,

( (XI, Y1, 0) ,  ((XI, Y1, 0),

(X 2, Y 2, 0) ,  (X 2, Y 2, 0),

(X 3, Y 3, 0) ,  (X 3, Y 3, 0),

(X4, Y4, 0) , 0)  (X4, Y4, 0), 0)

と表される。 但し、 座標値の基準として、 その部屋で最も低い床の高さを 0とし ている。 最初の 4つの座標値は床面の頂点の座標値を示し、 最後の数値 「0」 は 床面の材質を示している。 床面の材質は、 例えば、 「0」 はフローリング、 「1」 は畳、 「2」 は絨毯、 等であり、 材質毎に予め対応する数字が定められて いる。 部屋内に高さの異なる複数の床面が存在する場合には、 これらの床面デー タはその床面の数だけ用意すればよい。 It is expressed. However, the lowest floor height in the room is set to 0 as a reference for coordinate values. The first four coordinate values indicate the coordinates of the vertex of the floor, and the last number “0” indicates the material of the floor. The floor material is, for example, “0” is flooring, “1” is tatami, “2” is carpet, etc., and corresponding numbers are determined in advance for each material. If there are multiple floors with different heights in a room, these floor data need only be prepared for the number of floors.

設備属性データ 602は、 環境属性データ 601で構成される環境 (具体的に は部屋) の中に存在する設備 104を列挙したものである。 ここでレ、う設備 10 4とは、'通常の状態では、 移動させて使うことのない家庭用品等であり、 例えば 家具や大型家電製品などがこれに相当する。  The equipment attribute data 602 lists the equipment 104 existing in the environment (specifically, the room) configured by the environment attribute data 601. Here, the facilities 104 are household goods which are not moved and used in a normal state, such as furniture and large home appliances.

図 5 A〜図 5 C及び図 6に示す例では、 環境の一例としての部屋の中には、 テ 一ブル 104 Aと冷凍室 104 Cと冷蔵室 104Dとゴミ箱 104Fと 104G 等の設備 104が存在するので、 環境マップ情報データベース 109にはそれぞ れのデータが保存されており、 設備属性データ 602にそれらの属性が保存され ている。 例えば、 テーブル 104 Aには、 位置座標として面 1と面 2のそれぞれ の隅の位置座標値が格納されている。 冷凍室 104 Cには、 位置座標として面 1 と面 2のそれぞれの隅の位置座標値が格納されている。 冷蔵室 104Dにも、 位 置座標として面 1と面 2のそれぞれの隅の位置座標値が格納されている。 ゴミ箱 104Fと 104Gにも、 それぞれ、 位置座標として面 1と面 2のそれぞれの隅 の位置座標値が格納されている。 なお、 本来は、 令凍室 104 Cと冷蔵室 104 Dとは一体となつて冷蔵庫 104 Bと呼ばれるが、 本実施形態では、 物品を収納 又は設置可能な場所単位で設備を区別しているため、 冷蔵庫 104Bを 1つの設 備として扱うのではなく、 冷凍室 104 Cと冷蔵室 104 Dとをそれぞれ独立し た 1つの設備として区別している。 In the example shown in FIGS. 5A to 5C and FIG. 6, in a room as an example of the environment, a facility 104 such as a table 104A, a freezer compartment 104C, a refrigerator compartment 104D, and trash cans 104F and 104G is provided. Since they exist, the respective data are stored in the environment map information database 109, and those attributes are stored in the equipment attribute data 602. For example, the table 104A stores the position coordinate values of the respective corners of the surface 1 and the surface 2 as the position coordinates. In the freezer compartment 104C, position coordinate values of respective corners of the surface 1 and the surface 2 are stored as position coordinates. In the refrigerator compartment 104D, the position coordinate values of the respective corners of the surface 1 and the surface 2 are stored as the position coordinates. The trash cans 104F and 104G also have their location coordinates as Is stored. Note that originally, the freezing compartment 104C and the refrigeration compartment 104D are integrally called a refrigerator 104B.However, in the present embodiment, the facilities are distinguished by location where goods can be stored or installed. Instead of treating the refrigerator 104B as one facility, the freezer compartment 104C and the refrigerator compartment 104D are distinguished as one independent facility.

設備属性データ 602には、 各設備の属性として、 当該設備 104の表面を多 面体で近似したときの複数の面のデータ、 当該設備 104の種類、 当該設備 10 4の設置可能な面に設置される主な物品形状と姿勢等が保存されてレ、る。 設備の 面のデータには、 その面の頂点の座標値 (実世界座標での位置座標値) が記述さ れており、 また、 その面に物品が設置できる力否かのフラグが面毎に付されてい る。 例えば、 頂点の数が 4つの面のデータの場合、  The equipment attribute data 602 includes, as attributes of each equipment, data of a plurality of surfaces when the surface of the relevant equipment 104 is approximated by a polyhedron, types of the relevant equipment 104, and installed on the available surface of the relevant equipment 104. Main article shapes and postures are stored. The surface data of the equipment describes the coordinate values of the vertices of the surface (position coordinate values in real world coordinates), and a flag indicating whether or not an object can be installed on the surface has a flag for each surface. It is attached. For example, if the number of vertices is 4

( (XI I, Y 1 1 , Z 11) ,  ((XI I, Y 11, Z 11),

(X 12, Y 12, Z 12) ,  (X 12, Y 12, Z 12),

(X 13, Y13, Z 13) ,  (X 13, Y13, Z 13),

(X 14, Y 14, Z 14) , 1)  (X 14, Y 14, Z 14), 1)

となる。 最初の 4つの座標値は 4つの頂点の位置座標値を示し、 最後の数値 「lj は、 物品が設置できることを意味するフラグである。 この数値が 「0j の 面は、 物品を設置することができない面である。 そして、 設備の種類によっては、 このフラグを状況に応じて切り替えられるようにする。 このような状況としては、 例えばドアが開いて物品が設置できる面が露出しているか、 閉じて物品が設置で きる面が露出していないか、 などが挙げられる。 図 7 A〜図 7 Bは、 そのような 典型例を示すための補助図である。 It becomes. The first four coordinate values indicate the position coordinate values of the four vertices, and the last number “lj is a flag that means that the article can be set. Depending on the type of equipment, this flag can be switched depending on the situation, such as when the door is open and the surface on which goods can be installed is exposed or closed. Whether the surface on which articles can be installed is not exposed, etc. Figures 7A and 7B are auxiliary figures to show such a typical example.

図 7 A〜図 7 Bの例では、 冷凍室 104 Cに関する設備の属性データが示され ている。 すなわ.ち、 図7 は冷凍室104〇のドァ104〇一1が閉まってぃる 状態での属性データは、  In the examples of FIGS. 7A and 7B, the attribute data of the equipment related to the freezing room 104C is shown. That is, FIG. 7 shows the attribute data when the door 104-1 of the freezer compartment 104 is closed.

( (X 21, Y21, Z 21) ,  ((X 21, Y21, Z 21),

(X 22, Y 22, Z 22) ,  (X 22, Y 22, Z 22),

(X 23, Y 23, Z 23) ,  (X 23, Y 23, Z 23),

(X 24, Y 24, Z 24) , 0) となる。 (X 24, Y 24, Z 24), 0) It becomes.

一方、 図 7 Bは冷凍室 104Cのドア 104C— 1が開いている状態での属性 データは、 - ( (X 21, Y21, Z 21) ,  On the other hand, in FIG. 7B, the attribute data when the door 104C-1 of the freezer compartment 104C is open is-((X21, Y21, Z21),

(X 22, Y 22, Z 22) ,  (X 22, Y 22, Z 22),

(X 23, Y23, Z 23) ,  (X 23, Y23, Z 23),

(X 24, Y 24, Z 24) , 1 )  (X 24, Y 24, Z 24), 1)

となる。 これらの図から、 冷凍室 104Cのドア 104C— 1の開閉に応じて前 記フラグの最後の値が替わっていることが分かる。 すなわち、 冷凍室 104 Cの ドア 104 C— 1が閉じている場合は、 そのままの状態では内部に物品を保存で きないため、 前記フラグは 10」 となる。 一方、 冷凍室 104Cのドア 104C 一 1が開いている場合は、 そのままの状態で内部に物品を保存できる状況になつ ているため、 前記フラグは 「1」 となる。 なお、 図 7Bにおける冷凍室 104C では、 ロボット 102を使って内部に物品を出し入れできるように、 物品を設置 する面 104 C— 2は、 例えば、 ドア 104C—1が開いた時に前面にせり出し てくるような機構を備えているようにしてもよい。 この場合には、 物品を設置す る面 104 C— 2の座標値には、 このせり出した状態における面 104C— 2の 四隅の座標値 (X21, Y21, Z 21) , (X 22, Y22, Z 22) , (X 23, Y 23, Z 23) , (X 24, Y24, Z 24) が与えられている。 そし て、 口ポット 102は、 当該面 104 C— 2がせり出している状態で (つまりド ァ 104C—1が開いている状態で) のみ、 物品の出し入れを行う。 当該面 10 4 C— 2に物品を設置する操作、 また、 当該面 104 C— 2に設置されている物 品を取り出す操作を、 面 104 C— 2の座標値を参照しながら行うことも可能で ある。 ドア 104C— 1を閉じると、 当該面 (物品設置面) 104 C— 2は冷凍 室 104C内に収納される。 これに伴い、 当該面 104 C— 2の実座標値は変ィ匕 する。 し力 し、 ドア 104 C— 1を閉じている状態ではロボット 102が冷凍室 104 C内に物品を入れたり取り出したりすることは無いので、 設備属性データ 602として記載されている座標値は変更しないでそのままにする。 It becomes. From these figures, it can be seen that the last value of the flag changes according to the opening and closing of the door 104C-1 of the freezing room 104C. That is, when the door 104C-1 of the freezer compartment 104C is closed, the article cannot be stored inside the door 104C-1 as it is, and the flag is set to 10 ". On the other hand, when the door 104C-11 of the freezer compartment 104C is open, the state is such that the articles can be stored therein as it is, so that the flag is set to “1”. In the freezer compartment 104C shown in FIG. 7B, the surface 104C-2 on which the articles are placed protrudes to the front when the door 104C-1 is opened so that the articles can be taken in and out using the robot 102. Such a mechanism may be provided. In this case, the coordinates of the four corners (X21, Y21, Z21), (X22, Y22, (Z22), (X23, Y23, Z23) and (X24, Y24, Z24) are given. The mouth pot 102 carries out articles only when the surface 104C-2 is protruding (that is, when the door 104C-1 is open). It is also possible to perform the operation of placing an object on the surface 104C-2 and the operation of removing the object installed on the surface 104C-2 while referring to the coordinate values of the surface 104C-2. It is. When the door 104C-1 is closed, the surface (article installation surface) 104C-2 is stored in the freezer compartment 104C. Accordingly, the actual coordinate value of the surface 104C-2 changes. However, when the door 104C-1 is closed, the robot 102 does not insert or remove an article into the freezer compartment 104C, so that the coordinate values described as the equipment attribute data 602 are not changed. Leave as it is.

なお、 本実施形態では、 設備属性データ 602として物品の設置が可能かどう かの識別フラグのみを示したが、 もちろん必要に応じて他の情報を追加してもよ い。 例えば、 環境属性データ 6 0 1と同様に面の材質を付カ卩してもよい。 また、 その面に物品を設置したり、 その面から物体を取り出したりするための、 当該面 へのロボットハンド 2 0 2のアプローチの軌跡を追加してもよレ、。 さらには、 口 ボットハンド 2 0 2を動かすためのプログラムを記憶し利用することも可能であ る。 例えば、 ロボットアーム 2 0 1を動かすための標準的なプログラム仕様を予 め決めておき、 その仕様に準ずるアーム制御が可能なロポット 1 0 2を使う場合 に、 前記設備属性データ 6 0 2の一部として記憶されたプログラムをロボット 1 0 2に適宜ダゥンロードし、 そのダウンロードされたプログラムによってロボッ ト 1 0 2を動かすようにしてもよい。 これにより、 ロボット 1 0 2は全ての設備 に対して個々の把持制御プログラムを用意しなくて済み、 プログラムを記憶する ためのメモリ容量を減らすことができる。 In this embodiment, it is determined whether or not an article can be installed as the equipment attribute data 602. Although only the identification flag is shown, other information may be added as needed. For example, similarly to the environmental attribute data 6001, the surface material may be added. Also, a trajectory of the approach of the robot hand 202 to the surface for placing an article on the surface or removing an object from the surface may be added. Further, a program for moving the mouth bot hand 202 can be stored and used. For example, a standard program specification for moving the robot arm 201 is determined in advance, and when using a robot 102 capable of arm control according to the specification, one of the equipment attribute data 602 is used. The program stored as a unit may be downloaded to the robot 102 as appropriate, and the downloaded program may be used to move the robot 102. This eliminates the need for the robot 102 to prepare individual gripping control programs for all equipment, and reduces the memory capacity for storing programs.

図 1 8は、 設備属性データとしてロボット 1◦ 2のロポットアーム 2 0 1及び ハンド 2 0 2の動作プログラム (電子レンジ 1 0 4 Eのドア 1 0 4 E— 1を開け る動作) を持たせる場合の説明図である。 図 1 9は、 図 1 8のロボットアーム 2 0 1及びハンド 2 0 2の動作プログラムの例である。 設備としての電子レンジ 1 0 4 Eのドア 1 0 4 E— 1を開ける動作として、 3つの動作を記述して、 前記設 備属性データ 6 0 2の一部として記憶しておく。 具体的には、 ( i ) 電子レンジ 1 0 4 Eの前方からアーム 2 0 1が進入し電子レンジ 1 0 4 Eの手前まで移動す る動作、 ( i i ) ハンド 2 0 2を上方に向けて取っ手 1 0 4 E— 2の所まで上方 に移動して取っ手 1 0 4 E— 2を掴む動作、 ( i i i ) 取っ手 1 0 4 E— 2を掴 んだまま手前へ移動してドア 1 0 4 E—1を開ける動作、 からなつている。 この ように、 設備固有の構造に応じた動作を、 設備が持つことで、 口ポット 1 0 2の 制御を汎用的なものに保つことが可能となる。 図 1 9に記載された各動作は、 口 ポットアーム 2 0 1の先端の座標、 アーム 2 0 1の進行べクトル、 アーム 2 0 1 の先端の移動奇跡 (動作 (i i i ) のような曲線の場合は直線近似) 、 ハンド 2 0 2の向き、 移動終了後のハンド 2 0 2の動作、 から成っている。 なお、 図 1 9 の座標は全て電子レンジ内で定義された座標系であり、 口ポット 1 0 2は自身の 位置■姿勢及び電子レンジ 1 0 4 Eの位置■姿勢から、 ロボット自身の座標系に 変換して動作を実行する。 Fig. 18 shows the operation program of the robot arm 201 and the hand 202 of the robot 1◦2 (operation to open the door 104E-1 of the microwave oven 104E-1) as equipment attribute data. It is an explanatory view of a case. FIG. 19 is an example of an operation program of the robot arm 201 and the hand 202 of FIG. As the operation of opening the door 104 E-1 of the microwave oven 104 E as equipment, three operations are described and stored as a part of the equipment attribute data 602. Specifically, (i) an operation in which the arm 201 enters from the front of the microwave oven 104 E and moves to a position just before the microwave oven 104 E, and (ii) the hand 202 is directed upward. Move upward to handle 1 0 4 E-2 and grab handle 1 0 4 E-2. (Iii) Move forward with door 1 4 4 holding handle 1 0 4 E-2. The operation of opening E-1 is made up of. As described above, since the equipment has an operation corresponding to the structure unique to the equipment, it is possible to maintain the control of the mouth pot 102 in a general-purpose manner. The movements described in Fig. 19 are the coordinates of the tip of the mouth pot arm 201, the traveling vector of the arm 201, and the movement miracle of the tip of the arm 201 (movement miracle such as movement (iii)). In the case of linear approximation), the direction of the hand 202, and the operation of the hand 202 after the movement is completed. Note that the coordinates in Fig. 19 are all coordinate systems defined in the microwave oven, and the mouth pot 102 uses the robot's own coordinate system based on its own position / posture and the position / posture of the microwave oven 104E. To Convert and execute operation.

く環境管理サーバの第 1制御手段〉  First control means of environmental management server>

環境管理サーバ 1 0 1の第 1制御手段 1 1 1は環境管理サーバ 1 0 1の全体を 制御する部分であり、 前述したように、 主な制御内容として以下のものが挙げら れる。  The first control means 111 of the environment management server 101 is a part for controlling the entire environment management server 101. As described above, the main control contents include the following.

すなわち、 第 1制御手段 1 1 1は、 サーバ 1 0 1内の各種データに関して第 1 送受信部 1 1 0を介して外部から問い合わせがあった場合に、 その内容に応じて 物品検索 ·管理手段 1 0 6又は環境マップ情報管理手段 1 0 8に対し、 前記デー タの参照要求を出す。  That is, when there is an external inquiry via the first transmission / reception unit 110 regarding various data in the server 101, the first control means 111 sends the article search and management means 1 according to the contents. A request for reference to the data is issued to the environment map information management means 106 or 06.

また、 第 1制御手段 1 1 1は、 前記要求に対して物品検索■管理手段 1 0 6又 は環境マップ情報管理手段 1 0 8から送られてきた結果を、 第 1送受信部 1 1 0 を介して問い合わせ元に送る。  Further, the first control means 111 sends the result transmitted from the article search / management means 106 or the environment map information management means 108 in response to the request to the first transmission / reception unit 110. Send to the inquiry source via

さらに、 第 1制御手段 1 1 1は、 第 1送受信部 1 1 0を介して外部から送られ てきたサーバ 1 0 1内にある各種データに関する登録'更新の要請を解釈し、 そ の内容に応じて物品検索 ·管理手段 1 0 6又は環境マップ情報管理手段 1 0 8に、 前記データの登録 ·更新要求を出す。  Further, the first control means 111 interprets the request for registration / update of various data in the server 101 sent from the outside via the first transmission / reception unit 110, and interprets the content. Accordingly, the data registration / update request is issued to the article search / management means 106 or the environment map information management means 108.

一設備—  One facility—

本実施形態の生活支援システム 1 0 0の 2番目のサブシステムである設備 1 0 4は、 一定の目的を持って物品を収納又は設置する場所を有する設備 (例えば収 納体又は設置体) である。 ここで、 「目的を持って」 という意味は、 例えば冷蔵 庫であれば 「保存する」 、 電子レンジであれば 「温める」 、 などである。 また収 納という言葉は一般的には保管などの意味として使われるが、 本実施形態におけ る収納には、 前記目的を施すための場所に物品を一時的に入れることも含まれる。 従って、 例えば冷蔵庫や電子レンジに食品を入れることも収納と呼ぶ。 また、 設 置には、 前記目的を施すための場所に物品を一時的に置くことも含まれる。  The facility 104, which is the second subsystem of the life support system 100 of the present embodiment, is a facility having a place for storing or installing articles for a certain purpose (for example, a storage or installation body). is there. Here, "with purpose" means, for example, "save" in a refrigerator or "warm" in a microwave oven. In addition, the term “storage” is generally used to mean storage or the like, but the storage in the present embodiment also includes temporarily putting an article in a place where the above-mentioned purpose is applied. Therefore, putting food in a refrigerator or microwave oven is also called storage. The installation also includes temporarily placing the article in a location for the purpose.

図 1に示すように、 設備 1 0 4は、 その基本構成として、 外部からの操作指示 を受けて当該設備 1 0 4の操作を行うための設備操作情報記憶部 1 2 2と、 当該 設備 1 0 4内の他の物品の属"生データを取得するための第 4センシング部 1 2 3 と、 前記操作指示を外部から受信し又は前記操作を行つた結果を指示元に送信す る第 4送受信部 140と、 第 4送受信部 140と設備操作情報記憶部 122と第 4センシング部 123とをそれぞれ制御して、 例えば、 外部からの操作指示を第 4送受信部 140が受信したとき当該設備 104の操作を行うように動作制御す るとともに、 前記操作指示により前記操作を行った結果を指示元に第 4送受信部 140から送信する第 4制御手段 1·21とより構成される。 As shown in FIG. 1, the equipment 104 has, as its basic configuration, an equipment operation information storage unit 122 for operating the equipment 104 in response to an operation instruction from the outside, and the equipment 1 A fourth sensing unit 1 2 3 for acquiring raw data belonging to another article in 04, and receiving the operation instruction from outside or transmitting the result of performing the operation to the instruction source. The fourth transceiver 140 controls the fourth transceiver 140, the fourth transceiver 140, the facility operation information storage 122, and the fourth sensing unit 123, respectively, for example, when the fourth transceiver 140 receives an external operation instruction. The fourth control unit 121 controls the operation of the facility 104 and transmits the result of the operation according to the operation instruction from the fourth transmission / reception unit 140 to an instruction source.

<設備の第 4センシング部 >  <Fourth sensing part of equipment>

第 4センシング部 123は、 環境管理サーバ 101の第 1センシング部 105 と類似している。 すなわち、 第 4センシング部 123は、 それぞれの設備 104 内の状況を把握するためにセンシングする機器であり、 センシングされた情報及 び設備 104の構造情報を所定装置に送るために第 4制御手段 121に接続され ている。 第 4センシング部 123は、 それが配置された設備 104内に存在する すべての監視対象物、 すなわち物品の位置や状態を常に監視するものである。 ま た、 第 4センシング部 123は、 新たな物品が人や口ボット 102等によって、 その設備 104内に新たに持ち込まれた場合には、 それも検出する。 ただし、 セ ンシングされた情報及び設備 104の構造情報は、 環境管理サーバ 101の物品 データベース 107や環境マップ情報データベース 109に対し、 ネットワーク 98を介して蓄積されるものとする。 第 4センシング部 123の具体的構成は特 に限定されないが、 例えば、 第 1センシング部 1◦ 5と同様に、 画像センサを用 V、る装置や電子タグを用いる装置などを好適に利用することができる。 第 4セン シング部 123を一例としてカメラ 123A (図 10 C参照) で構成することに より、 設備 104内の実画像を用いた直感的な GU I (Gr a h i c a l U s e r I n t e r f a c e) を実現することができる。  The fourth sensing unit 123 is similar to the first sensing unit 105 of the environmental management server 101. That is, the fourth sensing unit 123 is a device that performs sensing in order to grasp the situation in each of the facilities 104, and transmits the sensed information and the structural information of the facility 104 to a predetermined device by using the fourth control unit 121. It is connected to the. The fourth sensing unit 123 constantly monitors the positions and states of all the monitoring objects existing in the equipment 104 in which the fourth sensing unit 123 is located, that is, the articles. In addition, the fourth sensing unit 123 detects, when a new article is newly brought into the facility 104 by a person or a mouth bot 102 or the like, it is also detected. However, it is assumed that the sensed information and the structural information of the equipment 104 are stored in the article database 107 and the environment map information database 109 of the environment management server 101 via the network 98. Although the specific configuration of the fourth sensing unit 123 is not particularly limited, for example, similarly to the first sensing unit 1 セ ン シ ン グ 5, it is preferable to use a device using an image sensor, a device using an electronic tag, or the like. Can be. By constructing the fourth sensing unit 123 as an example with a camera 123A (see FIG. 10C), an intuitive Graphical Interface (GUI) using actual images in the facility 104 can be realized. Can be.

<設備操作情報記憶部〉  <Equipment operation information storage unit>

設備操作情報記憶部 122は、 主として、 当該設備 104を外部から遠隔操作 するためのコマンド (設備操作コマンド) を記憶するものである。 図 8は設備操 作情報記憶部 122に記憶されている設備操作コマンドを表形式で示した図であ る。 表の記述情報は、 左の列から順に、 環境内に存在する設備を区別するための 設備 ID、 外部から当該設備を制御するための設備操作コマンド名、 前記コマン ドに対応した処理手続き、 前記処理を行つた結果の戻り値となっている。 ここでは、 設備の例として、 設備 I Dで区別される 「Co 1 d_r o om#0 001」 (冷蔵室) 、 「F r e e Z e r #0001」 (冷凍室) 、 「M i c r o wa v e #o v e n#0001」 (電子レンジ) の 3種類が挙げられ、 それぞれ についての操作指示コマンドが示されている。 次に、 それらの例を用いて前記記 述情報の意味を説明する。 The facility operation information storage unit 122 mainly stores a command (facility operation command) for remotely controlling the facility 104 from outside. FIG. 8 is a diagram showing the equipment operation commands stored in the equipment operation information storage unit 122 in a table format. The descriptive information in the table is, in order from the left column, a facility ID for distinguishing facilities existing in the environment, a facility operation command name for controlling the facility from outside, a processing procedure corresponding to the command, It is the return value of the result of processing. Here, as an example of equipment, is distinguished by facilities ID "Co 1 d_r o om # 0 001" (the refrigerating compartment), "F ree Z er # 0001" (freezer compartment), "M icro wa ve # oven # 0001 "(microwave oven), and the operation instruction command is shown for each. Next, the meaning of the description information will be described using those examples.

最初の 2つの例である冷蔵室 104 D及び冷凍室 104 Cでは、 それぞれ設備 操作コマンドとして、  In the first two examples, refrigeration compartment 104D and freezer compartment 104C,

• 「d o o r #o p e ri」  • "door #operi"

■ 「d o o r #c l o s e」  ■ "d o r #c l o s e"

の 2つが用意されている。 冷蔵室 104D及び冷凍室 104 Cがこれらのコマン ドを外部の装置 (例えばロボット 102、 パーソナルコンピュータや PDA (Personal Digital Assistance) や携帯電話などの操作端末など) から冷蔵 庫送受信部 104B—2 (第 4送受信部 140の一例として機能する。 ) で受信 すると、 図 8の処理手続きに示されているように、 それぞれ 「ドアを開く」 、 「ドアを閉める」 という処理を設備自身が冷蔵庫制御手段 104 B— 1 (第 4制 御手段 121の一例として機能する。 ) の制御の下に行う。 そのため、 冷蔵室 1 04 D及び冷凍室 104Cのドア 104D—1及び 104 C— 1は、 冷蔵室ドア 自動開閉機構 104 B— 3と冷凍室ドア自動開閉機構 104B— 4とが冷蔵庫制 御手段 104B—1により動作制御されて、 それぞれ、 独立して自動で開閉する ようになつている。 次に、 それぞれの設備操作コマンドの処理が正常に終わると、 コマンドの発信元である前記外部の装置に 「Ac k」 を、 また設備操作コマンド の処理が失敗すると、 コマンドの発信元である前記外部の装置に 「Na c k」 を、 それぞれ戻り値として、 冷蔵庫制御手段 104B— 1により冷蔵庫送受信部 10 4 B— 2から返す。 また、 設備 104が冷蔵室 104 Dや冷凍室 104 Cの場合 は、 それぞれのドアを開けずにそれぞれの内部が透過して閲覧できるのが望まし く、 透過 '非透過の切り替え可能なドアを用意し、 「d o o r # t r a n s p a r e n t #o n」 , i d o o r # t r a n s p a r e n t # o f f」 という 2つ のコマンドを用意してもよい。 透過 ·非透過切り替え可能なドアとは、 例えば、 透明なドアに液晶シャッタ一やブラインドを付けて、 冷蔵庫制御手段 104B- 1により透過 .非透過を切り替えることで実現することができる。 The two are prepared. The refrigerator compartment 104D and the freezer compartment 104C transmit these commands from an external device (for example, the robot 102, a personal computer or an operation terminal such as a PDA (Personal Digital Assistance) or a mobile phone) to the refrigerator compartment 104B-2 (the 4) It functions as an example of the transmission / reception unit 140.) When the reception is performed by the equipment, as shown in the processing procedure of FIG. It is performed under the control of B-1 (which functions as an example of the fourth control means 121). Therefore, the doors 104D-1 and 104C-1 of the refrigerator compartment 104D and the freezer compartment 104C are connected to the refrigerator compartment automatic opening and closing mechanism 104B-3 and the refrigerator compartment door automatic opening and closing mechanism 104B-4 by the refrigerator control means 104B. The operation is controlled by -1, and each is automatically and independently opened and closed. Next, when the processing of each equipment operation command is completed normally, `` Ac k '' is given to the external device that is the command source, and when the processing of the equipment operation command fails, the command source is “Nack” is returned as a return value to the external device from the refrigerator transmitting / receiving section 104 B-2 by the refrigerator control means 104B-1. If the equipment 104 is a refrigerator compartment 104D or a freezer compartment 104C, it is desirable that the inside of each compartment can be seen through without opening each door. You can prepare two commands, “door # transparent #on” and “idoor # transparent # off”. A door that can be switched between transparent and non-transparent is, for example, a refrigerator door with a liquid crystal shutter or a blind. It can be realized by switching between transparent and non-transparent by 1.

3つ目の例である電子レンジ 104Eでは、 設備操作コマンドとして、  In the third example, the microwave oven 104E,

「d o o r #o p e n」  "D oor #open"

「d o o r # c l o s e」  "D oor #c lose"

「wa rm# s t a r t」  "Wa rm # s t a r t"

「w a rm# e n d」  "W a rm # e n d"

「i s #o b j e c t # i n」  "Is s #o b j e c t #i n"

の 5種類が用意されている。 これらのうち、 「d o o r #o p e n」 , 「d o o r # c 1 o s e」 については、 冷蔵室 104 D及び冷凍室 104 Cと同じなので 説明を省略する。 There are five types available. Of these, "dor # open" and "dor # c1ose" are the same as the refrigerator compartment 104D and the freezer compartment 104C, and therefore will not be described.

設備操作コマンドとして、 「w a r m# s t a r t」 を外部の装置 (例えば口 ポット 102など) から電子レンジ送受信部 (第 4送受信部 140の別の一例と して機能する。 ) で受信すると、 図 8の処理手続きに示されているように、 電子 レンジ制御手段 (第 4制御手段 121の別の例として機能する。 ) の制御下に温 めを開始する。 この際、 電子レンジ内に物品が入っており、 温め処理が開始でき れば、 コマンドの発信元に 「Ac k」 を、 またそれ以外の場合はコマンドの発信 元である前記外部の装置に 「Na c k」 を、 それぞれ戻り値として電子レンジ制 御手段により電子レンジ送受信部から返す。 設備操作コマンド 「wa rm# e n d」 を外部の装置から電子レンジ送受信部で受信すると、 電子レンジ制御手段に より温め終わったかどうかを調べ、 電子レンジ制御手段により、 温め完了の場合 は 「Tr u e」 、 まだ温め処理中の場合は 「F a 1 s e」 をコマンドの発信元で ある前記外部の装置に戻り値として電子レンジ送受信部からそれぞれ返す。 設備 操作コマンド 「 i s #o b j e c t # i n」 を外部の装置から電子レンジ送受信 部で受信すると、 電子レンジの庫内に物品があるかどうかを電子レンジ制御手段 により調べ、 電子レンジ制御手段により、 もし物品がある場合は 「T r u e」 を、 無い場合は 「F a 1 s e」 をコマンドの発信元である前記外部の装置に戻り値と して電子レンジ送受信部からそれぞれ返す。 この際、 物品の有無の確認は、 画像 センサゃ重量センサ、 あるいは物品に電子タグが付与されてレ、れば電子タグセン サを用いればよい。 以上、 設備 1 0 4について、 冷蔵室 1 0 4 Dと冷凍室 1 0 4 Cと電ニ When “warm # start” is received as an equipment operation command from an external device (for example, the mouth pot 102) by the microwave transmission / reception unit (which functions as another example of the fourth transmission / reception unit 140), FIG. As shown in the processing procedure, the heating is started under the control of the microwave control means (which functions as another example of the fourth control means 121). At this time, if there is an article in the microwave oven and the warming process can be started, “Ac k” is sent to the command source, and otherwise, the external device that is the command source is sent to the external device. “Nack” is returned from the microwave transmitting / receiving unit by the microwave control means as return values. When the equipment operation command “wa rm # end” is received from the external device by the microwave transmitter / receiver, it is checked by the microwave control means whether the heating has been completed, and if the heating has been completed by the microwave control means, “True” If the heating process is still in progress, “F a 1 se” is returned from the microwave transmitting / receiving unit as a return value to the external device that is the source of the command. Upon reception facility operation command to "i s #object # in" from an external device in a microwave oven transceiver, whether there is an article in the compartment of the microwave oven examined by electronic range control means, the microwave oven control unit, if If there is an article, “True” is returned. If there is no article, “Fa1se” is returned from the microwave transmitting / receiving unit as a return value to the external device that is the source of the command. At this time, the presence or absence of the article can be confirmed by using an image sensor and a weight sensor, or an electronic tag sensor if an electronic tag is attached to the article. As for equipment 104, refrigerator compartment 104D, freezer compartment 104C and electric

0 4 Eの 3種類の例を挙げ、 設備操作コマンドの例を簡単にそれぞれ説明したが、 必要な設備操作コマンドは各設備 1 0 4の機能に応じてそれぞれ用意すればよい。 また、 設備 1 0 4の製造元で新たな設備操作コマンドを設備 1 0 4のために用意 した場合には、 それを何らかの記憶媒体などを用いて当該設備 1 0 4の記憶手段 に書き込むか、 あるいは当該設備 1 0 4が外部ネットワーク 9 8を介して製造元 とつながっていれば、 前記設備操作コマンドをネットワーク 9 8を介して設備 1 0 4に送って記憶手段に書き込んで、 新たな操作コマンドとして利用可能とする こともできる。 The examples of the facility operation commands are briefly described by giving three examples of 04 E. However, the necessary facility operation commands may be prepared according to the function of each facility 104. Also, when the manufacturer of the facility 104 prepares a new facility operation command for the facility 104, the new command is written to the storage means of the facility 104 using any storage medium, or If the relevant equipment 104 is connected to the manufacturer via the external network 98, the equipment operation command is sent to the equipment 104 via the network 98, written into the storage means, and used as a new operation command. It can be possible.

—操作端末一  —Operation terminal

生活支援システム 1 0 0の 3番目のサブシステムであ-る操作端末 1 0 3は、 ュ 一ザが環境内の物品操作を指示する為の端末装置である。  The operation terminal 103, which is the third subsystem of the life support system 100, is a terminal device for the user to instruct the operation of articles in the environment.

図 1に示すように、 操作端末 1 0 3はその基本構成として、 ユーザによる物品 を指定する操作や当該物品を所定場所に移動する操作等によつて物品移動指示を 行うことにより当該物品移動指示などの操作指示が入力される物品操作装置 1 1 8と、 操作画面を表示する表示装置 1 1 9と、 前記表示装置 1 1 9の操作画面に 設備内の物品や場所を指示できるような表示形態を生成して、 実環境の映像の上 に、 図 1 0 〜図1 O C及び図 1 2のような吹き出し画像を重畳して合成する設 備内表示手段 1 2 4と、 物品操作装置 1 1 8にて入力された物品操作の指示内容 を環境管理サーバ 1 0 1に送る第 3送受信部 1 4 2と、 第 3送受信部 1 4 2と物 品操作装置 1 1 8と設備内表示手段 1 2 4とをそれぞれ制御して、 例えば、 物品 操作装置 1 1 8からの物品を指定する操作や当該物品を所定場所に移動する操作 等によつて物品移動指示を行うように動作制御する第 3制御手段 1 2 0とより構 成される。  As shown in FIG. 1, the operation terminal 103 has a basic configuration in which an article movement instruction is performed by a user's operation of designating an article, moving the article to a predetermined place, or the like. An operation device 1 18 for inputting an operation instruction such as an operation instruction, a display device 1 19 for displaying an operation screen, and a display on the operation screen of the display device 1 19 for indicating an article or a location in the equipment. An in-facility display unit 124 that generates a form and superimposes and synthesizes a balloon image as shown in FIGS. 10 to 1OC and FIG. 12 on an image of the real environment, and an article operation device 1 3rd transmission / reception unit 14 2, 3rd transmission / reception unit 14 2, material operation device 1 18, and display means in equipment that send the instruction content of goods operation input at 18 to the environmental management server 101 1 and 4, respectively, for example, an operation to specify an article from the article operation device 1 18 or Made more structure and the third control means 1 2 0 controlling the operation to perform by connexion article movement instruction to the operation or the like to move the article in place.

<物品操作装置 >  <Article handling device>

物品操作装置 1 1 8では、 利用者は、 表示装置 1 1 9に表示された画像を参照 しながら、 物品操作の指示を出す。 例えば実状況をカメラなどで撮影したリアル タイムの映像をそのまま表示装置 1 1 9に表示し、 利用者はその映像を見ながら 物品操作を行う。 この物品操作には、 例えばポインティングデバイス (マウス、 タツチパネル、 視線入力) やキーボードによるカーソル移動などが用いられる。 図 4 A及び図 4 Bは、 前述の物品データベース 1 0 7の内容説明に用いたが、 一方で、 これらの図は実状況をカメラなどで撮影したリアルタイムの映像をその まま表示したものにも相当する (ただし、 引き出し線及び参照符号は除く。 ) 。 すなわち、 図 4 A及び図 4 Bは、 それぞれ物品操作前 (物品片付け前) と物品操 作後 (物品片付け後) の操作画面例を示している。 In the article operation device 118, the user gives an instruction for article operation while referring to the image displayed on the display device 119. For example, a real-time video image of the actual situation taken by a camera or the like is displayed on the display device 119 as it is, and the user operates the article while watching the video image. For example, a pointing device (mouse, Touch panel, line-of-sight input) and keyboard cursor movement are used. 4A and 4B were used to explain the contents of the article database 107 described above.On the other hand, these figures also show real-time images of actual situations taken with cameras or the like. Corresponding (excluding lead lines and reference symbols). That is, FIGS. 4A and 4B show examples of operation screens before the article operation (before article clearing) and after the article operation (after article clearing), respectively.

ここで、 図 4 A及び図 4 Bの操作画面を用い、 物品を指定する操作及び指定し た物品を所定場所に移動する操作の一例として、 以下の操作が行われたこととす る。 すなわち、  Here, it is assumed that the following operation has been performed as an example of an operation of designating an article and an operation of moving the designated article to a predetermined location using the operation screens of FIGS. 4A and 4B. That is,

1 ) 画面上で操作したい物品までマウスカーソルを移動。  1) Move the mouse cursor to the item you want to operate on the screen.

2 ) ドラッグによって物品を確定し、 そのまま移動したい場所までカーソルを 動かしドロップする。  2) Determine the item by dragging, move the cursor to the position you want to move and drop it.

前記の操作は、 2ステップからなる非常に簡単な操作である。 図 4 A中の矢印 付き曲線は、 ドラッグ&ドロップの間におけるマウスカーソルの移動軌跡の例で ある。 例えば手帳 S # 0 0 0 1 をテープ の上に置きたい場合、 まずマウス カーソルを手帳 S # 0 0 0 1 の所まで移動してドラッグし、 その状態のまま カーソルをテーブルの上に移動させ、 マウスをドロップする。  The above operation is a very simple operation consisting of two steps. The curve with the arrow in Fig. 4A is an example of the movement locus of the mouse cursor during drag and drop. For example, if you want to place Notebook S # 0 0 0 1 on the tape, first move the mouse cursor to Notebook S # 0 0 0 1 and drag it, then move the cursor over the table in that state, Drop the mouse.

ところで、 このような操作を後述の指示データに変換するためには、 単にカメ ラのリアルタイムな映像を画面にそのまま表示するだけでは十分ではなく、 以下 の 1 ) 及び 2 ) の処理が必要となる。 つまり、  By the way, in order to convert such an operation into instruction data described below, it is not enough to simply display a real-time image of the camera on the screen as it is, but the following processes 1) and 2) are required. . That is,

1 ) 画面上においてマウスで指示した物品が何である力、 また、 ドロップした 場所がどこであるかということの認識処理 (設備外部の操作) 、  1) Recognition processing of what force the article indicated with the mouse is on the screen, and where the drop location is (operation outside the equipment)

2 ) カメラ映像では見ることのできない領域にある物品、 例えば設備 1 0 4の 内部の物品や陰に隠れた物品を指示するため、 あるいは、 指示した物品をカメラ 映像では見ることのできない領域に移動する場合の場所を指示する処理 (設備内 部等の操作) 、 が必要になる。 次に、 これら 2点についての実施形態を説明する。  2) To indicate an article in an area that cannot be seen by the camera image, for example, an article inside the facility 104 or an article hidden behind a shadow, or move the indicated article to an area that cannot be seen by the camera image. In such a case, the process of specifying the location (operation of the inside of the equipment) is required. Next, embodiments of these two points will be described.

ぐ設備外部の操作 >  Operation outside the equipment>

まず、 設備内部等 (合蔵室の室内など) 以外の物品及び場所の指示の仕方につ いて説明する。 例えば、 直前に説明した手帳の移動の例では、 利用者は画面上で 「手帳 S # 0001」 の場所にマウスカーソルを移動させ、 「手帳 S#00 01」 をタリックする操作を行う。 この際、 移動操作対象物品が 「手帳 S # 0 001」 であることをシステムが理解するためには、 表示画面と 1対 1に対応し た 「手帳 S#0001」 の画面位置データが必要となる。 前記位置データの最 も簡単な表現方法は、 表示画面と 1対 1に対応した物品マスクデータを用いる方 法である。 ここでいう 「1対 1に対応した」 とは、 座標値が対応しているという 意味である。 First, how to indicate items and places other than inside the equipment (such as the interior of the collection room) will be explained. For example, in the previous example of moving a notebook, the user Move the mouse cursor to the location of "Notebook S # 0001" and perform an operation to tick "Notebook S # 00 01". At this time, in order for the system to understand that the object to be moved is “Notebook S # 0 001”, screen position data of “Notebook S # 0001” corresponding to the display screen on a one-to-one basis is necessary. Become. The simplest method of expressing the position data is a method using article mask data that has a one-to-one correspondence with the display screen. Here, “corresponding one-to-one” means that the coordinate values correspond.

表示画面においてある物品の位置を座標値で指定すると、 次に物品マスクデー タにて同じ座標値を参照する。 物品マスクデータでは、 物品の存在する座標ィ直に、 その属性として物品データへのポインタが記載されている。 そのポインタをたど つて物品データを参照することで、 表示画面の物品が何であるかが分かる。  When the position of an article on the display screen is specified by a coordinate value, the same coordinate value is then referred to in the article mask data. In the article mask data, a pointer to the article data is described as an attribute immediately at the coordinates where the article exists. By following the pointer and referring to the article data, it is possible to know what the article on the display screen is.

ここで問題となるのは、 前記物品マスクデータをどのように作成するかである。 もし前述の背景差分法を使って、 物品を検出するためのカメラ画像がそのまま物 品操作のための表示画面に使われるならば、 背景差分法の結果を用いればよい。 なぜなら、 背景差分を行った結果として物品の画面内の位置が検出されるので、 それをそのままマスクデータとして使えるからである。  The problem here is how to create the article mask data. If the camera image for detecting an article using the background subtraction method described above is used as it is in a display screen for article operation, the result of the background subtraction method may be used. This is because the position of the article in the screen is detected as a result of the background subtraction, and can be used as it is as the mask data.

一方、 移動場所を認識する処理は、 例えば、 予め操作画面の映像と座標とが対 応した画面マップを使つて行う。 図 9 A〜図 9 Bは操作画面とそれに対応した画 面マップとの例を示した概念図であり、 図 9 Aは操作画面を示し、 図 9 Bは画面 マップを示している。 この例で分かるように、 画面マップとは、 前述の環境マツ プ情報データベース 109で指定された環境属性データ 601及び設備属性デー タ 602に相当する実体が、 操作画面のどの場所に存在するかを区別するデータ である。 画面マップは、 例えば画像データとして格納しておくことができる。 例 えば、 画面マップをそれぞれの画素が整数値で表された画像データとし、 その値 と場所とのペアを、  On the other hand, the process of recognizing the moving location is performed, for example, using a screen map in which the video of the operation screen and the coordinates correspond in advance. 9A and 9B are conceptual diagrams showing examples of an operation screen and a corresponding screen map. FIG. 9A shows an operation screen, and FIG. 9B shows a screen map. As can be seen from this example, the screen map indicates where on the operation screen the entities corresponding to the environment attribute data 601 and the equipment attribute data 602 specified in the above-described environment map information database 109 exist. This is the data to be distinguished. The screen map can be stored, for example, as image data. For example, a screen map is image data in which each pixel is represented by an integer value, and a pair of the value and the location is

0 :何もなし  0: Nothing

1 :床 「f l o o r #0001」  1: Floor `` f l oor # 0001 ''

2 :テーブル 「t a b l e #0001J  2: Table "t ab l e # 0001J

3 :冷蔵室 「Co l d r o om# 0001」 4 :冷凍室 「f r e e z e r # 000 1」 3: Cold room `` cold om # 0001 '' 4: Freezer “freezer # 000 1”

5 :一般ゴミ箱 (くずかご) 「wa s t e b a s k e t # 000 1」  5: General waste bin (waste basket) “wastebaskeet # 000 1”

6 : リサイクル用ゴミ箱 「wa s t e b a s k e t # 0002」  6: Recycling bin "wastebasket # 0002"

7 :食器棚 「c u p b o a r d # 0001」  7: Cupboard "c u p b o a r d # 0001"

などと予め決めておけばよい。 操作画面の適当な場所 (画素) を指定したときに その場所に何が存在するかを調べるためには、 対応する環境マップ情報データベ ース 1 09で同じ場所の画素の値を調べることで判断する。 但し、 この判断処理 は、 まず、 物品が存在する力否かを調べる処理を行い、 その場所に物品が無いこ とが確認されてから、 前記指定した場所に何が存在するかを調べることはいうま でもない。 It should be decided in advance such as. To determine what exists at the appropriate location (pixel) at the specified location on the operation screen, check the value of the pixel at the same location in the corresponding environment map information database 109. I do. However, in this determination process, first, a process for checking whether or not the article is in force is performed, and after it is confirmed that there is no article in the place, it is not necessary to check what exists in the specified place. Not a horse.

ここで挙げた例には、 内部構造を持つ冷蔵室や冷凍室が含まれているが、 その 内部のさらに具体的な物品や場所を指示するには、 後述する設備内部の操作処理 が必要である。 もちろん、 物品を収める場所が冷蔵室及ぴ冷凍室内のどの位置で も構わない場合は、 ここで説明した場所の指示方法で十分である。  The examples given here include refrigerators and freezers that have an internal structure, but in order to specify more specific items and locations inside them, it is necessary to perform operation processing inside the equipment described below. is there. Of course, if the place to store the goods can be at any position in the refrigerator compartment and the freezer compartment, the method of indicating the place described here is sufficient.

なお、 環境マップ情報データベース 109に登録する設備 104は、 一度設置 すると原則として殆ど動かさないものなので、 環境マップ情報データベース 10 9の作成の自動化が困難な場合は手作業で作成してもよい。 もちろん、 それぞれ の設備 104の立体モデルが既知でありカゝっ設置場所が正確に計算できるのであ れば、 環境マップ情報データベース 1 09の作成も自動化することができる。  The equipment 104 to be registered in the environmental map information database 109 is hardly moved once in principle once installed. Therefore, if it is difficult to automatically create the environmental map information database 109, it may be created manually. Of course, if the three-dimensional model of each facility 104 is known and the location of the installation can be calculated accurately, the creation of the environment map information database 109 can be automated.

<設備内部等の操作 > '  <Operation inside the equipment> ''

画面上で指示したい物品や場所が設備 1 04の内部にあったり、 設備 104の 後側に隠れている場合などでは、 カメラ映像にはそれら物品や場所は現れない為、 そのままでは指示ができない。 そこで、 次に、 これら設備 1 04の内部等の物品 及ぴ場所を指示するための簡単な手法の例を説明する。  When an article or place to be indicated on the screen is inside the facility 104 or is hidden behind the facility 104, such an article or place does not appear in the camera image, and the instruction cannot be performed as it is. Therefore, next, an example of a simple method for designating an article and a place where the article 104 is located will be described.

まず、 操作する物品のドラッグの有無に関わらず、 物品操作装置 1 1 8の一例 のマウスによりマウスカーソルで指定している場所が設備であるかどうかは、 上 述したように表示装置 1 1 9の画面に表示された画面マップ (図 9 B参照) を用 いて知ることができる。  First, regardless of whether an article to be operated is dragged or not, whether or not the location designated by the mouse cursor using the mouse as an example of the article operating device 118 is a facility is, as described above, the display device 1 19 You can find out by using the screen map (see Figure 9B) displayed on the screen.

そして、 物品操作装置 1 1 8の一例のマウスによりマウスカーソルで指定した 場所が設備 1 0 4であれば、 第 3制御手段 1 2 0の制御の下に、 設備 1 0 4の内 部の構造及び内部の物品を何らかの形態で設備内表示手段 1 2 4により表示し、 設備内部の位置及ぴ物品をマウスカーソルでユーザが指示できるようにする。 設 備内部の構造及び物品は、 環境マップ情報データベース 1 0 9及び物品データべ ース 1 0 7を参照することで知ることができる。 前述のように物品データベース 1 0 7では、 例えば物品を設備 1 0 4の内部に収納する場合又は設備 1 0 4の上 部などに設置する場合に、 その都度、 自動若しくは手動で、 物品データベース 1 0 7の物品収納又は設置場所の情報を更新している。 従って、 それぞれの設備 1 0 4にどんな物品が収納又は設置されているかどうかは、 第 3制御手段 1 2 0の 制御の下に、 第 3送受信部 1 4 2とネットワーク 9 8と第 1送受信部 1 1 0と第 1制御手段 1 1 1と物品検索■管理手段 1 0 6とを介して、 物品データベース 1 0 7を参照するだけで容易に把握できる。 設備内表示手段 1 2 4による設備 1 0 4の内部の構造及び物品の表示形態としては、 例えば、 以下のようなものが考え られる。 Then, the article operation device 1 1 8 was designated by a mouse cursor using a mouse as an example. If the location is the facility 104, under the control of the third control means 120, the internal structure of the facility 104 and the articles inside it are displayed in some form by the facility display means 124. The user can indicate the position and the article inside the equipment with the mouse cursor. The structure and goods inside the equipment can be known by referring to the environmental map information database 109 and the goods database 107. As described above, in the article database 107, for example, when articles are stored inside the facility 104 or installed at the top of the facility 104, the article database 1 07 The information of the article storage or installation location has been updated. Therefore, under the control of the third control means 120, what kind of articles are stored or installed in each facility 104 is determined by the third transmission / reception unit 142, the network 98, and the first transmission / reception unit. It can be easily grasped only by referring to the article database 107 via the 110, the first control means 111, and the article search / management means 106. As a display form of the structure and articles inside the facility 104 by the in-facility display means 124, for example, the following can be considered.

( 1 ) 第 1表示形態  (1) First display format

第 1表示形態では、 図 1 0 Aのように、 設備内部のそれぞれの物品画像を、 例 えばポップアップ表示で一定時間表示する。 特定の物品の指定は、 各物品が一定 時間表示されている間に特定物品の表示位置に、 矢印で示すマウスカ一ソルを移 動する方法で行っても良いし、 もちろん、 他の方法を用いても構わない。 図 1 0 Aでは、 冷凍室に、 矢印で示すマウスカーソルを移動したときに、 その内部に収 納されている物品であるアイスタリームの画像をポップアップで表示している例 を示している。 この表示例は、 設備内の物品を他へ移動するときに適している。 もちろん、 前記画像の代わりに文字を用いてもよい。 この第 1表示形態では、 物 品を設備内に移動するときには、 設備内のどの場所に置くかは前記生活支援シス テム (具体的には、 以下の手法。 ) に任される。  In the first display mode, as shown in FIG. 10A, each article image inside the equipment is displayed for a certain time, for example, in a pop-up display. The specification of a specific article may be performed by moving the mouse cursor indicated by an arrow to the display position of the specific article while each article is displayed for a certain period of time, or of course, using another method. It does not matter. FIG. 10A shows an example in which, when the mouse cursor indicated by an arrow is moved to the freezer compartment, an image of the ice cream, which is an article stored therein, is displayed in a pop-up. This display example is suitable for moving an article in the equipment to another. Of course, characters may be used instead of the image. In the first display mode, when a product is moved into the facility, the location in the facility is left to the life support system (specifically, the following method).

すなわち、 物品を設備内に移動するとき、 設備内のどの場所に置くかを探索動 作について説明する。 第 1制御手段 1 1 1が、 環境マップ情報管理手段 1 0 8及 び物品検索管理手段 1 0 6の情報に基づき、 当該物品が設置可能な場所を検索す る。 既に設置されている物品の位置及び大きさ (形状) は物品検索管理手段 1 0 6で管理されているので、 前記環境マップ情報管理手段 1 0 8で管理された環境 マップ (例えば、 冷蔵庫の 2段目の棚) のうち既に他の物品で占有されていない 場所を求めることができる。 図 2 0は設置可能な求め方を示した図である。 設置 しょうとする設備が冷蔵室 1 0 4 Dで下から 2番目の棚 1 0 4 D— 2にある物品 (食品の皿) を設置しょうとする場合を示している。 まず、 設備属性データ 6 0In other words, the search operation to determine where to place the article when moving the article into the facility will be described. The first control means 111 searches for a place where the article can be installed, based on the information of the environment map information management means 108 and the article search management means 106. The position and size (shape) of the already installed articles are the article search management means 10 6, it is possible to find a place that is not already occupied by another item in the environment map (for example, the second shelf of the refrigerator) managed by the environment map information management means 108. it can. FIG. 20 is a diagram showing a method of obtaining an installation possibility. This example shows the case where the equipment to be installed is the refrigerator compartment 104D and the items (food dishes) on the second shelf 104D-2 from the bottom are to be installed. First, equipment attribute data 6 0

2から冷蔵室 1 0 4 Dの下から 2番目の棚 1 0 4 D— 2の大きさを求め、 その大 きさの画像 1 0 4 D— 2 0 (画素値は全て 0 ) を用意する。 そして、 その上に物 品検索管理手段 1 0 6を用いて冷蔵室 1 0 4 Dの下から 2段目に設置してある物 品 (図 2 0では、 ペットボトルとバナナ) の位置と形状を求め、 前記 2番目の棚 1 0 4 D— 2の画像 1 0 4 D— 2 0の上に画素値 1として塗りつぶしていく (塗 りつぶし部分 1 0 4 D— 3を参照。 ) 。 そして、 残った画素ィ直 0の部分が、 物品 を設置可能な場所となる。 さらに、 設置する物品 (皿) の大きさのテンプレート 1 0 4 D— 4を用意し、 画素 0の領域に前記テンプレート 1 0 4 D— 4が収まる 力否かを手前左から順に操作してゆき (その軌跡を 1 0 4 D— 6で示す。 ) 、 前 記設置する物品 (皿) が収まる場所 1 0 4 D— 5を求め設置位置とする。 Calculate the size of the second shelf 1 0 4 D—2 from the bottom of the refrigerator compartment 10 4 D from 2 and prepare an image 10 4 D— 2 0 (all pixel values are 0) of that size . Then, the position and shape of the items (the PET bottles and bananas in Fig. 20) placed on the second stage from the bottom of the refrigerator compartment 104D using the item search management means 106 on top of them Is obtained, and the image of the second shelf 104D-2 is filled with a pixel value of 1 on the image 104D-2 (see the filled portion 104D-3). Then, the remaining portion of pixel 0 is a place where the article can be placed. Further, a template 104D-4 of the size of the article (dish) to be installed is prepared, and the template 104D-4 is accommodated in the pixel 0 area. (The trajectory is indicated by 104D-6.) Then, the location 104D-5 where the article (dish) to be installed fits is determined and set as the installation position.

( 2 ) 第 2表示形態  (2) Second display format

第 2表示形態では、 図 1 0 Bのように、 種類毎に階層表示を行う。 矢印で示す マウスカーソルで指示された設備 1 0 4が冷蔵室 1 0 4 Dであれば、 まず肉、 野 菜などの食品カテゴリーを表示し、 次に階層的に選ばれたカテゴリーに相当する 食品を表示する。 例えば、 肉の場合には豚肉と鶏肉、 野菜の場合にはにんじん、 レタスなどが表示される。 この第 2表示形態は、 設備内の構造をユーザ (操作 者) に意識させず、 欲しいものを探すのに適している。  In the second display mode, hierarchical display is performed for each type as shown in FIG. 10B. If the equipment 104 indicated by the arrow indicated by the mouse cursor is the refrigerator compartment 104D, the food categories such as meat and vegetables are displayed first, and then the food corresponding to the category selected hierarchically Is displayed. For example, pork and chicken are displayed for meat, and carrots and lettuce are displayed for vegetables. This second display mode is suitable for searching for desired items without making the structure of the equipment visible to the user (operator).

ここで、 設備 1 0 4内には複数の収納場所又は設置場所 (棚など) が存在する ものがあるが、 この収納場所又は設置場所毎に階層表示させてもよい。 第 1表示 形態のように物品の画像を表示する場合、 多数の物品がその設備内にあると、 煩 雑な画面になることが想定される。 従って、 この第 2表示形態のように階層的に 表示するのが効果的である。  Here, some of the equipment 104 may have a plurality of storage locations or installation locations (such as shelves), but the storage location or installation location may be displayed in a hierarchy. When displaying an image of an article as in the first display mode, a complicated screen is expected if a large number of articles are present in the facility. Therefore, it is effective to display hierarchically as in the second display mode.

また、 矢印で示すマウスカーソルで指示された設備 1 0 4が冷蔵庫 1 0 4 Bの 場合には、 食品 (物品) の賞味期限の早いものから順に 1 0個ずつ表示したり、 色や文字の大きさを変えて表示してもよい。 また、 冷蔵庫 1 0 4 Bに対して出し 入れの回数の多いものから表示するなど、 適宜見やすいように表示を工夫するこ とも可能である。 出し入れの回数に応じて表示するというのは、 例えば責品の場 合、 出し入れ回数が多いほど品質の劣化が激しくなるので、 そういうものほど目 立つように表示する、 という意味もあるし、 また良く使うものをより優先的に表 示する、 という意味もある。 また、 ユーザの情報を入力できるようにし、 ユーザ の持ち物であるかどう力や好みに応じて、 表示する物品をフィルタリングしても かまわない。 If the equipment 104 indicated by the mouse cursor indicated by the arrow is the refrigerator 104B, the foods (articles) are displayed in order of decreasing expiration date, such as by 10 pieces. The display may be performed by changing the color or the size of the character. In addition, it is also possible to devise the display so that it is easy to see as appropriate, such as displaying the refrigerator 104B from the one that has been put in and out frequently. Displaying according to the number of times of putting in and out means, for example, in the case of a responsible article, the more the number of times of putting in and out, the more the quality deteriorates, so it means that such a thing is displayed more conspicuously and better. It also means to give priority to what is used. In addition, it is possible to input user information, and to filter displayed articles according to power and preference as to whether or not the item belongs to the user.

( 3 ) 第 3表示形態  (3) Third display format

図 1 0 Cのように、 設備の一例である冷蔵室 1 0 4 D内にカメラ 1 2 3 Aを設 置して物品をセンシングしている場合 (例えば第 4センシング部 1 2 3を使用) に矢印で示すマウスカーソルで冷蔵室 1 0 4 Dを指示する場合には、 その冷蔵室 1 0 4 D内の映像を表示し、 床やテーブル上の物品や場所を指示するのと同様の 技術で、 前記冷蔵室 1 0 4 D内の映像上の物品や場所をマウスカーソルで指示す る。 このとき、 表示する冷蔵室 1 0 4 D内の映像を拡大表示すると、 より操作性 が良くなる。 また、 冷蔵室 1 0 4 D内はそのドアが閉まっていると内部が暗く力 メラで撮影できないので、 冷蔵室 1 0 4 D内部に照明を設置し、 撮影する際に前 記照明を点灯するのが望ましい。 さらに、 撮影された冷蔵室 1 0 4 D内の映像を 画面上の冷蔵室 1 0 4 Dのドアに表示することで、 いつもと同様の見え方で直感 的に指示操作することもできる。  As shown in Fig. 10C, when a camera 123A is installed in a refrigerator compartment 104D, which is an example of equipment, to sense goods (for example, using the fourth sensing unit 123) When pointing to the refrigerator compartment 104D with the mouse cursor indicated by an arrow, the image in the refrigerator compartment 104D is displayed, and the same technology as that for pointing the goods and places on the floor and table is used. An article or location on the image in the refrigerator compartment 104D is indicated by a mouse cursor. At this time, operability is further improved by enlarging and displaying the image in the refrigerator compartment 104D to be displayed. Also, if the door inside the refrigerator compartment 104D is closed, the interior will be dark and it will not be possible to take a picture with the power of the camera. Is desirable. Furthermore, by displaying the photographed image of the refrigerator compartment 104D on the door of the refrigerator compartment 104D on the screen, it is possible to intuitively operate the instruction with the same appearance as usual.

( 4 ) 第 4表示形態  (4) Fourth display format

第 4表示形態では、 図 1 0 Dのように、 設備 1 0 4に、 矢印で示すマウスカー ソルを重ねる等の指示操作を行ったときに、 設備 1 0 4が収納体であればそのド ァを自動的に開くことで、 直接表示画面に設備内部を表示させる。 前述したよう に、 各設備 (例えば収納体) には操作指示コマンドが用意されており、 この操作 指示コマンドを用いて、 このような処理が実現できる。  In the fourth display mode, as shown in FIG. 10D, when an instruction operation such as overlaying a mouse cursor indicated by an arrow on the equipment 104 is performed, if the equipment 104 is a storage body, the door is operated. By automatically opening the key, the inside of the equipment is displayed directly on the display screen. As described above, an operation instruction command is prepared for each facility (for example, a storage body), and such processing can be realized using the operation instruction command.

具体的には、 図 1 O Dに矢印で示すように、 マウスカーソルで所望の設備 (例 えば収納体) (例えば冷蔵室) を物品操作装置 1 1 8により指示操作すると、 第 3制御手段 1 2 0により、 第 3送受信部 1 4 2とネットワーク 9 8を介して、 設 備 104の一例である 「C o 1 d— r o om# 0001」 (冷蔵室) を有する冷 蔵庫 140Bの第 4送受信部 140を介して第 4制御手段 121に 「d o o r # o p e nj のコマンドが送信され、 冷蔵室のドアが開き、 表示画面に冷蔵室内部 が直接映し出される。 そして、 物品操作装置 118により物品又は収納場所の指 示が終わったと判断すると、 第 3制御手段 120により.、 第 3送受信部 142と ネットワーク 98を介して、 前記冷蔵庫 140 Bの第 4送受信部 140を介して 第 4制御手段 1 21に 「d o o r #c l o s eJ のコマンドを送信する。 なお、 この表示形態は実際のドアを開閉するので、 冷蔵庫等よりもクローゼット、 靴箱 などのように温度や湿度を管理していない設備の方がより適している。 Specifically, as shown by an arrow in FIG. 1 OD, when a desired equipment (for example, a storage body) (for example, a refrigerator) is instructed by a mouse cursor with the article operating device 118, the third control means 1 2 0, the setting is performed via the third transmitting and receiving The command “door #ope nj” is sent to the fourth control means 121 via the fourth transmission / reception unit 140 of the refrigerator 140B having “C o 1 d—ro om # 0001” (refrigeration room), which is an example of the storage 104. Then, the door of the refrigerator compartment is opened, and the interior of the refrigerator compartment is directly displayed on the display screen, and when it is determined that the instruction of the article or the storage place has been completed by the article operating device 118, the third control means 120, (3) A command of “door #clos eJ” is transmitted to the fourth control means 121 via the fourth transmission / reception unit 140 of the refrigerator 140 B via the transmission / reception unit 142 and the network 98. Since the doors are opened and closed, facilities that do not control temperature and humidity, such as closets and shoe boxes, are more suitable than refrigerators.

(5) 第 5表示形態  (5) Fifth display format

図 10Eに示すように、 冷蔵室や冷凍室等、 温度や湿度などを管理している設 備の場合は、 その壁面の一部又は全部を透過■非透過切り替え可能な壁にしてお き、 上述したドアの開閉と同様のタイミングで壁面を透過 ·非透過させる第 5表 示形態としてもよい。 冷蔵室や冷凍室にそのような透過■非透過用ドアを設置し、 「d o o r # t r a n s p a r e n t #o n」 の透過コマンド、 又は 「 d o o r As shown in Figure 10E, in the case of equipment that controls temperature, humidity, etc., such as a refrigerator compartment or a freezer compartment, some or all of the walls are made walls that can be switched between transparent and non-transparent. A fifth display mode in which the wall surface is transmitted and non-transmitted at the same timing as the opening and closing of the door described above may be adopted. Install such a transparent / non-transparent door in the refrigerator or freezer, and use the transparent command “dor #t r a n s p a r en t #on” or “d oor

# t r a n s p a r e n t # o f fJ の非透過コマンドを用意することにより、 このようなコマンドを用いて前記表示形態をそれぞれ実現することができる。 また、 これらの表示形態を状況又は設備の種類に応じて切り替えることも有効 である。 例えば、 ドラッグした物品を設備の中に収めるときには第 1表示形態で 表示する一方、 設備内の物品を指示するときには第 2〜第 4表示形態のいずれか で表示する。 このような切替処理を実現するには、 図 11で示したような表示形 態テーブルを設備内表示手段 124の記憶部に用意し、 設備内表示手段 124は、 このテーブルに基づいてユーザの操作及び設備に応じて表示形態を切り替える。 図 1 1の表示形態の番号 (形態 1〜形態 5 ) は図 10 A〜図 10 Eの第 1表示形 態〜第 5表示形態とそれぞれ対応している。 また、 これとは別に、 操作する人に 応じて、 操作する設備に応じて、 あるいは操作する物品に応じて、 表示形態を変 えてもよレ、。 すなわち、 各種の属性に応じて表示形態を適宜選択するようにして もよい。 さらに、 使用する人に応じて、 その設備内に存在する物品を取捨選択し て表示することも可能である。 これを行うには、 物品データベース内の 「主に使 用する人及び持ち主」 のデータを用い、 使用する人が 「子供」 であり、 令蔵庫を 指示した場合には、 「バナナ」 など子供がよく食する食材が優先的に表示するよ うに制御することができる。 また、 ユーザの所有する物品ばかり表示することで、 煩わしい表示とならないことも期待できる。 ここで、 使用している人が誰である かは、 例えば、 ユーザは本生活支援システムにログインすることでシステムを使 用可能になり、 その口グインのセッシヨンでユーザが誰であるかを判定すること が可能である。 もちろん、 指紋認識や虹彩認識などの認証技術を用いることも可 能である。 また、 さらに、 図 3 A〜図 3 Bの物品データベースには表示しなかつ たが、 タグリーダを用いてセンシングを行っている場合、 各物品の消費期限も物 品データベースに記録することができ、 これを用いて、 消費期限の早い物から優 先的に表示することも有効である。 By preparing a non-transparent command of # transparent # of fJ, each of the display modes can be realized by using such a command. It is also effective to switch these display modes according to the situation or the type of equipment. For example, when the dragged item is placed in the facility, it is displayed in the first display mode, while when the user designates the item in the facility, it is displayed in any of the second to fourth display modes. In order to realize such a switching process, a display form table as shown in FIG. 11 is prepared in the storage section of the in-facility display means 124, and the in-facility display means 124 performs a user operation based on this table. And the display mode is switched according to the equipment. The numbers of the display forms (forms 1 to 5) in FIG. 11 correspond to the first to fifth display forms in FIGS. 10A to 10E, respectively. Alternatively, the display form may be changed according to the person who operates, the equipment to be operated, or the article to be operated. That is, the display mode may be appropriately selected according to various attributes. In addition, it is also possible to select and display the goods that exist in the equipment according to the user. To do this, use the "Mainly Using the data of `` users and owners '', if the user is a `` child '' and instructed the storage, control to give priority to the foods often consumed by children, such as `` bananas '' can do. Also, by displaying only the items owned by the user, it can be expected that the display will not be bothersome. Here, for example, the user is able to use the system by logging in to the life support system, and the user is determined by the session of the mouth login. It is possible to do so. Of course, it is also possible to use authentication technologies such as fingerprint recognition and iris recognition. In addition, when not displayed in the article database of FIGS. 3A and 3B, but using a tag reader for sensing, the expiration date of each article can also be recorded in the article database. It is also effective to preferentially display items with earlier expiration dates by using.

次に、 画面上で指示したい物品や場所が設備に隠蔽されている場合の表示形態 について説明する。 設備に隠蔽された領域は、 上述した設備内部と同様、 マウス 等で指示することができる。 しかしこの場合、 その後に、 設備内部であるかその 背後であるか、 あるいはその背後の設備内であるか、 といったカメラ 1 0 5 Aの 視線からの奥行き方向への位置の指示が必要となる。 これを実現する 1つの方法 として、 前面にある設備に関しては、 その背後に隠蔽されているその他の設備や 部屋の床等を自分自身の構造の一部と見なすことで、 上述した第 1〜第 3表示形 態をそのまま適応できる。  Next, a description will be given of a display mode in a case where an article or place to be instructed on the screen is hidden by the facility. The area hidden by the equipment can be indicated by a mouse or the like, similarly to the inside of the equipment described above. However, in this case, thereafter, it is necessary to indicate the position in the depth direction from the line of sight of the camera 105A, such as whether it is inside the facility, behind it, or inside the facility behind it. One way to achieve this is to consider the other equipment hidden behind it, the floor of the room, etc. as part of its own structure for the equipment in the front, and 3 The display mode can be applied as it is.

図 1 2 Aはその様子を前記第 1表示形態のポップアツプリスト形式で実現した 例である。 ユーザが不特定の人であり、 そのユーザが、 物品操作装置 1 1 8の一 例であるマウスによりマウスカーソルを、 表示装置 1 1 9の操作画面の前面にあ る食器棚 1 0 4 Mに合わせる (又は、 クリックする) と、 第 3制御手段 1 2 0で の制御の下に、 設備内表示手段 1 2 4により、 前面にある食器棚 1 0 4 M、 並び に、 食器棚 1 0 4 Mの向こうにある (食器棚 1 0 4 Mの背後にそれぞれ隠蔽され ている) 令蔵庫 1 0 4 B及び床 1 0 4 Hの内容がポップアップされ、 それぞれに 収納又は設置されている物品をマウスで指示することが可能となる。  FIG. 12A shows an example in which this is realized in the pop-up list format of the first display mode. The user is an unspecified person, and the user moves the mouse cursor using a mouse, which is an example of the article operation device 118, to the cupboard 104M in front of the operation screen of the display device 119. When adjusted (or clicked), under the control of the third control means 120, the in-facility display means 124 allows the front cupboards 104 M, and the cupboards 104. Behind M (hidden behind cupboard 104 M, respectively) The contents of the storage room 104 B and floor 104 H are popped up, and the items stored or installed in each are displayed. It is possible to specify with a mouse.

又、 図 1 2 Bはユーザが 「子供」 である場合に、 子供が、 物品操作装置 1 1 8 の一例であるマウスによりマウスカーソルを、 表示装置 1 1 9の操作画面の前面 にある食器棚 1 0 4 Mに合わせる (又は、 クリックする) ときの表示例である。 ここでは、 図 1 2 Aのポップアップされた物品のうち、 子供が主に使用する物品 だけが表示されている。 In addition, FIG. 12B shows that when the user is a “child”, the child moves the mouse cursor with a mouse, which is an example of the article operation device 118, in front of the operation screen of the display device 119. The following is an example of the display when matching (or clicking) the cupboard 104M in. Here, of the items popped up in Fig. 12A, only items that are mainly used by children are displayed.

ここで、 マウスで指示した点の背後にどれだけの設備が隠れているかを知る方 法が必要となる。 上述したように、 マウスで指示した点が設備であるかどうかを 調べる方法として、 画面マップ (図 9 B参照) を用いる方法がある。 ここでは、 これを拡張し、 十分な数の画面マップ (階層化画面マップ) を設備内表示手段 1 2 4内に用意し、 第 3制御手段 1 2 0の制御の下に設備内表示手段 1 2 4により、 1つの画面マップ内で複数の設備が重ならないよう全ての設備をそれぞれの画面 マップに配置する。 そして、 各画面マップ上でマウスで指示した点を含む設備力 s、 カメラ視線の奥行き方向に存在することになり、 これら複数の設備及びその複数 の設備のいずれかに隠蔽された床が、 前記ポップアップリストの内容として表示 する対象となる。 図 1 3 ~図1 3 0は図1 2 Aの環境に対応した階層化画面マ ップである。 図 1 3 Aは最も奥の画面マップ (床と壁の画面マップ) 、 図 1 3 B は奥から 1つ手前の画面マップ (床と壁に加えて 2つのくずかごと冷蔵庫の画面 マップ) 、 図 1 3 Cはさらに 1つ手前の画面マップ (床と壁に加えて食器棚の画 面マップ) 、 図 1 3 Dは最も手前の画面マップ (床と壁に加えてテーブルの画面 マップ) である。 図 1 3 A〜図 1 3 Dから分かるように、 それぞれの画面マップ 内で設備が重なり合っていることはない。 Here, a method is needed to know how much equipment is hidden behind the point indicated by the mouse. As described above, there is a method using a screen map (see Fig. 9B) as a method for checking whether the point indicated by the mouse is a facility. Here, this is extended and a sufficient number of screen maps (hierarchical screen maps) are prepared in the in-facility display means 124, and under the control of the third control means 120, the in-facility display means 1 According to 24, all equipments are arranged on each screen map so that multiple equipments do not overlap in one screen map. Then, the facility power s including the point indicated by the mouse on each screen map is present in the depth direction of the camera's line of sight, and the plurality of facilities and the floor hidden by any of the plurality of facilities are: It will be displayed as the contents of the pop-up list. FIGS. 13 to 13 are hierarchical screen maps corresponding to the environment of FIG. 12A. Fig. 13A is the screen map of the innermost part (floor and wall screen map), and Fig. 13B is the screen map of one nearer from the back (the floor and wall, and the screen map of the refrigerator with two wastebaskets in addition to the floor). 13C is the screen map of the foreground (screen map of the cupboard in addition to the floor and wall), and Fig. 13D is the screen map of the foreground (screen map of the table in addition to the floor and wall). . As can be seen from Figs. 13A to 13D, the equipment does not overlap in each screen map.

さらに、 マウスで指示した点の背後の設備内の表示を、 物品操作装置 1 1 8の 一例である別のスィツチ的な入力装置 (例えばホイー^ <マウスのホイ一ノレやキー ボードの上下矢印キーなど) を 1度入力する毎に、 第 3制御手段 1 2 0の制御の 下に設備内表示手段 1 2 4により、 手前あるいは奥から順に選択的に画面マップ を変えることも可能である。 例えば、 図 1 2 Aの例で、 第 3制御手段 1 2 0の制 御の下に設備内表示手段 1 2 4により、 マウスカーソルを食器棚 1 0 4 Mに合わ せると食器棚 1 0 4 Mの中に収納された物品の内容がポップアップ表示され、 次 に 「上」 矢印キーを一度押すと、 食器棚 1 0 4Mの 1つ向こうの冷蔵庫 1 0 4 B の内部に収納された物品の内容がポップアップ表示され、 さらにもう一度 「上」 矢印キーを押すと、 床 1 0 4 Hの上に置かれた物品の内容がポップアップ表示さ れる、 等である。 そして、 第 3制御手段 1 2 0の制御の下に設備内表示手段 1 2 4により、 もう一度 「上」 矢印キーを押すことで、 再度、 食器棚 1 0 4 Mの中に 収納された物品の内容に戻すようにもできる。 逆に、 第 3制御手段 1 2 0の制御 の下に設備内表示手段 1 2 4により、 「下」 矢印キーで反対の順にその内容をポ ップアップ表示することもできる。 また、 ポップアップ表示された中の物品をド ロップした後、 あるいはそのドロップした物品を (ポップアップ表示される) 移 動先にドラッグした後に、 第 3制御手段 1 2 0の制御の下に設備内表示手段 1 2 4により、 ポップアップ表示を消すようにすることができる。 In addition, the display inside the equipment behind the point indicated by the mouse is displayed on another switch-like input device (for example, wheel ^ <mouse wheel or the up and down arrow keys on the keyboard), which is an example of the article operation device 118. Each time the user inputs a new one, the screen map can be selectively changed from the near side or the back side by the in-facility display means 124 under the control of the third control means 120. For example, in the example of FIG. 12A, when the mouse cursor is pointed at the cupboard 104M by the in-facility display means 124 under the control of the third control means 120, the cupboard 104 The contents of the items stored in M are displayed in a pop-up.Next, press the “Up” arrow key once to display the contents of the items stored in the refrigerator 10 The content pops up, and again pressing the “Up” arrow key will pop up the content of the item placed on floor 104H. , Etc. Then, under the control of the third control means 120, the in-facility display means 124 presses the "up" arrow key once again, thereby again displaying the articles stored in the cupboard 104M. You can return to the content. Conversely, under the control of the third control means 120, the in-facility display means 124 can display the contents in a pop-up order in the reverse order with the "down" arrow key. In addition, after dropping the item in the pop-up display, or dragging the dropped item to the destination (pop-up display), the display in the facility is controlled under the control of the third control means 120. With the means 124, the pop-up display can be erased.

<操作端末の第 3制御手段〉  <Third control means of operation terminal>

第 3制御手段 1 2 0は、 物品操作装置 1 1 8から上述の操作指示を受けて、 指 示データを生成し、 当該指示データをロボット 1 0 2の第 2送受信部 1 4 1に対 して第 3送受信部 1 4 2とネットワーク 9 8とを介して送信する。 指示データと は、 ロボット 1 0 2の行動計画作成手段 1 1 7によるロボット 1 0 2の行動計画 を作成する元になるデータである。 この指示データは、 (操作する物品、 移動 先) の 2糸且の値を持つ。 例えば、 手帳をテーブル上に移動させる場合には、 「手 帳 S # 0 0 0 1、 テーブル」 が指示データとなる。 移動先には、 環境マップ情 報データベース に登録されている前記環境属性データ 6 0 1若しくは設備 属性データ 6 0 2で登録された場所のみが指定可能である。 また、 移動先がある 程度広い範囲を持っため移動先の名称だけでは場所が特定できない場合は、 移動 先に付加して具体的な座標値を実世界座標系 (環境を基準にした実際の位置を表 す座標系であり、 図 5 A〜図 5 Cで示した座標系) の座標値で指定すればよい。 例えば、 ある物品を床の決められた場所に置く場合などがこれに当たり、 「物品、 床 (x l , y 1 , 0 ) 」 などと指定する。 表示画面で指示した場所の実世界座標 系における座標値は、 環境マップ情報データベース 1 0 9内に、 例えば図 5 Bの 立体モデル版環境マップの情報を格納しておき、 前記立体モデルと表示画面を映 しているカメラ 1 0 5 Aのパラメータ (カメラ 1 0 5 Aの位置、 姿勢、 画角な ど) とから制御手段などで計算することが可能である。 なお、 このような計算方 法はコンピュータグラフィッタスの基本的な公知技術であるので、 その説明は省 略する。 また、 前記立体モデル及び前記カメラパラメータが既知であれば、 前述 の環境マップ情報データベース 1 0 9も計算によって求めることが可能となる。 一口ポットー The third control means 120 receives the above-mentioned operation instruction from the article operation device 118, generates instruction data, and sends the instruction data to the second transmitting / receiving unit 141 of the robot 102. The transmission is performed via the third transmission / reception unit 142 and the network 98. The instruction data is data from which an action plan of the robot 102 is created by the action plan creation means 117 of the robot 102. This instruction data has the following two values: (article to be operated, destination). For example, when a notebook is moved on a table, "notebook S # 001, table" is the instruction data. As the destination, only the location registered in the environment attribute data 601 or the facility attribute data 602 registered in the environment map information database can be designated. If the destination cannot be specified only by the name of the destination because the destination has a certain extent, the specific coordinates are added to the destination and the specific coordinate values are added to the real world coordinate system (the actual position based on the environment). This is a coordinate system that expresses the coordinates, and may be specified by the coordinate values of the coordinate system shown in Figs. 5A to 5C. For example, when an article is placed on a fixed place on the floor, this is specified as "article, floor (xl, y1, 0)". The coordinate values in the real world coordinate system of the location designated on the display screen are stored in the environment map information database 109, for example, the information of the three-dimensional model version environment map shown in FIG. 5B. It can be calculated by control means from the camera 105A parameters (position, posture, angle of view, etc. of the camera 105A) that are displaying the image. Since such a calculation method is a basic well-known technique of computer graphics, its description will be omitted. If the three-dimensional model and the camera parameters are known, Of the environment map information database 109 can be obtained by calculation. Bite potoo

4番目のサブシステムであるロボット 1 0 2は、 本実施形態に係る生活支援シ ステム 1 0 0において、 環境内の物品を実際に把持して持ち運ぶ役目を担う。 図 1及ぴ図 1 4に示すように、 口ポット 1 0 2は、 その基本構成として、 口ボ ット 1 0 2の周囲の近辺の障害物などを検知したり、 把持する物品 4 0 0の情報 を得るセンサ (例えば障害物センサ) 1 1 2と、 物品 4 0 0を把持する把持部 1 1 3と、 環境マップ情報データベース 1 0 9を使ってロボット 1 0 2の移動計画 を立てる移動計画作成手段 1 1 4と、 ユーザからの指示を実行するため当該ロボ ット 1 0 2の行動計画をその指示内容に応じて立案する行動計画作成手段 1 1 Ί と、 ロボット 1 0 2を移 ¾させる駆動部 1 1 5と、 環境管理サーバ 1 0 1の第 1 送受信部 1 1 0と操作端末 1 0 3の第 3送受信部 1 4 2と設備 1 0 4の第 4送受 信部 1 4 0とネットワーク 9 8を介して様々なデータの送受信を行う第 2送受信 部 1 4 1と、 センサ 1 1 2と第 2送受信部 1 4 1と把持部 1 1 3と移動計画作成 手段 1 1 4と行動計画作成手段 1 1 7と駆動部 1 1 5とをそれぞれ制御して、 口 ボット 1 0 2の動作制御を行う第 2制御手段 1 1 6 (物品移動制御手段の一例) とより構成される。  The robot 102, which is the fourth subsystem, plays a role of actually holding and carrying articles in the environment in the life support system 100 according to the present embodiment. As shown in FIG. 1 and FIG. 14, the mouth pot 102 has, as a basic configuration, an article 400 that detects an obstacle around the mouth bot 102 and grips the object. (For example, an obstacle sensor) that obtains information of the robot, a gripper that grips the article, and a movement that plans the movement of the robot using the environment map information database. Move the plan creation means 1 1 4, the action plan creation means 1 1 Ί for drafting the action plan of the robot 102 according to the contents of the instruction to execute the instruction from the user, and the robot 102. The drive unit 1 15 to be operated, the first transmission / reception unit 110 of the environmental management server 101, the third transmission / reception unit 142 of the operation terminal 103, and the fourth transmission / reception unit 14 of the facility 104 0, a second transmission / reception unit 14 4 1 that transmits and receives various data via the network 98, a sensor 1 1 2, a second transmission / reception unit 1 4 1, and a grip unit 1 1 3 The second control means 1 1 6 (article movement control means) for controlling the movement of the mouth bot 102 by controlling the movement plan creating means 1 1 4, the action plan creating means 1 17 and the driving section 1 15 respectively. ).

ロボット 1 0 2の物品把持及び運搬操作に際しては、 操作端末 1 0 3 (具体的 には物品操作装置 1 1 8と第 3制御手段 1 2 0と第 3送受信部 1 4 2と) を介し てユーザが指示を出し、 その指示内容をコード化した指示データがネットワーク When the robot 102 grasps and transports the article, the operation terminal 103 (specifically, the article operating device 118, the third control means 120, and the third transmitting / receiving unit 144) is used. The user issues an instruction, and the instruction data obtained by encoding the instruction content is transmitted to the network.

9 8を介して当該ロボット 1 0 2の第 2送受信部 1 4 1に送信される。 ロボットIt is transmitted to the second transmission / reception unit 14 41 of the robot 102 via 98. robot

1 0 2の第 2送受信部 1 4 1が当該指示データを受信すると、 第 2制御手段 1 1 6の制御の下に、 行動計画作成手段 1 1 7は前記指示データからロボット 1 0 2 自身が行動するためのロボット制御コマンドのリストを生成し、 ロボット 1 0 2 の第 2制御手段 1 1 6はそれらロボット制御コマンドを順に処理することによつ て、 物品 4 0 0の把持及び運搬操作を実行する。 When the second transmission / reception unit 14 1 of 102 receives the instruction data, under the control of the second control unit 1 16, the action plan creation unit 1 17 sends the robot 10 2 itself from the instruction data. A list of robot control commands for action is generated, and the second control means 1 16 of the robot 102 processes the robot control commands in order to perform the gripping and transporting operation of the article 400. Execute.

ここでいうロポット制御コマンドは、 ロポット 1 0 2による把持やロボット 1 0 2の移動、 さらには、 ロボット 1 0 2の動作に関連した前記設備 1 0 4の制御 を行うためのコマンドであり、 大きく分けると主に、 ■把持 The robot control command referred to here is a command for performing gripping by the robot 102, movement of the robot 102, and control of the facility 104 related to the operation of the robot 102. When divided, mainly ■ grip

'解放  'Release

•設備操作  • Equipment operation

の 4種類がある。 以下、 これらを説明する。 There are four types. Hereinafter, these will be described.

「移動」 は、 「m o V e, 座標値」 又は 「m o V e, 設備 I D」 で表される。 このコマンドを受けると、 ロボット 1 0 2は現在位置から前記座標値で指定され た位置又は前記設備 I Dで指定された設備 1 0 4まで移動する。 ここでは、 座標 値は実世界座標系で指定し、 移動経路の計画は移動計画作成手段 1 1 4が立案す る。 設備 1 0 4に移動するときは、 設備 1 0 4に対して所定の距離まで近づくよ うな経路を移動計画作成手段 1 1 4が作成する。 なお、 設備 1 0 4の場所の座標 値は、 ネットワーク 9 8を介して環境マップ情報データベース 1 0 9内の設備属 性データ 6 0 2を参照することで得ることができる。  “Move” is represented by “moVe, coordinate value” or “moVe, equipment ID”. Upon receiving this command, the robot 102 moves from the current position to the position specified by the coordinate value or the device 104 specified by the device ID. Here, the coordinate values are specified in the real world coordinate system, and the movement route is planned by the movement plan creation means 114. When moving to the facility 104, the movement plan creating means 114 creates a route that approaches the facility 104 to a predetermined distance. The coordinates of the location of the facility 104 can be obtained by referring to the facility attribute data 602 in the environment map information database 109 via the network 98.

「キ巴持」 は、 「g r a b, 物品 I D J で表される。 このコマンドを受けると、 ロボット 1 0 2は物品 I Dで指定された物品 4 0 0を把持する。 物品 4 0 0の場 所はネットワーク 9 8を介して前述した物品データベース 1 0 7を参照すること によって把握し、 行動計画作成手段 1 1 7により行動計画の一例としての把持計 画を作成したのち、 作成された把持計画に基づいて把持部 1 1 3による把持計画 を実行して、 物品 4 0 0を把持する。  “Kibamo” is represented by “grab, article IDJ. When this command is received, the robot 102 grasps the article 400 specified by the article ID. The location of the article 400 is After grasping by referring to the article database 107 described above via the network 98, a grasp plan as an example of the action plan is created by the action plan creating means 117, and based on the created grasp plan, Then, a gripping plan is performed by the gripping units 113 to grip the article 400.

「解放」 は、 「r e 1 e a s e」 で表される。 このコマンドを受けると、 ロボ ット 1 0 2は把持部 1 1 3を構成するハンド 2 0 2を解放して、 ハンド 2 0 2で 把持していた物品 4 0 0を解放する。  "Release" is represented by "re1ease". Upon receiving this command, the robot 102 releases the hand 202 constituting the gripper 113, and releases the article 400 held by the hand 202.

「設備操作」 は、 「ロボット自身の I D , 設備 I D , 設備操作コマンド J で表 される。 このコマンドを受けると、 ロボット 1 0 2は設備 I Dで指定された設備 1 0 4に対して、 指定された設備操作コマンドをネットワーク 9 8を介して送る。 設備操作コマンドとは、 個々の設備 1 0 4が前記外部の装置から受ける操作指示 コマンドであり、 各設備 1 0 4は、 ネットワーク 9 8を介して前記操作指示コマ ンドを受けると、 それぞれの制御手段の制御の下に当該操作指示コマンドに相当 する処理を行う。 ここで、 操作指示コマンドの中に自身の I Dを添付する理由は、 ある設備 1 0 4に設備操作コマンドを送る場合、 受け取った設備 1 0 4が操作指 示コマンドに従って処理を行った後、 当該設備 1 0 4からその処理結果をロボッ ト 1 0 2自身にネットワーク 9 8を介して返信してもらうためである。 この返信 内容により、 当該設備 1 0 4が操作指示コマンドに従って処理を行った力否かを、 ロボット 1 0 2が確認、することができる。 “Equipment operation” is represented by “the robot's own ID, equipment ID, and equipment operation command J. When this command is received, the robot 102 specifies the equipment 104 specified by the equipment ID. The obtained equipment operation command is transmitted via the network 98. The equipment operation command is an operation instruction command received by the individual equipment 104 from the external device, and each equipment 104 is connected to the network 98. When the operation instruction command is received via the control instruction unit, a process corresponding to the operation instruction command is performed under the control of the respective control means. When a facility operation command is sent to a certain facility 104, the received facility 104 processes the command in accordance with the operation instruction command, and then sends the processing result from the facility 104 to the robot 102 itself. This is to get a reply via 8. The content of this reply allows the robot 102 to check and confirm whether or not the force has been processed by the facility 104 in accordance with the operation instruction command.

以上、 代表的な例として、 4種類のロボット制御コマンドを説明した。 ただし、 ロボット制御コマンドはこの 4種類に限らず、 必要に応じて増減しても良いこと はいうまでもない。  Above, four types of robot control commands have been described as typical examples. However, the robot control commands are not limited to these four types, and needless to say, may be increased or decreased as needed.

図 1 4はロボット 1 0 2の一例を示した模式図である。 以下、 図 1 4において アーム 1 0 2の先端が向いている方向を口ポット 1 0 2の前面として、 ロボット FIG. 14 is a schematic diagram showing an example of the robot 102. Hereinafter, in FIG. 14, the direction in which the tip of the arm 102 faces is the front of the mouth pot 102, and the robot

1 0 2の各手段又は各部の説明を行う。 Each means or each part of 102 will be described.

ぐ駆動部〉  Drive unit>

駆動部 1 1 5は、 ロポット本体 1 0 2 Aの片側に 2つずつ設けられ、 両側で合 計 4つの車輪 1 1 5 Aと、 4つの車輪 1 1 5 A又は少なくとも 2つの車輪 1 1 5 Aを駆動するモータなどの駆動装置とによって構成されている。 本実施形態では 駆動部 1 1 5として車輪の例を示したが、 駆動部 1 1 5には、 ロボット 1 0 2の 使われる場所や環境に応じて最適な装置又は機構を選べばよい。 例えば凹凸の多 い地面を移動する場合ならば、 クローラ型ゃ多足歩行の駆動部を使ってもかまわ ない。 なお、 アーム 2 0 1やハンド 2 0 2より構成される把持部 1 1 3が環境の 一例である部屋を含む家屋内全域を可動域とする場合には、 この駆動部 1 1 5は 必ずしも必要ではない。  Two driving units 1 15 are provided on each side of the pot body 102 A, and a total of four wheels 1 15 A and four wheels 1 15 A or at least two wheels 1 15 on both sides And a driving device such as a motor for driving A. In the present embodiment, an example of wheels is shown as the drive unit 115. However, an optimum device or mechanism may be selected for the drive unit 115 according to the place or environment where the robot 102 is used. For example, when moving on uneven ground, a crawler-type multi-legged drive may be used. In addition, when the entire area of a house including a room, which is an example of an environment, is set as a movable range, the driving unit 1 15 is not necessarily required when the gripping unit 113 including the arm 201 and the hand 202 is an example of an environment. is not.

<センサ >  <Sensor>

センサ 1 1 2は、 ロボット 1 0 2の周囲の近辺の障害物などを検知するもので あり、 本実施形態では、 超音波センサ 1 1 2 aと、 視覚センサの一例として機能 しかつロボット本体 1 0 2 Aの前面に配置されたステレオカメラ 1 1 2 bと、 及 びロボット本体 1 0 2 Aの前面及び背面に配置された衝突センサ 1 1 2 cとより 構成される。 超音波センサ 1 1 2 aはロボット本体 1 0 2 Aの前面、 背面、 左右 の側面にそれぞれ 3力所ずつ取り付けられ、 超音波を発してその反射波を受信す るまでの時間を測定することで、 当該超音波センサ 1 1 2 aから障害物までのお およその距離を計算するものである。 本実施形態では、 超音波センサ 1 1 2 aに より、 近距離の障害物を衝突前に検知することとしている。 ステレオカメラ 1 1 2 bは、 周囲の状況を画像として入力し、 その画像に認識などの処理を第 2制御 手段 1 1 6で行うことで、 障害物の有無の判断や把持対象物品のより正確な情報 を第 2制御手段 1 1 6で得る。 衝突センサ 1 1 2 cは、 当該センサ 1 1 2 cに所 定力の衝撃があったことを検知するセンサであり、 他のセンサで検知できない障 害物に対して、 それが外部からぶっかつてきたことやロボット 1 0 2自身が移動 中にぶっかつたことを、 この衝突センサ 1 1 2 cで検知する。 The sensor 112 detects an obstacle or the like in the vicinity of the robot 102. In the present embodiment, the sensor 112 functions as an example of the ultrasonic sensor 112a and the visual sensor, and the robot body 1 It is composed of a stereo camera 111b arranged on the front of 02A, and a collision sensor 112c arranged on the front and back of the robot body 102A. The ultrasonic sensors 111a are attached to the front, back, left, and right sides of the robot main body 102A at three force points each, and measure the time it takes to emit ultrasonic waves and receive the reflected waves. And the distance from the ultrasonic sensor 1 1 2a to the obstacle It calculates the approximate distance. In the present embodiment, a short-range obstacle is detected before the collision by the ultrasonic sensor 112a. The stereo camera 1 1 2b inputs the surrounding situation as an image, and performs processing such as recognition on the image by the second control means 1 16 so that it can judge the presence or absence of obstacles and more accurately identify the object to be grasped. Information is obtained by the second control means 116. The collision sensor 112c is a sensor that detects that the sensor 112c has an impact with a predetermined force. The collision sensor 112c detects that the robot has come or that the robot 102 itself has hit while moving.

<移動計画作成手段 >  <Movement planning method>

移動計画作成手段 1 1 4は、 ロボット 1 0 2を指定場所に移動させる旨のロボ ット制御コマンドを受信したとき、 現在位置から前記指定場所への移動経路を、 ネットワーク 9 8を介して前記環境管理サーバ 1 0 1から取得した環境マップ情 報データベース 1 0 9を使って作成する。 当然のことながら、 現在位置から目的 地までの間に障害物が存在する場合はそれを回避するための経路が必要となるが、 環境マップ情報データベース 1 0 9には前述のようにロポット 1 0 2が移動可能 な領域が予め記されているので、 その領域内での移動経路を移動計画作成手段 1 1 4で作成すればよい。 一度、 移動経路を移動計画作成手段 1 1 4で作成して、 ロボット 1 0 2が第 2制御手段 1 1 6の制御の下に移動し始めた後で前記センサ が障害物を検矢 [;した場合には、 その障害物を避けるための新たな経路を、 その都 度、 移動計画作成手段 1 1 4で作成し直す。 移動経路作成に当たっては、 最も一 般的な手法であるダイクストラ法等が用いられる。  When receiving the robot control command to move the robot 102 to the designated place, the movement plan creating means 114 sends the movement route from the current position to the designated place via the network 98. It is created using the environment map information database 109 acquired from the environment management server 101. Naturally, if there is an obstacle between the current position and the destination, a route is needed to avoid it. Since the area in which 2 is movable is described in advance, the movement route in that area may be created by the movement plan creating means 114. Once the movement route is created by the movement plan creation means 114, the sensor detects an obstacle after the robot 102 starts to move under the control of the second control means 116. In this case, a new route for avoiding the obstacle is recreated by the movement plan creating means 114 each time. In creating a moving route, the Dijkstra method, which is the most general method, is used.

<把持部>  <Grip part>

把持部 1 1 3は物品を把持する装置又は機構であり、 本実施形態では、 図 1 4 のように多関節からなるアーム 2 0 1と、 アーム 2 0 1の先端に配設されたハン ド 2 0 2とより構成される。 把持部 1 1 3は、 後述のロボット制御コマンドで把 持位置を指示されると、 アーム 2 0 1の先端をその場所まで移動させ、 ハンド 2 0 2の把持操作を行う。 ハンド 2 0 2を把持位置まで移動させるためのアーム制 御は、 この把持部 1 1 3で行えばよい。 把持部 1 1 3はまた、 ロボット制御コマ ンドで解放を指示されると、 ハンド 2 0 2の解放操作を行う。 くロボットの第 2制御手段 > The gripper 113 is a device or mechanism for gripping an article. In the present embodiment, an arm 201 composed of multiple joints as shown in FIG. 14 and a hand disposed at the tip of the arm 201 are provided. It is composed of 202. When a gripping position is instructed by a robot control command described later, the gripper 113 moves the tip of the arm 201 to that position, and performs a gripping operation of the hand 202. The arm control for moving the hand 202 to the gripping position may be performed by the gripper 113. The gripper 113 also performs a release operation of the hand 202 when instructed to release by the robot control command. Robot second control means>

第 2制御手段 1 1 6は、 外部の装置からネットワーク 9 8及び第 2送受信部 1 4 1を介して送られてきたロボット制御コマンドのリストを角军釈し、 順にロボッ ト制御コマンドを実行していく。 送られてきたロボット制御コマンドが前述の指 示データである場合には、 当該指示データを当該ロボット 1 0 2の実行可能な口 ポット制御コマンドに変換するためにその内容を行動計画作成手段 1 1 7に送り、 そこで処理された結果を受け取って、 順にロボット制御コマンドを実行していく。  The second control means 1 16 parses the list of robot control commands sent from the external device via the network 98 and the second transmitting / receiving section 141, and sequentially executes the robot control commands. To go. If the sent robot control command is the above-mentioned instruction data, the contents are converted into action plan creation means 11 1 in order to convert the instruction data into an executable pot control command of the robot 102. 7 and receive the processed result and execute the robot control commands in order.

ぐ行動計画作成手段 >  Action plan creation means>

行動計画作成手段 1 1 7は、 操作端末 1 0 3における物品操作装置 1 1 8にて、 ユーザが物品を指定し当該指定物品を所定場所に移動するという簡単な操作をす るだけで、 ロボット 1 0 2への作業指示を行えるようにするために設けた手段で ある。 具体的には、 当該ロボット 1 0 2がネットワーク 9 8を介して操作端末 1 0 3から指示データを受信すると、 行動計画作成手段 1 1 7は、 必要に応じて、 第 2制御手段 1 1 6に接続されたロボット制御コマンド D B (データベース) 9 0を参照しながら、 前記指示データに基づいて、 口ポット 1 0 2がー連の動作を 実行するためのロボット制御コマンドのリストを生成する。  The action plan creating means 1 17 can be operated by the robot by simply performing a simple operation of a user designating an article and moving the designated article to a predetermined place using the article operating device 1 18 of the operation terminal 103. This is a means provided so that a work instruction to 102 can be given. Specifically, when the robot 102 receives the instruction data from the operation terminal 103 via the network 98, the action plan creating means 117 may, if necessary, change the second control means 116. While referring to the robot control command DB (database) 90 connected to the CPU, a list of robot control commands for the mouth pot 102 to execute the continuous operation is generated based on the instruction data.

ここで、 口ボット制御コマンド D B 9 0には、 ロボット 1 0 2が設備操作を行 う場合のロボット制御コマンドのリストを、 設備毎に分けて予め記憶させておく。 その理由は以下の通りである。  Here, in the mouth bot control command DB90, a list of robot control commands when the robot 102 performs the equipment operation is stored in advance for each equipment. The reason is as follows.

前述の通り指示データには 2つのデータ、 すなわち、 「操作する物品、 移動 先」 からなる 2つのデータしか情報を含んでいない。 もし、 目的とする物品が口 ポット 1 0 2の直前においてそのまま把持できる状態にあり、 あるいは移動場所 が空間的に開放された場所であれば、 ロボット制御コマンド D B 9 0は特に必要 でない。 しかし実際には、 目的とする物品がロボット 1 0 2の直前にあることは ほとんどなく、 通常、 口ポット 1 0 2 (あるいは把持部 1 1 3 ) は操作する物品 の付近にまで移動しなければならない。 また、 その物品がドアで閉鎖された設備 の内部に存在する場合には、 そのドアを開けて物品を把持し、 その後、 当該ドア を閉めなければならない。 さらに、 設備 1 0 4によっては物品を収納又は設置し た後、 もっと複雑な処理をしなければならない場合もある。 ところが、 これらの 処理をユーザが操作画面を使って 1つ 1つ順に指示するのでは、 使いやすいシス テムとは言い難い。 できることならば、 先ほどの指示データを生成するだけの簡 単な指示操作、 すなわち、 物品を選択し、 収納又は設置場所を指定する、 という 主に 2つの操作だけで、 ロボット 1 0 2への指示が行えることが望ましい。 As described above, the instruction data contains only two pieces of data, that is, two pieces of data of “article to be operated and destination”. If the target article is in a state where it can be grasped immediately before the mouth pot 102 or the moving place is a spatially open place, the robot control command DB 90 is not particularly necessary. However, in reality, the target article is rarely in front of the robot 102, and usually the mouth pot 102 (or the gripper 113) must move to the vicinity of the article to be operated. No. If the article is inside a facility closed by a door, the door must be opened, the article grasped, and then the door closed. Furthermore, depending on the equipment 104, more complicated processing may be required after storing or installing articles. However, these It is difficult to say that the system is easy to use if the user gives instructions one by one using the operation screen. If possible, the simple instruction operation just to generate the instruction data described earlier, that is, selecting the article and specifying the storage or installation location, the instruction to the robot 102 is mainly performed by only two operations. Is desirable.

従って、 簡単な指示操作で生成された指示データから、 設備 1 0 4の操作も含 めてロボット 1 0 2に所定の作業をさせるためのロボット制御コマンドを作成す るための知識データが必要となる。 口ポット制御コマンド D B 9 0とは前記知識 データを記憶したものである。  Therefore, knowledge data for creating a robot control command for causing the robot 102 to perform a predetermined operation including the operation of the equipment 104 from the instruction data generated by the simple instruction operation is required. Become. The mouth pot control command DB90 stores the knowledge data.

図 1 5は、 ロボット制御コマンド D B 9 0に記憶されたロボット制御コマンド のリストの例を示した表形式の図である。 本図には、 異なる 2つの設備 (冷蔵室 と電子レンジ) の表が含まれている。 各表の一番左の列には、 ロボット 1 0 2が 操作する設備 1 0 4の I Dが記載されている。 その右の列の 「場所の属性」 とは、 移動元又は移動先を指示するものであり、 それぞれ、  FIG. 15 is a tabular diagram showing an example of a list of robot control commands stored in the robot control command DB90. The figure includes a table for two different facilities (refrigerator and microwave oven). In the leftmost column of each table, the ID of the facility 104 operated by the robot 102 is described. "Location attribute" in the right column indicates the source or destination,

•移動元:物品がある設備 1 0 4に収納又は設置されている状況で、 その物品 を取り出したい場合  • Source: If you want to take out the goods while they are stored or installed in the facility 104 where the goods are located

•移動先:物品をある設備 1 0 4に収納又は設置し、 さらには必要に応じて前 記設備 1 0 4の各種機能を用いて収納又は設置した物品に何らかの処理を行いた い場合を意味する。 一番右の列は、 場所の属性に対応するロボット制御コマンド リストを示している。  • Destination: This refers to the case where goods are stored or installed in a certain facility 104, and if necessary, some processing is performed on the goods stored or installed using the various functions of the above-mentioned facility 104. I do. The rightmost column shows the robot control command list corresponding to the location attribute.

例として、 設備 I Dが 「C o 1 d— r o o m # 0 0 0 1」 (冷蔵室) であり、 場所の属性が移動元である場合のロボット制御コマンドリストを説明する。 これ は、 指示データの最初の値に入っている物品に関して物品データベース 1 0 7を 参照した結果、 それが 「C o 1 d_ r o o m # 0 0 0 1」 (冷蔵室) の中に収納 されている場合のロボット制御コマンドのリストである。 ここでの 3つのコマン ドは順に、  As an example, a robot control command list in the case where the equipment ID is “C o 1 d—ro o m # 0 0 0 1” (refrigerated room) and the attribute of the location is the movement source will be described. This is because, as a result of referring to the article database 107 regarding the article that is included in the first value of the instruction data, it is stored in “C o 1 d_ room # 0 0 0 1” (refrigerated room) It is a list of robot control commands in the case. The three commands here are in order

• 「C o 1 d— r o o m # 0 0 0 1」 (冷蔵室) のドアを開け、  • Open the door of “C o 1 d—ro o m # 0 0 0 1” (refrigerator),

-物品を把持して取り出し、  -Grab the item and take it out

• 「C o 1 d _ r o o m # 0 0 0 1 J (冷蔵室) のドアを閉める、  • "Close the door of Co 1d_room # 0 0 0 1 J (Refrigerator)

という操作に相当する。 ここで 2つ目のロポット制御コマンド、 「g r a b, $ o b j e c t」 Operation. Here is the second Lopot control command, "Grab, $ object"

の 「$ o b j e c t」 は、 操作する物品の I Dが入ることを意味する。 状況によ つて値が変わる情報については頭に $を付けることで変数として扱い、 それを扱 う物品が具体的に指示データによつて決まつた場合に、 前記変数に値を設定する ようにする。 このようにすることで、 ロボット制御コマンドに一般性を持たせる ことができる。 The “$ object” in the above means that the ID of the article to be operated is included. Information that changes in value depending on the situation is treated as a variable by prefixing a $, and when the article to handle it is specifically determined by the instruction data, a value is set for the variable. I do. By doing so, generality can be given to the robot control commands.

なお、 ここでは、 口ポット制御コマンドの内容理解のために、 非常に簡単な例 を用いて説明したが、 実用に向けては、 さらに必要なロボット制御コマンドを加 えるようにしてもよい。 例えば電子レンジの移動先のコマンドリストは、 「Ro b o t #0001, Mi c r owa v e # o v e n# 0001, d o o r Although a very simple example has been described here for understanding the contents of the mouth pot control command, a further necessary robot control command may be added for practical use. For example, the command list of the destination of the microwave oven is "Robot # 0001, Microwav e # ovene # 0001, doro

# o p e ri」 # ope ri "

「: r e l e a s e, $ o b j e c tj  ": Rel e a se, $ obj e c tj

「Ro b o t #0001, Mi c r owa v e # o v e n#0001, d o o r "Robot # 0001, Microwa v e # ovene # 0001, doo r

# c 丄 o s e」 # c 丄 o s e ”

「Ro b o t #0001, Mi c r owa v e # o v e n# 0001, wa rm "Robot # 0001, Microwa v e #ovene # 0001, wa rm

# s t a r t」 # s t a r t "

の 4つのコマンドから構成されているが、 実際には電子レンジにすでに物が入つ ている状態ではさらに物を入れることができないので、 これら 4つのコマンドの 前に、 電子レンジの中に物品があるかどうかを確認、するコマンド、 Although these commands are composed of the following four commands, in reality the microwave oven already contains objects, it is not possible to put any more objects. Command to check if there is

「Ro b o t #0001, Mi c r owa v e # o v e n# 0001, i s #o b j e c t # i ri」  "Robot # 0001, Microwa v e #ovene # 0001, is #object #iri"

を設けることが好ましい。 そして、 このコマンドの戻りイ直が 「TRUEJ 、 すな わち電子レンジの庫内に物が入っている場合には、 その後のコマンドを実行する 代わりに、 ユーザに電子レンジの庫内に物が入っている旨を伝え、 処理を終了す る、 などしてもよい。 Is preferably provided. When this command returns "TRUEJ, that is, if there is an object in the microwave oven, instead of executing the subsequent command, the user receives the object in the microwave oven. You may tell them you are in, and end the process.

また、 このコマンド列を当該電子レンジに入れる物品に適用してしまうと、 ど んなものに対しても 「温め」 という処理が行われてしまう、 という問題が生じる。 このため、 例えば当該電子レンジには、 物品の内容を認識し、 それに応じて 「温 め」 処理の具体的な温め方を切り替える仕組みを設けても構わない。 例えば、 当 該電子レンジの 「温め」 の詳細な機能として、 「料理の温め」 と 「解凍」 とを備 えている場合、 電子レンジ内に入れられた物を何らかの方法、 例えば画像処理や 物に付与された電子タグを電子レンジ又はその近傍などに配置されたリーダライ タなどで認識し、 その結果に応じて、 前記 「料理の温め」 と 「解凍」 とを適宜切 り替えるようにしてもよい。 この切替にはもちろん他の方法を用いてもよい。 例 えば電子レンジに前記認識機能が無い場合は、 ロボット 1 0 2にその機能を持た せ、 ロポット 1 0 2が物の内容を認識したうえで、 その結果を電子レンジに送る ようにしてもよい。 In addition, if this command sequence is applied to an item to be put into the microwave oven, there is a problem in that the process of "warming" is performed for any object. For this reason, for example, the microwave oven may be provided with a mechanism for recognizing the contents of the article and switching the specific heating method of the “warming” process accordingly. For example, If the microwave oven has the functions of "warm" and "thaw" as the detailed functions of the "warm-up", the thing put in the microwave oven can be used for any method, for example, image processing or object. The electronic tag may be recognized by a reader / writer arranged in a microwave oven or its vicinity, or the like, and the “heating of the dish” and the “thawing” may be appropriately switched according to the result. Of course, another method may be used for this switching. For example, if the microwave oven does not have the recognition function, the robot 102 may have the function, and the robot 102 may recognize the contents of the object and send the result to the microwave oven. .

以上のように、 本実施形態では、 このようなロボット制御コマンド D B 9 0を 用いて、 指示データを実現するための一連のロボット制御コマンドリストを行動 計画作成手段 1 1 7で生成し、 実行する。  As described above, in the present embodiment, using such a robot control command DB 90, a series of robot control command lists for realizing the instruction data is generated and executed by the action plan creating unit 1 17. .

なお、 この口ポット制御コマンドリストの生成が完了したのち、 ユーザの確認、 なしに実行に移ってもよいが、 前記物品操作装置 1 1 8によって指示した内容が 間違っており、 ユーザがそのことに気が付かない場合もありうる。 例えば、 図 4 Bの環境において、 冷蔵室内のピザを電子レンジに入れて温める処理をしょうと したところ、 ユーザのマウスの操作ミスにより、 冷蔵室内のピザを電子レンジの 直下にある冷凍室に入れてしまう場合もありうる。 その結果、 いつまで経っても 温かいピザができない、 ということが起こる場合もある。 このような事態をなる ベく防ぐために、 前記行動計画作成手段 1 1 7によって作成されたロボット 1 0 2の行動計画を、 実行する前にユーザに提示することにより、 ユーザに物品操作 の誤りが無いかの確認を促すことが好ましい。  It should be noted that, after the generation of the mouth pot control command list is completed, execution may be performed without confirming the user, but the content instructed by the article operating device 118 is incorrect, and the user You may not even notice. For example, in the environment shown in Fig. 4B, the user tried to put pizza in the refrigerator in a microwave oven and heat it.However, due to a user's misoperation of the mouse, the pizza in the refrigerator room was placed in the freezer compartment immediately below the microwave oven. In some cases. As a result, you may not be able to make hot pizzas forever. In order to prevent such a situation from occurring, the action plan of the robot 102 created by the action plan creation means 117 is presented to the user before execution, so that the user is prevented from erroneously operating the article. It is preferable to prompt the user to confirm whether or not there is.

図 1 6は、 物品の移動指示を確認する画面を表示したものである。 この例では、 移動する物品である 「ピザ」 、 その移動元である 「冷蔵室」 、 移動先である 「電 子レンジ」 、 移動先での処理である 「温め」 を、 それぞれ文字によって表示し、 さらに移動元と移動先とを明確にするため、 移動元から移動先へ向かう点線の矢 印付き曲線を示している。 もし移動元又は移動先が設備でなければ、 何も表示し ないようにしてもよい。 例えばピザが床上にある場合は、 移動元は設備ではない ためその表示はせず、 移動先の 「電子レンジ」 のみ表示すればよい。 もちろんこ の確認画面の表示の仕方としては、 設備や物品を文字で表したり、 もとの図に強 調表示をしてもよい。 Figure 16 shows a screen for confirming the instruction to move the goods. In this example, the moving object "pizza", the moving source "refrigerator", the moving destination "microwave oven", and the processing at the moving destination "warm" are displayed by characters. In order to further clarify the source and destination, a dotted arrowed curve from the source to the destination is shown. If the source or destination is not equipment, nothing may be displayed. For example, if the pizza is on the floor, the source is not a facility, so it is not displayed, and only the "microwave oven" at the destination need be displayed. Of course, this confirmation screen can be displayed in characters such as equipment or goods, Key display may be performed.

さらには、 もし間違いが生じていた場合には、 この確認処理において修正を行 つても良い。 例えば、 前記の例で電子レンジに移動する物品が 「ピザ」 ではなく 「冷凍肉」 の場合には、 電子レンジでの処理は 「温め」 ではなく 「解凍」 である べきである。 し力 し、 図 1 5で示したように、 ロボット制御コマンドにおいて、 電子レンジの移動先におけるロポット制御コマンド列の最後のコマンドが 「温 め」 「w a r m # s t a r t」 のみであれば、 それを実行してしまう。 そのため、 仮に電子レンジに入れた物品が 「冷凍肉」 であっても、 ユーザが何もしなければ、 電子レンジはこの 「冷凍肉」 を 「温め」 てしまうことになる。 このような処理ミ スが起こった場合には、 ユーザによって処理実行前に修正すればよい。  Furthermore, if an error has occurred, a correction may be made in this confirmation processing. For example, in the above example, if the item to be moved to the microwave is “frozen meat” instead of “pizza”, then the processing in the microwave should be “thaw” instead of “warm”. As shown in Fig. 15, if the last command in the robot control command sequence at the destination of the microwave oven is only "warm" or "warm #start" as shown in Fig. 15, execute it. Resulting in. Therefore, even if the item put in the microwave is “frozen meat”, the microwave oven “warms” the “frozen meat” if the user does nothing. When such a processing error occurs, it may be corrected by the user before executing the processing.

また、 以上説明したように、 図 1に基づく本生活支援システム 1 0 0は、 環境 管理サーバ 1 0 1とロボット 1 0 2と設備 1 0 4と操作端末 1 0 3との 4つのサ ブシステムより構成され、 それらサブシステムが無線又は有線などのネットヮー ク 9 8を介して互いに情報をやりとりするような構成をなしている。 しかしなが ら、 操作端末 1 0 3が環境管理サーバ 1 0 1、 設備 1 0 4、 あるいはロポット 1 0 2、 又は、 それらのうちの複数箇所に付随されている構成でもよい。 またロボ ット 1 0 2も 1台ではなく複数台が協調しながら作業を並行して行う構成でも構 わない。 なお、 図 1では簡略化のため、 1つの設備 1 0 4のみ示している力 複 数個の設備がある場合には、 それら複数数の設備 1 0 4が前記生活支援システム 1 0 0内にそれぞれ組み込まれる。  As described above, the living support system 100 based on FIG. 1 is composed of four subsystems: an environment management server 101, a robot 102, facilities 104, and an operation terminal 103. The subsystems are configured to exchange information with each other via a wireless or wired network 98. However, a configuration in which the operation terminal 103 is attached to the environment management server 101, the facility 104, the robot 102, or a plurality of locations thereof may be adopted. Also, the configuration may be such that a plurality of robots 102 work in parallel while cooperating, instead of one robot. In FIG. 1, for the sake of simplicity, only one facility 104 is shown.If there are a plurality of facilities, the plurality of facilities 104 are included in the life support system 100. Each is incorporated.

また、 以上の説明では、 ある物品をある場所から別の場所へ移動するという 1 つの操作のみをユーザが指示して、 それを実行する場合のシステムの動作の仕組 みを説明した。 し力、しながら、 実際には、 ユーザにとって 2つ以上の指示を行い たい場合がある。 この場合、 1つの指示の処理が終えてから次の指示を入力する、 というふうにしてしまうと、 ユーザは所望のすべての指示を出し終えるまでシス テムから離;^ることができなくなり、 ユーザにとつて使いにくいシステムとなる。 従って、 システムは、 ユーザが行いたいすべての操作を一度に受け付け、 それら を順次処理していくように設計されていることが望ましい。 これにより、 例えば 冷蔵庫にあるピザを温め、 その後に食べるようにシステムに要求する場合には、 次の 2つの指示 (図示しない) 、 In the above description, the mechanism of the operation of the system when the user instructs only one operation of moving an article from one place to another and executes the operation is described. In practice, however, the user may actually want to give more than one instruction. In this case, if processing of one instruction is completed and the next instruction is input, the user cannot leave the system until all desired instructions have been issued; This makes the system difficult to use. Therefore, it is desirable that the system be designed to accept all the operations that the user wants to perform at once and process them sequentially. This allows, for example, if you want the system to heat the pizza in the refrigerator and then eat it, The following two instructions (not shown),

■ 令蔵庫のピザを電子レンジに入れて温める  ■ Put the pizza from the storage warehouse in a microwave

■電子レンジのピザを、 自分の所 (例えばテーブル) まで運ぶ  ■ Carry the microwave pizza to your place (for example, a table)

を、 最初に入れておくだけでよい。 すなわち、 ユーザが前記 2つの指示を出した 後、 そのまま、 例えばテーブルで待っているだけで、 システムは前記動作を自動 的に実行する。 その結果、 ユーザは温かいピザが例えばテーブルに座っている自 分のところに来るまで別のことができるようになり、 時間を効率良く使うことが できるようになる。 You only have to put the first. That is, after the user issues the above two instructions, the system automatically executes the above operation as it is, for example, just waiting at the table. As a result, the user can do other things until the hot pizza comes to his place, for example, sitting at a table, and can use his time more efficiently.

さらには、 その際に、 複数の処理を効率ィ匕するスケジューリング機能を備えて おくことが好ましい。 例えば、 ある設備から複数種類の物品を取り出し、 それぞ れを別々の場所に移動させる場合、 それら複数種類の物品を取り出す処理のみは 一度に行うことで、 全部の処理を効率化するようスケジューリングしてもよい。 そのためには、 作業ロポット 1 0 2のアーム 2 0 1等の個数を 1つに限定する必 要はなく、 一度に複数の物品を同時に扱えるように複腕構成にしておいてもよい。 なお、 前述した実施形態及びその変形例は、 コンピュータプログラムを用いて 実現することができる。 本発明に係る生活支援システムをコンピュータで実行す ることが可能な生活支援システム用プログラムは、 前述した実施形態及ぴその変 形例の一部又は全部の動作を実行するコンピュータプログラムを含むものである。 なお、 前記様々な実施形態及び変形例のうちの任意の実施形態及び変形例を適 宜組み合わせることにより、 それぞれの有する効果を奏するようにすることがで さる。  Further, at that time, it is preferable to provide a scheduling function for efficiently performing a plurality of processes. For example, when taking out multiple types of articles from a facility and moving them to different locations, only the process of taking out the multiple types of articles is performed at once, and scheduling is performed so that all processes are efficient. May be. For this purpose, it is not necessary to limit the number of arms 201 of the working robot 102 to one, and a multi-arm configuration may be employed so that a plurality of articles can be handled simultaneously at a time. The above-described embodiment and its modified examples can be realized using a computer program. A life support system program that allows a computer to execute the life support system according to the present invention includes a computer program that executes some or all of the operations of the above-described embodiment and its modifications. It is to be noted that, by appropriately combining arbitrary embodiments and modified examples among the various embodiments and modified examples, the effects of the respective embodiments and modified examples can be achieved.

本発明は、 添付図面を参照しながら好ましい実施形態に関連して充分に記載さ れているが、 この技術の熟練した人々にとつては種々の変形や修正は明白である。 そのような変形や修正は、 添付した請求の範囲による本発明の範囲から外れない 限りにおいて、 その中に含まれると理解されるべきである。 産業上の利用の可能性  While the present invention has been fully described in connection with the preferred embodiments thereof with reference to the accompanying drawings, various changes and modifications will be apparent to those skilled in the art. It is to be understood that such changes and modifications are intended to be included therein without departing from the scope of the invention as set forth in the appended claims. Industrial potential

以上説明したように、 本発明は、 家屋やオフィス等の生活環境例えば居住環境 内における物品を管理する生活支援システム及びその制御用プログラムについて 有用である。 特に、 物品操作装置としてコンピュータや携帯情報端末 (携帯電話 など) 等の種々の電子機器を用いて物品に対する操作を指示し、 その指示に基づ いてロボット等の物品移動装置により物品を移動等させるシステム及ぴプログラ ムに有用である。 As described above, the present invention relates to a living support system for managing articles in a living environment such as a house or an office, for example, a living environment, and a control program therefor. Useful. In particular, various electronic devices such as a computer and a portable information terminal (such as a mobile phone) are used as an article operation device to instruct an operation on the article, and the article is moved by an article moving device such as a robot based on the instruction. Useful for systems and programs.

Claims

請 求 の 範 囲 The scope of the claims 1 . 生活環境の実状況を表示する表示装置 (1 1 9 ) と、 1. A display device (1 19) that displays the actual situation of the living environment, 前記表示装置における表示上で前記生活環境内の設備 (1 0 4 ) を指定する操 作指示が入力される物品操作装置 (1 1 8 ) とを備え、  An article operation device (1 18) to which an operation instruction for designating equipment (104) in the living environment is input on a display on the display device; 前記物品操作装置によつて前記設備を指定することにより、 前記生活環境内の 物品 (4 0 0 ) の情報と前記生活環境内の前記設備及び前記生活環境の空間の構 造情報に基づいて、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報 を前記表示装置に表示するように制御する制御手段 (1 2 0 ) とを備える生活支 援システム。  By specifying the equipment by the article operating device, based on information on the article (400) in the living environment and structural information on the equipment and the space in the living environment in the living environment, A control system (120) for controlling information of an article inside the equipment or an article hidden in the equipment to be displayed on the display device. 2 . 前記生活環境内の前記物品の情報を記憶する物品データベース (1 0 7 ) と、  2. An article database (10 7) that stores information on the articles in the living environment; 前記生活環境内の前記設備及び前記生活環境内の前記空間の構造情報を記憶す る環境マップ情報データベース (1 0 9 ) とをさらに備え、  An environment map information database (109) that stores structural information of the facility in the living environment and the space in the living environment; 前記制御手段は、 前記表示装置と前記物品操作装置と前記物品データベースと 前記環境マップ情報データベースとにそれぞれ接続されて、 前記物品操作装置に よつて前記設備を指定すると、 前記物品データベース及び前記環境マップ情報デ ータベースを参照して前記生活環境内の物品の情報と前記生活環境内の前記設備 及び前記生活環境の空間の構造情報に基づいて、 前記設備の内部の物品又は前記 設備に隠蔽された物品の情報を前記表示装置に表示するように制御する請求項 1 に記載の生活支援システム。  The control means is connected to the display device, the article operation device, the article database, and the environment map information database, respectively, and when the equipment is designated by the article operation device, the article database and the environment map. An article inside the facility or an article concealed by the facility based on information of the article in the living environment with reference to the information database and the structural information of the facility and the space in the living environment in the living environment. The life support system according to claim 1, wherein the information is controlled to be displayed on the display device. 3 . 前記制御手段は、 前記物品操作装置によって前記生活環境内の複数の設備 のうちの 1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境 内の前記設備及び前記生活環境の空間の構造情報に基づいて、 当該設備及びその 背後に存在する設備のいずれか 1つを切替自由に選択可能とし、 前記選択された 設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示す るように制御する請求項 1に記載の生活支援システム。  3. The control means, when one of a plurality of facilities in the living environment is designated by the article operating device, information on the articles in the living environment, the facilities in the living environment, and the living environment. Based on the structural information of the space, any one of the facility and the facility behind it can be freely selected, and information on the articles inside the selected facility or the articles hidden in the facility 2. The life support system according to claim 1, wherein the control is performed so that is displayed on the display device. 4 . 前記制御手段は、 前記物品操作装置によって前記生活環境内の複数の設備 のうちの 1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境 内の前記設備及び前記生活環境の空間の構造情報に基づいて、 当該設備及びその 背後に存在する設備のいずれか 1つを切替自由に選択可能とし、 前記選択された 設備の内部の物品又は前記設備に隠蔽された物品の情報を前記表示装置に表示す るように制御する請求項 2に記載の生活支援システム。 4. The control means, when one of a plurality of facilities in the living environment is designated by the article operating device, information on the articles in the living environment and the living environment Based on the structural information of the space in the facility and the living environment, the device and any one of the facilities located behind the facility can be freely selected, and the articles inside the selected facility or the 3. The life support system according to claim 2, wherein control is performed so that information on the article hidden in the facility is displayed on the display device. 5 . 前記物品の情報を検出するセンシング部 (1 0 5 ) と、 5. A sensing unit (10 5) for detecting information on the article; 前記センシング部の検出結果に基づいて前記物品の情報を更新するデータベー ス制御手段 (1 0 6, 1 1 1 ) と、  Database control means (106, 111) for updating information of the article based on the detection result of the sensing unit; をさらに備えている請求項 1〜 4のいずれか 1つに記載の生活支援システム。 The life support system according to any one of claims 1 to 4, further comprising: 6 . 物品を移動させる物品移動装置 (1 0 2 ) と、 6. An article moving device (10 2) for moving articles; 前記物品操作装置によって前記物品と当該物品の移動場所とが指示操作として 入力されると、 前記物品移動装置により前記物品を前記移動場所へ移動させる物 品移動制御手段 (1 1 6 ) と、  When the article and the moving location of the article are input as an instruction operation by the article operating device, an article movement control unit (1 16) that moves the article to the moving location by the article moving apparatus; を備えている請求項 1〜 4のいずれか 1つに記載の生活支援システム。  The life support system according to any one of claims 1 to 4, comprising: 7 . 前記物品操作装置は、 前記表示装置の表示上に物品操作のためのカーソル を表示させ、  7. The article operation device displays a cursor for article operation on the display of the display device, 前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を単独 であるいは前記設備の構造情報と共にポップアツプリスト形式で表示する請求項 1〜 4のいずれか 1つに記載の生活支援システム。  When the cursor is placed on the facility on the display of the display device, the control unit pops up information on an article inside the facility or an article concealed by the facility either alone or together with the structural information of the facility. The life support system according to any one of claims 1 to 4, wherein the system is displayed in an applet format. 8 . 前記物品操作装置は、 前記表示装置の表示上に物品操作のためのカーソル を表示させ、  8. The article operation device displays a cursor for article operation on the display of the display device, 前記生活環境内の前記設備の少なくとも 1つには、 前記設備の内部又は前記設 備に隠蔽された領域を撮影する撮影手段 (1 0 5 A) が設けられ、  At least one of the facilities in the living environment is provided with photographing means (105A) for photographing the inside of the facility or a region concealed by the facility, 前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記撮影手段により撮影されかつ前記設備の内部又は前記設備に隠 蔽された領域の物品の映像を表示するように制御する請求項 1〜4のいずれか 1 つに記載の生活支援システム。  When the cursor is placed on the facility on the display of the display device, the control means displays an image of an article taken by the photographing means and inside the facility or in a region hidden by the facility. The life support system according to any one of claims 1 to 4, wherein the control is performed in such a manner. 9 . 前記物品操作装置は、 前記表示装置の表示上に物品操作のためのカーソル を表示させ、 前記生活環境内の設備の少なくとも 1つには、 前記設備の内部又は前記設備に 隠蔽された領域を視認自在とする透過装置が設けられ、 9. The article operation device displays a cursor for article operation on the display of the display device, At least one of the facilities in the living environment is provided with a transmission device that makes the inside of the facility or an area hidden by the facility visible. 前記制御手段は、 前記表示装置の表示上において前記カーソルが前記設備に重 ねられると、 前記透過装置により、 前記設備の内部の物品又は前記設備に隠蔽さ れた物品を透過表示する請求項 1〜4のいずれか 1つに記載の生活支援システム。 The control means, when the cursor is placed on the facility on a display of the display device, causes the transmissive device to transparently display an article inside the facility or an article concealed by the facility. The life support system according to any one of to 4. 1 0 . 前記設備には、 物品の収納又は取り出し動作を行う収納体 (1 0 4 ) を 含み、 10. The equipment includes a storage body (10 4) for storing or removing articles. 前記物品操作装置によつて前記収納体が指定されると、 前記収納体に前記動作 を実行させる制御手段 ( 1 2 1 ) を備えている請求項 1〜4のいずれか 1つに記 載の生活支援システム。  5. The storage device according to claim 1, further comprising a control unit configured to cause the storage unit to execute the operation when the storage unit is designated by the article operation device. 6. Life support system. 1 1 . 前記収納体は、 開閉自在なドアを備え、  1 1. The storage body has an openable and closable door, 前記制御手段は、 前記物品操作装置によって前記収納体が指定されると、 前記 収納体のドアを開放又は閉鎖する請求項 1 0に記載の生活支援システム。  10. The life support system according to claim 10, wherein the control means opens or closes a door of the storage body when the storage body is designated by the article operation device. 1 2 . 前記設備の属性、 前記物品の属性、 ユーザの属性、 及び操作内容の少な くとも 1つに基づいて、 複数の表示形態から 1つを選択し前記物品情報を前記表 示装置に表示する設備内表示手段 ( 1 2 4 ) をさらに備えるように制御する請求 項 1〜 4のいずれか 1つに記載の生活支援システム。  12. Based on at least one of the attribute of the equipment, the attribute of the article, the attribute of the user, and the operation content, select one of a plurality of display forms and display the article information on the display device. The life support system according to any one of claims 1 to 4, wherein control is performed so as to further include an in-facility display means (124). 1 3 . 生活環境の実状況を表示装置 (1 1 9 ) で表示する手順と、  1 3. Procedure for displaying the actual situation of the living environment on the display device (1 1 9) 前記表示装置における表示上で前記生活環境内の設備 (1 0 4 ) を指定する操 作指示が入力されて前記設備が指定されることにより、 前記生活環境内の物品 By inputting an operation instruction for specifying the facility (104) in the living environment on the display on the display device and specifying the facility, the article in the living environment is designated. ( 4 0 0 ) の情報と前記生活環境内の前記設備及び前記生活環境の空間の構造情 報に基づいて、 前記設備の内部の物品又は前記設備に隠蔽された物品の情報を前 記表示装置に表示する手順とをコンピュータに実行させるための生活支援システ ム用プログラム。 Based on the information of (400) and the structural information of the facilities in the living environment and the space of the living environment, information of the articles inside the facilities or the articles hidden in the facilities is displayed on the display device. A program for a life support system that causes a computer to execute the steps displayed on the screen. 1 4 . さらに、 前記生活環境内の複数の設備のうちの 1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境内の前記設備及び前記生活環境の空 間の構造情報に基づいて、 当該設備及びその背後に存在する設備のいずれか 1つ を切替自由に選択可能とし、 前記選択された設備の内部の物品又は前記設備に隠 蔽された物品の情報を前記表示装置に表示するように制御する手順をさらに備え る、 請求項 1 3に記載の生活支援システム用プログラム。 14. Further, when one of a plurality of facilities in the living environment is designated, information on articles in the living environment and structural information on the facilities and the living environment in the living environment are displayed. And any one of the equipments behind the equipment and the equipment behind the equipment can be freely selected based on the information on the articles inside the selected equipment or the articles hidden in the equipment. It further includes a procedure for controlling the display. 14. The living support system program according to claim 13, wherein: 1 5 . 生活環境の実状況を表示装置 (1 1 9 ) により表示し、  1 5. The actual situation of the living environment is displayed on the display device (1 19). 前記表示装置における表示上で前記生活環境内の設備 ( 1 0 4 ) を指定する操 作指示が入力されることによって前記設備を指定されることにより、 前記生活環 境内の物品 (4 0 0 ) の情報と前記生活環境内の前記設備及び前記生活環境の空 間の構造情報に基づいて、 前記設備の内部の物品又は前記設備に隠蔽された物品 の情報を前記表示装置に表示するように制御する、 生活支援システムの制御方法。 By specifying the facility by inputting an operation instruction for designating the facility (104) in the living environment on the display on the display device, the article (400) in the living environment is designated. Based on the information of the equipment and the structural information of the equipment in the living environment and the space of the living environment, so that the information of the article inside the equipment or the article hidden in the equipment is displayed on the display device. How to control the life support system. 1 6 . さらに、 前記生活環境内の複数の設備のうちの 1つの設備を指定すると、 前記生活環境内の物品の情報と前記生活環境内の前記設備及び前記生活環境の空 間の構造情報に基づいて、 当該設備及びその背後に存在する設備のいずれか 1つ を切替自由に選択可能とし、 前記選択された設備の内部の物品又は前記設備に隠 蔽された物品の情報を前記表示装置に表示するように制御することをさらに備え る、 請求項 1 5に記載の生活支援システムの制御方法。 16. Further, when one of the plurality of facilities in the living environment is designated, information on the articles in the living environment and the structural information on the facilities and the living environment in the living environment are displayed. And any one of the equipment existing behind the equipment can be freely selected based on the information, and information on an article inside the selected equipment or an article hidden in the equipment is displayed on the display device. 16. The control method for a life support system according to claim 15, further comprising controlling to display.
PCT/JP2004/011390 2003-08-07 2004-08-02 Life supporting system Ceased WO2005015467A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003288675A JP2006338059A (en) 2003-08-07 2003-08-07 Article management system, control program therefor, and control method therefor
JP2003-288675 2003-08-07

Publications (1)

Publication Number Publication Date
WO2005015467A1 true WO2005015467A1 (en) 2005-02-17

Family

ID=34131519

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/011390 Ceased WO2005015467A1 (en) 2003-08-07 2004-08-02 Life supporting system

Country Status (2)

Country Link
JP (1) JP2006338059A (en)
WO (1) WO2005015467A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5026360B2 (en) * 2008-07-10 2012-09-12 ヤフー株式会社 Item management guidance device, method and program
JP2013246801A (en) * 2012-05-29 2013-12-09 Funai Electric Co Ltd Information terminal
JP2016118926A (en) * 2014-12-19 2016-06-30 株式会社ニコン Electronic apparatus
US20170169294A1 (en) * 2015-12-11 2017-06-15 Leadot Innovation, Inc. Method of Tracking Locations of Stored Items
WO2019125094A2 (en) * 2019-03-29 2019-06-27 엘지전자 주식회사 Refrigerator and method for managing articles in refrigerator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265684A (en) * 1992-03-18 1993-10-15 Fujitsu Ltd Window popup control method
JPH0961045A (en) * 1995-08-24 1997-03-07 Takashi Wakabayashi Refrigerator
JPH09267276A (en) * 1996-03-30 1997-10-14 Technol Res Assoc Of Medical & Welfare Apparatus Carrying robot system
JP2000244906A (en) * 1999-02-19 2000-09-08 Electrolux:Ab System and method for obtaining information on contents in cabinet

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265684A (en) * 1992-03-18 1993-10-15 Fujitsu Ltd Window popup control method
JPH0961045A (en) * 1995-08-24 1997-03-07 Takashi Wakabayashi Refrigerator
JPH09267276A (en) * 1996-03-30 1997-10-14 Technol Res Assoc Of Medical & Welfare Apparatus Carrying robot system
JP2000244906A (en) * 1999-02-19 2000-09-08 Electrolux:Ab System and method for obtaining information on contents in cabinet

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HOSOYA E. ET AL.: "Jissekai interaction no tameno mirror interface", INTERACTION 2003 RONBUNSHU (JOHO SHORI GAKKAI SYMPOSIUM SERIES), vol. 2003, no. 7, 27 February 2003 (2003-02-27), pages 95 - 96, XP002984996 *
MORISAWA F. ET AL.: "Enkakuchi no'hito.mono' ni sawaru stick-on communicator(StiC)", INTERACTION 2003 RONBUNSHU (JOHO SHORI GAKKAI SYMPOSIUM SERIES), vol. 2003, no. 7, 27 February 2003 (2003-02-27), pages 223 - 224, XP002984995 *

Also Published As

Publication number Publication date
JP2006338059A (en) 2006-12-14

Similar Documents

Publication Publication Date Title
US7209803B2 (en) Article handling system and method and article management system and method
JPWO2005015466A1 (en) Life support system and control program thereof
US12282331B2 (en) Mobile cleaning robot artificial intelligence for situational awareness
US7269479B2 (en) Article transporting robot
US11160432B2 (en) System for spot cleaning by a mobile robot
JP4473849B2 (en) Article handling system and article handling server
CN111615442B (en) User-assisted robot for shopping applications
CN104769962B (en) Environmental management system including mobile robot and method of using the same
KR102565501B1 (en) A robotic cleaner, a refrigerator, a system of delivery of a container and a method of delivering and retrieving of a container of the refrigerator using the robotic cleaner
EP3508938A2 (en) Mobile cleaning robot teaming and persistent mapping
KR102014145B1 (en) Refrigerator, and method for including the same
JP2004268148A (en) Article moving system for living space and robot operating device
JP2004243499A (en) Article handling system for living space, article handling method, and robot operation device
WO2005015467A1 (en) Life supporting system
JP2004323135A (en) Goods management system
JP4205635B2 (en) Article detection system
JP2023100328A (en) Food management systems, food bins and programs
WO2021171012A1 (en) Robot
JP2008310821A (en) Article detection system
Guang Intelligent Robotic Systems in Support of a Declining Birthrate and an Aging Population
TWM450713U (en) Self-propelled intelligent refrigerator

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP