WO2019054208A1 - Mobile body and mobile body system - Google Patents
Mobile body and mobile body system Download PDFInfo
- Publication number
- WO2019054208A1 WO2019054208A1 PCT/JP2018/032447 JP2018032447W WO2019054208A1 WO 2019054208 A1 WO2019054208 A1 WO 2019054208A1 JP 2018032447 W JP2018032447 W JP 2018032447W WO 2019054208 A1 WO2019054208 A1 WO 2019054208A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- point
- agv
- mobile
- controller
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/69—Coordinated control of the position or course of two or more vehicles
- G05D1/695—Coordinated control of the position or course of two or more vehicles for maintaining a fixed relative position of the vehicles, e.g. for convoy travelling or formation flight
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/242—Means based on the reflection of waves generated by the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/646—Following a predefined trajectory, e.g. a line marked on the floor or a flight path
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2105/00—Specific applications of the controlled vehicles
- G05D2105/20—Specific applications of the controlled vehicles for transportation
- G05D2105/28—Specific applications of the controlled vehicles for transportation of freight
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2107/00—Specific environments of the controlled vehicles
- G05D2107/70—Industrial sites, e.g. warehouses or factories
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2111/00—Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
- G05D2111/10—Optical signals
- G05D2111/17—Coherent light, e.g. laser signals
Definitions
- the present disclosure relates to mobiles and mobile systems.
- Japanese Patent Application Laid-Open No. 2008-084135 discloses a mobile robot that registers a map and a movement route while moving following a person.
- Japanese Patent Application Laid-Open No. 2006-285635 discloses a mobile robot that moves to the place of the person when called by a person and returns to the vicinity of the original route position again when the business is over.
- the present disclosure provides a technique for further improving the convenience of work using a moving object.
- the mobile in the exemplary embodiment of the present disclosure is a mobile that can move autonomously, and includes a drive device for moving the mobile, an external sensor, and a sensor output from the external sensor.
- a position estimation device for sequentially outputting position information indicating the position and attitude of the mobile object based on data; a storage device for storing the position information output from the position estimation device; and controlling the drive device to control the drive device
- a controller for moving the moving body.
- the controller is configured to move from the first point to the second point based on the position information stored in the storage device after the mobile body moves from the first point to the second point. The path is reversed to return the mobile to the first point.
- the above general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium.
- the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a storage medium.
- the mobile after the mobile moves from the first point to the second point, the mobile can be returned to the first point again without giving information on the return route. For this reason, the convenience of the work using a mobile body can be improved.
- FIG. 1 is a block diagram showing a schematic configuration of a mobile unit in an exemplary embodiment of the present disclosure.
- FIG. 2 is a diagram showing an outline of a control system that controls traveling of each AGV according to the present disclosure.
- FIG. 3 is a diagram showing an example of a moving space in which an AGV is present.
- FIG. 4A shows the AGV and tow truck before being connected.
- FIG. 4B shows the connected AGV and tow truck.
- FIG. 5 is an external view of an exemplary AGV according to the present embodiment.
- FIG. 6A is a diagram illustrating an example of a first hardware configuration of an AGV.
- FIG. 6B is a diagram showing an example of a second hardware configuration of an AGV.
- FIG. 7A shows an AGV that generates a map while moving.
- FIG. 7B is a diagram showing an AGV that generates a map while moving.
- FIG. 7C is a diagram showing an AGV that generates a map while moving.
- FIG. 7D is a diagram showing an AGV that generates a map while moving.
- FIG. 7E is a diagram showing an AGV that generates a map while moving.
- FIG. 7F is a view schematically showing a part of the completed map.
- FIG. 8 is a diagram showing an example in which a map of one floor is configured by a plurality of partial maps.
- FIG. 9 is a diagram showing an example of a hardware configuration of the operation management device.
- FIG. 10 is a diagram schematically showing an example of the AGV movement route determined by the operation management device.
- FIG. 10 is a diagram schematically showing an example of the AGV movement route determined by the operation management device.
- FIG. 11A is a view schematically showing an example of an AGV operating in the tracking mode.
- FIG. 11B is a view schematically showing another example of the AGV operating in the tracking mode.
- FIG. 12 is a flowchart illustrating the operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13A is a first diagram illustrating an example of the operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13B is a second diagram illustrating an example of the operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13C is a third diagram illustrating an example of the operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13D is a fourth diagram illustrating an example of operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13A is a first diagram illustrating an example of the operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13B is a second diagram illustrating an example of the operation
- FIG. 13E is a fifth diagram illustrating an example of operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 13F is a sixth diagram illustrating an example of operation of an AGV in an exemplary embodiment of the present disclosure.
- FIG. 14 is a diagram showing another example of the operation of the AGV in the return path.
- FIG. 15A is a diagram showing an example of position information recorded in the forward pass.
- FIG. 15B is a diagram showing an example of position information in the return path.
- FIG. 15C is a diagram showing another example of position information in the return path.
- unmanned transport vehicle means a trackless vehicle that manually or automatically loads a load on a main body, travels automatically to a designated location, and unloads manually or automatically.
- unmanned aerial vehicle includes unmanned tow vehicles and unmanned forklifts.
- unmanned means that the steering of the vehicle does not require a person, and does not exclude that the unmanned carrier conveys a "person (e.g., a person who unloads a package)".
- the "unmanned tow truck” is a trackless vehicle that is to automatically travel to a designated location by towing a cart for manual or automatic loading and unloading of luggage.
- the "unmanned forklift” is a trackless vehicle equipped with a mast for raising and lowering a load transfer fork and the like, automatically transferring the load to the fork and the like and automatically traveling to a designated location and performing an automatic load handling operation.
- a “trackless vehicle” is a vehicle that includes a wheel and an electric motor or engine that rotates the wheel.
- a “mobile” is a device that moves while carrying a person or a load, and includes a driving device such as a wheel, a biped or multi-legged walking device, or a propeller that generates a traction for movement.
- a driving device such as a wheel, a biped or multi-legged walking device, or a propeller that generates a traction for movement.
- the term "mobile” in the present disclosure includes mobile robots, service robots, and drone as well as unmanned guided vehicles in a narrow sense.
- the “automatic traveling” includes traveling based on an instruction of an operation management system of a computer to which the automated guided vehicle is connected by communication, and autonomous traveling by a control device provided in the automated guided vehicle.
- the autonomous traveling includes not only traveling by the automated guided vehicle toward a destination along a predetermined route, but also traveling by following a tracking target.
- the automatic guided vehicle may perform manual traveling temporarily based on the instruction of the worker.
- “automatic travel” generally includes both “guided” travel and “guideless” travel, in the present disclosure, “guideless” travel is meant.
- the “guided type” is a system in which a derivative is installed continuously or intermittently and a guided vehicle is guided using the derivative.
- the “guideless type” is a method of guiding without installing a derivative.
- the unmanned transfer vehicle in the embodiment of the present disclosure includes a self position estimation device, and can travel in a guideless manner.
- the “self-position estimation device” is a device that estimates the self-location on the environment map based on sensor data acquired by an external sensor such as a laser range finder.
- the “external sensor” is a sensor that senses the external state of the mobile object.
- the external sensor includes, for example, a laser range finder (also referred to as a range sensor), a camera (or an image sensor), LIDAR (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.
- the “internal sensor” is a sensor that senses the internal state of the mobile object.
- the internal sensors include, for example, a rotary encoder (hereinafter, may be simply referred to as an "encoder"), an acceleration sensor, and an angular acceleration sensor (for example, a gyro sensor).
- SAM Simultaneous Localization and Mapping
- FIG. 1 is a block diagram showing a schematic configuration of a mobile unit in an exemplary embodiment of the present disclosure.
- the movable body 101 includes an external sensor 103, a position estimation device 105, a storage device 107, a controller 109, and a drive device 111.
- the driving device 111 is provided with a mechanism for moving the moving body 101.
- the drive device 111 may include, for example, at least one drive electric motor (hereinafter simply referred to as a “motor”) not shown, and a motor control circuit that controls the motor.
- the external sensor 103 is a sensor that senses the external environment, such as a laser range finder, a camera, a radar, or a LIDAR.
- the position estimation device 105 estimates the position and attitude of the moving body based on sensor data output from the external sensor.
- the position estimation device 105 sequentially outputs information (referred to as “position information” in this specification) indicating the estimated position and orientation of the moving object.
- the storage device 107 stores position information sequentially output from the position estimation device 105 while the moving body 101 is moving.
- the controller 109 controls the driving device 111 to move the moving body 101.
- the controller 109 After moving the mobile unit 101 from the first point to the second point, the controller 109 returns the mobile unit 101 to the first point based on the position information stored in the storage device 107. At this time, the controller 109 returns the mobile object 101 to the first point on a route that is reversely traced from the first point to the second point.
- the path from the first point to the second point is referred to as "outbound path", and the path from the second point to the first point is referred to as "return path”.
- the mobile unit 101 after moving the mobile unit 101 from the first point to the second point, the mobile unit 101 can be returned to the first point without giving a specific instruction on the return route.
- the efficiency of the work using the mobile unit 101 can be improved.
- the loading operation can be performed at one of the first point and the second point, and the efficiency of the transportation operation such as unloading at the other of the first point and the second point can be improved.
- the mobile unit 101 is an unmanned transport vehicle, and data of an environmental map (hereinafter, also simply referred to as "environmental map") is recorded in the storage device 107.
- the position estimation device 105 performs matching between the sensor data and the environmental map recorded in the storage device 107 to determine estimated values of the position and orientation of the mobile body on the environmental map, and the estimated values are used as position information. Can be output as
- the controller 109 moves in at least one of a mode in which the moving body 101 is moved based on path information transmitted from an external device and a mode in which the moving body 101 tracks a moving object (referred to as “tracking mode”).
- the body 101 can be operated.
- the controller 109 controls the drive device 111 based on the sensor data output from the external sensor 103 to cause the moving object 101 to track the moving object.
- the moving object may be, for example, a person or other moving object.
- the controller 109 causes the mobile object 101 to track a person or another mobile object and move the mobile object 101 from the first point to the second point, and then returns the mobile object 101 to the first point.
- the controller 109 moves the mobile unit 101 to the first point after the mobile unit 101 moves from the first point to the second point, for example, in response to a feedback command given by a user operation or another device. You may return it.
- the feedback command may not include an instruction for specifying a return path.
- the controller 109 may start an operation of returning the moving body 101 to the first point when the position or state of the moving body 101 satisfies the set conditions. For example, when the mobile unit 101 is used to transport a package, the controller 109 detects that the unloading or loading has been completed after the mobile unit 101 has reached the second point. An operation to return to the first point may be initiated. Unloading or loading can be detected, for example, by a sensor provided near the mobile unit 101 or the second point. In an example, individual items placed on the mobile object 101 may be tagged, such as RFID. The sensor may detect that unloading or loading of all items has been completed by reading the information recorded on the individual tags.
- the controller 109 may reverse the direction of the mobile unit 101 in the forward path and then start moving. Alternatively, when returning the mobile unit 101 from the second point to the first point, the controller 109 may move the mobile unit 101 while maintaining the orientation of the mobile unit 101 the same as the direction in the forward path. In the latter example, the controller 109 causes the moving body 101 to reverse travel (or run backward) by rotating each drive motor in the moving body 101 in the direction opposite to the forward path.
- an unmanned carrier may be described as "AGV" using abbreviations.
- AGV unmanned carrier
- the following description can be similarly applied to mobile bodies other than AGVs, for example, mobile robots, drone, or manned vehicles, as long as no contradiction arises.
- FIG. 2 shows an example of the basic configuration of an exemplary mobile management system 100 according to the present disclosure.
- the mobile management system 100 includes at least one AGV 10 and an operation management apparatus 50 that manages the operation of the AGV 10.
- the terminal device 20 operated by the user 1 is also shown in FIG.
- the AGV 10 is an unmanned transport carriage capable of "guideless" traveling, which does not require a derivative such as a magnetic tape for traveling.
- the AGV 10 can perform self-position estimation, and can transmit the result of estimation to the terminal device 20 and the operation management device 50.
- the AGV 10 can automatically travel in the moving space S in accordance with a command from the operation management device 50.
- the AGV 10 can also operate in a "tracking mode" that moves following a person or other mobile.
- the operation management device 50 is a computer system that tracks the position of each AGV 10 and manages traveling of each AGV 10.
- the operation management device 50 may be a desktop PC, a laptop PC, and / or a server computer.
- the operation management apparatus 50 communicates with each AGV 10 via the plurality of access points 2. For example, the operation management device 50 transmits, to each AGV 10, data of coordinates of a position to which each AGV 10 should go next.
- Each AGV 10 periodically transmits data indicating its position and orientation to the operation management device 50, for example, every 100 milliseconds.
- the operation management device 50 transmits data of coordinates of a position to be further advanced.
- the AGV 10 can also travel in the moving space S in accordance with the operation of the user 1 input to the terminal device 20.
- An example of the terminal device 20 is a tablet computer.
- travel of the AGV 10 using the terminal device 20 is performed at the time of map creation, and travel of the AGV 10 using the operation management device 50 is performed after the map creation.
- FIG. 3 shows an example of a moving space S in which three AGVs 10a, 10b and 10c exist. All AGVs are assumed to travel in the depth direction in the figure. The AGVs 10a and 10b are carrying the load placed on the top plate. The AGV 10 c runs following the front AGV 10 b.
- the referential mark 10a, 10b and 10c were attached
- the AGV 10 can also transfer a load using a tow truck connected to itself, in addition to the method of transferring the load placed on the top plate.
- FIG. 4A shows the AGV 10 and the tow truck 5 before being connected. Each leg of the tow truck 5 is provided with a caster. The AGV 10 is mechanically connected to the tow truck 5.
- FIG. 4B shows the connected AGV 10 and tow truck 5. When the AGV 10 travels, the tow truck 5 is pulled by the AGV 10. By pulling the tow truck 5, the AGV 10 can transport the load placed on the tow truck 5.
- connection method of AGV10 and the pulling truck 5 is arbitrary.
- a plate 6 is fixed to the top plate of the AGV 10.
- the tow truck 5 is provided with a guide 7 having a slit.
- the AGV 10 approaches the tow truck 5 and inserts the plate 6 into the slit of the guide 7.
- the AGV 10 penetrates the plate 6 and the guide 7 with an electromagnetic lock type pin (not shown) to lock the electromagnetic lock.
- AGV10 and the pulling truck 5 are physically connected.
- Each AGV 10 and the terminal device 20 can be connected, for example, on a one-to-one basis to perform communication conforming to the Bluetooth (registered trademark) standard.
- Each AGV 10 and the terminal device 20 can also perform communication conforming to Wi-Fi (registered trademark) using one or more access points 2.
- the plurality of access points 2 are connected to one another via, for example, a switching hub 3. Two access points 2a, 2b are shown in FIG.
- the AGV 10 is wirelessly connected to the access point 2a.
- the terminal device 20 is wirelessly connected to the access point 2b.
- the data transmitted by the AGV 10 is received by the access point 2 a, transferred to the access point 2 b via the switching hub 3, and transmitted from the access point 2 b to the terminal device 20.
- the data transmitted by the terminal device 20 is received by the access point 2 b, transferred to the access point 2 a via the switching hub 3, and transmitted from the access point 2 a to the AGV 10. Thereby, bi-directional communication between the AGV 10 and the terminal device 20 is realized.
- the plurality of access points 2 are also connected to the operation management device 50 via the switching hub 3. Thereby, bidirectional communication is realized also between the operation management device 50 and each of the AGVs 10.
- the AGV 10 transitions to the data acquisition mode by the operation of the user.
- the AGV 10 starts acquiring sensor data using a laser range finder.
- the laser range finder periodically scans the surrounding space S by emitting a laser beam of, for example, infrared or visible light around.
- the laser beam is reflected by, for example, a surface such as a wall, a structure such as a pillar, or an object placed on the floor.
- the laser range finder receives the reflected light of the laser beam, calculates the distance to each reflection point, and outputs measurement data indicating the position of each reflection point.
- the direction of arrival of reflected light and the distance are reflected in the position of each reflection point.
- Data of measurement results may be referred to as "measurement data" or "sensor data”.
- the position estimation device stores sensor data in a storage device.
- the sensor data accumulated in the storage device is transmitted to the external device.
- the external device is, for example, a computer that has a signal processor and has a mapping program installed.
- the signal processor of the external device superimposes sensor data obtained for each scan.
- a map of the space S can be created by repeatedly performing the process of overlaying the signal processor.
- the external device transmits the created map data to the AGV 10.
- the AGV 10 stores the created map data in an internal storage device.
- the external device may be the operation management device 50 or another device.
- the AGV 10 may create the map instead of the external device.
- the processing performed by the signal processing processor of the external device described above may be performed by a circuit such as a microcontroller unit (microcomputer) of the AGV 10.
- a microcontroller unit microcomputer
- the data capacity of sensor data is generally considered to be large. Since it is not necessary to transmit sensor data to an external device, occupation of the communication line can be avoided.
- the movement in the movement space S for acquiring sensor data can be implement
- the AGV 10 wirelessly receives a traveling instruction instructing movement in each of the front, rear, left, and right directions from the user via the terminal device 20.
- the AGV 10 travels back and forth and left and right in the moving space S in accordance with a travel command to create a map.
- the map may be created by traveling in the moving space S in the front, rear, left, and right according to a control signal from the steering apparatus.
- the sensor data may be acquired by a person pushing on the measurement cart on which the laser range finder is mounted.
- FIGS. 2 and 3 Although a plurality of AGVs 10 are shown in FIGS. 2 and 3, one AGV may be provided. When there are a plurality of AGVs 10, the user 1 can use the terminal device 20 to select one AGV 10 out of the plurality of registered AGVs and create a map of the moving space S.
- each AGV 10 can automatically travel while estimating its own position using the map.
- the description of the process of estimating the self position will be described later.
- FIG. 5 is an external view of an exemplary AGV 10 according to the present embodiment.
- the AGV 10 has two drive wheels 11a and 11b, four casters 11c, 11d, 11e and 11f, a frame 12, a transport table 13, a travel control device 14, and a laser range finder 15.
- the two drive wheels 11a and 11b are provided on the right and left sides of the AGV 10, respectively.
- Four casters 11 c, 11 d, 11 e and 11 f are disposed at the four corners of the AGV 10.
- the AGV 10 also has a plurality of motors connected to the two drive wheels 11a and 11b, but the plurality of motors are not shown in FIG. Further, FIG.
- FIG. 5 shows one drive wheel 11a and two casters 11c and 11e located on the right side of the AGV 10 and a caster 11f located on the left rear, but the left drive wheel 11b and the left front
- the caster 11 d is not shown because it is hidden by the frame 12.
- the four casters 11c, 11d, 11e and 11f can freely pivot.
- the drive wheel 11a and the drive wheel 11b are also referred to as a wheel 11a and a wheel 11b, respectively.
- the AGV 10 further includes at least one obstacle sensor 19 for detecting an obstacle.
- the obstacle sensor 19 may be, for example, an apparatus capable of distance measurement, such as an infrared sensor, an ultrasonic sensor, or a stereo camera.
- the obstacle sensor 19 is an infrared sensor, for example, an infrared ray is emitted at regular time intervals, and an obstacle existing within a certain distance is detected by measuring a time until a reflected infrared ray returns. Can.
- the AGV 10 detects an obstacle on the path based on a signal output from at least one obstacle sensor 19, the AGV 10 operates to avoid the obstacle.
- the travel control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), an electronic component, and a substrate on which the components are mounted.
- the traveling control device 14 performs transmission and reception of data with the terminal device 20 described above and pre-processing calculation.
- the laser range finder 15 is an optical device that measures the distance to the reflection point by emitting a laser beam 15a of infrared or visible light, for example, and detecting the reflected light of the laser beam 15a.
- the laser range finder 15 of the AGV 10 is, for example, a pulsed laser beam while changing the direction every 0.25 degree in a space within a range of 135 degrees (270 degrees in total) with reference to the front of the AGV 10
- the light 15a is emitted, and the reflected light of each laser beam 15a is detected. This makes it possible to obtain data of the distance to the reflection point in the direction determined by the angle for a total of 1081 steps every 0.25 degrees.
- the scan of the surrounding space performed by the laser range finder 15 is substantially parallel to the floor surface and planar (two-dimensional). However, the laser range finder 15 may scan in the height direction.
- the AGV 10 can create a map of the space S based on the position and orientation (orientation) of the AGV 10 and the scan result of the laser range finder 15.
- the map may reflect the surrounding walls of the AGV, structures such as columns, and the placement of objects placed on the floor. Map data is stored in a storage device provided in the AGV 10.
- the position and posture of a mobile are called a pose.
- the position and orientation of the moving body in a two-dimensional plane are represented by position coordinates (x, y) in the XY orthogonal coordinate system and an angle ⁇ with respect to the X axis.
- the position and posture of the AGV 10, that is, the pose (x, y, ⁇ ) may be hereinafter simply referred to as "position”.
- the position of the reflection point viewed from the emission position of the laser beam 15a can be expressed using polar coordinates determined by the angle and the distance.
- the laser range finder 15 outputs sensor data represented by polar coordinates.
- the laser range finder 15 may convert the position expressed in polar coordinates into orthogonal coordinates and output it.
- the structure and the operating principle of the laser range finder are known, so a further detailed description will be omitted herein.
- Examples of objects that can be detected by the laser range finder 15 are people, luggage, shelves, walls.
- the laser range finder 15 is an example of an external sensor for sensing surrounding space and acquiring sensor data.
- an image sensor and an ultrasonic sensor can be considered.
- the traveling control device 14 can estimate the current position of itself by comparing the measurement result of the laser range finder 15 with the map data held by itself.
- maintained may be the map data which other AGV10 created.
- FIG. 6A shows a first hardware configuration example of the AGV 10.
- FIG. 6A also shows a specific configuration of the traveling control device 14.
- the AGV 10 includes a travel control device 14, a laser range finder 15, two motors 16a and 16b, a drive device 17, wheels 11a and 11b, and two rotary encoders 18a and 18b.
- the traveling control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a position estimation device 14e.
- the microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the position estimation device 14e are connected by a communication bus 14f and can exchange data with each other.
- the laser range finder 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits measurement data as a measurement result to the microcomputer 14a, the position estimation device 14e and / or the memory 14b.
- the microcomputer 14 a is a processor or control circuit (computer) that performs calculations for controlling the entire AGV 10 including the traveling control device 14.
- the microcomputer 14a is a semiconductor integrated circuit.
- the microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive unit 17 to control the drive unit 17 to adjust the voltage applied to the motor. This causes each of the motors 16a and 16b to rotate at a desired rotational speed.
- PWM Pulse Width Modulation
- One or more control circuits for example, microcomputers for controlling the drive of the left and right motors 16a and 16b may be provided independently of the microcomputer 14a.
- motor drive device 17 may be provided with two microcomputers for controlling the drive of motors 16a and 16b, respectively.
- Those two microcomputers may perform coordinate calculation using encoder information output from the encoders 18a and 18b, respectively, to estimate the moving distance of the AGV 10 from a given initial position.
- the two microcomputers may control the motor drive circuits 17a and 17b using encoder information.
- the memory 14 b is a volatile storage device that stores a computer program executed by the microcomputer 14 a.
- the memory 14b can also be used as a work memory when the microcomputer 14a and the position estimation device 14e perform an operation.
- the storage device 14 c is a non-volatile semiconductor memory device.
- the storage device 14 c may be a magnetic recording medium represented by a hard disk, or an optical recording medium represented by an optical disk.
- the storage device 14 c may include a head device for writing and / or reading data on any recording medium and a control device of the head device.
- the storage device 14c stores map data M of the space S in which the vehicle travels and data (traveling route data) R of one or more traveling routes.
- the map data M is created by the AGV 10 operating in the mapping mode and stored in the storage device 14c.
- the travel route data R is transmitted from the outside after the map data M is created.
- the map data M and the traveling route data R are stored in the same storage device 14c, but may be stored in different storage devices.
- the AGV 10 receives traveling route data R indicating a traveling route from the tablet computer.
- the travel route data R at this time includes marker data indicating the positions of a plurality of markers. “Marker” indicates the passing position (passing point) of the traveling AGV 10.
- the travel route data R includes at least position information of a start marker indicating a travel start position and an end marker indicating a travel end position.
- the travel route data R may further include positional information of markers at one or more intermediate waypoints. When the travel route includes one or more intermediate via points, a route from the start marker to the end marker via the travel via points in order is defined as the travel route.
- the data of each marker may include, in addition to the coordinate data of the marker, data of the orientation (angle) and traveling speed of the AGV 10 until moving to the next marker.
- the data of each marker is an acceleration time required to accelerate to the traveling speed, and / or It may include data of deceleration time required to decelerate from the traveling speed to a stop at the position of the next marker.
- the operation management device 50 may control the movement of the AGV 10.
- the operation management apparatus 50 may instruct the AGV 10 to move to the next marker each time the AGV 10 reaches the marker.
- the AGV 10 receives, from the operation management apparatus 50, coordinate data of a target position to be headed to next, or data of a distance to the target position and data of an angle to be traveled as travel route data R indicating a travel route.
- the AGV 10 can travel along the stored travel path while estimating its own position using the created map and the sensor data output from the laser range finder 15 acquired during travel.
- the communication circuit 14d is, for example, a wireless communication circuit that performs wireless communication compliant with the Bluetooth (registered trademark) and / or the Wi-Fi (registered trademark) standard. Both standards include wireless communication standards using frequencies in the 2.4 GHz band. For example, in the mode in which the AGV 10 is run to create a map, the communication circuit 14d performs wireless communication conforming to the Bluetooth (registered trademark) standard, and communicates with the terminal device 20 on a one-to-one basis.
- the position estimation device 14e performs map creation processing and estimation processing of the self position when traveling.
- the position estimation device 14e creates a map of the moving space S based on the position and attitude of the AGV 10 and the scan result of the laser range finder.
- the position estimation device 14e receives sensor data from the laser range finder 15, and reads out the map data M stored in the storage device 14c.
- the self position (x, y, ⁇ ) on the map data M is obtained Identify
- the position estimation device 14 e generates “reliability” data indicating the degree to which the local map data matches the map data M.
- the data of the self position (x, y, ⁇ ) and the reliability can be transmitted from the AGV 10 to the terminal device 20 or the operation management device 50.
- the terminal device 20 or the operation management device 50 can receive each data of the self position (x, y, ⁇ ) and the reliability and can display it on a built-in or connected display device.
- microcomputer 14a and the position estimation device 14e are separate components, this is an example. It may be a single chip circuit or a semiconductor integrated circuit capable of independently performing each operation of the microcomputer 14a and the position estimation device 14e.
- FIG. 6A shows a chip circuit 14g including the microcomputer 14a and the position estimation device 14e.
- the microcomputer 14a and the position estimation device 14e are provided separately and independently will be described.
- Two motors 16a and 16b are attached to two wheels 11a and 11b, respectively, to rotate each wheel. That is, the two wheels 11a and 11b are respectively drive wheels.
- the motor 16a and the motor 16b are described as being motors for driving the right and left wheels of the AGV 10, respectively.
- the moving body 10 further includes an encoder unit 18 that measures the rotational position or rotational speed of the wheels 11a and 11b.
- the encoder unit 18 includes a first rotary encoder 18a and a second rotary encoder 18b.
- the first rotary encoder 18a measures the rotation at any position of the power transmission mechanism from the motor 16a to the wheel 11a.
- the second rotary encoder 18 b measures the rotation at any position of the power transmission mechanism from the motor 16 b to the wheel 11 b.
- the encoder unit 18 transmits the signals acquired by the rotary encoders 18a and 18b to the microcomputer 14a.
- the microcomputer 14 a may control the movement of the mobile unit 10 using not only the signal received from the position estimation device 14 e but also the signal received from the encoder unit 18.
- the drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b.
- Each of motor drive circuits 17a and 17b includes a so-called inverter circuit.
- the motor drive circuits 17a and 17b turn on or off the current flowing to each motor by the PWM signal transmitted from the microcomputer 14a or the microcomputer in the motor drive circuit 17a, thereby adjusting the voltage applied to the motor.
- FIG. 6B shows a second hardware configuration example of the AGV 10.
- the second hardware configuration example differs from the first hardware configuration example (FIG. 6A) in that it has the laser positioning system 14 h and that the microcomputer 14 a is connected to each component on a one-to-one basis. Do.
- the laser positioning system 14 h includes a position estimation device 14 e and a laser range finder 15.
- the position estimation device 14e and the laser range finder 15 are connected by, for example, an Ethernet (registered trademark) cable.
- the operations of the position estimation device 14e and the laser range finder 15 are as described above.
- the laser positioning system 14 h outputs information indicating the pose (x, y, ⁇ ) of the AGV 10 to the microcomputer 14 a.
- the microcomputer 14a has various general purpose I / O interfaces or general purpose input / output ports (not shown).
- the microcomputer 14a is directly connected to other components in the travel control device 14, such as the communication circuit 14d and the laser positioning system 14h, via the general-purpose input / output port.
- the AGV 10 in the embodiment of the present disclosure may include a safety sensor such as a bumper switch not shown.
- the AGV 10 may include an inertial measurement device such as a gyro sensor.
- an inertial measurement device such as a gyro sensor.
- FIGS. 7A to 7F schematically show the AGV 10 moving while acquiring sensor data.
- the user 1 may move the AGV 10 manually while operating the terminal device 20.
- the unit provided with the travel control device 14 shown in FIGS. 6A and 6B, or the AGV 10 itself may be mounted on a carriage, and sensor data may be acquired by the user 1 manually pushing or holding the carriage.
- FIG. 7A shows an AGV 10 that scans the surrounding space using a laser range finder 15. A laser beam is emitted for each predetermined step angle and scanning is performed.
- the illustrated scan range is an example schematically shown, and is different from the total scan range of 270 degrees described above.
- the position of the reflection point of the laser beam is schematically shown using a plurality of black points 4 represented by a symbol “ ⁇ ”.
- the scanning of the laser beam is performed at short intervals while the position and attitude of the laser range finder 15 change. Therefore, the number of actual reflection points is much larger than the number of reflection points 4 shown.
- the position estimation device 14e stores, for example, in the memory 14b, the position of the black point 4 obtained as the vehicle travels.
- the map data is gradually completed as the AGV 10 continues to scan while traveling.
- FIGS. 7B-7E only the scan range is shown for simplicity.
- the scan range is an example, and is different from the above-described example of 270 degrees in total.
- the map may be created using the microcomputer 14a in the AGV 10 or an external computer based on the sensor data after acquiring the sensor data of the amount necessary for creating the map. Alternatively, a map may be created in real time based on sensor data acquired by the moving AGV 10.
- FIG. 7F schematically shows a part of the completed map 40.
- free space is partitioned by a point cloud (Point Cloud) corresponding to a collection of reflection points of the laser beam.
- Point Cloud Point Cloud
- Another example of the map is an occupied grid map that distinguishes space occupied by an object from free space in grid units.
- the position estimation device 14e stores map data (map data M) in the memory 14b or the storage device 14c.
- map data M maps map data in the memory 14b or the storage device 14c.
- the illustrated number or density of black spots is an example.
- the map data thus obtained may be shared by multiple AGVs 10.
- a typical example of an algorithm in which the AGV 10 estimates its own position based on map data is ICP (Iterative Closest Point) matching.
- ICP Intelligent Closest Point
- the map data M may be created and recorded as data of a plurality of partial maps.
- FIG. 8 shows an example in which the entire area of one floor of one factory is covered by a combination of four partial map data M1, M2, M3 and M4.
- one partial map data covers an area of 50 m ⁇ 50 m.
- a rectangular overlapping area of 5 m in width is provided at the boundary between two adjacent maps in each of the X direction and the Y direction. This overlapping area is called "map switching area".
- Map switching area When the AGV 10 traveling while referring to one partial map reaches the map switching area, it switches to a traveling referring to another adjacent partial map.
- the number of partial maps is not limited to four, and may be appropriately set according to the area of the floor on which the AGV 10 travels, and the performance of a computer that executes map creation and self-position estimation.
- the size of the partial map data and the width of the overlapping area are not limited to the above example, and may be set arbitrarily.
- FIG. 9 shows a hardware configuration example of the operation management device 50.
- the operation management apparatus 50 includes a CPU 51, a memory 52, a position database (position DB) 53, a communication circuit 54, a map database (map DB) 55, and an image processing circuit 56.
- the CPU 51, the memory 52, the position DB 53, the communication circuit 54, the map DB 55, and the image processing circuit 56 are connected by a communication bus 57 and can exchange data with each other.
- the CPU 51 is a signal processing circuit (computer) that controls the operation of the operation management device 50.
- the CPU 51 is a semiconductor integrated circuit.
- the memory 52 is a volatile storage device that stores a computer program that the CPU 51 executes.
- the memory 52 can also be used as a work memory when the CPU 51 performs an operation.
- the position DB 53 stores position data indicating each position that can be a destination of each AGV 10.
- the position data may be represented, for example, by coordinates virtually set in the factory by the administrator. Location data is determined by the administrator.
- the communication circuit 54 performs wired communication conforming to, for example, the Ethernet (registered trademark) standard.
- the communication circuit 54 is connected to the access point 2 (FIG. 1) by wire, and can communicate with the AGV 10 via the access point 2.
- the communication circuit 54 receives data to be transmitted to the AGV 10 from the CPU 51 via the bus 57.
- the communication circuit 54 also transmits data (notification) received from the AGV 10 to the CPU 51 and / or the memory 52 via the bus 57.
- the map DB 55 stores data of an internal map of a factory or the like on which the AGV 10 travels.
- the map may be the same as or different from the map 40 (FIG. 7F).
- the data format is not limited as long as the map has a one-to-one correspondence with the position of each AGV 10.
- the map stored in the map DB 55 may be a map created by CAD.
- the position DB 53 and the map DB 55 may be constructed on a non-volatile semiconductor memory, or may be constructed on a magnetic recording medium represented by a hard disk or an optical recording medium represented by an optical disc.
- the image processing circuit 56 is a circuit that generates data of an image displayed on the monitor 58.
- the image processing circuit 56 operates only when the administrator operates the operation management device 50. In the present embodiment, particularly the detailed description is omitted.
- the monitor 59 may be integrated with the operation management device 50. Further, the CPU 51 may perform the processing of the image processing circuit 56.
- FIG. 10 is a view schematically showing an example of the movement route of the AGV 10 determined by the operation management device 50. As shown in FIG.
- the outline of the operation of the AGV 10 and the operation management device 50 is as follows. In the following, an example will be described in which an AGV 10 is currently at position M 1 and travels through several positions to the final destination position M n + 1 (n: 1 or more positive integer) .
- position DB 53 coordinate data indicating positions such as a position M 2 to be passed next to the position M 1 and a position M 3 to be passed next to the position M 2 are recorded.
- CPU51 of traffic control device 50 reads out the coordinate data of the position M 2 with reference to the position DB 53, and generates a travel command to direct the position M 2.
- the communication circuit 54 transmits a traveling command to the AGV 10 via the access point 2.
- the CPU 51 periodically receives data indicating the current position and attitude from the AGV 10 via the access point 2.
- the operation management device 50 can track the position of each AGV 10.
- CPU51 determines that the current position of the AGV10 matches the position M 2, reads the coordinate data of the position M 3, and transmits the AGV10 generates a travel command to direct the position M 3. That is, when it is determined that the AGV 10 has reached a certain position, the operation management device 50 transmits a traveling command for directing to the next passing position.
- the AGV 10 can reach the final target position Mn + 1 .
- the passing position and the target position of the AGV 10 described above may be referred to as a “marker”.
- the AGV 10 in the present embodiment can operate in a “tracking mode” for tracking a moving object, separately from the mode in which the vehicle travels according to an instruction from the operation management apparatus 50.
- FIGS. 11A and 11B are diagrams schematically showing an example of the AGV 10 operating in the tracking mode.
- the broken line in the figure schematically shows an example of the AGV 10 path.
- the AGV 10 moves following the movement of the user 1.
- the AGV 10 moves following the movement of the other leading AGV 10A.
- the microcomputer 14 a in the AGV 10 detects a moving object from the sensor data acquired by the laser range finder 15. For example, the microcomputer 14a detects a mark object such as the leg of the user 1 located in front, or the rear bumper of another AGV 10A. The microcomputer 14a controls the movement of the AGV 10 such that the distance between the object and the AGV 10 is substantially constant (eg, several tens of cm). Thereby, AGV10 can track the moving object ahead.
- an external sensor other than the laser range finder 15 for example, an image sensor or an ultrasonic sensor may be used.
- the microcomputer 14a may recognize a moving object by image processing.
- the AGV 10 starts moving from a first point P1 which is an initial point, and moves to a second point P2 which is a destination while tracking a moving object.
- loading to the AGV 10 is performed at the first point P1
- unloading from the AGV 10 is performed at the second point P2.
- the microcomputer 14a While the AGV 10 moves from the first point P1 to the second point P2, the microcomputer 14a stores the position information (x, y, ⁇ ) sequentially output from the position estimation device 14e in the storage device 14c. At this time, the microcomputer 14a may store the position information sequentially output from the position estimation device 14e as it is in the storage device 14c, or may thin the position information as necessary. For example, the microcomputer 14a stores the position information periodically output from the position estimation device 14e at a rate of once in a plurality of times, that is, once in N times (N is any integer of 2 or more). May be stored. Alternatively, the microcomputer 14a may store the position information in the storage device 14c each time the AGV 10 advances by a predetermined distance.
- the distance traveled by the AGV 10 can be calculated from the position information output from the position estimation device 14 e or the odometry information output from the encoder unit 18. By thinning out and recording the position information output from the position estimation device 14e, the amount of data can be reduced, and the processing can be speeded up.
- the microcomputer 14a After the moving object 10 reaches the second point P2 and unloading is completed, the microcomputer 14a returns the AGV 10 from the second point P2 to the first point P1.
- the completion of the unloading can be notified to the microcomputer 14a, for example, by the user 1 pressing a switch or button (not shown) provided on the AGV 10 or operating the terminal device 20.
- This notification is input to the microcomputer 14a as a feedback command.
- the microcomputer 14a starts an operation of returning the AGV 10 to the first point P1.
- the feedback command may be transmitted to the microcomputer 14a from another device such as the operation management device 50.
- the operation management apparatus 50 can detect that unloading has been completed at the second point P2, for example, by the operation of the terminal device 20 by the user 1.
- the operation management apparatus 50 may detect that unloading has been completed from a sensor that reads information of an IC tag such as an RFID attached to an individual item placed on the AGV 10.
- a sensor may be provided, for example, in a rack located near the AGV 10 or the second point P2.
- the microcomputer 14a may return the AGV 10 to the first point P1 when the set conditions are satisfied without explicitly giving a feedback command.
- the set conditions for example, the following conditions can be considered.
- ⁇ When the sensor reading the information of the tag attached to each article detects that unloading of all articles is completed ⁇ Time set from the time when AGV 10 reaches the second point P2 (for example, 5 minutes When about one hour has passed • When the AGV 10 is manually moved to a specific area near the second point P2
- the controller when the controller satisfies the condition (hereinafter, may be referred to as “feedback condition”) in which the position or state of the AGV 10 is set, the controller starts an operation of returning the mobile object 10 to the first point. It is also good.
- the microcomputer 14a In the return path, the microcomputer 14a returns the AGV 10 to the first point P1 by tracing back the path from the first point P1 to the second point P2 based on the position information stored in the storage device 14c. .
- the movement route of the AGV 10 in the forward route and the return route does not have to be exactly the same.
- the microcomputer 14a controls the operation of the AGV 10 to avoid the obstacle. May be An obstacle may be detected by at least one obstacle sensor 19 (FIG. 5) provided in the AGV 10.
- FIG. 12 is a flowchart showing the operation of the AGV 10 in the present embodiment.
- the microcomputer 14a causes the storage device 14c to store position information, for example, at fixed intervals or at fixed intervals (step S101).
- a set of accumulated position information is recorded in the storage device 14c as route information of the forward path.
- the microcomputer 14a determines whether a feedback command has been issued or whether the feedback condition is satisfied (step S103). If the determination is Yes, the microcomputer 14a reverses the route based on the position information recorded in the storage device 14c, and returns the moving object 10 to the first point P1 which is the initial position (step S104).
- FIGS. 13A to 13F an example of the operation of the AGV 10 will be more specifically described with reference to FIGS. 13A to 13F.
- the leading AGV 10A moves from the initial point to the destination point in accordance with the route instruction from the operation management device 50.
- the second AGV 10B moves following the first AGV 10A.
- the third AGV 10C moves following the second AGV 10B.
- the first AGV 10A holds an environmental map in the storage device 14c.
- the position estimation device 10 e in the AGV 10 A performs matching between the data of the point group output from the laser range finder 15 and the environmental map, and moves while estimating its own position.
- the AGV 10A may perform an operation to avoid the obstacle if an obstacle not present on the environmental map exists on the route.
- the AGV 10A may update the environmental map while moving.
- the AGVs 10B and 10C that follow the leading AGV 10A may not hold the environmental map at the time of departure.
- the AGVs 10B and 10C may create an environmental map while moving from the initial point to the destination point. At that time, other AGVs traveling ahead are not reflected on the environmental map.
- the environment map can be created by the position estimation device 14 e based on the position information of the point group periodically output from the laser range finder 15.
- FIG. 13A to FIG. 13C show an example of the operation on the outward path from the start of movement to the arrival at the destination point.
- 13D to 13F show examples of the operation of the return from the destination point to the initial point.
- the initial point (first point) and the destination point (second point) differ depending on the AGV.
- the initial point of the leading AGV 10A is located forward of the initial points of the AGVs 10B and 10C. The same is true for the destination point.
- the three AGVs 10A, 10B, and 10C move toward the destination while maintaining a substantially constant inter-vehicle distance.
- each of the AGVs 10A, 10B, 10C moves while recording its own position information. Recording of position information may be performed, for example, every fixed time (for example, several milliseconds to several seconds) or every predetermined distance (for example, several tens of millimeters to several meters). The frequency of the recording may be lower than the frequency of the output of the position information output from the position estimation device 14e.
- the AGVs 10B and 10C may create or update the environmental map while tracking the leading AGV 10A.
- the microcomputer 14a creates or updates the environment map based on the position information sequentially output from the position estimation device 14e while causing the AGVs 10B and 10C to track the head AGV 10A.
- the AGVs 10B and 10C may obtain the environment map by communication from the head AGV 10A or the operation management device.
- the position information may be acquired from the leading AGV 10A or the operation management apparatus 50.
- the operation management device 50 communicates with the leading AGV 10A and tracks its position and attitude.
- the head AGV 10A moves according to the instruction from the operation management device, but the other AGVs 10B and 10C may also operate according to the instruction from the operation management device. In that case, the AGVs 10B and 10C may not have the tracking function.
- the unloading operation is performed.
- the user gives each AGV a feedback command by pressing a button provided on each AGV or operating the terminal device 20. Then, from the AGV given the feedback command, it returns to the original place in order.
- the feedback commands are given in the order of AGVs 10C, 10B, and 10A.
- the microcomputer 14a of each AGV performs self-position estimation while moving, and confirms the correspondence between the position and orientation (x, y, ⁇ ) and the position information (x, y, ⁇ ) recorded in the storage device 14c. Control the movement while.
- the frequency of confirmation of the correspondence of the position information in the return pass may be lower than the frequency of recording the position information in the forward pass.
- all AGVs 10A, 10B, 10C return to their initial positions.
- each AGV shown in FIG. 13F does not have to exactly correspond to the position in the initial state shown in FIG. 13A, and may be slightly offset. Also, each AGV may return to the middle of the movement path instead of returning to the initial position. In that case, a point in the middle of the movement route is interpreted as a "first point". Each of the first point and the second point does not mean a precise "point" but may be an area with a certain extent.
- each AGV moves backward toward the initial position by tracing the path in the same direction as the direction in the forward path. That is, each AGV runs in reverse.
- sensor data from the laser range finder 15 is similar between the forward path and the return path. Therefore, there is an advantage that it is easy to estimate the position on the return route, especially when moving while creating or updating the environmental map in the forward route.
- FIG. 14 is a diagram showing another example of the operation of the AGV in the return path.
- each AGV returns to the initial position in the direction opposite to the direction in the forward path.
- the microcomputer 14a in each AGV first performs an operation of reversing the direction of the AGV when the feedback operation is started.
- the traveling direction of each AGV coincides with the front direction of the laser range finder 15, it is not necessary to change the control method of each motor by the microcomputer 14a between forward and backward.
- FIG. 15A is a diagram showing an example of position information recorded in the forward pass.
- FIG. 15B is a diagram showing an example of position information in the return path.
- FIG. 15C is a diagram showing another example of position information in the return path.
- FIG. 15B shows an example of the case where the AGV reverses with the same direction as the direction in the forward path.
- FIG. 15C shows an example in which the AGV returns to the original position in the direction opposite to the outward path.
- the angle ⁇ in the return path differs by 180 degrees from the angle ⁇ in the forward path.
- the microcomputer 14a sets position information as shown in FIG. 15B or FIG. 15C in the return path, and returns the AGV to the initial position through the same route as the forward path.
- the mobile body and mobile body management system of the present disclosure can be suitably used for moving and transporting objects such as luggage, parts, finished products, etc. in factories, warehouses, construction sites, logistics, hospitals and the like.
- Motor drive circuit 18: encoder unit, 18a, 18b: rotary encoder, 19: obstacle sensor, 20: terminal device (mobile computer such as tablet computer), 50: operation management device 51: CPU 52: memory 53: position database (position DB) 54: communication circuit 55: map database (map DB , 56: image processing circuit, 100: moving object management system, 101: moving object, 103: external sensor, 105: position estimation device, 107: storage device, 109. ⁇ Controller, 111 ⁇ ⁇ ⁇ Drive device
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は移動体および移動体システムに関する。 The present disclosure relates to mobiles and mobile systems.
無人搬送車または移動ロボットなどの移動体の研究および開発が進められている。たとえば特開2008-084135号公報は、人物に追従して移動しながら地図および移動経路を登録する移動ロボットを開示している。また、特開2006-285635号公報は、人に呼ばれると、その人の場所まで移動し、用事が終わると再び元のルート位置付近に戻る移動ロボットを開示している。 Research and development of mobile units such as unmanned carrier vehicles or mobile robots are in progress. For example, Japanese Patent Application Laid-Open No. 2008-084135 discloses a mobile robot that registers a map and a movement route while moving following a person. Also, Japanese Patent Application Laid-Open No. 2006-285635 discloses a mobile robot that moves to the place of the person when called by a person and returns to the vicinity of the original route position again when the business is over.
本開示は、移動体を用いた作業の利便性をさらに向上させる技術を提供する。 The present disclosure provides a technique for further improving the convenience of work using a moving object.
本開示の例示的な実施形態における移動体は、自律的に移動することが可能な移動体であって、前記移動体を移動させる駆動装置と、外界センサと、前記外界センサから出力されたセンサデータに基づき、前記移動体の位置および姿勢を示す位置情報を順次出力する位置推定装置と、前記位置推定装置から出力された前記位置情報を記憶する記憶装置と、前記駆動装置を制御して前記移動体を移動させるコントローラとを備える。前記コントローラは、前記移動体が第1の地点から第2の地点まで移動した後、前記記憶装置に記憶されている前記位置情報に基づいて、前記第1の地点から前記第2の地点までの経路を逆に辿って前記移動体を前記第1の地点に戻す。 The mobile in the exemplary embodiment of the present disclosure is a mobile that can move autonomously, and includes a drive device for moving the mobile, an external sensor, and a sensor output from the external sensor. A position estimation device for sequentially outputting position information indicating the position and attitude of the mobile object based on data; a storage device for storing the position information output from the position estimation device; and controlling the drive device to control the drive device And a controller for moving the moving body. The controller is configured to move from the first point to the second point based on the position information stored in the storage device after the mobile body moves from the first point to the second point. The path is reversed to return the mobile to the first point.
上記の包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The above general or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, the present invention may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a storage medium.
本開示の実施形態によれば、移動体が第1の地点から第2の地点まで移動した後、復路に関する情報を与えることなく、その移動体を再び第1の地点に戻すことができる。このため、移動体を用いた作業の利便性を向上させることができる。 According to an embodiment of the present disclosure, after the mobile moves from the first point to the second point, the mobile can be returned to the first point again without giving information on the return route. For this reason, the convenience of the work using a mobile body can be improved.
<用語>
本開示の実施形態を説明する前に、本明細書において使用する用語の定義を説明する。
<Term>
Before describing the embodiments of the present disclosure, definitions of terms used in the present specification will be described.
「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。 The term "unmanned transport vehicle" (AGV) means a trackless vehicle that manually or automatically loads a load on a main body, travels automatically to a designated location, and unloads manually or automatically. "Unmanned aerial vehicle" includes unmanned tow vehicles and unmanned forklifts.
「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that the steering of the vehicle does not require a person, and does not exclude that the unmanned carrier conveys a "person (e.g., a person who unloads a package)".
「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 The "unmanned tow truck" is a trackless vehicle that is to automatically travel to a designated location by towing a cart for manual or automatic loading and unloading of luggage.
「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 The "unmanned forklift" is a trackless vehicle equipped with a mast for raising and lowering a load transfer fork and the like, automatically transferring the load to the fork and the like and automatically traveling to a designated location and performing an automatic load handling operation.
「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that includes a wheel and an electric motor or engine that rotates the wheel.
「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A "mobile" is a device that moves while carrying a person or a load, and includes a driving device such as a wheel, a biped or multi-legged walking device, or a propeller that generates a traction for movement. The term "mobile" in the present disclosure includes mobile robots, service robots, and drone as well as unmanned guided vehicles in a narrow sense.
「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 The “automatic traveling” includes traveling based on an instruction of an operation management system of a computer to which the automated guided vehicle is connected by communication, and autonomous traveling by a control device provided in the automated guided vehicle. The autonomous traveling includes not only traveling by the automated guided vehicle toward a destination along a predetermined route, but also traveling by following a tracking target. In addition, the automatic guided vehicle may perform manual traveling temporarily based on the instruction of the worker. Although "automatic travel" generally includes both "guided" travel and "guideless" travel, in the present disclosure, "guideless" travel is meant.
「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The “guided type” is a system in which a derivative is installed continuously or intermittently and a guided vehicle is guided using the derivative.
「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The “guideless type” is a method of guiding without installing a derivative. The unmanned transfer vehicle in the embodiment of the present disclosure includes a self position estimation device, and can travel in a guideless manner.
「自己位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 The “self-position estimation device” is a device that estimates the self-location on the environment map based on sensor data acquired by an external sensor such as a laser range finder.
「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、および磁気センサがある。 The "external sensor" is a sensor that senses the external state of the mobile object. The external sensor includes, for example, a laser range finder (also referred to as a range sensor), a camera (or an image sensor), LIDAR (Light Detection and Ranging), a millimeter wave radar, and a magnetic sensor.
「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 The “internal sensor” is a sensor that senses the internal state of the mobile object. The internal sensors include, for example, a rotary encoder (hereinafter, may be simply referred to as an "encoder"), an acceleration sensor, and an angular acceleration sensor (for example, a gyro sensor).
「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 "SLAM (Slam)" is an abbreviation for Simultaneous Localization and Mapping, and means that self-localization and environmental mapping are simultaneously performed.
<例示的な実施形態>
以下、添付の図面を参照しながら、本開示による移動体および移動体システムの一例を説明する。なお、必要以上に詳細な説明は省略する場合がある。たとえば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。本発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供する。これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
Exemplary Embodiment
Hereinafter, an example of a mobile unit and a mobile unit system according to the present disclosure will be described with reference to the accompanying drawings. In addition, detailed description more than necessary may be omitted. For example, detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The inventors provide the attached drawings and the following description so that those skilled in the art can fully understand the present disclosure. They are not intended to limit the subject matter recited in the claims.
図1は、本開示の例示的な実施形態における移動体の概略構成を示すブロック図である。この移動体101は、外界センサ103と、位置推定装置105と、記憶装置107と、コントローラ109と、駆動装置111とを備えている。
FIG. 1 is a block diagram showing a schematic configuration of a mobile unit in an exemplary embodiment of the present disclosure. The
駆動装置111は、移動体101を移動させる機構を備えている。駆動装置111は、例えば不図示の少なくとも1台の駆動用電気モータ(以下、単に「モータ」と称する)、および、当該モータを制御するモータ制御回路を備え得る。外界センサ103は、例えばレーザレンジファインダ、カメラ、レーダ、またはLIDARなどの、外部環境をセンシングするセンサである。位置推定装置105は、外界センサから出力されたセンサデータに基づき、移動体の位置および姿勢を推定する。位置推定装置105は、推定した移動体の位置および姿勢(orientation)を示す情報(本明細書において「位置情報」と称する)を順次出力する。記憶装置107は、移動体101の移動中、位置推定装置105から順次出力された位置情報を記憶する。コントローラ109は、駆動装置111を制御して移動体101を移動させる。
The
コントローラ109は、移動体101を第1の地点から第2の地点まで移動させた後、記憶装置107に記憶されている位置情報に基づいて、移動体101を第1の地点に戻す。この際、コントローラ109は、第1の地点から第2の地点までの経路を逆に辿った経路で、移動体101を第1の地点に戻す。第1の地点から第2の地点までの経路を「往路」と称し、第2の地点から第1の地点までの経路を「復路」と称する。
After moving the
本実施形態によれば、移動体101を第1の地点から第2の地点まで移動させた後、復路に関する具体的な指示を与えることなく移動体101を第1の地点に戻すことができる。これにより、移動体101を用いた作業の効率を向上させることができる。例えば第1の地点および第2の地点の一方で荷積みをし、第1の地点および第2の地点の他方で荷卸しをするような運搬作業の効率を向上させることができる。
According to this embodiment, after moving the
ある実施形態において、移動体101は無人搬送車であり、記憶装置107には環境地図のデータ(以下、単に「環境地図」とも称する)が記録される。位置推定装置105は、センサデータと、記憶装置107に記録された環境地図とのマッチングを行うことにより、環境地図上における移動体の位置および姿勢の推定値を決定し、当該推定値を位置情報として出力し得る。
In one embodiment, the
コントローラ109は、外部の装置から送信された経路情報に基づいて移動体101を移動させるモード、および移動体101に移動物体を追尾させるモード(「追尾モード」と称する)の少なくとも一方のモードで移動体101を動作させることができる。コントローラ109は、追尾モードにおいて、外界センサ103から出力されたセンサデータに基づいて駆動装置111を制御し、移動体101に移動物体を追尾させる。移動物体は、例えば人または他の移動体であり得る。コントローラ109は、追尾モードにおいては、移動体101に人または他の移動体を追尾させて第1の地点から第2の地点まで移動させた後、移動体101を第1の地点に戻す。
The
コントローラ109は、移動体101が第1の地点から第2の地点まで移動した後、例えばユーザの操作または他の装置によって与えられた帰還指令に応答して、移動体101を第1の地点に戻してもよい。帰還指令は復路を指定する指示を含まなくてよい。コントローラ109は、移動体101の位置または状態が設定された条件を満足したとき、移動体101を第1の地点に戻す動作を開始してもよい。例えば、移動体101が荷物の搬送に利用される場合、コントローラ109は、移動体101が第2の地点に到達した後、荷卸しまたは荷積みが完了したことを検知したとき、移動体101を第1の地点に戻す動作を開始してもよい。荷卸しまたは荷積みは、例えば移動体101または第2の地点の近傍に設けられたセンサによって検知され得る。ある例では、移動体101に載置される個々の物品にRFIDなどのタグが付され得る。センサは、個々のタグに記録された情報を読み取ることで、全ての物品の荷卸しまたは荷積みが完了したことを検知し得る。
The
コントローラ109は、第2の地点から第1の地点に移動体101を戻すとき、移動体101の向きを往路における向きとは逆にしてから移動を開始してもよい。あるいは、コントローラ109は、第2の地点から第1の地点に移動体101を戻すとき、移動体101の向きを往路における向きと同一の状態を保ちながら移動体101を移動させてもよい。後者の例では、コントローラ109は、移動体101における駆動用の各モータを、往路とは逆方向に回転させることにより、移動体101を逆走(または背走)させる。
When returning the
以下、移動体が無人搬送車である場合のより具体的な例を説明する。本明細書では、略語を用いて、無人搬送車を「AGV」と記述することがある。なお、以下の説明は、矛盾がない限り、AGV以外の移動体、例えば移動ロボット、ドローン、または有人の車両などにも同様に適用することができる。 Hereinafter, a more specific example in the case where the moving body is an unmanned carrier will be described. In this specification, an unmanned carrier may be described as "AGV" using abbreviations. The following description can be similarly applied to mobile bodies other than AGVs, for example, mobile robots, drone, or manned vehicles, as long as no contradiction arises.
(1)システムの基本構成
図2は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図2には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic Configuration of System FIG. 2 shows an example of the basic configuration of an exemplary
AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令に従って移動空間S内を自動走行することが可能である。AGV10は、さらに、人または他の移動体に追従して移動する「追尾モード」で動作することが可能である。
The
運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば100ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて移動空間S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。典型的には、端末装置20を利用したAGV10の走行は地図作成時に行われ、運行管理装置50を利用したAGV10の走行は地図作成後に行われる。
The
図3は、3台のAGV10a、10bおよび10cが存在する移動空間Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図3では参照符号10a、10bおよび10cを付したが、以下では、「AGV10」と記述する。
FIG. 3 shows an example of a moving space S in which three
AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図4Aは接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図4Bは、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。
The
AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。
The connection method of AGV10 and the pulling
再び図2を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi-Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図2には2台のアクセスポイント2a、2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信され、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信され、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。
Refer again to FIG. Each
(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、移動空間S内の地図が作成される。AGV10には位置推定装置およびレーザレンジファインダが搭載されており、レーザレンジファインダの出力を利用して地図を作成できる。
(2) Creation of Environment Map In order to allow the
AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はレーザレンジファインダを用いたセンサデータの取得を開始する。レーザレンジファインダは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の空間Sをスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体等の表面で反射される。レーザレンジファインダは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。測定結果のデータは「計測データ」または「センサデータ」と呼ばれることがある。
The
位置推定装置は、センサデータを記憶装置に蓄積する。移動空間S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成プログラムがインストールされたコンピュータである。 The position estimation device stores sensor data in a storage device. When acquisition of sensor data in the movement space S is completed, the sensor data accumulated in the storage device is transmitted to the external device. The external device is, for example, a computer that has a signal processor and has a mapping program installed.
外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、空間Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。
The signal processor of the external device superimposes sensor data obtained for each scan. A map of the space S can be created by repeatedly performing the process of overlaying the signal processor. The external device transmits the created map data to the
外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要が無くなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。
The
なお、センサデータを取得するための移動空間S内の移動は、ユーザの操作に従ってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって移動空間S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって移動空間S内を前後左右に走行し、地図を作成してもよい。レーザレンジファインダを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。
In addition, the movement in the movement space S for acquiring sensor data can be implement | achieved when AGV10 drive | works according to a user's operation. For example, the
なお、図2および図3には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、移動空間Sの地図を作成させることができる。
Although a plurality of
地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。自己位置を推定する処理の説明は後述する。
After the map is created, each
(3)AGVの構成
図5は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、レーザレンジファインダ15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図5には示されていない。また、図5には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) Configuration of AGV FIG. 5 is an external view of an
AGV10は、さらに、障害物を検知するための少なくとも1つの障害物センサ19を備えている。図5の例では、フレーム12の4隅に4つの障害物センサ19が設けられている。障害物センサ19の個数および配置は、図5の例とは異なっていてもよい。障害物センサ19は、例えば、赤外線センサ、超音波センサ、またはステレオカメラなどの、距離計測が可能な装置であり得る。障害物センサ19が赤外線センサである場合、例えば一定時間ごとに赤外線を出射し、反射された赤外線が戻ってくるまでの時間を計測することにより、一定距離以内に存在する障害物を検知することができる。AGV10は、少なくとも1つの障害物センサ19から出力された信号に基づいて経路上の障害物を検知したとき、その障害物を回避する動作を行う。
The
走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および前処理演算を行う。
The
レーザレンジファインダ15は、たとえば赤外線または可視光のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のレーザレンジファインダ15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、レーザレンジファインダ15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、レーザレンジファインダ15は高さ方向のスキャンを行ってもよい。
The
AGV10の位置および姿勢(向き)と、レーザレンジファインダ15のスキャン結果とにより、AGV10は、空間Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。
The
一般に、移動体の位置および姿勢は、ポーズ(pose)と呼ばれる。二次元面内における移動体の位置および姿勢は、XY直交座標系における位置座標(x, y)と、X軸に対する角度θによって表現される。AGV10の位置および姿勢、すなわちポーズ(x, y, θ)を、以下、単に「位置」と呼ぶことがある。
Generally, the position and posture of a mobile are called a pose. The position and orientation of the moving body in a two-dimensional plane are represented by position coordinates (x, y) in the XY orthogonal coordinate system and an angle θ with respect to the X axis. The position and posture of the
レーザビーム15aの放射位置から見た反射点の位置は、角度および距離によって決定される極座標を用いて表現され得る。本実施形態では、レーザレンジファインダ15は極座標で表現されたセンサデータを出力する。ただし、レーザレンジファインダ15は、極座標で表現された位置を直交座標に変換して出力してもよい。
The position of the reflection point viewed from the emission position of the
レーザレンジファインダの構造および動作原理は公知であるため、本明細書ではこれ以上の詳細な説明は省略する。レーザレンジファインダ15によって検出され得る物体の例は、人、荷物、棚、壁である。
The structure and the operating principle of the laser range finder are known, so a further detailed description will be omitted herein. Examples of objects that can be detected by the
レーザレンジファインダ15は、周囲の空間をセンシングしてセンサデータを取得するための外界センサの一例である。そのような外界センサの他の例としては、イメージセンサおよび超音波センサが考えられる。
The
走行制御装置14は、レーザレンジファインダ15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定することができる。なお、保持されている地図データは、他のAGV10が作成した地図データであってもよい。
The traveling
図6Aは、AGV10の第1のハードウェア構成例を示している。また図6Aは、走行制御装置14の具体的な構成も示している。
FIG. 6A shows a first hardware configuration example of the
AGV10は、走行制御装置14と、レーザレンジファインダ15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bと、2つのロータリエンコーダ18aおよび18bとを備えている。
The
走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。レーザレンジファインダ15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。
The traveling
マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。
The
左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。それらの2つのマイコンは、エンコーダ18aおよび18bから出力されたエンコーダ情報を用いた座標計算をそれぞれ行い、所与の初期位置からのAGV10の移動距離を推定してもよい。また、当該2つのマイコンは、エンコーダ情報を利用してモータ駆動回路17aおよび17bを制御してもよい。
One or more control circuits (for example, microcomputers) for controlling the drive of the left and
メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。
The
記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。
The
記憶装置14cは、走行する空間Sの地図データM、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図データMは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図データMが作成された後に外部から送信される。本実施形態では、地図データMおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。
The
走行経路データRの例を説明する。 An example of the travel route data R will be described.
端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。
When the
端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。
The operation management device 50 (for example, a PC and / or a server computer) rather than the
AGV10は、作成された地図と走行中に取得されたレーザレンジファインダ15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。
The
通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi-Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。
The
位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とレーザレンジファインダのスキャン結果とにより、移動空間Sの地図を作成する。走行時には、位置推定装置14eは、レーザレンジファインダ15からセンサデータを受け取り、また、記憶装置14cに記憶された地図データMを読み出す。レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を同定する。位置推定装置14eは、局所的地図データが地図データMに一致した程度を表す「信頼度」のデータを生成する。自己位置(x, y, θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x, y, θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。
The
本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図6Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。
In this embodiment, although the
2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。
Two
移動体10は、さらに、車輪11aおよび11bの回転位置または回転速度を測定するエンコーダユニット18をさらに備えている。エンコーダユニット18は、第1ロータリエンコーダ18aおよび第2ロータリエンコーダ18bを含む。第1ロータリエンコーダ18aは、モータ16aから車輪11aまでの動力伝達機構のいずれかの位置における回転を計測する。第2ロータリエンコーダ18bは、モータ16bから車輪11bまでの動力伝達機構のいずれかの位置における回転を計測する。エンコーダユニット18は、ロータリエンコーダ18aおよび18bによって取得された信号を、マイコン14aに送信する。マイコン14aは、位置推定装置14eから受信した信号だけでなく、エンコーダユニット18から受信した信号を利用して、移動体10の移動を制御してもよい。
The moving
駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。
The
図6Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図6A)と相違する。
FIG. 6B shows a second hardware configuration example of the
レーザ測位システム14hは、位置推定装置14eおよびレーザレンジファインダ15を有する。位置推定装置14eおよびレーザレンジファインダ15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびレーザレンジファインダ15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x, y, θ)を示す情報をマイコン14aに出力する。
The
マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。
The
図6Bに関して上述した構成以外は、図6Aの構成と共通である。よって共通の構成の説明は省略する。 Except the configuration described above with reference to FIG. 6B, the configuration is the same as the configuration of FIG. Therefore, the description of the common configuration is omitted.
本開示の実施形態におけるAGV10は、図示されていないバンパースイッチなどのセーフティセンサを備えていてもよい。AGV10は、ジャイロセンサなどの慣性計測装置を備えていてもよい。ロータリエンコーダ18aおよび18bまたは慣性計測装置などの内界センサによる測定データを利用すれば、AGV10の移動距離および姿勢の変化量(角度)を推定することができる。これらの距離および角度の推定値は、オドメトリデータと呼ばれ、位置推定装置14eによって得られる位置および姿勢の情報を補助する機能を発揮し得る。
The
(4)地図データ
図7A~図7Fは、センサデータを取得しながら移動するAGV10を模式的に示す。ユーザ1は、端末装置20を操作しながらマニュアルでAGV10を移動させてもよい。あるいは、図6Aおよび6Bに示される走行制御装置14を備えるユニット、または、AGV10そのものを台車に載置し、台車をユーザ1が手で押す、または牽くことによってセンサデータを取得してもよい。
(4) Map Data FIGS. 7A to 7F schematically show the
図7Aには、レーザレンジファインダ15を用いて周囲の空間をスキャンするAGV10が示されている。所定のステップ角毎にレーザビームが放射され、スキャンが行われる。なお、図示されたスキャン範囲は模式的に示した例であり、上述した合計270度のスキャン範囲とは異なっている。
FIG. 7A shows an
図7A~図7Fの各々では、レーザビームの反射点の位置が、記号「・」で表される複数の黒点4を用いて模式的に示されている。レーザビームのスキャンは、レーザレンジファインダ15の位置および姿勢が変化する間に短い周期で実行される。このため、現実の反射点の個数は、図示されている反射点4の個数よりも遥かに多い。位置推定装置14eは、走行に伴って得られる黒点4の位置を、たとえばメモリ14bに蓄積する。AGV10が走行しながらスキャンを継続して行うことにより、地図データが徐々に完成されてゆく。図7Bから図7Eでは、簡略化のためスキャン範囲のみが示されている。当該スキャン範囲は例示であり、上述した合計270度の例とは異なる。
In each of FIGS. 7A to 7F, the position of the reflection point of the laser beam is schematically shown using a plurality of
地図は、地図作成に必要な量のセンサデータを取得した後、そのセンサデータに基づいて、このAGV10内のマイコン14aまたは外部のコンピュータを用いて作成してもよい。あるいは、移動しつつあるAGV10が取得したセンサデータに基づいてリアルタイムで地図を作成してもよい。
The map may be created using the
図7Fは、完成した地図40の一部を模式的に示す。図7Fに示される地図では、レーザビームの反射点の集まりに相当する点群(Point Cloud)によって自由空間が仕切られている。地図の他の例は、物体が占有している空間と自由空間とをグリッド単位で区別する占有格子地図である。位置推定装置14eは、地図のデータ(地図データM)をメモリ14bまたは記憶装置14cに蓄積する。なお図示されている黒点の数または密度は一例である。
FIG. 7F schematically shows a part of the completed
こうして得られた地図データは、複数のAGV10によって共有され得る。
The map data thus obtained may be shared by
AGV10が地図データに基づいて自己位置を推定するアルゴリズムの典型例は、ICP(Iterative Closest Point)マッチングである。前述したように、レーザレンジファインダ15のスキャン結果から作成された局所的地図データ(センサデータ)と、より広範囲の地図データMとのマッチングを行うことにより、地図データM上における自己位置(x, y, θ)を推定することができる。
A typical example of an algorithm in which the
AGV10が走行するエリアが広い場合、地図データMのデータ量が多くなる。そのため、地図の作成時間が増大したり、自己位置推定に多大な時間を要するなどの不都合が生じる可能性がある。そのような不都合が生じる場合には、地図データMを、複数の部分地図のデータに分けて作成および記録してもよい。
When the area where the
図8は、4つの部分地図データM1、M2、M3、M4の組み合わせによって1つの工場の1フロアの全域がカバーされる例を示している。この例では、1つの部分地図データは50m×50mの領域をカバーしている。X方向およびY方向のそれぞれにおいて隣接する2つの地図の境界部分に、幅5mの矩形の重複領域が設けられている。この重複領域を「地図切替エリア」と呼ぶ。1つの部分地図を参照しながら走行しているAGV10が地図切替エリアに到達すると、隣接する他の部分地図を参照する走行に切り替える。部分地図の枚数は4枚に限らず、AGV10が走行するフロアの面積、地図作成および自己位置推定を実行するコンピュータの性能に応じて適宜設定してよい。部分地図データのサイズおよび重複領域の幅も、上記の例に限定されず、任意に設定してよい。
FIG. 8 shows an example in which the entire area of one floor of one factory is covered by a combination of four partial map data M1, M2, M3 and M4. In this example, one partial map data covers an area of 50 m × 50 m. A rectangular overlapping area of 5 m in width is provided at the boundary between two adjacent maps in each of the X direction and the Y direction. This overlapping area is called "map switching area". When the
(5)運行管理装置の構成例
図9は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。
(5) Configuration Example of Operation Management Device FIG. 9 shows a hardware configuration example of the
CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。
The
CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。
The
メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。
The
位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、たとえば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。
The
通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図1)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。
The
地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。当該地図は、地図40(図7F)と同じであってもよいし、異なっていてもよい。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。
The
位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。
The
画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ59は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。
The
(6)運行管理装置の動作
図10を参照しながら、運行管理装置50の動作の概要を説明する。図10は、運行管理装置50によって決定されたAGV10の移動経路の一例を模式的に示す図である。
(6) Operation of Operation Management Device The outline of the operation of the
AGV10および運行管理装置50の動作の概要は以下のとおりである。以下では、あるAGV10が現在、位置M1におり、幾つかの位置を通過して、最終的な目的地である位置Mn+1(n:1以上の正の整数)まで走行する例を説明する。なお、位置DB53には位置M1の次に通過すべき位置M2、位置M2の次に通過すべき位置M3等の各位置を示す座標データが記録されている。
The outline of the operation of the
運行管理装置50のCPU51は、位置DB53を参照して位置M2の座標データを読み出し、位置M2に向かわせる走行指令を生成する。通信回路54は、アクセスポイント2を介して走行指令をAGV10に送信する。
CPU51 of
CPU51は、AGV10から、アクセスポイント2を介して、定期的に現在位置および姿勢を示すデータを受信する。こうして運行管理装置50は、各AGV10の位置をトラッキングすることができる。CPU51は、AGV10の現在位置が位置M2に一致したと判定すると、位置M3の座標データを読み出し、位置M3に向かわせる走行指令を生成してAGV10に送信する。つまり運行管理装置50は、AGV10がある位置に到達したと判定すると、次に通過すべき位置に向かわせる走行指令を送信する。これにより、AGV10は最終的な目的位置Mn+1に到達することができる。上述した、AGV10の通過位置および目的位置は「マーカ」と呼ばれることがある。
The
(7)AGVの動作例
次に、AGV10の動作のより具体的な例を説明する。
(7) Operation Example of AGV Next, a more specific example of the operation of the
本実施形態におけるAGV10は、運行管理装置50からの指示に従って走行するモードとは別に、移動物体を追尾する「追尾モード」で動作することができる。
The
図11Aおよび図11Bは、追尾モードで動作するAGV10の例を模式的に示す図である。図中の破線は、AGV10の経路の例を模式的に示している。図11Aの例では、AGV10は、ユーザ1の動きに追従して移動する。図11Bの例では、AGV10は、先導用の他のAGV10Aの動きに追従して移動する。
11A and 11B are diagrams schematically showing an example of the
AGV10におけるマイコン14aは、レーザレンジファインダ15によって取得されたセンサデータから、移動物体を検出する。例えば、マイコン14aは、前方に位置するユーザ1の脚、または他のAGV10Aの後部バンパーなどの、目印となる物体を検出する。マイコン14aは、当該物体とAGV10との距離がほぼ一定(例えば数十cm)になるようにAGV10の移動を制御する。これにより、AGV10は、前方の移動物体を追尾することができる。移動物体の認識には、レーザレンジファインダ15以外の外界センサ、例えばイメージセンサまたは超音波センサを利用してもよい。イメージセンサを利用する場合、マイコン14aは、画像処理によって移動物体を認識してもよい。
The
AGV10は、初期地点である第1の地点P1から移動を開始し、移動物体を追尾しながら目的地点である第2の地点P2まで移動する。本例では、第1の地点P1ではAGV10への荷積みが行われ、第2の地点P2ではAGV10からの荷卸しが行われる。
The
AGV10が第1の地点P1から第2の地点P2に移動している間、マイコン14aは、位置推定装置14eから順次出力される位置情報(x,y,θ)を記憶装置14cに記憶させる。この際、マイコン14aは、位置推定装置14eから順次出力された位置情報をそのまま記憶装置14cに記憶させてもよいし、位置情報を必要に応じて間引いてもよい。例えば、マイコン14aは、位置推定装置14eから周期的に出力される位置情報を、複数回に1回、つまりN回(Nは2以上のいずれかの整数)に1回の割合で記憶装置14cに記憶させてもよい。あるいは、マイコン14aは、AGV10が一定距離進むごとに位置情報を記憶装置14cに記憶させてもよい。AGV10が進んだ距離は、位置推定装置14eから出力された位置情報またはエンコーダユニット18から出力されたオドメトリ情報から計算できる。位置推定装置14eから出力された位置情報を間引いて記録することにより、データ量を削減し、処理を高速化させ得る。
While the
移動体10が第2の地点P2に到達し、荷卸しが完了した後、マイコン14aは、AGV10を第2の地点P2から第1の地点P1に帰還させる。荷卸しの完了は、例えばユーザ1がAGV10に設けられた不図示のスイッチまたはボタンを押下したり、端末装置20を操作することによってマイコン14aに通知され得る。この通知は、帰還指令としてマイコン14aに入力される。この帰還指令をトリガーとして、マイコン14aは、AGV10を第1の地点P1に戻す動作を開始する。帰還指令は、運行管理装置50などの他の装置からマイコン14aに送信されてもよい。運行管理装置50は、第2の地点P2において荷卸しが完了したことを、例えばユーザ1による端末装置20の操作によって検知することができる。あるいは、運行管理装置50は、AGV10に載置される個々の物品に付されたRFIDなどのICタグの情報を読み取るセンサから、荷卸しが完了したことを検知してもよい。そのようなセンサは、例えばAGV10または第2の地点P2の付近にあるラックなどに設けられ得る。
After the moving
明示的に帰還指令を与えることなく、設定された条件を満足した場合にマイコン14aがAGV10を第1の地点P1に戻してもよい。設定された条件には、例えば、以下の条件が考えられる。
・各物品に付されたタグの情報を読み取るセンサが、全ての物品の荷卸しが完了したことを検知したとき
・AGV10が第2の地点P2に到達してから設定された時間(例えば5分から1時間程度)が経過したとき
・AGV10が第2の地点P2の近傍の特定のエリアに手動で移動されたとき
The
・ When the sensor reading the information of the tag attached to each article detects that unloading of all articles is completed ・ Time set from the time when
このように、コントローラは、AGV10の位置または状態が設定された条件(以下、「帰還条件」と称することがある)を満足したとき、移動体10を第1の地点に戻す動作を開始してもよい。
Thus, when the controller satisfies the condition (hereinafter, may be referred to as “feedback condition”) in which the position or state of the
マイコン14aは、復路においては、記憶装置14cに記憶されている位置情報に基づいて、第1の地点P1から第2の地点P2までの経路を逆に辿ってAGV10を第1の地点P1に戻す。ここで、往路と復路におけるAGV10の移動経路は、厳密に一致している必要はない。例えば、移動体10を第1の地点P1に戻す経路の途中に、往路には存在しなかった障害物が存在する場合、マイコン14aは、当該障害物を回避するようにAGV10の動作を制御してもよい。障害物は、AGV10に設けられた少なくとも1つの障害物センサ19(図5)によって検知され得る。
In the return path, the
図12は、本実施形態におけるAGV10の動作を示すフローチャートである。AGV10が第1の地点P1から移動を開始すると、マイコン14aは、記憶装置14cに、位置情報を、例えば一定時間ごとに、または一定距離ごとに記憶させる(ステップS101)。蓄積された位置情報の集合は往路の経路情報として記憶装置14cに記録される。AGV10が第2の地点に到達すると(ステップS102におけるYes)、マイコン14aは、帰還指令が出されたか、または帰還条件が満足されているかを判断する(ステップS103)。この判断がYesの場合、マイコン14aは、記憶装置14cに記録されている位置情報に基づき、経路を逆に辿って移動体10を初期位置である第1の地点P1に戻す(ステップS104)。
FIG. 12 is a flowchart showing the operation of the
続いて、図13Aから図13Fを参照しながら、AGV10の動作の例をより具体的に説明する。ここでは一例として、3台のAGV10A、10B、10Cが隊列を組んで移動する例を説明する。先頭のAGV10Aは、運行管理装置50からの経路の指示に従って初期地点から目的地点まで移動する。2番目のAGV10Bは、先頭のAGV10Aに追従して移動する。3番目のAGV10Cは、2番目のAGV10Bに追従して移動する。
Subsequently, an example of the operation of the
先頭のAGV10Aは環境地図を記憶装置14cに保持している。AGV10Aにおける位置推定装置10eは、レーザレンジファインダ15から出力された点群のデータと環境地図とのマッチングを行い、自己位置を推定しながら移動する。AGV10Aは、環境地図上には存在しない障害物が経路上に存在する場合には、その障害物を回避する動作を行ってもよい。AGV10Aは、移動しながら環境地図を更新してもよい。
The
先頭のAGV10Aに追従するAGV10Bおよび10Cは、出発の時点では環境地図を保持していなくてもよい。AGV10Bおよび10Cは、初期地点から目的地点まで移動しながら環境地図を作成してもよい。その際、前方を走行する他のAGVは、環境地図には反映されない。環境地図は、レーザレンジファインダ15から周期的に出力される点群の位置情報に基づいて位置推定装置14eによって作成され得る。
The
図13Aから図13Cは、移動を開始してから目的地点に到達するまでの往路における動作の例を示している。図13Dから図13Fは、目的地点から初期地点に戻る復路の動作の例を示している。初期地点(第1の地点)および目的地点(第2の地点)は、AGVによって異なる。例えば図13Aに示すように、先頭のAGV10Aの初期地点は、AGV10Bおよび10Cの初期地点よりも前方に位置している。目的地点についても同様である。
FIG. 13A to FIG. 13C show an example of the operation on the outward path from the start of movement to the arrival at the destination point. 13D to 13F show examples of the operation of the return from the destination point to the initial point. The initial point (first point) and the destination point (second point) differ depending on the AGV. For example, as shown in FIG. 13A, the initial point of the leading
図13Bに示されるように、往路において、3台のAGV10A、10B、10Cは、概ね一定の車間距離を保ちながら、目的地点に向かって進む。この際、AGV10A、10B、10Cの各々は、自己の位置情報を記録しながら移動する。位置情報の記録は、例えば一定時間(例えば数ミリ秒から数秒)ごと、または一定距離(例えば数十ミリメートルから数メートル)進むごとに行われ得る。この記録の頻度は、位置推定装置14eから出力される位置情報の出力の頻度よりも低くてよい。
As shown in FIG. 13B, on the outbound path, the three
AGV10B、10Cは、先頭のAGV10Aを追尾しながら環境地図を作成または更新してもよい。その場合、マイコン14aは、AGV10B、10Cに先頭のAGV10Aを追尾させている間に位置推定装置14eから順次出力された位置情報に基づいて、環境地図を作成または更新する。AGV10B、10Cは、先頭のAGV10Aまたは運行管理装置から通信によって環境地図を取得してもよい。
The
先頭のAGV10Aに追従するAGV10B、10Cが自身の位置を見失った場合、先頭のAGV10Aまたは運行管理装置50から位置情報を取得してもよい。運行管理装置50は、先頭のAGV10Aとの間で通信を行い、その位置および姿勢をトラッキングする。
When the
この例では、運行管理装置からの指示に従って移動するのは先頭のAGV10Aだけであるが、他のAGV10B、10Cも、運行管理装置からの指示に従って運行してもよい。その場合、AGV10B、10Cは、追尾機能を備えていなくてもよい。
In this example, only the
図13Cに示されるように、全てのAGV10A、10B、10Cが目的地に到達すると、荷卸しの作業が行われる。この作業が完了すると、ユーザは、各AGVに備え付けられているボタンを押したり、端末装置20を操作することによって帰還指令を各AGVに与える。すると、帰還指令が与えられたAGVから順に元の場所に戻る。図13Dから図13Fの例では、AGV10C、10B、10Aの順に帰還指令が与えられている。各AGVのマイコン14aは、移動しながら自己位置推定を行い、その位置および姿勢(x,y,θ)と、記憶装置14cに記録された位置情報(x,y,θ)との対応を確認しながら移動を制御する。復路における位置情報の対応の確認の頻度は、往路における位置情報の記録の頻度よりも低くてもよい。最終的に、図13Fに示すように、全てのAGV10A、10B、10Cがそれぞれの初期位置に戻る。
As shown in FIG. 13C, when all the
図13Fに示す各AGVの位置は、図13Aに示す初期状態における位置とは厳密に一致している必要はなく、多少ずれていてもよい。また、各AGVは、初期位置まで戻るのではなく、移動経路の途中まで戻ってもよい。その場合は、当該移動経路の途中の地点を「第1の地点」と解釈する。第1の地点および第2の地点の各々は、厳密な「点」を意味するのではなく、ある程度の広がりをもつ領域であり得る。 The position of each AGV shown in FIG. 13F does not have to exactly correspond to the position in the initial state shown in FIG. 13A, and may be slightly offset. Also, each AGV may return to the middle of the movement path instead of returning to the initial position. In that case, a point in the middle of the movement route is interpreted as a "first point". Each of the first point and the second point does not mean a precise "point" but may be an area with a certain extent.
図13Dから図13Fに示す例では、各AGVは、往路における向きと同じ向きのまま、経路を逆に辿って初期位置に向かって移動する。すなわち各AGVは逆走する。このような移動形態によれば、レーザレンジファインダ15からのセンサデータが往路と復路とで類似することになる。このため、特に往路において環境地図を作成または更新しながら移動する場合に、復路における位置推定がし易くなるという利点がある。
In the example shown in FIG. 13D to FIG. 13F, each AGV moves backward toward the initial position by tracing the path in the same direction as the direction in the forward path. That is, each AGV runs in reverse. According to such a movement mode, sensor data from the
図14は、復路におけるAGVの動作の他の例を示す図である。図14の例では、各AGVは、往路における向きとは反転した向きで初期位置に戻る。この場合、各AGVにおけるマイコン14aは、帰還動作を開始するとき、AGVの向きを反転する動作をまず行う。この例によれば、各AGVの進行方向とレーザレンジファインダ15の正面方向とが一致するため、マイコン14aによる各モータの制御方法を往路と復路とで変更する必要はない。
FIG. 14 is a diagram showing another example of the operation of the AGV in the return path. In the example of FIG. 14, each AGV returns to the initial position in the direction opposite to the direction in the forward path. In this case, the
図15Aは、往路において記録される位置情報の一例を示す図である。図15Bは、復路における位置情報の一例を示す図である。図15Cは、復路における位置情報の他の例を示す図である。図15Bは、AGVが往路における向きと同じ向きのまま逆走する場合の例を示している。図15Cは、AGVが往路とは逆の向きで元の位置まで戻る場合の例を示している。図15Cの例では、復路における角度θが、往路における角度θとは180度異なる。マイコン14aは、復路において、図15Bまたは図15Cに示すような位置情報を設定し、往路と同様の経路でAGVを初期位置に戻す。
FIG. 15A is a diagram showing an example of position information recorded in the forward pass. FIG. 15B is a diagram showing an example of position information in the return path. FIG. 15C is a diagram showing another example of position information in the return path. FIG. 15B shows an example of the case where the AGV reverses with the same direction as the direction in the forward path. FIG. 15C shows an example in which the AGV returns to the original position in the direction opposite to the outward path. In the example of FIG. 15C, the angle θ in the return path differs by 180 degrees from the angle θ in the forward path. The
本開示の移動体および移動体管理システムは、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The mobile body and mobile body management system of the present disclosure can be suitably used for moving and transporting objects such as luggage, parts, finished products, etc. in factories, warehouses, construction sites, logistics, hospitals and the like.
1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、14・・・走行制御装置、14a・・・マイコン(演算回路)、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・位置推定装置、16a、16b・・・モータ、15・・・レーザレンジファインダ、17・・・駆動装置、17a、17b・・・モータ駆動回路、18・・・エンコーダユニット、18a、18b・・・ロータリエンコーダ、19・・・障害物センサ、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB)、56・・・画像処理回路、100・・・移動体管理システム、101・・・移動体、103・・・外界センサ、105・・・位置推定装置、107・・・記憶装置、109・・・コントローラ、111・・・駆動装置
DESCRIPTION OF
Claims (11)
前記移動体を移動させる駆動装置と、
外界センサと、
前記外界センサから出力されたセンサデータに基づき、前記移動体の位置および姿勢を示す位置情報を順次出力する位置推定装置と、
前記位置推定装置から出力された前記位置情報を記憶する記憶装置と、
前記駆動装置を制御して前記移動体を移動させるコントローラと、
を備え、
前記コントローラは、前記移動体が第1の地点から第2の地点まで移動した後、前記記憶装置に記憶されている前記位置情報に基づいて、前記第1の地点から前記第2の地点までの経路を逆に辿って前記移動体を前記第1の地点に戻す、移動体。 A mobile that can move autonomously, and
A driving device for moving the moving body;
An external sensor,
A position estimation device that sequentially outputs position information indicating the position and attitude of the moving object based on sensor data output from the external sensor;
A storage device for storing the position information output from the position estimation device;
A controller for controlling the driving device to move the moving body;
Equipped with
The controller is configured to move from the first point to the second point based on the position information stored in the storage device after the mobile body moves from the first point to the second point. A mobile, wherein the mobile is returned to the first point by reversing the route.
前記位置推定装置は、前記外界センサから出力された前記センサデータと前記環境地図とのマッチングを行うことにより、前記環境地図上における前記移動体の位置および姿勢の推定値を決定し、前記推定値を前記位置情報として出力する、請求項1に記載の移動体。 The storage device stores an environmental map,
The position estimation apparatus matches the sensor data output from the external sensor with the environmental map to determine estimated values of the position and orientation of the mobile body on the environmental map, and the estimated value The mobile unit according to claim 1, wherein:
前記コントローラは、前記移動体が前記第2の地点に到達した後、荷卸しまたは荷積みが完了したことを検知したとき、前記移動体を第1の地点に戻す動作を開始する、
請求項6に記載の移動体。 The moving body is an unmanned carrier,
The controller starts an operation of returning the mobile object to the first point when detecting that the unloading or the loading is completed after the mobile object reaches the second point.
The mobile according to claim 6.
前記コントローラは、前記移動体を前記第1の地点に戻す経路の途中で前記障害物センサが障害物を検知したとき、前記移動体に前記障害物を回避させる、
請求項1から8のいずれかに記載の移動体。 It further comprises at least one obstacle sensor for detecting obstacles,
The controller causes the moving body to avoid the obstacle when the obstacle sensor detects an obstacle on the way of returning the moving body to the first point.
The mobile according to any one of claims 1 to 8.
前記少なくとも1つの移動体の運行を管理する運行管理装置と、
を備え、
前記少なくとも1つの移動体は、請求項1から10のいずれかに記載の移動体である、移動体システム。
At least one mobile, and
An operation management device that manages the operation of the at least one mobile unit;
Equipped with
A mobile system, wherein the at least one mobile is a mobile according to any one of claims 1 to 10.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019541996A JP7081881B2 (en) | 2017-09-13 | 2018-08-31 | Mobiles and mobile systems |
| CN201880057308.6A CN111052026A (en) | 2017-09-13 | 2018-08-31 | Moving bodies and moving body systems |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017175645 | 2017-09-13 | ||
| JP2017-175645 | 2017-09-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019054208A1 true WO2019054208A1 (en) | 2019-03-21 |
Family
ID=65723688
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/032447 Ceased WO2019054208A1 (en) | 2017-09-13 | 2018-08-31 | Mobile body and mobile body system |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP7081881B2 (en) |
| CN (1) | CN111052026A (en) |
| WO (1) | WO2019054208A1 (en) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021071855A (en) * | 2019-10-30 | 2021-05-06 | 株式会社東芝 | Automatic guided vehicle |
| CN113703460A (en) * | 2021-08-31 | 2021-11-26 | 上海木蚁机器人科技有限公司 | Method, device and system for identifying vacancy of navigation vehicle |
| JP2022029329A (en) * | 2020-08-04 | 2022-02-17 | パナソニックIpマネジメント株式会社 | Column travel system |
| JP2022037476A (en) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | Robot system |
| JP2023507675A (en) * | 2020-02-28 | 2023-02-24 | ナブフレックス インコーポレイテッド | Automated guided vehicle control method and control system configured to execute the method |
| JP2023075608A (en) * | 2021-11-19 | 2023-05-31 | 村田機械株式会社 | Carrier system |
| US20230333568A1 (en) * | 2019-05-17 | 2023-10-19 | Murata Machinery, Ltd. | Transport vehicle system, transport vehicle, and control method |
| JP2024525050A (en) * | 2021-06-30 | 2024-07-09 | ハイ ロボティクス カンパニー リミテッド | Platoon control method |
| EP4592787A4 (en) * | 2022-10-28 | 2025-12-03 | Honda Motor Co Ltd | MOBILE BODY, MOBILE BODY CONTROL METHOD AND PROGRAM |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111538299B (en) * | 2020-04-23 | 2021-08-17 | 新石器慧通(北京)科技有限公司 | Unmanned vehicle for carrying port containers and control method |
| KR20220010883A (en) * | 2020-07-20 | 2022-01-27 | 현대자동차주식회사 | Mobile robot cluster driving system and control method thereof |
| CN112904857A (en) * | 2021-01-20 | 2021-06-04 | 广东顺德工业设计研究院(广东顺德创新设计研究院) | Automatic guided vehicle control method and device and automatic guided vehicle |
| KR102491670B1 (en) * | 2022-09-01 | 2023-01-27 | 엘케이시스(주) | Apparatus for Generating Map for Autonomous Driving |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002321180A (en) * | 2001-04-24 | 2002-11-05 | Matsushita Electric Ind Co Ltd | Robot control system |
| JP2004341864A (en) * | 2003-05-16 | 2004-12-02 | Yaskawa Electric Corp | Moving trolley |
| JP2006285635A (en) * | 2005-03-31 | 2006-10-19 | Toshiba Corp | Display guidance apparatus, robot system, and display guidance method in robot system |
| JP2007004434A (en) * | 2005-06-23 | 2007-01-11 | Yoichiro Sawa | Mobile robot system |
| JP2008084135A (en) * | 2006-09-28 | 2008-04-10 | Toshiba Corp | Movement control method, mobile robot, and movement control program |
| JP2013218541A (en) * | 2012-04-10 | 2013-10-24 | Panasonic Corp | Control method for mobile robot |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104149781B (en) * | 2014-07-07 | 2017-01-11 | 广东技术师范学院天河学院 | Intelligent carrier control system and control method |
| CN105159322A (en) * | 2015-08-24 | 2015-12-16 | 铜陵学院 | Servo control system based on automatic two-wheel middle-low-speed type fire-fighting robot |
| CN105197076A (en) * | 2015-09-28 | 2015-12-30 | 三峡大学 | Automatic moving vehicle |
| CN105759821A (en) * | 2016-04-12 | 2016-07-13 | 深圳市正阳精密装备有限公司 | Wheel type transport robot control system and method for automatic production workshop |
| CN106595648B (en) * | 2016-11-04 | 2020-04-21 | 华为机器有限公司 | Navigation method and terminal |
-
2018
- 2018-08-31 CN CN201880057308.6A patent/CN111052026A/en active Pending
- 2018-08-31 JP JP2019541996A patent/JP7081881B2/en active Active
- 2018-08-31 WO PCT/JP2018/032447 patent/WO2019054208A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002321180A (en) * | 2001-04-24 | 2002-11-05 | Matsushita Electric Ind Co Ltd | Robot control system |
| JP2004341864A (en) * | 2003-05-16 | 2004-12-02 | Yaskawa Electric Corp | Moving trolley |
| JP2006285635A (en) * | 2005-03-31 | 2006-10-19 | Toshiba Corp | Display guidance apparatus, robot system, and display guidance method in robot system |
| JP2007004434A (en) * | 2005-06-23 | 2007-01-11 | Yoichiro Sawa | Mobile robot system |
| JP2008084135A (en) * | 2006-09-28 | 2008-04-10 | Toshiba Corp | Movement control method, mobile robot, and movement control program |
| JP2013218541A (en) * | 2012-04-10 | 2013-10-24 | Panasonic Corp | Control method for mobile robot |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230333568A1 (en) * | 2019-05-17 | 2023-10-19 | Murata Machinery, Ltd. | Transport vehicle system, transport vehicle, and control method |
| JP7003097B2 (en) | 2019-10-30 | 2022-01-20 | 株式会社東芝 | Automated guided vehicle |
| JP2021071855A (en) * | 2019-10-30 | 2021-05-06 | 株式会社東芝 | Automatic guided vehicle |
| JP2023507675A (en) * | 2020-02-28 | 2023-02-24 | ナブフレックス インコーポレイテッド | Automated guided vehicle control method and control system configured to execute the method |
| JP7469494B2 (en) | 2020-02-28 | 2024-04-16 | ナブフレックス インコーポレイテッド | Method for controlling an automated guided vehicle and a control system configured to carry out said method - Patents.com |
| JP2022029329A (en) * | 2020-08-04 | 2022-02-17 | パナソニックIpマネジメント株式会社 | Column travel system |
| JP7499440B2 (en) | 2020-08-04 | 2024-06-14 | パナソニックIpマネジメント株式会社 | Platooning System |
| JP2022037476A (en) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | Robot system |
| JP2024525050A (en) * | 2021-06-30 | 2024-07-09 | ハイ ロボティクス カンパニー リミテッド | Platoon control method |
| JP7671373B2 (en) | 2021-06-30 | 2025-05-01 | ハイ ロボティクス カンパニー リミテッド | Platoon control method |
| CN113703460B (en) * | 2021-08-31 | 2024-02-09 | 上海木蚁机器人科技有限公司 | Method, device and system for identifying vacant position of navigation vehicle |
| CN113703460A (en) * | 2021-08-31 | 2021-11-26 | 上海木蚁机器人科技有限公司 | Method, device and system for identifying vacancy of navigation vehicle |
| JP2023075608A (en) * | 2021-11-19 | 2023-05-31 | 村田機械株式会社 | Carrier system |
| JP7750050B2 (en) | 2021-11-19 | 2025-10-07 | 村田機械株式会社 | Transport System |
| EP4592787A4 (en) * | 2022-10-28 | 2025-12-03 | Honda Motor Co Ltd | MOBILE BODY, MOBILE BODY CONTROL METHOD AND PROGRAM |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111052026A (en) | 2020-04-21 |
| JPWO2019054208A1 (en) | 2020-10-15 |
| JP7081881B2 (en) | 2022-06-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7081881B2 (en) | Mobiles and mobile systems | |
| JP7168211B2 (en) | Mobile object that avoids obstacles and its computer program | |
| US20190294181A1 (en) | Vehicle, management device, and vehicle management system | |
| JP6825712B2 (en) | Mobiles, position estimators, and computer programs | |
| JP6816830B2 (en) | A position estimation system and a mobile body equipped with the position estimation system. | |
| JP7136426B2 (en) | Management device and mobile system | |
| US11537140B2 (en) | Mobile body, location estimation device, and computer program | |
| JP2020057307A (en) | Apparatus and method for processing map data for self-position estimation, and moving body and control system thereof | |
| WO2019026761A1 (en) | Moving body and computer program | |
| JP2020166702A (en) | Mobile body system, map creation system, route creation program and map creation program | |
| WO2019054209A1 (en) | Map creation system and map creation device | |
| JP2019175137A (en) | Mobile body and mobile body system | |
| JP2019053391A (en) | Mobile body | |
| JP7164085B2 (en) | Work transport method using moving body, computer program, and moving body | |
| JP2019079171A (en) | Movable body | |
| JP2019148871A (en) | Movable body and movable body system | |
| JP7243014B2 (en) | moving body | |
| JP2019179497A (en) | Moving body and moving body system | |
| CN112578789A (en) | Moving body | |
| JP2019067001A (en) | Moving body | |
| WO2019069921A1 (en) | Mobile body | |
| JP2019175138A (en) | Mobile body and management device | |
| WO2019059299A1 (en) | Operation management device | |
| JP2020166701A (en) | Mobile object and computer program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18856990 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019541996 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18856990 Country of ref document: EP Kind code of ref document: A1 |