[go: up one dir, main page]

WO2019172733A2 - 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법 - Google Patents

감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법 Download PDF

Info

Publication number
WO2019172733A2
WO2019172733A2 PCT/KR2019/005474 KR2019005474W WO2019172733A2 WO 2019172733 A2 WO2019172733 A2 WO 2019172733A2 KR 2019005474 W KR2019005474 W KR 2019005474W WO 2019172733 A2 WO2019172733 A2 WO 2019172733A2
Authority
WO
WIPO (PCT)
Prior art keywords
sensing object
mobile robot
movement
main body
identity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2019/005474
Other languages
English (en)
French (fr)
Other versions
WO2019172733A3 (ko
Inventor
정재윤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Priority to PCT/KR2019/005474 priority Critical patent/WO2019172733A2/ko
Priority to KR1020190111707A priority patent/KR102889949B1/ko
Publication of WO2019172733A2 publication Critical patent/WO2019172733A2/ko
Priority to US16/598,885 priority patent/US20200039074A1/en
Publication of WO2019172733A3 publication Critical patent/WO2019172733A3/ko
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Definitions

  • the present invention relates to a mobile robot and a method for interacting with a sensing object detected by the mobile robot. More specifically, the present invention can automatically recognize the sensing object by the rotatable and traveling robot, in particular, rejection of the moving robot by adjusting the movement of the mobile robot to reduce the movement according to the sound and movement generated from the sensing object.
  • the present invention relates to a technology capable of preventing a mobile robot from approaching a sensing target.
  • Robots were developed for industrial use and were part of factory automation. Recently, the field of application of robots has been further expanded, for example, medical robots, aerospace robots, and the like. In addition, household robots that can be used in general homes have also been developed. Among these robots, a robot capable of traveling by magnetic force is called a mobile robot.
  • a representative example of a mobile robot used at home may be a robot cleaner
  • the robot cleaner is a device that cleans a corresponding area by sucking dust or foreign matter around the robot cleaner while driving a certain area by itself.
  • the mobile robot may be capable of autonomous movement, and a plurality of sensors may be provided to avoid obstacles while driving.
  • an infrared sensor an ultrasonic sensor, or the like may be installed in the mobile robot.
  • the infrared sensor is configured to determine the distance between the obstacle and the mobile robot based on the amount of light or the received time of reflected light reflected by the obstacle.
  • the ultrasonic sensor emits an ultrasonic wave having a predetermined period, and when there is an ultrasonic wave reflected by the obstacle, the ultrasonic sensor is configured to determine the distance from the obstacle by using the ultrasonic divergence time and the time difference at the moment of being reflected back to the obstacle.
  • the distance to the obstacle may be determined and the obstacle may be avoided.
  • the sensing area includes a heterogeneous sensing sensor, which improves the reliability of obstacle detection and enables obstacle avoidance with high reliability.
  • a robot is disclosed.
  • the above-described 'mobile robot with obstacle avoidance function and method thereof' is a technique for avoiding obstacles that do not move, and there is a limitation that a method of avoiding a mobile robot is not specifically disclosed when an obstacle is a moving object. .
  • the obstacle detection apparatus and method of a multi-channel rider-based mobile robot, and a mobile robot having the same disclosed in Korean Patent Registration No. 10-1878827 propose an obstacle detection method of a mobile robot based on a multi-channel rider.
  • the present disclosure proposes a technique for measuring the distance between the obstacle and the mobile robot by acquiring the surrounding environment in which the mobile robot travels as three-dimensional spatial information, and avoiding the collision with the obstacle according to the measured distance.
  • a vertical environment and obstacles such as walls are extracted through three-dimensional spatial information, and the extracted vertical environment and obstacles are extracted.
  • the driving route of the mobile robot is planned based on the distance.
  • a distance between a moving obstacle and a mobile robot or a distance between the moving obstacle and the mobile robot is closer to each other.
  • the movement change of the mobile robot is difficult to identify.
  • An object of the present invention is to enable the mobile robot to avoid the sensing object in response to a change in the motion or sound generated from the sensing object when the sensing object which is a moving object and the moving robot are close to each other.
  • another object of the present invention based on the data learned when the mobile robot is close to the sensing object after the mobile robot learns a change in the movement or sound generated in the sensing object when the mobile robot and the sensing object is in close proximity. Therefore, the mobile robot can reduce the movement or sound change occurring in the sensing object.
  • Another object of the present invention by controlling the driving of the mobile robot to reduce the change in the movement or sound generated in the sensing object when the mobile robot and the sensing object is in close proximity, the psychological of the sensing object that can be generated by the mobile robot To minimize discomfort.
  • a moving unit for moving and rotating the main body, for detecting the movement or sound of the sensing object located within a certain distance from the main body It may include a sensor unit including one or more sensors, the driving unit and a control unit for communicating with the sensor unit to control the movement of the main body.
  • the controller may identify an identity of the sensing object when the distance between the main body and the sensing object is within a predetermined distance. Subsequently, a recording operation performed by the mobile robot in a space within a predetermined distance between the main body and the sensing object may be recorded, and the movement or sound of the sensing object whose identity is identified may be detected. Thereafter, the movement of the mobile robot may be adjusted to reduce the amount of change in the movement or sound of the object to be identified.
  • the sensing object with which the identity is identified and the mobile robot are adjacent to each other, a change in sound or motion may occur in the sensing object.
  • the generated identity may adjust the movement of the mobile robot so that a change in the sound or movement of the identified sensing object may be reduced, thereby enabling the identity to control the driving of the mobile robot through interaction with the identified sensing object.
  • the control unit of the mobile robot capable of interacting with the sensing object records the performance of the mobile robot in a space where the distance between the main body and the sensing object is within a predetermined distance, and the sensing object has an identified identity.
  • the detection of the movement of the sound or the sound is completed, it is possible to learn by linking the identity of the sensing object with the performance of the mobile robot and the movement or sound of the sensing object.
  • each sensing object may have unique information.
  • the sensing object stores the amount of sound or motion change for each sensing object in which the identity is identified.
  • the movement of the mobile robot can be controlled according to the degree of change in the sound and movement of the identified sensing object.
  • the controller of the mobile robot that can interact with the sensing object is connected to the identity of the sensing object, the performance of the mobile robot, and the movement or sound change of the sensing object to complete the learning. It can be determined based on the correlation between the performance of the mobile robot and the change in the movement or sound of the sensing object. That is, when the sensing object with which the identity is identified and the mobile robot are adjacent to each other, the motion and acoustic change of the sensing object with which the identity is identified are analyzed to control the movement of the mobile robot.
  • the mobile robot capable of interacting with the sensing object when a change in the sound or movement of the sensing object is identified within the predetermined distance to the main body, the movement of the sensing object is identified Alternatively, it is possible to minimize the inconvenience of the sensing object for the mobile robot by reducing the amount of change in sound.
  • control unit of the mobile robot that can interact with the sensing object according to an embodiment of the present invention, after adjusting the operation of the mobile robot so as to reduce the change in the movement or sound of the identification object is identified, a predetermined time range Records the movements performed by the mobile robot in a space within a certain distance of the main body and the sensing object within a certain period of time, and repeatedly performs the operation of detecting the movement or sound change of the sensing object whose identity is identified. can do.
  • the mobile robot performs a recording operation performed by the mobile robot in a space within a certain distance within a predetermined time range and a distance between the main body and the sensing object, and detects the movement or sound change of the sensing object whose identity is identified. Even if the distance between the main body and the sensing object whose identity is identified in the process of repeatedly performing the operation is reduced, the acoustic or movement change of the sensing object may be within a certain range even when the sensing object whose identity is identified and the mobile robot are adjacent to each other. For example, a change in the movement or sound of the sensing object whose identity is identified may not occur. In this case, the operation of the mobile robot can be adjusted by maintaining the operation previously performed by the mobile robot.
  • the driving of the mobile robot can be controlled while learning the response of the sensing object to the mobile robot, the inconvenience of the sensing object can be prevented from being generated by the mobile robot while the mobile robot is traveling.
  • control unit may include a camera that can receive the movement of the monitoring object as an image.
  • the controller may identify the identity of the sensing object based on the received image of the sensing object.
  • the interaction method between the mobile robot and the sensing object may include a driving step of moving and rotating the body of the mobile robot.
  • the identity of the sensing object is identified, and the distance between the main body and the sensing object is within a certain distance. Record the performance of the mobile robot in space, and if the identity detects a change in the movement or sound of the identified object, the identity of the mobile robot is reduced to reduce the change in the movement or sound of the identified object. By adjusting, the discomfort of the sensing object may be prevented from occurring by the mobile robot even while the mobile robot is traveling.
  • the identity of the sensing object and the performance of the mobile robot and the sensing object You can learn by linking changes in movement or sound.
  • a correlation between a performance of the mobile robot and a change in the movement or sound of the sensing object may be analyzed for each identity of the sensing object previously learned.
  • an identity is assigned to each sensing object that is a moving object, and when the mobile robot is adjacent based on the assigned identity, the identity of the sensing object where a change in movement or sound occurs is stored and then moved based on the stored information.
  • the driving of the moving robot is controlled to reduce the movement or the change of the sound of the sensing object.
  • the identity is within a certain time range. After recording the operation performed by the mobile robot in a space within a certain distance of the main body and the sensing object with a certain period, it is possible to detect the movement or sound change of the sensing object identified by the identity.
  • the mobile robot performs a recording operation performed by the mobile robot in a space having a certain period within a predetermined time range and the distance between the main body and the sensing object, and detects the movement or sound change of the sensing object whose identity is identified. Even if the distance between the main body and the sensing object whose identity is identified in the process of repeatedly performing the operation is reduced, the acoustic or movement change of the sensing object may be within a certain range even when the sensing object whose identity is identified and the mobile robot are adjacent to each other. For example, a change in the movement or sound of the sensing object whose identity is identified may not occur. In this case, the operation of the mobile robot can be adjusted by maintaining the operation previously performed by the mobile robot.
  • the driving of the mobile robot can be controlled while learning the response of the sensing object to the mobile robot, the inconvenience of the sensing object can be prevented from being generated by the mobile robot while the mobile robot is traveling.
  • the mobile robot that is capable of traveling may collect movement or sound changes of the moving sensing object capable of expressing the emotion of the mobile robot, and learn the collected information. That is, the cleanable robot can interact with the sensing object which is a moving object.
  • the sensing object may minimize the negative reaction to the mobile robot by controlling the movement of the main body.
  • FIG. 1 is a view illustrating an embodiment in which a mobile robot capable of interacting with a sensing object according to an embodiment of the present invention is implemented.
  • FIG. 2 is a block diagram of a sensing object and a mobile robot according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing a schematic configuration of a mobile robot and a sensing object according to an embodiment of the present invention.
  • FIG. 4 is a diagram schematically illustrating an interaction process between a mobile robot and a sensing object according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of interacting a mobile robot with a sensing object according to an exemplary embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a method for interacting with a mobile robot and a sensing object according to identity according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method of interacting a sensing object with a mobile robot within a predetermined time range according to an embodiment of the present invention.
  • FIG. 1 is a view showing an embodiment in which a mobile robot capable of interacting with a sensing object according to an embodiment of the present invention
  • Figure 2 is a sensing object and a mobile robot according to an embodiment of the present invention It is a block diagram.
  • the mobile robot according to the embodiment of the present invention is described as an example of an autonomous vehicle, it can be operated in autonomous, semi-autonomous or manual modes.
  • the mobile robot according to the embodiment of the present invention may be a robot that can be cleaned, but may be any one of robots that can be operated in modes such as autonomous and semi-autonomous in addition to the robot that can be cleaned.
  • a mobile robot according to an embodiment of the present invention will be described as an example of a cleaning robot capable of cleaning a home while traveling, but the present invention is not limited by the conditions of the mobile robot.
  • the mobile robot 100 may be implemented to detect a collidable object and to avoid the movable object through machine learning.
  • the mobile robot 100 according to the embodiment of the present invention can move and interact with the object (the emotion).
  • the object that the mobile robot 100 interacts with is referred to as a sensing object 10.
  • the sensing object 10 moves freely, such as a person living in a room such as a home or an office, or a pet, and looks at an object.
  • an object capable of expressing emotions such as surprise and fear.
  • the sensing object 10 in the embodiment of the present invention will be described as an example of a young child.
  • the mobile robot 100 controls the driving of the mobile robot 100 according to an external reaction (eg, a rejection reaction to a mobile robot, a favorable response, etc.) of the sensing object 10 with respect to the mobile robot 100. Can be implemented to do so.
  • an external reaction eg, a rejection reaction to a mobile robot, a favorable response, etc.
  • the mobile robot 100 may interact with the sensing object 10 and drive the same.
  • the sensing object 10 having a rejection reaction to the mobile robot 100 is close to the mobile robot 100, the sensing object 10 may minimize the inconvenience caused by the mobile robot 100. It becomes possible.
  • the mobile robot 100 In order for the mobile robot 100 to interact with the sensing object 10, an external reaction to the mobile robot 100 must be learned.
  • the mobile robot 100 includes a main body 110 forming an outer shape of the mobile robot 100, a traveling unit 120 moving and rotating the main body 110, and a sensing unit located within a predetermined distance from the main body 110.
  • the sensor unit 140 may detect a movement or sound of the object 10, a controller 160 controlling the movement of the main body 110, and the like.
  • the main body 110 may be formed in any one of various shapes such as a circle and a polygon, and the shape of the main body 110 may be changed according to a condition.
  • the main body 110 may be formed with a suction unit 130 through which suction of air, dust, and the like may be formed, and the main body 110 may have suction force such that air or dust may be sucked through the suction unit 130. It may include a suction device (not shown) for providing a, a dust collecting container 150 that can filter only the dust from the air sucked through the suction unit 130, dust.
  • the body 110 may be provided with a battery (not shown).
  • the battery may supply power required for the overall operation of the mobile robot 100 in addition to the driving unit 120 to be described later.
  • the mobile robot 100 may perform driving to return to a charging stand (not shown) for charging, and the mobile robot 100 may detect a position of the charging stand by itself during such a return driving.
  • the driving unit 120 may include at least one driving wheel capable of rotating and moving the main body 110.
  • the driving wheel may be provided on any one surface of the main body 110, but the driving wheel may be provided.
  • the installed structure can be changed according to the conditions.
  • the driving unit 120 may further include a driving motor capable of rotating the driving wheel.
  • the sensor unit 140 moves within a certain distance from the main body 110 and moves and sounds the sensing object 10 that can express emotion toward the mobile robot 100 when it is adjacent to the mobile robot 100. It can be detected.
  • the sensor unit 140 may include a camera 142 that can acquire the motion of the sensing object 10 as an image or an image.
  • the camera 142 may be implemented as a digital camera to generate a video composed of frames consisting of an image, a still image, and a still image, so that the motion of the sensing object 10 toward the mobile robot 100 may be more easily obtained. .
  • the camera 142 may acquire an image of the front of the main body 110. That is, the main body 110 acquires an image and an image of the entire area in which the main body 110 travels to prevent collision of the surrounding robot other than the sensing object 10 with the mobile robot 100, and the mobile robot 100 avoids obstacles around it. can do.
  • the camera 142 may be used to check whether the mobile robot 100 is cleaned, a cleaning time point, and the like by recognizing dust and foreign substances on the entire driving direction when the main body 110 is driven.
  • the image received by the camera 142 may be used as a reference for identifying whether the sensing object 10 for controlling the driving of the mobile robot 100 in the controller 160 to be described later.
  • the image received by the camera 142 may be used as an image for identifying the non-driving space area of the main body 110 and the non-driving space area of the main body 110.
  • the sensor unit 140 may include a sound recognition unit 144 that can obtain the sound of the sensing object 10.
  • the acoustic recognition unit 144 may obtain a sound generated from the sensing object 10 when the sensing object 10 and the mobile robot 100 are close to each other.
  • the sound obtained by the sensing object 10 will be described on the assumption that the sensing object 10 is a negative sound which the mobile robot 100 attempts to avoid. That is, in the exemplary embodiment of the present invention, in order to control the movement of the main body 110, the amount of change in the movement or sound generated in the sensing object 10 may be a negative result, and thus, the detection acquired by the acoustic recognition unit 144 may be performed. The sound of the object 10 may be determined to be a sound of negativity to avoid the mobile robot 100.
  • the movement of the main body 110 may be controlled based on the information obtained by the controller 160.
  • the controller 160 should determine whether the distance between the main body 110 and the sensing object 10 is adjacent to each other within a predetermined distance.
  • the predetermined distance may be a distance that the camera 142 of the main body 110 can fully recognize the sensing object 10, and may be set differently according to conditions such as the performance of the camera 142 and a predetermined distance. Can be.
  • the controller 160 may identify the identity of the sensing object 10 when the distance between the main body 110 and the sensing object 10 is within a predetermined distance.
  • the identity of the sensing object 10 may be referred to as unique identification information (code) assigned to each sensing object that moves and generates emotions in the home.
  • code unique identification information
  • assigning an identity which is unique identification information to each sensing object in the home it may be a criterion for easily determining whether the main body 110 is adjacent to any one sensing object among a plurality of sensing objects.
  • the controller 160 when identifying the identity of the sensing object 10, changes the movement or sound of the sensing object in which the identity is identified as the distance between the sensing object 10 and the main body 110 in which the identity is identified decreases. Check if it occurs.
  • the controller 160 records an operation performed by the mobile robot 100 when the distance between the main body 110 and the sensing object is located in a space within a predetermined distance.
  • the sensing object 10 whose identity has been identified may detect whether a movement or a change in sound of the sensing object 10 whose identity has been identified occurs according to the execution operation of the mobile robot 100. For example, when the sensing object 10 identified by the identity rejects the mobile robot 100 while the sensing object 10 whose identity is identified is located within a predetermined distance, the sensing object whose identity is identified ( 10) a movement to avoid the mobile robot 100 may occur, or a rejection reaction such as yelling toward the mobile robot 100 may occur.
  • the identity may reduce the amount of change in the sound or motion of the identified sensing object 10.
  • the operation of the mobile robot 100 can be adjusted.
  • the sensing object 10 whose identity has been identified attempts to avoid (for example, run away) or raises and rejects the sound.
  • a reaction for example, crying, screaming, etc.
  • the operation adjustment of the mobile robot 100 may be to reduce the running speed of the main body 110, the noise generated in the process of inhaling dust or foreign matter.
  • it may be set to minimize several actions at the same time, or to minimize only certain actions.
  • the controller 160 detects whether the movement or sound change of the sensing object identified by the identity occurs as the distance between the sensing object 10 identified by the identity and the main body 110 decreases. Thereafter, the identity of the sensing object 10 and the performance of the mobile robot 100 and the change in the movement or sound of the sensing object 10 may be linked and learned. Thereafter, the correlation between the performance of the mobile robot 100 and the change in the movement or sound of the sensing object 10 may be analyzed for each identity of the sensing object 10 based on the learned result.
  • sensing targets 10 such as children, adults, pets, indoors such as homes. Since the external response to the movement of the main body 110 may vary according to each type, information generated for each of the sensing object identities in response to the performance of the mobile robot 100 (for the mobile robot according to the type of the sensing object) The response information) and learn to identify the sensing object according to the result of responding to the movement of the main body 110 through the stored information. Based on the learning information, the performance of the mobile robot 100 can be adjusted for each identity.
  • the adjustment operation of the mobile robot 100 may be determined based on the response information of the sensing object 10 for each analyzed identity. That is, when the main body 110 moves so that the sensing object 10 whose identity is identified and the main body 110 are adjacent within a predetermined distance, the sound or movement of the sensing object 10 whose identity is identified increases. The operation is adjusted to be minimal.
  • the adjustment operation of the mobile robot 100 may be automatically adjusted based on previously learned learning results to reduce the amount of change in sound or movement of the sensing object 10 whose identity is identified. Therefore, it is possible to minimize the psychological stability of the sensing object that the rejection reaction occurs in the mobile robot 100 and the inconvenience of using the mobile robot 100.
  • the identity information of the plurality of sensing objects 10 in the home the amount of movement or sound change information of the sensing object 10 whose identity is identified according to the execution operation of the mobile robot 100 is stored in the information DB 170. Can be.
  • the learning associated with the identity of the sensing object 10, the performance of the mobile robot 100, and the change of the movement or sound of the sensing object 10 may be performed through the learning module 180.
  • FIG. 3 is a block diagram illustrating a schematic configuration of a mobile robot and a sensing object according to an exemplary embodiment of the present invention
  • FIG. 4 is a view schematically illustrating an interaction process between the mobile robot and the sensing object according to an exemplary embodiment of the present invention. .
  • the control unit 160 of the mobile robot 100 may include a motion detecting unit 162 and an acoustic variation detecting unit (The amount of change in sound or movement of the sensing object 10 whose identity is identified through 164 is confirmed.
  • the amount of change in sound or movement of the sensing object 10 in which the identified identity is identified may be stored in the information DB 170.
  • the amount of change in the movement may be extracted as an image, a feature may be extracted from the extracted image, and stored in the information DB 170.
  • the stored image may be used as a reference for adjusting the performance of the mobile robot 100. That is, a change in the movement or sound of the sensing object 10 in which the identity is identified according to the performing operation of the mobile robot 100 by extracting the sensing object 10 whose identity is identified through the image extracted by the camera 142. Can be reduced.
  • the movement of the main body 110 is adjusted to adjust the performance of the mobile robot 100.
  • the identity can be adjusted to reduce the sound or movement of the identified object 10.
  • the cleanable mobile robot 100 is located within a predetermined distance from the sensing object 10, which is a moving object that comes into contact with the mobile robot 100 or is close to the mobile robot 100 while driving.
  • the sensing object 10 when the sensing object 10 generates a negative reaction toward the mobile robot 100 (eg, a negative response such as screaming, backing down, etc.), information about the negative reaction may be acquired and stored.
  • the main body 110 of the mobile robot 100 may reduce the noise that may occur when cleaning itself, It may be designed to allow interaction with the sensing object 10, such as reducing the driving of the body 110.
  • the mobile robot 100 it is possible to minimize the negative reaction toward the mobile robot 100 of the user using the mobile robot 100.
  • the sensing object 10 that negatively reacts to the mobile robot 100 is taken within the home on which the mobile robot 100 travels, the mobile robot 100 itself is driven according to the propensity of the sensing object 10. To control the discomfort caused by the mobile robot 100 can be minimized.
  • the amount of change in sound or movement of the sensing object 10 whose identity has been identified with respect to the movement of the main body 110 may change after a predetermined time.
  • a child in the home initially reacts negatively to the mobile robot 100, and as time passes, the negative response to the mobile robot 100 is reduced.
  • a change may be necessary even for the movement control of the main body 110.
  • the distance between the sensing object 10 and the main body 110 in which the identity has been identified with a certain period within a predetermined time range decreases, the movement or the change in the sound of the sensing object 10 in which the identity is identified may be confirmed. .
  • the movement of the main body 110 so as to reduce the movement or the amount of change in the sound of the sensing object 10 whose identity has been identified, the amount of change in the sound or movement of the sensing object 10 whose identity is identified may be reduced. . Thereafter, when a certain time after which the sensing object 10 whose identity is identified becomes accustomed to the movement of the main body 110, a change in sound or movement may occur even when the main body 110 moves (see 10A in FIG. 4). Therefore, when the body 110 whose movement is adjusted is located within a predetermined distance from the sensing object 10 whose identity has been identified and travels for a predetermined time, the sensing object 10 whose identity has been identified is moved to the movement of the body 110. When it is determined that the user is familiar with the body 110 and the sensing object 10 in which the identity is identified, the sound or movement of the sensing object 10 in which the identity is identified may be determined.
  • the operation of the mobile robot 100 may be adjusted to maintain the operation previously performed by the mobile robot 100.
  • the movement (cleaning) of the mobile robot 100 is continuously performed so that the movement of the main body 110 is not adjusted in response thereto. It can be done.
  • the movement of the main body 110 is adjusted so that the identity of the sensing object 10 identified by the mobile robot 100 is identified. Discomfort can be minimized.
  • FIG. 5 is a flowchart illustrating a method of interaction between a mobile robot and a sensing object according to an embodiment of the present invention
  • FIG. 6 is an interaction with the sensing object according to an identity and a mobile robot according to an embodiment of the present invention. A flowchart for explaining the method.
  • the mobile robot in the interaction method between the mobile robot and the sensing object according to an embodiment of the present invention is described with an example that the mobile robot 100 is autonomous driving, autonomous, semi-autonomous or manual It can of course be operated in modes.
  • the mobile robot according to the embodiment of the present invention may be a robot that can be cleaned, but may be any one of robots that can be operated in modes such as autonomous and semi-autonomous in addition to the robot that can be cleaned.
  • a mobile robot according to an embodiment of the present invention will be described as an example of a cleaning robot capable of cleaning a home while traveling, but the present invention is not limited by the conditions of the mobile robot.
  • the mobile robot 100 may be implemented to detect a collidable object and to avoid the movable object through machine learning.
  • the mobile robot 100 according to an embodiment of the present invention moves in the home, interacts with an object capable of expressing emotion (hereinafter referred to as the sensing object 10 in the present invention) and the sensing object for the mobile robot 100 It may be implemented to control the driving of the mobile robot 100 according to the external response of the (10).
  • the external reaction may be a rejection reaction or a favorable response to the mobile robot.
  • the mobile robot 100 is controlled.
  • the sensing object 10 having a rejection reaction with the mobile robot 100 is close to each other, the sensing object 10 can minimize the inconvenience caused by the mobile robot 100.
  • the method of interaction between the mobile robot 100 and the sensing object 10 recognizes the sensing object 10 when the main body 110 of the mobile robot 100 moves and rotates (S10). After detecting the amount of movement or acoustic change of the sensing object 10 located within a predetermined distance (S20) (S20), the mobile robot 100 communicates with the main body 110 based on the amount of movement or acoustic change of the sensing object 10. It may be made of a process for controlling the performance of the operation (S30).
  • the sensing object 10 is a moving object, If the distance between the 110 and the sensing object 10 is within a predetermined distance, the identity of the sensing object 10 is stored (S110 and S120).
  • the identity of the sensing object 10 may be referred to as unique identification information (code) assigned to each sensing object that moves and generates emotions in the home. As such, by assigning an identity which is unique identification information to each sensing object in the home, it may be a criterion for easily determining whether the main body 110 is adjacent to any one sensing object among a plurality of sensing objects.
  • code unique identification information
  • the identity of the sensing object 10 is identified, and the movement of the mobile robot 100 is recorded in a state where the mobile robot 100 is located within a predetermined distance, and the amount of change in the movement or sound of the sensing object 10 in which the identity is identified. It may be detected (S150).
  • the movement amount of the body 110 and the change in the movement or sound of the sensing object 10 in which the identity is identified are correlated.
  • the relationship may be analyzed (S160).
  • the movement of the main body 110 may be controlled to decrease the movement or sound change amount (S30).
  • the main body 110 Is to control the movement of the main body 110 by the amount of sound or movement change of the young child so that the child can minimize the change in the sound or movement by the main body 110.
  • the movement of the main body 110 may be to reduce the running speed of the main body 110, the noise generated in the process of inhaling dust or foreign matter, and the like.
  • it when reducing the movement of the main body 110, it may be set to minimize several actions at the same time, or to minimize only certain actions.
  • the identity of the sensing object 10 and the mobile robot to store only the information of the sensing object 10 the identity of which the movement or sound is changed with respect to the movement of the main body 110 ( The operation of the operation 100 and the change of the movement or sound of the sensing object 10 are linked to be learned.
  • devices that may cause interference with the mobile robot 100 such as collisions or contacts in the home, office, etc.
  • Electronics powered by, and devices capable of traveling e.g. chairs with wheels).
  • the mobile robot 100 is configured to identify the identity given only to the object to which the emotion can be expressed while moving toward the mobile robot 100, rather than sensing the overall movable device.
  • sensing targets 10 there may be a plurality of sensing targets 10, such as a child, an adult, a pet, indoors such as a home. Since the external response to the movement of the main body 110 may vary according to each type, information generated for each of the sensing object identities in response to the performance of the mobile robot 100 (for the mobile robot according to the type of the sensing object) The response information) and learn to identify the sensing object according to the result of responding to the movement of the main body 110 through the stored information.
  • the correlation of the movement of the main body 110 is analyzed according to the amount of change in the movement or sound of the sensing object 10 whose identity is identified.
  • the information of the identity of the sensing object that responds to the movement of the main body 110 (type of the sensing object, half toward the main body, etc.). It may be stored, and the sensing object can be identified according to the result of responding to the movement of the main body 110 through the stored information.
  • the performing operation of the mobile robot 100 can be adjusted (for example, main body driving control).
  • the movement or sound of the sensing object 10 whose identity is identified may be analyzed. That is, when the main body 110 moves and the sensing object 10 whose identity is identified and the main body 110 are adjacent to each other within a predetermined distance, whether the sound of the sensing object 10 whose identity has been identified is increased / decreased or the movement is increased / decreased. Analyze changes such as declining.
  • the main body 110 when the main body 110 moves to approach the sensing object 10 in which the identity is identified, and the sensing object 10 in which the identity near the main body 110 is identified increases in sound or movement, the main body automatically.
  • the movement of the 110 may be reduced to reduce the amount of change in sound or movement of the sensing object 10 whose identity is identified.
  • the sensing robot 10 learns an external response to the mobile robot 100 and the sensing object 10 and the mobile robot 100 are located within a predetermined distance, the sensing robot 10 is based on the learned result.
  • the sensing object 10 can minimize the negative reaction to the mobile robot 100, and the inconvenience of the sensing object 10 to the mobile robot 100 It can be minimized.
  • Figure 7 is a flow chart for explaining a method of interaction between the sensing object and the mobile robot within a certain time range according to an embodiment of the present invention.
  • the method of interacting with the sensing object 10 of the mobile robot 100 if the distance between the main body 110 and the sensing object 10 is stored within a predetermined distance
  • the sensor 10 determines whether the sensing object 10 is a moving object and stores the identity of the sensing object 10.
  • the mobile robot 10 is located within a certain distance between the sensing object 10 and the main body 110 of the mobile robot 100 is identified, the change in the amount of movement or sound of the sensing object 10 is identified. Learn and remember information
  • the main body 110 of the mobile robot 100 may reduce noise that may be generated when cleaning itself.
  • the driving unit 110 may be designed to allow interaction with the sensing object 10, such as reducing driving of the main body 110. Therefore, it is possible to minimize the negative reaction toward the mobile robot 100 of the user using the mobile robot 100. In particular, even if the sensing object 10 that negatively reacts to the mobile robot 100 is taken within the home on which the mobile robot 100 travels, the mobile robot 100 itself is driven according to the propensity of the sensing object 10. To control the discomfort caused by the mobile robot 100 can be minimized.
  • the amount of change in sound or movement of the sensing object 10 whose identity has been identified with respect to the movement of the main body 110 may change after a predetermined time.
  • a child in the home initially reacts negatively to the mobile robot 100, and as time passes, the negative response to the mobile robot 100 is reduced.
  • the movement of the main body 110 so as to reduce the movement or the amount of change in the sound of the sensing object 10 whose identity has been identified, the amount of change in the sound or movement of the sensing object 10 whose identity is identified may be reduced. . Thereafter, when a certain time after which the sensing object 10 whose identity is identified becomes accustomed to the movement of the main body 110, a change in sound or movement may occur even when the main body 110 moves.
  • the sensing object 10 whose identity has been identified is moved by the body 110. It is determined that the user is familiar with and reduces the distance between the main body 110 and the sensing object 10 whose identity has been identified to determine whether the sound or movement of the sensing object 10 whose identity has been identified is changed.
  • the operation of the mobile robot 100 may be adjusted to maintain the operation previously performed by the mobile robot 100 ( S20).
  • the movement (cleaning) of the mobile robot 100 is continuously performed by preventing the movement adjustment of the main body 110 correspondingly. It can be done.
  • the motion or acoustic change of the sensing object capable of external reaction (emotional expression) to the mobile robot is collected, and the collected information is learned, and then the When the main body is in close proximity, it is possible to minimize the inconvenience of the sensing object to the mobile robot by controlling the driving of the main body.
  • the sensing object controls the movement of the main body so that the sensing object reduces the change of sound or movement with respect to the mobile robot. Discomfort can be minimized.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Electric Vacuum Cleaner (AREA)

Abstract

본 발명은 주행 가능한 이동로봇이 주행할 때, 이동로봇에 대한 감정적 표현이 가능한 움직이는 감지대상체의 움직임 또는 음향 변화를 수집하고, 수집된 정보를 학습할 수 있다. 즉, 청소 가능한 이동로봇이 움직이는 물체인 감지대상체와 상호 작용이 가능해질 수 있으며, 이동로봇의 본체와 감지대상체가 일정 거리 내에 위치하고, 감지대상체의 음향 또는 움직임이 부정적으로 변화하면 본체의 움직임을 제어하여 감지대상체가 이동로봇에 대한 부정적 반응을 최소화할 수 있는 상호작용이 가능한 감지대상체의 음향 또는 움직임의 변화여부를 선택하여 감지대상체의 음향 또는 움직임이 변화하지 않은 경우 본체의 움직임을 추가로 제어하지 않고 지속적으로 구동할 수 있도록 하여 이동로봇의 기능이 유지될 수 있도록 할 수 있다.

Description

감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법
본 발명은 이동로봇과 이동로봇이 감지하는 감지대상체와 상호작용하는 방법에 관한 것이다. 보다 구체적으로, 본 발명은 회전 및 주행 가능한 이동로봇이 감지대상체를 자동으로 인지할 수 있으며, 특히 감지대상체에서 발생하는 음향과 움직임에 따라 이동로봇의 움직임을 감소시키도록 조정하여 움직이는 이동로봇의 거부하는 감지대상체 측으로 이동로봇이 근접하는 것을 방지할 수 있는 기술에 관한 것이다.
이하에서 기술되는 내용은 본 발명의 실시예와 관련되는 배경 정보를 제공할 목적으로 기재된 것일 뿐이고, 기술되는 내용들이 당연하게 종래기술을 구성하는 것은 아니다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당했다. 최근에는 로봇을 응용한 분야가 더욱 확대되고 있으며, 예컨대 의료용 로봇, 우주항공 로봇 등이 있다. 또한, 일반 가정에서 사용할 수 있는 가정용 로봇도 개발되고 있다. 이러한 로봇 중에서 자력으로 주행 가능한 로봇을 이동 로봇이라고 한다.
특히 가정에서 사용되는 이동 로봇의 대표적인 예는 로봇 청소기가 될 수 있으며, 이러한 로봇 청소기는 일정 영역을 스스로 주행하면서 로봇 청소기 주변의 먼지 또는 이물질을 흡입하여 해당 영역을 청소하는 기기이다.
구체적으로 이동 로봇은 자율 이동이 가능할 수 있으며, 주행 중 장애물을 피할 수 있는 다수의 센서가 구비되는 것이 특징이다.
이를 위해 이동 로봇에는 적외선 센서, 초음파 센서 등이 설치될 수 있다. 적외선 센서는 장애물에 반사되어 되돌아오는 반사광의 광량 또는 수신되는 시간을 통해 장애물과 이동 로봇 사이의 거리를 판단할 수 있는 구성이다. 이에 반해 초음파 센서는 소정 주기를 가지는 초음파를 발산하고, 장애물에 의해 반사되는 초음파가 있는 경우 초음파 발산 시간과 장애물에 반사되어 되돌아오는 순간의 시간차를 이용하여 장애물과의 거리를 판단하는 구성이다.
이러한 이동 로봇의 경우 장애물과의 거리를 판단하고 장애물을 회피할 수도 있다. 예컨대 국내등록특허 제10-0669892호의 '장애물 회피 기능을 갖는 이동로봇과 그 방법'에서는 센싱 영역이 다른 이종의 감지센서를 포함하여 장애물 감지의 신뢰성을 높이고, 높은 신뢰성으로 장애물 회피가 가능하도록 하는 이동로봇이 개시되어 있다.
그러나, 상기의 '장애물 회피 기능을 갖는 이동로봇과 그 방법'에서는 움직이지 않는 장애물 회피에 관한 기술로, 장애물이 움직이는 대상체인 경우에는 이동로봇의 회피방법에 대해 구체적으로 개시되어 있지 않는 한계가 있다.
이와 같이 고정된 장애물을 회피하기 위한 상황만을 고려하는 경우이기 때문에, 가정 내에 움직이는 대상체와 이동로봇의 충돌이 발생하는 경우에 대해서는 신뢰성이 높은 이동 로봇의 회피가 이루어지지 않는다는 문제점이 이었다.
또한, 국내등록특허 제10-1878827호에 개시된 '다채널 라이더 기반 이동로봇의 장애물 검출장치 및 방법, 및 이를 구비한 이동로봇'에서는 다채널 라이더 기반으로 이동로봇의 장애물 검출방식을 제안한다. 해당 개시에서는 이동 로봇이 주행하는 주변 환경을 3차원적 공간 정보로 획득하여 장애물과 이동로봇과의 거리를 측정하고, 측정된 거리에 따라 장애물과의 충돌을 회피할 수 있는 기술을 제안한다.
이러한, 상기 '다채널 라이더 기반 이동로봇의 장애물 검출장치 및 방법, 및 이를 구비한 이동로봇'에서는 3차원 공간 정보를 통해 벽과 같은 수직 환경과 장애물을 추출하고, 추출된 수직 환경과 장애물과의 거리를 기반으로 하여 이동 로봇의 주행경로를 계획한다.
따라서, 개시된 '다채널 라이더 기반 이동로봇의 장애물 검출장치 및 방법, 및 이를 구비한 이동로봇'에 따르면, 움직이는 장애물과 이동로봇과의 거리를 계산하거나, 움직이는 장애물과 이동로봇과의 거리가 가까워지는 경우 이동로봇의 움직임 변화는 확인하기 어렵다는 한계가 있다.
따라서, 움직이는 장애물과 이동 로봇 거리를 측정하고, 움직이는 장애물에 의해 이동 로봇의 주행을 변경하거나 장애물을 회피할 수 있는 방법이 필요하다.
한국등록특허 제 10-0669892 호(2007.01.10)
한국등록특허 제 10-1878827 호(2018.07.10)
본 발명의 일 과제는, 움직이는 물체인 감지대상체와 이동로봇이 근접할 때 감지대상체에서 발생하는 움직임 또는 음향의 변화에 따라 이동로봇이 감지대상체를 회피하도록 할 수 있게 하는데 있다.
또한 본 발명의 다른 과제는, 이동로봇과 감지대상체가 근접할 때, 감지대상체에서 발생한 움직임 또는 음향의 변화를 이동로봇이 학습한 뒤, 이동로봇이 감지대상체와 다시 근접하는 경우 학습한 데이터를 기초하여 이동로봇이 감지대상체에서 발생하는 움직임 또는 음향 변화가 감소되도록 할 수 있도록 하는데 있다.
또한 본 발명의 또 다른 과제는, 이동로봇과 감지대상체가 근접할 때, 감지대상체에서 발생한 움직임 또는 음향의 변화가 감소되도록 이동로봇의 구동을 제어함으로써, 이동로봇에 의해 발생할 수 있는 감지대상체의 심리적 불편함을 최소화하도록 하는데 있다.
상기 과제들을 달성하기 위하여, 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇은, 본체를 이동 및 회전시키는 주행부, 본체와 일정 거리 내에 위치한 감지대상체의 움직임 또는 음향을 감지하기 위한 하나 이상의 센서를 포함하는 센서부, 주행부 및 센서부와 통신하여 본체의 움직임을 제어하는 제어부를 포함할 수 있다.
특히, 제어부는 본체와 감지대상체의 거리가 일정 거리 내로 인접하는지 판단하면, 본체와 감지대상체의 거리가 일정 거리 이내인 경우, 감지대상체의 아이덴티티를 식별할 수 있다. 이후, 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지할 수 있다. 이후 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화량을 감소시키도록 이동로봇의 동작을 조정할 수 있다.
즉, 아이덴티티가 식별된 감지대상체와 이동로봇이 인접할 때, 감지대상체에서 음향 또는 움직임의 변화가 발생할 수 있다. 발생한 아이덴티티가 식별된 감지대상체의 음향 또는 움직임의 변화가 감소될 수 있도록 이동로봇의 움직임을 조정하도록 하여 아이덴티티가 식별된 감지대상체와 상호작용을 통해 이동로봇의 구동을 제어할 수 있도록 할 수 있다.
본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇의 제어부는, 본체와 감지대상체의 거리가 일정 거리 이내인 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화 감지를 완료하면, 감지대상체의 아이덴티티와 이동로봇의 수행동작 및 감지대상체의 움직임 또는 음향의 변화를 연계하여 학습하도록 할 수 있다.
즉, 감지대상체는 복수개일 수 있으며, 각각의 감지대상체는 고유의 정보를 가질 수 있다. 이때, 이동로봇과 감지대상체가 일정 거리 이내에 위치하고, 이동로봇이 각 감지대상체의 아이덴티티를 식별하면, 아이덴티티가 식별된 감지대상체마다 다른 음향 또는 움직임 변화량을 저장하는 것이다. 이로 인해, 아이덴티티가 식별된 감지대상체의 음향 및 움직임 변경되는 정도에 따라 이동로봇의 움직임을 제어할 수 있게 된다.
본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇의 제어부는, 감지대상체의 아이덴티티와 이동로봇의 수행동작 및 감지대상체의 움직임 또는 음향의 변화를 연계하여 학습이 완료되면, 감지대상체의 이동로봇의 수행동작과 감지대상체의 움직임 또는 음향의 변화의 상관관계에 기초하여 결정할 수 있다. 즉, 아이덴티티가 식별된 감지대상체와 이동로봇이 인접할 때, 아이덴티티가 식별된 감지대상체의 움직임 및 음향 변화를 분석하여 이동로봇의 움직임을 제어하게 된다.
구체적으로 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇은, 본체와 일정 거리 이내로 인접한 아이덴티티가 식별된 감지대상체의 음향 또는 움직임 변화가 발생하는 경우, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화량을 감소시켜 이동로봇에 대한 감지대상체의 불편함을 최소화할 수 있다.
또한, 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇의 제어부는, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감소시키도록 이동로봇의 동작을 조정한 뒤, 일정 시간 범위 내에서 일정 주기를 가지고 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하는 동작을 반복적으로 수행할 수 있다.
이때, 일정 시간 범위 내에서 일정 주기를 가지고 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하는 동작을 반복적으로 수행하는 과정에서 본체와 아이덴티티가 식별된 감지대상체의 거리가 감소하여도 아이덴티티가 식별된 감지대상체와 이동로봇이 인접하여도 감지대상체의 음향 또는 움직임 변화가 일정 범위 이내일 수 있다. 예컨대, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화가 발생하지 않을 수 있다. 이 경우, 이동로봇이 기존에 수행한 동작을 유지하도록 하여 이동로봇의 동작을 조정할 수 있다.
이와 같이 이동로봇에 대한 감지대상체의 반응을 학습하면서 이동로봇의 구동을 제어할 수 있으므로 이동로봇이 주행하는 동안에도 이동로봇에 의해 감지대상체의 불편함이 발생하는 것을 방지할 수 있게 된다.
또한, 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇은, 제어부는 감시대상체의 움직임을 이미지로 수신할 수 있는 카메라를 포함할 수 있다. 이때, 제어부는 수신된 감지대상체의 이미지에 기초하여 감지대상체의 아이덴티티를 식별할 수 있다.
한편, 본 발명의 다른 실시예에 따른 이동로봇과 감지대상체의 상호작용 방법은, 이동로봇의 본체가 이동 및 회전하는 구동단계를 포함할 수 있다.
이때, 이동로봇의 본체와 감지대상체의 거리가 일정 거리 내로 인접하는지 판단한 뒤, 본체와 감지대상체의 거리가 일정 거리 이내이면 감지대상체의 아이덴티티를 식별하고, 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하면, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감소시키도록 이동로봇의 동작을 조정하여 이동로봇이 주행하는 동안에도 이동로봇에 의해 감지대상체의 불편함이 발생하는 것을 방지할 수 있게 된다.
또한, 본 발명의 다른 실시예에 따른 이동로봇과 감지대상체의 상호작용 방법에서 아이덴티티가 식별된 감지대상체의 움직임 또는 음향 변화를 감지한 후, 감지대상체의 아이덴티티와 이동로봇의 수행동작 및 감지대상체의 움직임 또는 음향의 변화를 연계하여 학습할 수 있다.
또한, 본 발명의 다른 실시예에 따른 이동로봇과 감지대상체의 상호작용 방법에서 앞서 학습한 감지대상체의 아이덴티티별로 이동로봇의 수행동작과 감지대상체의 움직임 또는 음향의 변화의 상관관계를 분석할 수 있다.
구체적으로, 움직이는 물체인 감지대상체마다 아이덴티티를 부여하고, 부여된 아이덴티티에 기초하여 이동로봇이 인접할 때, 움직임 또는 음향의 변화가 발생하는 감지대상체의 아이덴티티를 저장한 뒤, 저장된 정보를 기초로 움직임 또는 음향의 변화가 발생하는 감지대상체와 이동로봇이 인접하면 이동로봇의 구동을 제어하여 감지대상체의 움직임 또는 음향의 변화를 감소시키도록 하는 것이다.
또한, 본 발명의 다른 실시예에 따른 이동로봇과 감지대상체의 상호작용 방법에서 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화량을 감소시키도록 이동로봇의 동작을 조정한 이후에 일정 시간 범위 내에서 일정 주기를 가지고 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 동작을 기록한 뒤 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지할 수 있다.
즉, 일정 시간 범위 내에서 일정 주기를 가지고 본체와 감지대상체의 거리가 일정 거리 이내의 공간에서 이동로봇이 수행하는 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하는 동작을 반복적으로 수행하는 과정에서 본체와 아이덴티티가 식별된 감지대상체의 거리가 감소하여도 아이덴티티가 식별된 감지대상체와 이동로봇이 인접하여도 감지대상체의 음향 또는 움직임 변화가 일정 범위 이내일 수 있다. 예컨대, 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화가 발생하지 않을 수 있다. 이 경우, 이동로봇이 기존에 수행한 동작을 유지하도록 하여 이동로봇의 동작을 조정할 수 있다.
이와 같이 이동로봇에 대한 감지대상체의 반응을 학습하면서 이동로봇의 구동을 제어할 수 있으므로 이동로봇이 주행하는 동안에도 이동로봇에 의해 감지대상체의 불편함이 발생하는 것을 방지할 수 있게 된다.
본 발명의 실시예들에 따르면, 주행 가능한 이동로봇이 주행할 때, 이동로봇에 대한 감정적 표현이 가능한 움직이는 감지대상체의 움직임 또는 음향 변화를 수집하고, 수집된 정보를 학습할 수 있다. 즉, 청소 가능한 이동로봇이 움직이는 물체인 감지대상체와 상호 작용이 가능해질 수 있게 된다.
또한, 이동로봇의 본체와 감지대상체가 일정 거리 내에 위치하고, 감지대상체의 음향 또는 움직임이 부정적으로 변화하면 본체의 움직임을 제어하여 감지대상체가 이동로봇에 대한 부정적 반응을 최소화할 수 있다.
또한, 본체의 구동을 제어한 후, 일정 시간이 지나 본체와 감지대상체의 거리가 가까워지는 경우, 감지대상체의 음향 또는 움직임의 변화 여부를 판단하여 본체의 구동을 제어하는지 여부를 선택할 수 있다. 즉, 감지대상체와 본체의 거리가 가까워지더라도 감지대상체의 음향 또는 움직임이 변화하지 않은 경우 본체의 움직임을 추가로 제어하지 않고 지속적으로 구동할 수 있도록 하여 이동로봇의 청소 기능이 유지될 수 있도록 할 수 있다.
도 1은 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇이 구현된 실시예를 도시한 도면이다.
도 2는 본 발명의 본 발명의 실시예에 따른 감지대상체와 이동로봇에 대한 블록도이다.
도 3은 본 발명의 실시예에 따른 이동로봇과 감지대상체의 개략적인 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른 이동로봇와 감지대상체의 상호 작용 과정을 개략적으로 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 이동로봇과 감지대상체의 상호 작용 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따라 이동로봇과 이이덴티티에 따른 감지대상체와의 상호 작용 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 실시예에 따라 일정 시간 범위 내에서 감지대상체와 이동로봇의 상호 작용 방법을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들에 한정되지 않는다. 이하 실시예에서는 본 발명을 명확하게 설명하기 위해서 설명과 직접적인 관계가 없는 부분을 생략하지만, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 생략된 구성이 불필요함을 의미하는 것은 아니다. 아울러, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조번호를 사용한다.
이하의 설명에서 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 되며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 또한, 이하의 설명에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 설명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하 도면을 참고하여 본 발명의 이동로봇에 대해 자세히 살펴보기로 한다.
도 1은 본 발명의 실시예에 따른 감지대상체와 상호작용이 가능한 이동로봇이 구현된 실시예를 도시한 도면이고, 도 2는 본 발명의 본 발명의 실시예에 따른 감지대상체와 이동로봇에 대한 블록도이다.
본 발명의 실시예에 따른 이동로봇은 자율 주행 가능한 차량인 예를 들어 설명하지만, 자율, 반자율 또는 수동 모드들로 작동될 수 있음은 물론이다. 또한, 본 발명의 실시예의 이동로봇은 청소 가능한 로봇이 될 수 있으나, 청소 가능한 로봇 이외에 자율, 반자율 등의 모드로 작동될 수 있는 로봇 중 어느 하나일 수 있다.
이하 본 발명의 실시예에 따른 이동로봇은 가정 내를 주행하며 청소 가능한 청소 로봇인 경우를 예를 들어 설명하지만, 이동로봇의 조건에 의해 본 발명이 제한되는 것은 아니다.
또한, 본 발명의 실시예에 따른 이동로봇(100)은 충돌 가능한 대상물을 감지하고, 기계학습을 통해 출동 가능한 대상물을 회피하도록 구현될 수 있다. 특히, 본 발명의 실시예에 따른 이동로봇(100)은 움직이며, 감정이 있는 대상물(과 상호 작용할 수 있다.
이하. 이동로봇(100)이 상호 작용하는 대상물을 감지대상체(10)라고 지칭하며, 예를 들어 감지대상체(10)는 가정, 사무실과 같은 실내에서 생활하는 사람, 애완동물과 같이 자유롭게 움직이고, 보이는 사물에 의해 놀라움, 두려움 등과 같은 감정을 표현할 수 있는 대상체를 의미한다. 이하 본 발명의 실시예에서 감지대상체(10)는 어린 아이인 예를 들어 설명하기로 한다.
이러한 이동로봇(100)은, 이동로봇(100)에 대한 감지대상체(10)의 외부 반응(예를 들어, 이동로봇에 대한 거부반응, 호의반응 등)에 따라 이동로봇(100)의 구동을 제어할 수 있도록 구현될 수 있다.
이와 같이, 감지대상체(10)의 외부 반응에 따라 이동로봇(100)의 구동을 제어함으로써, 이동로봇(100)이 감지대상체(10)와 상호작용하며 구동할 수 있게 된다. 또한, 이동로봇(100)에 대한 거부 반응이 있는 감지대상체(10)가 이동로봇(100)과 근접했을 때, 감지대상체(10)가 이동로봇(100)에 의해 불편함이 발생하는 것을 최소화할 수 있게 된다.
이러한 이동로봇(100)이 감지대상체(10)와 상호작용하기 위해서는 이동로봇(100)에 대한 외부 반응을 학습해야 한다. 이를 위해, 이동로봇(100)은, 이동로봇(100)의 외형을 형성하는 본체(110), 본체(110)를 이동 및 회전시키는 주행부(120), 본체(110)와 일정 거리 내에 위치한 감지대상체(10)의 움직임 또는 음향을 감지할 수 있는 센서부(140), 본체(110)의 움직임을 제어하는 제어부(160) 등을 포함할 수 있다.
구체적으로 본체(110)는 원형, 다각형 등 다양한 형상 중 어느 하나로 형성될 수 있으며, 본체(110)의 형상은 조건에 따라 변경될 수 있다.
또한, 본체(110)에는 공기, 먼지 등의 흡입이 이루어질 수 있는 흡입부(130)가 형성될 수 있으며, 본체(110)는 흡입부(130)를 통해 공기, 먼지 등이 흡입될 수 있도록 흡입력을 제공하는 흡입장치(미도시), 흡입부(130)를 통해 흡입된 공기, 먼지에서 먼지만을 걸러낼 수 있는 먼지집진통(150) 등을 포함할 수 있다.
한편, 본체(110)에는 배터리(미도시)가 마련될 수 있다. 배터리는 후술할 주행부(120) 이외에 이동로봇(100) 작동 전반에 필요한 전원을 공급할 수 있다. 이러한 배터리가 방전되는 경우 이동로봇(100)은 충전을 위해 충전대(미도시)로 복귀하는 주행을 실시할 수 있으며, 이러한 복귀 주행 중에 이동로봇(100) 스스로 충전대의 위치를 탐지할 수 있다.
주행부(120)는 본체(110)를 회전, 이동시킬 수 있는 적어도 하나의 구동바퀴를 포함하여 구성될 수 있으며, 이러한 구동바퀴는 본체(110)의 어느 일 면에 구비될 수 있지만, 구동바퀴가 설치된 구조는 조건에 따라 변경될 수 있다. 또한, 주행부(120)는 구동바퀴를 회전시킬 수 있는 구동 모터를 더 포함할 수 있다.
센서부(140)는 본체(110)와 일정 거리 이내에 위치하며 움직이며, 이동로봇(100)과 인접할 때 이동로봇(100) 측으로 감정을 표출할 수 있는 감지대상체(10)의 움직임, 음향을 감지할 수 있다.
이를 위해, 센서부(140)는 감지대상체(10)의 모션을 이미지나 영상으로 획득할 수 있는 카메라(142)를 포함할 수 있다. 카메라(142)는 디지털 카메라로 구현되어 영상, 정지영상 및 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하도록 구현되어 이동로봇(100)을 향하는 감지대상체(10)의 모션을 보다 쉽게 획득할 수 있다.
또한, 카메라(142)는 본체(110) 전방의 영상을 획득할 수도 있다. 즉, 본체(110)가 주행하는 영역 전반의 영상 및 이미지를 획득하도록 하여 감지대상체(10) 이외의 주변 물체와 이동로봇(100)의 충돌을 방지하고 이동로봇(100)이 주변의 장애물을 회피할 수 있다.
더불어, 카메라(142)는 본체(110) 주행 시, 주행 방향 전면(全面)의 먼지, 이물질을 인식하여 이동로봇(100)의 청소여부, 청소시점 등을 확인하는데 사용할 수도 있다.
또한, 카메라(142)에 수신된 이미지는 후술할 제어부(160)에서 이동로봇(100)의 구동을 제어하기 위한 감지대상체(10)인지를 식별하는 기준으로도 사용될 수 있다.
더불어 카메라(142)에 수신된 이미지는 본체(110)의 주행 가능한 공간 영역과 본체(110)의 주행 불가능한 공간 영역을 식별할 수 있도록 하는 이미지로 사용될 수도 있다.
한편, 센서부(140)는 감지대상체(10)의 음향을 획득할 수 있는 음향인식부(144)를 포함할 수 있다. 음향인식부(144)는 감지대상체(10)과 이동로봇(100)이 근접하는 경우, 감지대상체(10)에서 발생하는 소리를 획득할 수 있다.
이때, 감지대상체(10)에서 획득한 소리는 감지대상체(10)가 이동로봇(100)을 회피하고자 하는 부정의 음향이라고 가정하여 설명하기로 한다. 즉, 본 발명의 실시예에서 본체(110)의 움직임을 제어하기 위해서는 감지대상체(10)에서 발생한 움직임 또는 음향의 변화량이 부정적인 결과인 경우일 것이며, 따라서, 음향인식부(144)가 획득한 감지대상체(10)의 음향은 이동로봇(100)을 회피하려는 부정의 소리일 것으로 판단할 수 있다.
이와 같이 센서부(140)에서 획득한 감지대상체(10)의 움직임 또는 음향을 획득하면, 제어부(160)에서 획득한 정보를 기초로 본체(110)의 움직임을 제어할 수 있다.
구체적으로 제어부(160)는, 본체(110)와 감지대상체(10)의 거리가 일정 거리 내로 인접하는지 여부를 판단해야 한다. 여기서 일정 거리란, 본체(110)의 카메라(142)가 감지대상체(10)를 충분히 인식할 수 있는 거리가 될 수 있으며, 카메라(142)의 성능, 기 설정된 거리 등의 조건에 따라 다르게 설정될 수 있다.
이때, 제어부(160)는 본체(110)와 감지대상체(10)의 거리가 일정 거리 이내이며, 감지대상체(10)의 아이덴티티를 식별할 수 있다. 감지대상체(10)의 아이덴티티란, 가정 내 움직이고 감정이 발생하는 각각의 감지대상체마다 부여된 고유식별정보(코드)라고 할 수 있다. 이와 같이 가정 내 각각의 감지대상체마다 고유식별정보인 아이덴티티를 부여함으로써, 본체(110)가 다수의 감지대상체 중 어느 하나의 감지대상체와 인접하는지 여부를 쉽게 판단할 수 있는 기준이 될 수 있다.
한편, 앞서 설명된 이동로봇과 상호작용하는 감지대상체(10)와 아이덴티티가 식별된 감지대상체(10)가 동일한 객체라고 가정하고 설명하기로 한다.
이와 같이 감지대상체(10)의 아이덴티티를 식별하면, 제어부(160)는 아이덴티티가 식별된 감지대상체(10)와 본체(110)의 거리가 감소할수록 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화가 발생하는지 여부를 확인한다.
즉, 제어부(160)는 본체(110)와 감지대상체의 거리가 일정 거리 이내의 공간에 위치하면 이동로봇(100)이 수행하는 수행동작을 기록한다. 이때, 아이덴티티가 식별된 감지대상체(10)가 이동로봇(100)의 수행동작에 따라 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화가 발생하는지를 감지할 수 있다. 예컨대, 본체(110)와 아이덴티티가 식별된 감지대상체(10)가 일정 거리 이내에 위치한 상태에서 아이덴티티가 식별된 감지대상체(10)가 이동로봇(100)을 거부하는 경우, 아이덴티티가 식별된 감지대상체(10)는 이동로봇(100)을 회피하려는 움직임이 발생하거나, 이동로봇(100)을 향해 소리를 지르는 등의 거부 반응이 발생할 수 있다.
이와 같이 본체(110)에 거부반응이 있는 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화를 확인하면, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화량을 감소시킬 수 있도록 이동로봇(100)의 동작을 조정할 수 있다.
즉, 주행하는 본체(110)가 아이덴티티가 식별된 감지대상체(10)와 인접할 때, 아이덴티티가 식별된 감지대상체(10)가 회피(예를 들어 도망가는 행위)하려 하거나, 소리를 높여 거부하는 반응(예를 들어 울음, 소리지름 등)이 발생하면, 이를 최소화하기 위하여 이동로봇(100)의 구동을 최소화하는 것이다.
이때, 이동로봇(100)의 동작 조정은 본체(110)의 주행 속도, 먼지나 이물질 등을 흡입하는 과정에서 발생하는 소음 등을 줄이는 것이 될 수 있다. 특히 본체(110)의 움직임을 줄일 때, 동시에 여러 행위를 최소화하거나, 특정 행위만을 최소화하도록 설정될 수 있다.
한편, 제어부(160)는 제어부(160)에서 아이덴티티가 식별된 감지대상체(10)와 본체(110)의 거리가 감소할수록 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화가 발생하는지 여부를 감지한 이후, 감지대상체(10)의 아이덴티티와 이동로봇(100)의 수행동작 및 감지대상체(10)의 움직임 또는 음향의 변화가 연계되어 학습될 수 있도록 할 수 있다. 이후, 학습한 결과를 기초로 감지대상체(10)의 아이덴티티별로 이동로봇(100)의 수행동작과 감지대상체(10)의 움직임 또는 음향의 변화의 상관관계를 분석할 수 있다.
구체적으로, 가정 등의 실내에는 어린아이, 성인, 애완동물 등의 다수의 감지대상체(10)가 있을 수 있다. 각각의 종류에 따라 본체(110)의 움직임에 대해 외부 반응이 다를 수 있으므로, 이동로봇(100)의 수행동작에 대한 반응이 있는 감지대상체 아이덴티티별로 발생한 정보(감지대상체의 종류에 따라 이동로봇을 향한 반응정보)를 저장하고, 저장된 정보를 통해 본체(110)의 움직임에 반응하는 결과에 따라 감지대상체를 식별할 수 있도록 학습하는 것이다. 이러한, 학습정보를 기초로 아이덴티티별로 이동로봇(100)의 수행동작을 조정할 수 있게 된다.
이후, 이동로봇(100)의 조정 동작은 분석된 아이덴티티별로 감지대상체(10)의 반응정보를 기초로 결정될 수 있다. 즉, 본체(110)가 움직여 아이덴티티가 식별된 감지대상체(10)와 본체(110)가 일정 거리 이내로 인접하여 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 증가하면 이동로봇(100)의 동작은 최소화되도록 조정되는 것이다.
특히, 이동로봇(100)의 조정 동작은, 기 학습된 학습 결과를 기초로 자동으로 조정되어 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화량을 감소시키도록 할 수 있다. 이로 인해, 이동로봇(100)에 거부 반응이 발생하는 감지대상체의 심리적 안정감 및 이동로봇(100)을 사용하는 데에서의 사용 불편함을 최소화할 수 있다.
한편, 가정 내 복수의 감지대상체(10)의 아이덴티티 정보, 이동로봇(100)의 수행동작에 따라 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향이 변화량 정보 등은 정보 DB(170)에 저장될 수 있다.
또한, 감지대상체(10)의 아이덴티티와 이동로봇(100)의 수행동작 및 감지대상체(10)의 움직임 또는 음향의 변화가 연계되는 학습은 학습모듈(180)을 통해서 이루어질 수 있다.
이하, 도 3 및 도 4를 이용하여 본 발명의 실시예의 감지대상체에 대해 이동로봇의 구동 제어 및 상호작용 과정을 개략적으로 설명하기로 한다.
도 3은 본 발명의 실시예에 따른 이동로봇과 감지대상체의 개략적인 구성을 나타내는 블록도이고, 도 4는 본 발명의 실시예에 따른 이동로봇와 감지대상체의 상호 작용 과정을 개략적으로 도시한 도면이다.
도면을 참고하면, 이동로봇(100)과 아이덴티티가 식별된 감지대상체(10)가 일정 거리 이내에 위치하면, 이동로봇(100)의 제어부(160)는 움직임 감지부(162) 및 음향 변화량 감지부(164)를 통해 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화량을 확인한다.
이렇게 확인된 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화량은 정보 DB(170)에 저장될 수 있다. 이때, 움직임의 변화량은 이미지로 추출되고, 추출된 이미지에서 특징을 추출하여 정보 DB(170)에 저장될 수 있다. 저장된 이미지는 이동로봇(100)의 수행동작을 조정하는 기준으로 사용될 수 있다. 즉, 카메라(142)를 통해 추출된 이미지를 통해 아이덴티티가 식별된 감지대상체(10)를 추출하여 이동로봇(100)의 수행동작에 따라 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화를 줄일 수 있게 된다.
이후, 본체(110)가 근접하고, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 증가하는 정보인 경우, 이동로봇(100)의 수행동작을 조정하는, 구체적으로 본체(110)의 움직임을 최소화하여 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임을 감소시키도록 조정할 수 있다.
상술한 본 발명의 실시예에 의하면 청소 가능한 이동로봇(100)이 주행하는 동안 이동로봇(100)과 접촉하거나 이동로봇(100)과 근접 가능한 움직이는 대상체인 감지대상체(10)와 일정 거리 이내에 위치하는 경우, 감지대상체(10)가 이동로봇(100)을 향해 부정적인 반응(예: 소리지름, 뒤로 물러남, 등의 부정적 반응)이 발생하는 경우, 이러한 부정적인 반응에 대한 정보를 습득, 기억할 수 있다. 이때, 습득, 기억된 정보를 기초로 감지대상체(10)와 이동로봇(100)이 일정 거리 이내에 위치하면, 이동로봇(100)의 본체(110)는 스스로 청소 시, 발생 가능한 소음을 줄이거나, 본체(110)의 구동을 줄이는 등과 같이 감지대상체(10)와의 상호작용이 가능하도록 설계될 수 있다. 따라서, 이동로봇(100)을 사용하는 사용자의 이동로봇(100)을 향한 부정적인 반응을 최소화할 수 있게 된다. 특히, 이동로봇(100)이 주행하는 가정 내에서 이동로봇(100)에 대해 부정적으로 반응하는 감지대상체(10)가 거취하여도 이동로봇(100) 스스로가 감지대상체(10)의 성향에 따라 구동을 제어하게 되어 이동로봇(100)에 의한 불편함을 최소화할 수 있다.
한편, 본체(110) 움직임에 대해 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화량은 일정 시간이 지나면 변화할 수 있다. 예컨대, 가정 내 아이가 이동로봇(100)에 대해 처음에는 부정적으로 반응하다가 시간이 지날수록 이동로봇(100)에 대해 부정적 반응이 줄어드는 것을 의미한다.
이러한 경우 본체(110)의 움직임 제어에도 변화가 필요할 수 있다. 이를 위해, 일정 시간 범위 내에서 일정 주기를 가지고 아이덴티티가 식별된 감지대상체(10)와 본체(110)의 거리가 감소할수록 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화를 확인할 수 있다.
즉, 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량을 감소시키도록 본체(110)의 움직임을 조정하면 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화량이 감소할 수 있다. 이후, 아이덴티티가 식별된 감지대상체(10)가 본체(110)의 움직임에 익숙해지는 일정 시간이 지나면 본체(110)의 움직임에도 음향 또는 움직임에 변화가 발생할 수 있다(도 4의 10A 참고). 따라서 움직임이 조정된 본체(110)가 아이덴티티가 식별된 감지대상체(10)와 일정 거리 이내로 위치하여 주행하는 시점이 일정 시간이 지나면 아이덴티티가 식별된 감지대상체(10)가 본체(110)의 움직임에 익숙해졌다고 판단하고 본체(110)와 아이덴티티가 식별된 감지대상체(10) 사이의 거리를 줄여 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 변화하는지를 판단할 수 있다.
이때, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 변화가 일정 범위 이내인 경우, 이동로봇(100)이 기존에 수행하던 동작을 유지하도록 이동로봇(100)의 동작을 조정할 수 있다.
예를 들어, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화가 적을 경우, 이에 대응하여 본체(110)의 움직임 조정이 이루어지지 않도록 하여 이동로봇(100)의 주행(청소)가 지속적으로 이루어질 수 있도록 할 수 있다. 이와 반대로, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화가 발생하는 경우, 본체(110)의 움직임 조정이 이루어지도록 하여 이동로봇(100)에 의한 아이덴티티가 식별된 감지대상체(10)의 불편함을 최소화하도록 할 수 있다.
이하 도면을 참고하여 이동로봇과 감지대상체의 상호작용 방법에 대해 살펴보기로 한다.
도 5는 본 발명의 실시예에 따른 이동로봇과 감지대상체의 상호 작용 방법을 설명하기 위한 흐름도이고, 도 6은 본 발명의 실시예에 따라 이동로봇과 이이덴티티에 따른 감지대상체와의 상호 작용 방법을 설명하기 위한 흐름도이다.
도면 설명에 앞서, 도 1 내지 도 4의 도면에서 설명된 장치 및 구성의 도면 부호와 동일한 도면 부호의 경우 동일 장치 및 구성이라고 가정하고 상세한 설명은 생략하기로 한다.
도면의 설명에 앞서, 본 발명의 실시예에 따른 이동로봇과 감지대상체의 상호 작용 방법에서의 이동로봇은 이동로봇(100)은 자율 주행 가능한 차량인 예를 들어 설명하지만, 자율, 반자율 또는 수동 모드들로 작동될 수 있음은 물론이다. 또한, 본 발명의 실시예의 이동로봇은 청소 가능한 로봇이 될 수 있으나, 청소 가능한 로봇 이외에 자율, 반자율 등의 모드로 작동될 수 있는 로봇 중 어느 하나일 수 있다.
이하 본 발명의 실시예에 따른 이동로봇은 가정 내를 주행하며 청소 가능한 청소 로봇인 경우를 예를 들어 설명하지만, 이동로봇의 조건에 의해 본 발명이 제한되는 것은 아니다.
또한, 본 발명의 실시예에 따른 이동로봇(100)은 충돌 가능한 대상물을 감지하고, 기계학습을 통해 출동 가능한 대상물을 회피하도록 구현될 수 있다. 특히, 본 발명의 실시예에 따른 이동로봇(100)은 가정 내 움직이고, 감정 표현이 가능한 대상물(이하 본 발명에서는 감지대상체(10)로 지칭)과 상호 작용하며 이동로봇(100)에 대한 감지대상체(10)의 외부 반응에 따라 이동로봇(100)의 구동을 제어할 수 있도록 구현될 수 있다. 이때, 외부 반응이란 이동로봇에 대한 거부반응, 호의반응 등이 될 수 있다.
이와 같이, 본 발명의 실시예에 따른 감지대상체(10)와 상호 작용하며 이동로봇에 대한 감지대상체(10)의 외부 반응에 따라 이동로봇(100)의 구동을 제어함으로써, 이동로봇(100)에 대한 거부 반응이 있는 감지대상체(10)와 이동로봇(100)이 근접했을 때, 감지대상체(10)가 이동로봇(100)에 의해 불편함이 발생하는 것을 최소화할 수 있게 된다.
이러한 이동로봇(100)과 감지대상체(10)의 상호 작용 방법은, 이동로봇(100)의 본체(110)가 이동 및 회전하며 주행할 때, 감지대상체(10)를 인지하고(S10), 본체(110)와 일정 거리 내에 위치한 감지대상체(10)의 움직임 또는 음향 변화량을 감지한 뒤(S20), 감지대상체(10)의 움직임 또는 음향 변화량에 기초하여 본체(110)와 통신하며 이동로봇(100)의 수행 동작을 제어하는 과정으로 이루어질 수 있다(S30).
이때, 이동로봇(100)의 수행 동작을 제어하는 과정을 자세히 살펴보면, 본체(110)와 감지대상체(10)의 거리가 일정 거리 내로 인접하면, 감지대상체(10)가 움직이는 물체인지 판단하고, 본체(110)와 감지대상체(10)의 거리가 일정 거리 이내이면 감지대상체(10)의 아이덴티티를 저장하게 된다(S110, S120).
감지대상체(10)의 아이덴티티란, 가정 내 움직이고 감정이 발생하는 각각의 감지대상체마다 부여된 고유식별정보(코드)라고 할 수 있다. 이와 같이 가정 내 각각의 감지대상체마다 고유식별정보인 아이덴티티를 부여함으로써, 본체(110)가 다수의 감지대상체 중 어느 하나의 감지대상체와 인접하는지 여부를 쉽게 판단할 수 있는 기준이 될 수 있다.
한편, 앞서 설명된 이동로봇과 상호작용하는 감지대상체(10)와 아이덴티티가 식별된 감지대상체(10)가 동일 구성이라고 가정하고 설명하기로 한다.
이후, 본체(110)와 감지대상체(10)의 거리가 감소할수록 감지대상체(10)의 움직임 또는 음향 변화가 발생하는지 판단하고, 음향 또는 움직임 변화가 발생할 경우 감지대상체(10)의 아이덴티티를 식별할 수 있다(S130, 140)
감지대상체(10)의 아이덴티티가 식별되고, 일정 거리 이내에 이동로봇(100)이 위치한 상태에서 이동로봇(100)의 수행동작을 기록하고, 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량을 감지할 수 있다(S150).
이후 움직임 또는 음향의 변화량이 발생한 감지대상체(10)의 아이덴티티가 식별된 감지대상체(10)인지 판단되면, 본체(110)의 움직임과 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량 상관관계를 분석할 수 있다(S160).
예를 들어, 움직임 또는 음향 변화량이 큰 아이덴티티가 식별된 감지대상체(10)의 경우, 움직임 또는 음향 변화량을 감소시키도록 본체(110)의 움직임이 작아지도록 제어할 수 있다(S30).
구체적으로, 청소 가능한 이동로봇(100) 본체(110)의 움직임에 대해 가정 내 어린 아이가 울고(음향), 본체(110)와 멀어지기 위해 뒷걸음(움직임)을 행한다고 할 경우, 본체(110)는 어린 아이의 음향 또는 움직임 변화량에 의해 본체(110)의 움직임을 제어 하여 어린아이가 본체(110)에 의해 음향 또는 움직임 변화가 발생하는 것을 최소화할 수 있도록 하는 것이다.
더욱 구체적으로 본체(110)의 움직임이란 본체(110)의 주행 속도, 먼지나 이물질 등을 흡입하는 과정에서 발생하는 소음 등을 줄이는 것이 될 수 있다. 특히 본체(110)의 움직임을 줄일 때, 동시에 여러 행위를 최소화하거나, 특정 행위만을 최소화하도록 설정될 수 있다.
한편, 감지대상체의 아이덴티티를 식별할 때, 본체(110)의 움직임에 대해 움직임 또는 음향이 변화한 아이덴티티가 식별된 감지대상체(10)의 정보만을 저장하도록 감지대상체(10)의 아이덴티티와 이동로봇(100)의 수행동작 및 감지대상체(10)의 움직임 또는 음향의 변화가 연계되어 학습되도록 한다.
즉, 가정 내, 사무실 내 등의 실내에서 충돌, 접촉 등과 같이 이동로봇(100)과 간섭이 발생할 수 있는 장치는 움직이며 이동로봇(100)에 대해 감정을 표현할 수 있는 감지대상체(10) 이외에 전자동으로 구동되는 전자제품, 주행이 가능한 장치(예: 바퀴가 달린 의자 등) 등이 있다. 이때, 이동로봇(100)은 이와 같은 주행 가능한 장치 전반을 감지하는 것이 아닌 움직이되, 이동로봇(100)을 향해 감정이 표현될 수 있는 대상체에만 부여된 아이덴티티를 식별할 수 있도록 구성되는 것이다.
또한, 가정 등의 실내에는 어린아이, 성인, 애완동물 등의 다수의 감지대상체(10)가 있을 수 있다. 각각의 종류에 따라 본체(110)의 움직임에 대해 외부 반응이 다를 수 있으므로, 이동로봇(100)의 수행동작에 대한 반응이 있는 감지대상체 아이덴티티별로 발생한 정보(감지대상체의 종류에 따라 이동로봇을 향한 반응정보)를 저장하고, 저장된 정보를 통해 본체(110)의 움직임에 반응하는 결과에 따라 감지대상체를 식별할 수 있도록 학습하는 것이다.
이후, 본체(110)의 움직임에 대해 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량에 따른 상관관계를 분석한다. 앞서 설명한 바와 같이, 가정, 사무실 내에는 성인, 어린아이, 애완동물 및 움직이는 가전제품, 기계적 주행이 가능한 장치 등이 거취될 수 있다. 각각의 종류에 따라 본체(110)의 움직임에 대해 외부 반응이 다를 수 있으므로, 본체(110)의 움직임에 대한 반응이 있는 감지대상체 아이덴티티의 정보(감지대상체의 종류, 본체를 향한 반은 정도 등)를 저장하고, 저장된 정보를 통해 본체(110)의 움직임에 반응하는 결과에 따라 감지대상체를 식별할 수 있다. 이러한, 감지대상체의 본체(110)에 대한 반응 정보를 기초로 이동로봇(100)의 수행동작을 조정(예: 본체 구동 제어)할 수 있게 된다.
이후, 본체(110)의 움직임에 따라 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향이 변화량을 분석할 수 있다. 즉, 본체(110)가 움직여 아이덴티티가 식별된 감지대상체(10)와 본체(110)가 일정 거리 이내로 인접하면, 아이덴티티가 식별된 감지대상체(10)의 음향이 증가/감소하는지, 움직임이 증가/감소하는 지 등의 변화를 분석하는 것이다.
이러한 분석을 통해 본체(110)가 움직여 아이덴티티가 식별된 감지대상체(10) 측으로 근접하고, 본체(110)에 근접한 아이덴티티가 식별된 감지대상체(10)가 음향 또는 움직임이 증가하는 경우, 자동으로 본체(110)의 움직임을 줄여 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화량을 감소시키도록 할 수 있다.
이로 인하여, 감지대상체(10)가 이동로봇(100)에 대한 외부 반응을 학습하고, 감지대상체(10)와 이동로봇(100)이 일정 거리 이내에 위치할 때, 학습된 결과를 기초로 이동로봇(100)의 본체(110)의 움직임을 제어함으로써, 감지대상체(10)가 이동로봇(100)에 대한 부정적 반응을 최소화할 수 있으며, 이동로봇(100)에 대한 감지대상체(10)의 불편함을 최소화할 수 있다.
한편, 도 7은 본 발명의 실시예에 따라 일정 시간 범위 내에서 감지대상체와 이동로봇의 상호 작용 방법을 설명하기 위한 흐름도이다.
도면을 참고하면, 본 발명의 실시예에 따라 이동로봇(100)의 감지대상체(10)와 상호작용하는 방법은, 우선 저장된 본체(110)와 감지대상체(10)의 거리가 일정 거리 내로 인접하면, 감지대상체(10)가 움직이는 물체인지 판단하고, 감지대상체(10)의 아이덴티티를 저장하게 된다(S110, S120).
이후, 본체(110)와 감지대상체(10)의 거리가 감소할수록 감지대상체(10)의 움직임 또는 음향 변화가 발생하는지 판단하고, 음향 또는 움직임 변화가 발생할 경우 감지대상체(10)의 아이덴티티를 식별할 수 있다(S130, 140)
이때, 이동로봇(10)은 아이덴티티가 식별된 감지대상체(10)와 이동로봇(100)의 본체(110)가 일정 거리 이내로 위치하고, 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량에 대한 정보를 습득, 기억할 수 있다.
구체적으로, 습득, 기억된 정보를 기초로 감지대상체(10)와 이동로봇(100)이 일정 거리 이내에 위치하면, 이동로봇(100)의 본체(110)는 스스로 청소 시, 발생 가능한 소음을 줄이거나, 본체(110)의 구동을 줄이는 등과 같이 감지대상체(10)와의 상호작용이 가능하도록 설계될 수 있다. 따라서, 이동로봇(100)을 사용하는 사용자의 이동로봇(100)을 향한 부정적인 반응을 최소화할 수 있게 된다. 특히, 이동로봇(100)이 주행하는 가정 내에서 이동로봇(100)에 대해 부정적으로 반응하는 감지대상체(10)가 거취하여도 이동로봇(100) 스스로가 감지대상체(10)의 성향에 따라 구동을 제어하게 되어 이동로봇(100)에 의한 불편함을 최소화할 수 있다.
한편, 본체(110) 움직임에 대해 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화량은 일정 시간이 지나면 변화할 수 있다. 예컨대, 가정 내 아이가 이동로봇(100)에 대해 처음에는 부정적으로 반응하다가 시간이 지날수록 이동로봇(100)에 대해 부정적 반응이 줄어드는 것을 의미한다.
이러한 경우 본체(110)의 움직임 제어에도 변화가 필요할 수 있다. 이를 위해, 일정 시간 범위 내에서 일정 주기를 가지고 아이덴티티가 식별된 감지대상체(10)와 본체(110)의 거리가 감소할수록 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화를 판단할 수 있다(S155).
즉, 아이덴티티가 식별된 감지대상체(10)의 움직임 또는 음향의 변화량을 감소시키도록 본체(110)의 움직임을 조정하면 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임의 변화량이 감소할 수 있다. 이후, 아이덴티티가 식별된 감지대상체(10)가 본체(110)의 움직임에 익숙해지는 일정 시간이 지나면 본체(110)의 움직임에도 음향 또는 움직임에 변화가 발생할 수 있다.
즉, 움직임이 조정된 본체(110)가 아이덴티티가 식별된 감지대상체(10)와 일정 거리 이내로 위치하여 주행하는 시점이 일정 시간이 지나면 아이덴티티가 식별된 감지대상체(10)가 본체(110)의 움직임에 익숙해졌다고 판단하고 본체(110)와 아이덴티티가 식별된 감지대상체(10) 사이의 거리를 줄여 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 변화하는지를 판단하는 것이다.
이때, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임이 변화가 일정 범위 이내인 경우, 이동로봇(100)이 기존에 수행하던 동작을 유지하도록 이동로봇(100)의 동작을 조정할 수 있다(S20).
예를 들어, 아이덴티티가 식별된 감지대상체(10)의 음향 또는 움직임 변화가 적을 경우, 이에 대응하여 본체(110)의 움직임 조정이 이루어지지 않도록 하여 이동로봇(100)의 주행(청소)이 지속적으로 이루어질 수 있도록 할 수 있다.
이상과 같이, 주행 가능한 이동로봇이 주행할 때, 이동로봇에 대한 외부 반응(감정적 표현)이 가능한 감지대상체의 움직임 또는 음향 변화를 수집하고, 수집된 정보를 학습한 뒤, 감지대상체와 이동로봇의 본체가 근접하게 되면 본체의 구동을 제어하여 이동로봇에 대한 감지대상체의 불편함을 최소화할 수 있다.
또한, 이동로봇의 본체와 감지대상체가 일정 거리 내에 위치하고, 감지대상체의 음향 또는 움직임이 변화하면 본체의 움직임을 제어하여 감지대상체가 이동로봇에 대해 음향 또는 움직임 변화를 줄여 이동로봇에 대한 감지대상체의 불편함을 최소화할 수 있다.
또한, 본체의 구동을 제어한 후, 일정 시간이 지나 본체와 감지대상체의 거리가 가까워지는 경우, 감지대상체의 음향 또는 움직임의 변화 여부를 판단하여 본체의 움직임을 제어하는지 여부를 선택할 수 있다. 즉, 감지대상체와 본체의 거리가 가까워지더라도 감지대상체의 음향 또는 움직임이 변화하지 않은 경우 본체의 움직임을 추가로 제어하지 않고 지속적으로 구동할 수 있도록 하여 이동로봇의 청소 기능이 유지될 수 있도록 할 수 있다.
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.

Claims (13)

  1. 감지대상체와 상호작용이 가능한 이동로봇에 있어서,
    상기 이동로봇의 외관을 형성하는 본체;
    상기 본체를 이동 및 회전시키는 주행부;
    상기 본체와 일정 거리 내에 위치한 감지대상체의 움직임 또는 음향을 감지하기 위한 하나 이상의 센서를 포함하는 센서부; 및
    상기 주행부 및 상기 센서부와 통신하며 상기 본체의 움직임을 제어하는 제어부를 포함하고,
    상기 제어부는,
    A) 상기 본체와 상기 감지대상체의 거리가 상기 일정 거리 내로 인접하는지 판단하고,
    B) 상기 본체와 상기 감지대상체의 거리가 상기 일정 거리 이내인 경우, 상기 감지대상체의 아이덴티티를 식별하고,
    C) 상기 본체와 상기 감지대상체의 거리가 상기 일정 거리 이내인 공간에서 상기 이동로봇이 수행하는 수행동작을 기록하고, 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하며,
    D) 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화량을 감소시키도록 상기 이동로봇의 동작을 조정하도록 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  2. 제1항에 있어서,
    상기 제어부는,
    C-1) 상기 A), B) 및 C) 동작이 완료된 이후에 상기 감지대상체의 아이덴티티와, 상기 이동로봇의 수행동작 및 상기 감지대상체의 움직임 또는 음향의 변화를 연계하여 학습하도록 추가로 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  3. 제2항에 있어서,
    상기 제어부는,
    C-2) 상기 학습을 통해 감지대상체의 아이덴티티별로 상기 이동로봇의 수행동작과 상기 감지대상체의 움직임 또는 음향의 변화의 상관관계를 분석하도록 추가로 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 D)에서 조정되는 상기 이동로봇의 동작을 상기 C-2)에서 분석된 상기 이동로봇의 수행동작과 상기 감지대상체의 움직임 또는 음향의 변화의 상관관계에 기초하여 결정하도록 추가로 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 D) 동작 이후에 일정 시간 범위 내에서 일정 주기를 가지고 상기 C) 동작을 반복적으로 수행하도록 추가로 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 C) 동작에서 상기 본체와 상기 아이덴티티가 식별된 감지대상체 사이의 거리가 감소하여도, 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화가 일정 범위 이내인 것으로 감지되는 경우,
    상기 D) 동작에서 상기 이동로봇이 기존에 수행하던 동작을 유지하는 것으로 상기 이동로봇의 동작을 조정하도록 추가적으로 구성되는,
    감지대상체와 상호작용이 가능한 이동로봇.
  7. 제1항에 있어서,
    상기 감시대상체의 이미지를 수신하기 위한 카메라를 포함하는,
    감지대상체와 상호작용이 가능한 이동로봇.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 카메라를 통해 수신된 상기 감지대상체의 이미지에 기초하여 상기 감지대상체의 아이덴티티를 식별하는,
    감지대상체와 상호작용이 가능한 이동로봇.
  9. 이동로봇과 감지대상체의 상호작용 방법에 있어서,
    A) 상기 이동로봇의 본체가 이동하여 상기 본체와 상기 감지대상체의 거리가 일정 거리 내로 인접하는지 판단하는 단계;
    B) 상기 본체와 상기 감지대상체의 거리가 상기 일정 거리 이내인 경우, 상기 감지대상체의 아이덴티티를 식별하는 단계;
    C) 상기 본체와 상기 감지대상체의 거리가 상기 일정 거리 이내인 공간에서 상기 이동로봇이 수행하는 수행동작을 기록하고, 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화를 감지하는 단계; 및
    D) 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화량을 감소시키도록 상기 이동로봇의 동작을 조정하는 단계를 포함하는,
    이동로봇과 감지대상체의 상호작용 방법.
  10. 제9항에 있어서,
    C-1) 상기 A), B) 및 C) 단계 이후에 상기 감지대상체의 아이덴티티와, 상기 이동로봇의 수행동작 및 상기 감지대상체의 움직임 또는 음향의 변화를 연계하여 학습하는 단계를 더 포함하는,
    이동로봇과 감지대상체의 상호작용 방법.
  11. 제10항에 있어서,
    상기 C-1) 단계 이후에,
    C-2) 상기 학습을 통해 감지대상체의 아이덴티티별로 상기 이동로봇의 수행동작과 상기 감지대상체의 움직임 또는 음향의 변화의 상관관계를 분석하는 단계를 더 포함하는,
    이동로봇과 감지대상체의 상호작용 방법.
  12. 제9항에 있어서,
    상기 D) 단계 이후에 일정 시간 범위 내에서 일정 주기를 가지고 상기 C) 단계를 반복적으로 수행하는,
    이동로봇과 감지대상체의 상호작용 방법.
  13. 제9항에 있어서,
    상기 C) 단계에서 상기 본체와 상기 아이덴티티가 식별된 감지대상체 사이의 거리가 감소하여도, 상기 아이덴티티가 식별된 감지대상체의 움직임 또는 음향의 변화 발생이 일정 범위 이내인 것으로 감지되는 경우,
    상기 D) 단계에서 상기 이동로봇이 기존에 수행하던 동작을 유지하도록 상기 이동로봇의 동작을 조정하는,
    감지대상체와 상호작용이 가능한 이동로봇.
PCT/KR2019/005474 2019-05-08 2019-05-08 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법 Ceased WO2019172733A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2019/005474 WO2019172733A2 (ko) 2019-05-08 2019-05-08 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법
KR1020190111707A KR102889949B1 (ko) 2019-05-08 2019-09-09 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법
US16/598,885 US20200039074A1 (en) 2019-05-08 2019-10-10 Interaction between mobile robot and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/005474 WO2019172733A2 (ko) 2019-05-08 2019-05-08 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법

Publications (2)

Publication Number Publication Date
WO2019172733A2 true WO2019172733A2 (ko) 2019-09-12
WO2019172733A3 WO2019172733A3 (ko) 2020-03-26

Family

ID=67847532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005474 Ceased WO2019172733A2 (ko) 2019-05-08 2019-05-08 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법

Country Status (3)

Country Link
US (1) US20200039074A1 (ko)
KR (1) KR102889949B1 (ko)
WO (1) WO2019172733A2 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107553497B (zh) * 2017-10-20 2023-12-22 苏州瑞得恩光能科技有限公司 太阳能面板清扫机器人的边缘定位装置及其定位方法
US11504193B2 (en) * 2019-05-21 2022-11-22 Verb Surgical Inc. Proximity sensors for surgical robotic arm manipulation
WO2022149715A1 (ko) 2021-01-11 2022-07-14 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR102408398B1 (ko) * 2021-12-01 2022-06-14 (주)디로펫 인공지능 기반 반려동물 짖음 방지 로봇 제어 방법, 장치 및 시스템

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
JP4231320B2 (ja) * 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置
KR100769909B1 (ko) * 2006-09-06 2007-10-24 엘지전자 주식회사 이동 로봇 및 그 동작방법
JP5080333B2 (ja) * 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
EP2838698B2 (de) * 2012-07-10 2020-01-01 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters
US9415513B2 (en) * 2014-08-29 2016-08-16 General Electric Company Systems and methods for railyard robotics
US10016896B2 (en) * 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
KR20180076450A (ko) * 2016-12-28 2018-07-06 한국기계연구원 로봇의 충돌 방지 장치 및 방법
KR102681557B1 (ko) * 2017-02-24 2024-07-03 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102070067B1 (ko) * 2017-10-25 2020-01-28 엘지전자 주식회사 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법

Also Published As

Publication number Publication date
KR102889949B1 (ko) 2025-11-21
US20200039074A1 (en) 2020-02-06
KR20190110075A (ko) 2019-09-27
WO2019172733A3 (ko) 2020-03-26

Similar Documents

Publication Publication Date Title
WO2019172733A2 (ko) 감지대상체와 상호작용이 가능한 이동로봇 및 이동로봇과 감지대상체의 상호작용 방법
WO2018070686A1 (ko) 공항용 안내 로봇 및 그의 동작 방법
EP3328597A1 (en) Mobile robot and control method thereof
WO2017200305A1 (ko) 로봇 청소기
WO2019054675A1 (ko) 로봇청소기 및 그 제어방법
WO2015072623A1 (ko) 클리닝 디바이스 및 그 제어 방법
WO2020218644A1 (ko) 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
WO2021141396A1 (en) Robot cleaner using artificial intelligence and control method thereof
WO2020184736A1 (ko) 인공 지능 청소기 및 그의 동작 방법
KR102330607B1 (ko) 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법
WO2011019200A2 (ko) 홍보 가능한 지능형 디스플레이 장치 및 그 홍보 방법
WO2021201427A1 (ko) 청소 기능을 가지는 전자 장치 및 그의 청소를 수행하는 방법
WO2021006590A1 (en) Docking device and mobile robot system
WO2017018694A1 (ko) 오염 측정장치 및 그를 포함하는 자율 청소 로봇 시스템
KR102290983B1 (ko) 인공지능 이동 로봇의 제어 방법
EP4003120A1 (en) Robot cleaner and method for controlling the same
WO2021145525A1 (en) Robot cleaner and method for controlling the same
WO2019212174A1 (ko) 인공지능 청소기 및 그 제어방법
WO2020251274A1 (en) Robot cleaner using artificial intelligence and control method thereof
WO2021145536A1 (en) Robot cleaner and method for controlling the same
WO2020196948A1 (ko) 인공 지능 청소기 및 그의 동작 방법
WO2020138954A1 (ko) 이동 로봇 및 이동 로봇의 제어방법
WO2021045260A1 (ko) 로봇 청소기 및 제어방법
KR102423572B1 (ko) 인공지능 이동 로봇의 제어 방법
WO2020246824A1 (en) Method of controlling electronic devices

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19764069

Country of ref document: EP

Kind code of ref document: A2