[go: up one dir, main page]

WO2019096479A1 - Verfahren und mittel zum betreiben einer roboteranordnung - Google Patents

Verfahren und mittel zum betreiben einer roboteranordnung Download PDF

Info

Publication number
WO2019096479A1
WO2019096479A1 PCT/EP2018/076216 EP2018076216W WO2019096479A1 WO 2019096479 A1 WO2019096479 A1 WO 2019096479A1 EP 2018076216 W EP2018076216 W EP 2018076216W WO 2019096479 A1 WO2019096479 A1 WO 2019096479A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
contour
environmental
detected
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2018/076216
Other languages
English (en)
French (fr)
Inventor
Kirill SAFRONOV
Christian Scheurer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Deutschland GmbH
Original Assignee
KUKA Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Deutschland GmbH filed Critical KUKA Deutschland GmbH
Publication of WO2019096479A1 publication Critical patent/WO2019096479A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40548Compare measured distances to obstacle with model of environment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled

Definitions

  • the present invention relates to a method and means for operating a robot assembly having at least one robot arm and a robot assembly having the means and a computer program product for carrying out the method.
  • the object of the present invention is to improve the operation of a robot assembly. This object is achieved by a method having the features of claim 1.
  • Claims 9 to 11 provide a means for operating a robot assembly according to a method described herein, a robot assembly having means described herein, and a computer program product for performing a method described herein.
  • the subclaims relate to advantageous developments.
  • a robot arrangement has one or more robot arms, which in one embodiment (one) one or more, in particular at least three, in one embodiment at least six, in particular at least seven, joints or (motion) axes , in particular rotary joints or axes, and / or drives for moving the robot arm, in particular adjusting its joints, has / have.
  • the present invention has one or more robot arms, which in one embodiment (one) one or more, in particular at least three, in one embodiment at least six, in particular at least seven, joints or (motion) axes , in particular rotary joints or axes, and / or drives for moving the robot arm, in particular adjusting its joints, has / have.
  • Robot arrangement can advantageously operate the robot arrangement in one embodiment, in particular the robot arm based on the environment model or
  • Collision risk procedure be moved autonomously in one execution.
  • one or more of the robotic arm (s) may be mobile in one embodiment (relative to the environment of the robotic assembly), in particular (in each case or together) on a mobile, in particular mobile, platform.
  • the real environment of the robot assembly may, in particular, be an environment (in) of or approached by or with this mobile robot assembly or platform
  • the mobile robot arrangement or platform can in the meantime also move away from this position, the robot arrangement being based on or in
  • Positions of a mobile robot assembly or platform are performed.
  • a free space for a robot arm in the sense of the present invention may in one embodiment be a one-way or more, in particular all-sided, limited Cartesian or joint coordinate space within which the robot arm, in particular when the platform is stationary, can or must proceed.
  • An environment model in the sense of the present invention describes, in particular approximates, in one embodiment the real environment of the robot arrangement in mathematical, in particular numerical, form, in particular in the form of
  • the environmental contour is contactless, in particular optically, and / or with the aid of at least one sensor, in particular a 2D or 3D sensor, in particular a 2D or 3D camera, in an embodiment using exactly or only one such sensor, in particular three-dimensional, captured.
  • a 2D sensor is moved in one embodiment to, or when detecting the environmental contour.
  • the environmental contour detected by means of at least one, in particular moving, 2D sensor is detected by calculating the three-dimensional surrounding contour from the environment detected with the aid of the sensor, in particular using a structure-by-motion method known per se.
  • a non-contact, in particular optical, detection this can be carried out in one embodiment quickly and / or without obstruction of the robot assembly by a 3D sensor, in particular a 3D camera, in a particularly fast and / or compact execution, by a 2D Sensor, in particular a 2D camera, particularly simple and / or inexpensive in one embodiment.
  • the 3D sensor may have a predetermined pattern, the one
  • the light source is imaged onto the real environment, or its distortion detected, via travel-time measurements of light distances to the real environment, in one embodiment a so-called ToF camera, in particular a PMD sensor or sensors the like, in particular, detect interferences between measuring and object beams and / or with the aid of (micro) lens arrays or the like in addition to a brightness of pixels and a light direction of rays that lead to a pixel capture or be set up for this purpose or . be used.
  • the detection in one embodiment can be carried out particularly quickly and / or compactly.
  • the senor which is freely movable in space for this purpose in an embodiment, for or during detection (by a user or a
  • it communicates wirelessly or via at least one line with a processing means which determines the environmental model and / or the free space on the basis of data detected or transmitted by the sensor.
  • the senor is arranged on a mobile phone, in particular a smartphone, tablet computer or another handheld device such as a personal digital assistant (“PDA”) or the like, in particular integrated or detachably attached.
  • a mobile phone in particular a smartphone, tablet computer or another handheld device such as a personal digital assistant (“PDA”) or the like, in particular integrated or detachably attached.
  • PDA personal digital assistant
  • Smartphones or the like devices that are otherwise used can advantageously also be used for detecting the surrounding contour. Communication via a line can reduce the risk of interference in one embodiment.
  • one or more robotic arm-resistant elements are provided.
  • a robot-guided tool and / or the (entire) robot arm, identified in the detected environmental contour, in an embodiment using image processing, in particular recognition, are located in one embodiment or a pose of the element (s) in the detected environmental contour and / or to each other.
  • robot-guided sensor for detecting one or the three-dimensional fine contour of the real environment of the robot arrangement in the detected surrounding contour, in an embodiment using image processing, in particular recognition,
  • a position of the robot arm in particular a position of one or more, in an embodiment of all, joints or axes of the robot arm, in which the surrounding contour is detected or detected, detected in a development using sensors at the joints and / or drives.
  • the detected position of the robot arm is wirelessly transmitted to one or the processing means for determining the environment model and / or free space.
  • the environment model and / or the free space is in an embodiment based on or in dependence on this identification or localization of or
  • the identified robot arm is eliminated from the detected environmental contour, in particular for determining the environmental model
  • the detected environmental contour, the environmental model and / or the free space are aligned or positioned and / or oriented relative to a robot-arm-fixed, in particular roboterarm base or flange-resistant reference, in particular a reference (coordinate) system a deviation between the roboterarmfesten identified in the detected environmental contour and their pose, which results from the detected position of the robot arm, is minimal.
  • the detected environmental contour the detected environmental contour
  • the method comprises the step of: detecting a
  • Three-dimensional fine contour of the real environment of the robot assembly after detecting the surrounding contour in an embodiment based on the determined environment model and / or free space.
  • the determined environment model in an embodiment, the robot assembly
  • Robot arrangement operated on the basis of the determined fine contour, in particular an environmental model and / or, in an embodiment based on this environmental model, a collision space for the robot arm determined.
  • the environmental contour in particular with the aid of the manually guided sensor, is thus first roughly recorded and the environmental model and / or free space determined on the basis of this environmental contour (coarse), and subsequently the fine contour recorded with greater accuracy using the robot-guided sensor, wherein the Robot arrangement for this purpose based on the roughly determined
  • the roughly determined environment model for the environmental model and / or the roughly determined free space for the collision space are modified, in particular specified.
  • Collision space for a robot arm according to the present invention in one embodiment may also be a single or multi, especially all sides, limited Cartesian or joint coordinate space, within which the
  • Robot arm in particular when the mobile platform is stationary, and which in one embodiment has a higher accuracy than the (roughly determined) free space, an environmental model according to the present invention corresponding to the real environment of the robot arrangement in mathematical, in particular numerical, shape, in particular in the form of surfaces and / or three-dimensional object models or corresponding data, describes, in particular approximated, and in one embodiment has a higher accuracy than the (roughly determined) environment model.
  • an advantageous at least two-stage corresponding to the real environment of the robot arrangement in mathematical, in particular numerical, shape, in particular in the form of surfaces and / or three-dimensional object models or corresponding data, describes, in particular approximated, and in one embodiment has a higher accuracy than the (roughly determined) environment model.
  • the environment model and / or the free space in one embodiment additionally or alternatively (also) the environmental model and / or the
  • geometric objects in one embodiment are independent of a priori known objects in the vicinity of the robot arm, are given or are and / or, in particular by means of pattern recognition, in the detected
  • the detected environmental contour can advantageously be supplemented and / or corrected in one embodiment, whereby the omission of the use of a priori known objects, in particular CAD models of such objects, can simplify and / or accelerate the method.
  • the free space is at least partially limited by the working space of the robot arm.
  • areas of the surrounding contour which the robot arm, in particular when the platform is stationary can not be excluded in the determination of the free space due to kinematic or structural restrictions. Nevertheless, such areas can be visualized in one embodiment in the detected environmental contour or contained in the determined environment model.
  • the working space of the robot arm is determined on the basis of its identification, in particular from a database or base determined the robot arm associated specific working space and this used in the determination of the environment model, free space, environmental model and / or collision space, in particular the free - and / or collision space through this specific
  • Working space of the robot arm in particular be his workspace at immovable Roboterarmbasis or platform.
  • the surrounding contour can be detected coarser in one embodiment, in particular the number of detected points in the environment can be reduced.
  • the environmental model and / or the free space in one embodiment additionally or alternatively (also) the environmental model and / or the collision space, are determined (respectively) based on a 3D occupancy grid, in particular on a voxel basis ("3D occupancy grid") , which represents a particularly advantageous approximation.
  • the real environment of the robotic assembly may include a
  • Workplace in particular a robot cell, have, in particular be, wherein the robot arm is arranged in one embodiment when detecting the surrounding contour at the workplace, in another embodiment detects the surrounding contour without the robot arm and this is then arranged at the workplace. Accordingly, a future environment (still to be detected when detecting) is also referred to as the real environment of the robot arrangement in the sense of the present invention.
  • determining a pose of the robotic arm-fixed reference and the detected environmental contour relative to each other can be simplified and / or their precision and / or reliability improved.
  • detecting the surrounding contour without robotic arm can simplify detection.
  • an (operating) means for operating the robot arrangement in particular hardware and / or software, in particular program technology, for implementing a method described here is set up and / or has:
  • Detection means for, in particular three-dimensional, detecting a
  • Processing means for determining an environment model based on or in response to this detected environmental contour and / or determining a free space for the or one or more of the robotic arm (s) based on or in dependence on this detected environmental contour, in a design based on or depending on this environment model;
  • the (operating) means and / or his (e) means comprises: means for non-contact, in particular optical detection of the surrounding contour. Additionally or alternatively, in one embodiment, the detection means on at least one sensor, in particular 2D or 3D sensor, in particular a 2D or 3D camera on.
  • the senor for detecting manual guidance, in particular pivoting, and / or for communication via at least one line or for wireless communication with the processing means is arranged and / or arranged on a handheld device, in particular a smartphone.
  • the (operating) means and / or its agent comprises:
  • Robot arrangement in particular a working movement for performing a working process, a retraction movement from a fault pose and / or a search movement for detecting the fine contour using the robot-guided sensor, based on the determined environment model and / or free space and / or the determined fine contour.
  • a means in the sense of the present invention may be designed in terms of hardware and / or software, in particular a data or signal-connected, preferably digital, processing, in particular microprocessor unit (CPU) and / or a memory and / or bus system or multiple programs or program modules.
  • the CPU may be configured to execute instructions implemented as a program stored in a memory system, to capture input signals from a data bus, and / or
  • a storage system may comprise one or more, in particular different, storage media, in particular optical, magnetic, solid state and / or other non-volatile media.
  • the program may be such that it is capable of embodying or executing the methods described herein, so that the CPU may perform the steps of such methods and thus, in particular, operate the robot assembly.
  • a computer program product may include, in particular, a non-volatile storage medium for storing a program or a program stored thereon, wherein execution of this program causes a system or a controller, in particular a computer, to do so method described herein or one or more of its steps.
  • the detection of a three-dimensional environmental contour comprises the detection of a plurality of staggered three-dimensional partial environmental contours of the real environment and their joining to the captured (overall) environmental contour.
  • Localized robot arrangement identified in particular as described here, and the detected partial environmental contours then assembled on the basis of these localizations to the overall environment contour, in particular (in each case) transformed into one or the common (s) reference (coordinate) system, wherein the (respective) transformation results from the localization of the robot arrangement in the (respective) partial environmental contour.
  • the partial environmental contours become put together so that the robot arrangements located in them
  • the detection of a three-dimensional fine contour can also include the detection of a plurality of three-dimensional partial fine contours of the real environment and their joining
  • the robot arrangement or a part of the robot arrangement is located, in particular identified in the manner described here, and the partial fine contours are then combined on the basis of these localizations to form the overall fine contour, in particular (in each case) into one or the common (s)
  • Environmental model the determination of several sub-environmental or environmental models and their joining to the (overall) environmental or environmental model include.
  • the determination of several sub-environmental or environmental models and their joining to the (overall) environmental or environmental model include.
  • Environmental models each located the robot assembly or a part of the robot assembly, in particular identified in the manner described here, and the partial environmental or environmental models then based on these localizations for
  • FIG. 2 shows a method for operating the robot arrangement according to FIG.
  • FIG. 1 shows a robot arrangement with a six-axis robot arm 10, which is arranged in a robot cell 100 that is delimited by cell walls, for example fences 21.
  • two objects 22, for example tables, shelves, machine tools, conveyors or the like are arranged by way of example.
  • a robot controller 1 1 performs a method of operating the robot assembly according to an embodiment of the present invention, which will be explained below with reference to FIG. 2.
  • a three-dimensional environmental contour 110 of the real environment in the form of the robot cell 100 is detected by means of a manually guided by a user 3D camera of a smartphone 30, which this pivots this and transmits the corresponding data wirelessly to the robot controller 1 1.
  • a 2D camera can also be used and the three-dimensional contour of the surroundings can be calculated, for example, by means of a so-called "structure from motion" method.
  • the detected environmental contour 1 10 is indicated in phantom in Fig. 1, wherein a deviation of this roughly detected environmental contour 1 10 of the real environment 100 is schematized and exaggerated thereby indicated that the detected
  • contour 1 10 partially within or outside the real environment 100 is shown.
  • step S20 the robot controller 1 1 identifies the robot arm 10 in the detected surrounding contour 1 10, which is indicated cross-hatched in FIG. In addition, in step S20, it detects its position based on its detected joint or axis angle.
  • a step S30 it determines based on the detected environmental contour 1 10, the robot arm 10 identified therein and its detected position
  • a cuboid 120 is indicated hatched by way of example, with the in
  • the robot controller 1 1 directs the environmental model or the detected environmental contour 1 10 relative to a robot arm base fixed coordinate system, with respect to which the position of the robot arm 10 has been detected on the basis of its detected joint or Achswinkel, such that the position of the in the detected ambient contour 1 10 identified robot arm 10 as little as possible deviates from this detected on the basis of its detected joint or axis angle position.
  • the robot controller 1 1 can rotate the environment model or the detected environmental contour 1 10 around an axis perpendicular to the plane of the drawing of FIG. 1 and / or move it in the plane of the drawing until the orientation or position of the rocker and the hand of the identified
  • Robotic arm as well as possible with the position of rocker and hand according to the detected joint or axis angle matches.
  • the robot controller 11 determines 1 based on this roughly determined environment model, which in turn based on the coarse detected
  • Environmental contour 1 10 has been determined, roughly a free space 200, the limit 210 is indicated by dashed lines in Fig. 1. As can be seen from this, this free space 200 is also limited by the constructively maximum possible working space 300 of the robot arm, which is indicated in dotted lines in FIG.
  • a step S50 the robot controller 1 1 then moves the robot arm 10 within this roughly determined free space 200 in order to precisely record a fine contour 130 of the surroundings 100 with a robot-guided 3D camera 13, which in the context of the drawing accuracy of FIG. 1 with the surroundings 100 coincides and therefore is not separately recognizable in Fig. 1.
  • step S60 the robot controller 11 analogous to step S30, S40 can now determine a (more accurate) environmental model and / or a (more accurate) collision space for the robot arm 10 on the basis of the acquired fine contour 130.
  • step S60 can also be omitted and the robot controller 11 in step S50, for example, a retraction movement of the robot arm 10 from a
  • a partial environmental contour can in each case be detected several times and the robot arm can be located in it, wherein these mutually offset partial environmental contours are then joined to the or an overall environmental contour in accordance with the respective robot arm located therein

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Ein erfindungsgemäßes Verfahren zum Betreiben einer Roboteranordnung mit wenigstens einem Roboterarm (10), umfasst die Schritte: − Erfassen (S10) einer dreidimensionalen Umgebungskontur (110) einer realen Umgebung (100) der Roboteranordnung; − Ermitteln (S30) eines Umgebungsmodells und/oder eines Freiraums (200) für den Roboterarm auf Basis der erfassten Umgebungskontur; und − Betreiben (S50) der Roboteranordnung auf Basis des ermittelten Umgebungsmodells und/oder Freiraums.

Description

Beschreibung
Verfahren und Mittel zum Betreiben einer Roboteranordnung
Die vorliegende Erfindung betrifft ein Verfahren und Mittel zum Betreiben einer Roboteranordnung mit wenigstens einem Roboterarm sowie eine Roboteranordnung mit dem Mittel und ein Computerprogrammprodukt zur Durchführung des Verfahrens.
Aus betriebsinterner Praxis ist es bekannt, Roboterzellen mithilfe von CAD-Modellen der Objekte in der Roboterzelle zu modellieren und kollisionsfreie Robotertrajektorien auf Basis solcher Zellen- bzw. Umweltmodelle zu planen.
Nachteilig erfordern solche Modelle große Expertise und einen hohen Aufwand, insbesondere wenn sie bei Veränderung der Roboterzelle mithilfe von CAD-Modellen hinzugefügter, umpositionierter und/oder entfernter Objekte aktualisiert werden müssen.
Aufgabe der vorliegenden Erfindung ist es, den Betrieb einer Roboteranordnung zu verbessern. Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Ansprüche 9 bis 1 1 stellen ein Mittel zum Betreiben einer Roboteranordnung nach einem hier beschriebenen Verfahren, eine Roboteranordnung mit einem hier beschriebenen Mittel und ein Computerprogrammprodukt zur Durchführung eines hier beschriebenen Verfahrens unter Schutz. Die Unteransprüche betreffen vorteilhafte Weiterbildungen.
Nach einer Ausführung der vorliegenden Erfindung weist eine Roboteranordnung einen oder mehrere Roboterarme auf, der bzw. die in einer Ausführung (jeweils) ein oder mehrere, insbesondere wenigstens drei, in einer Ausführung wenigstens sechs, insbesondere wenigstens sieben, Gelenke bzw. (Bewegungs)Achsen, insbesondere Drehgelenke bzw. -achsen, und/oder Antriebe zum Bewegen des Roboterarms, insbesondere Verstellen seiner Gelenke, aufweist/aufweisen. Die vorliegende
Erfindung kann mit besonderem Vorteil bei solchen mehr-, insbesondere
sechsachsigen oder redundanten, Roboterarmen verwendet werden. Nach einer Ausführung der vorliegenden Erfindung weist ein Verfahren zum Betreiben der Roboteranordnung die Schritte auf:
- insbesondere dreidimensionales, Erfassen einer dreidimensionalen
Umgebungskontur einer realen Umgebung der Roboteranordnung;
- Ermitteln eines Umgebungsmodells auf Basis bzw. in Abhängigkeit von dieser erfassten Umgebungskontur und/oder Ermitteln eines Freiraums für den bzw.
einen oder mehrere der Roboterarm(e) auf Basis bzw. in Abhängigkeit von dieser erfassten Umgebungskontur, in einer Ausführung auf Basis bzw. in Abhängigkeit von diesem Umgebungsmodell; und
- Betreiben der Roboteranordnung auf Basis bzw. in Abhängigkeit von diesem
ermittelten Umgebungsmodell und/oder Freiraum.
Durch die Ermittlung eines Umgebungsmodells bzw. Freiraums für einen Roboterarm auf Basis einer erfassten Umgebungskontur einer realen Umgebung der
Roboteranordnung kann die Roboteranordnung in einer Ausführung vorteilhaft betrieben, insbesondere der Roboterarm auf Basis des Umgebungsmodells bzw.
innerhalb des Freiraums (umgebungs)kollisionsfrei bzw. mit reduziertem
Kollisionsrisiko verfahren, werden, in einer Ausführung autonom verfahren.
Insbesondere kann in einer Ausführung der Aufwand und/oder die notwendige
Expertise im Vergleich zu (rein) CAD-basierten Umgebungsmodellen reduziert werden.
Die Roboteranordnung ist in einer Ausführung stationär bzw. relativ zu ihrer
Umgebung ortsfest. Gleichermaßen kann sie, insbesondere kann/können der bzw. einer oder mehrere der Roboterarm(e), in einer Ausführung (relativ zur Umgebung der Roboteranordnung) mobil, insbesondere (jeweils oder gemeinsam) auf einer mobilen, insbesondere fahrbaren, Plattform, angeordnet sein. In diesem Fall kann die reale Umgebung der Roboteranordnung insbesondere eine Umgebung (in) einer von bzw. mit dieser mobilen Roboteranordnung bzw. Plattform angefahrenen oder
anzufahrenden Position sein. Das Umgebungsmodell bzw. der Freiraum wird in diesem Fall in einer Ausführung für diese Position ermittelt. Dabei kann sich die mobile Roboteranordnung bzw. Plattform in einer Ausführung zwischenzeitlich auch von dieser Position entfernen, wobei die Roboteranordnung auf Basis bzw. in
Abhängigkeit von diesem ermittelten Umgebungsmodell und/oder Freiraum betrieben wird, wenn sie bzw. ihre mobile Plattform sich (noch oder wieder) in dieser Position befindet, insbesondere die Plattform in dieser Position ruht bzw. stillsteht. In einer Ausführung kann das hier beschriebene Verfahren auch an mehreren solchen
Positionen einer mobilen Roboteranordnung bzw. Plattform durchgeführt werden.
Ein Freiraum für einen Roboterarm im Sinne der vorliegenden Erfindung kann in einer Ausführung ein ein- oder mehr-, insbesondere allseitig, begrenzter kartesischer oder Gelenkkoordinatenraum sein, innerhalb dessen der Roboterarm, insbesondere bei ruhender Plattform, verfahren kann bzw. darf.
Ein Umgebungsmodell im Sinne der vorliegenden Erfindung beschreibt, insbesondere approximiert, in einer Ausführung die reale Umgebung der Roboteranordnung in mathematischer, insbesondere numerischer, Form, insbesondere in Form von
Flächen und/oder dreidimensionalen Objekt(modell)en bzw. entsprechenden Daten.
In einer Ausführung wird die Umgebungskontur berührungslos, insbesondere optisch, und/oder mithilfe wenigstens eines Sensors, insbesondere 2D- oder 3D-Sensors, insbesondere einer 2D- oder 3D-Kamera, in einer Ausführung mithilfe genau bzw. nur eines einzigen solchen Sensors, insbesondere dreidimensional, erfasst. Ein 2D- Sensor wird in einer Ausführung zum bzw. beim Erfassen der Umgebungskontur bewegt. In einer Ausführung wird die mithilfe wenigstens eines, insbesondere dabei bewegten, 2D-Sensors erfasste Umgebungskontur dadurch erfasst, dass aus der mithilfe des Sensors erfassten Umgebung die dreidimensionale Umgebungskontur errechnet wird, insbesondere mit einem an sich bekannten„structure from motion“- Verfahren.
Durch eine berührungslose, insbesondere optische, Erfassung kann diese in einer Ausführung rasch und/oder ohne Behinderung der Roboteranordnung durchgeführt werden, durch einen 3D-Sensor, insbesondere eine 3D-Kamera, in einer Ausführung besonders rasch und/oder kompakt, durch einen 2D-Sensor, insbesondere eine 2D- Kamera, in einer Ausführung besonders einfach und/oder kostengünstig.
In einer Weiterbildung kann der 3D-Sensor ein vorgegebenes Muster, das eine
Lichtquelle hierzu auf die reale Umgebung abbildet, bzw. dessen Verzerrung erfassen, über Laufzeitmessung von Licht Distanzen zur realen Umgebung erfassen, in einer Ausführung eine sogenannte ToF Kamera, insbesondere ein(en) PMD-Sensor oder dergleichen, aufweisen, insbesondere sein, Interferenzen zwischen Mess- und Objektstrahlen erfassen und/oder mit Hilfe von (Mikro)Linsenarrays oder dergleichen neben einer Helligkeit von Bildpunkten auch eine Lichtrichtung von Strahlen, die zu einem Bildpunkt führen, erfassen bzw. hierzu eingerichtet sein bzw. verwendet werden. Hierdurch kann die Erfassung in einer Ausführung besonders rasch und/oder kompakt durchgeführt werden.
In einer Ausführung wird der Sensor, der hierzu in einer Ausführung frei im Raum beweglich ist, zum bzw. beim Erfassen (durch einen Anwender bzw. eine
Bedienperson) manuell geführt, insbesondere verschwenkt.
Zusätzlich oder alternativ kommuniziert er in einer Ausführung drahtlos oder über wenigstens eine Leitung mit einem Verarbeitungsmittel, das das Umgebungsmodell und/oder den Freiraum auf Basis von vom Sensor erfassten bzw. übermittelten Daten ermittelt.
In einer Ausführung ist der Sensor an einem Mobiltele-, insbesondere Smartphone, Tabletcomputer oder einem anderen Handheld wie beispielsweise einem Personal Digital Assistant („PDA“) oder dergleichen angeordnet, insbesondere integriert oder lösbar befestigt.
Durch eine manuelle Führung des, insbesondere frei beweglichen, Sensors und/oder eine drahtlose Kommunikation kann in einer Ausführung die Umgebungskontur einfach, rasch und/oder ohne Behinderung der Roboteranordnung erfasst, durch ein Verschwenken eine größere Umgebung mit einem kleinen Sensorerfassungsbereich abgescannt werden. Durch die Verwendung eines Handheids, insbesondere
Smartphones oder dergleichen, können anderweitig genutzte Vorrichtungen vorteilhaft zusätzlich auch zur Erfassung der Umgebungskontur verwendet werden. Durch eine Kommunikation über eine Leitung kann in einer Ausführung die Gefahr einer Störung reduziert werden.
In einer Ausführung werden ein oder mehrere roboterarmfeste Elemente,
insbesondere ein robotergeführtes Werkzeug und/oder der (gesamte) Roboterarm, in der erfassten Umgebungskontur, in einer Ausführung mithilfe einer Bildverarbeitung, insbesondere -erkennung, identifiziert, in einer Ausführung lokalisiert bzw. eine Pose des bzw. der Elemente in der erfassten Umgebungskontur und/oder zueinander ermittelt. In einer Weiterbildung wird ein bzw. der nachfolgend erläuterte(r)
robotergeführter Sensor zum Erfassen einer bzw. der dreidimensionalen Feinkontur der realen Umgebung der Roboteranordnung in der erfassten Umgebungskontur, in einer Ausführung mithilfe einer Bildverarbeitung, insbesondere -erkennung,
identifiziert, insbesondere lokalisiert.
Zusätzlich oder alternativ wird in einer Ausführung eine Stellung des Roboterarms, insbesondere eine Stellung einer oder mehrerer, in einer Ausführung aller, Gelenke bzw. Achsen des Roboterarms, in der die Umgebungskontur erfasst wird bzw. worden ist, erfasst, in einer Weiterbildung mithilfe von Sensoren an den Gelenken und/oder Antrieben. In einer Ausführung wird die erfasste Stellung des Roboterarms drahtlos an ein bzw. das Verarbeitungsmittel zum Ermitteln des Umgebungsmodells und/oder Freiraums übermittelt.
Das Umgebungsmodell und/oder der Freiraum wird in einer Ausführung auf Basis bzw. in Abhängigkeit von dieser Identifikation bzw. Lokalisierung des bzw. der
roboterarmfesten Elemente und/oder dieser erfassten Stellung des Roboterarms ermittelt.
In einer Weiterbildung wird zur Ermittlung des Umgebungsmodells der identifizierte Roboterarm aus der erfassten Umgebungskontur eliminiert, insbesondere
herausgefiltert bzw. die erfasste Umgebungskontur entsprechend bereinigt.
Zusätzlich oder alternativ wird in einer Weiterbildung die erfasste Umgebungskontur, das Umgebungsmodell und/oder der Freiraum relativ zu einer roboterarmfesten, insbesondere roboterarmbasis- oder -flanschfesten, Referenz, insbesondere einem Referenz(koordinaten)system derart ausgerichtet bzw. positioniert und/oder orientiert, dass eine Abweichung zwischen dem bzw. den in der erfassten Umgebungskontur identifizierten roboterarmfesten Elementen und ihrer Pose, die sich aus der erfassten Stellung des Roboterarms ergibt, minimal wird.
Hierdurch kann in einer Ausführung die erfasste Umgebungskontur, das
Umgebungsmodell bzw. der Freiraum mit einer roboterarmfesten Referenz abgeglichen bzw. gematcht bzw. zu dieser ausgerichtet und dadurch die Roboteranordnung vorteilhaft betrieben, insbesondere gesteuert werden.
In einer Ausführung weist das Verfahren den Schritt auf: Erfassen einer
dreidimensionalen Feinkontur der realen Umgebung der Roboteranordnung nach dem Erfassen der Umgebungskontur, in einer Ausführung auf Basis des ermittelten Umgebungsmodells und/oder Freiraums. Dabei wird in einer Ausführung die
Feinkontur mit höherer Genauigkeit und/oder langsamer als die Umgebungskontur und/oder mithilfe wenigstens eines robotergeführten Sensors erfasst und die
Roboteranordnung auf Basis der ermittelten Feinkontur betrieben, insbesondere ein Umweltmodell und/oder, in einer Ausführung auf Basis dieses Umweltmodells, ein Kollisionsraum für den Roboterarm ermittelt.
In einer Ausführung wird somit zunächst die Umgebungskontur, insbesondere mithilfe des manuell geführten Sensors, grob erfasst und das Umgebungsmodell und/oder der Freiraum auf Basis dieser Umgebungskontur (grob) ermittelt, und anschließend die Feinkontur mit höherer Genauigkeit mithilfe des robotergeführten Sensors erfasst, wobei die Roboteranordnung hierzu auf Basis des grob ermittelten
Umgebungsmodells und/oder Freiraums gesteuert wird.
In einer Ausführung wird auf Basis der ermittelten Feinkontur das grob ermittelte Umgebungsmodell zum Umweltmodell und/oder der grob ermittelte Freiraum zum Kollisionsraum modifiziert, insbesondere präzisiert. Gleichermaßen kann das
Umweltmodell und/oder der Kollisionsraum neu ermittelt werden, wobei ein
Kollisionsraum für einen Roboterarm im Sinne der vorliegenden Erfindung in einer Ausführung ebenfalls ein ein- oder mehr-, insbesondere allseitig, begrenzter kartesischer oder Gelenkkoordinatenraum sein kann, innerhalb dessen der
Roboterarm, insbesondere bei ruhender mobiler Plattform, verfahren kann bzw. darf, und der in einer Ausführung eine höhere Genauigkeit aufweist als der (grob ermittelte) Freiraum, ein Umweltmodell im Sinne der vorliegenden Erfindung entsprechend in einer Ausführung die reale Umgebung der Roboteranordnung in mathematischer, insbesondere numerischer, Form, insbesondere in Form von Flächen und/oder dreidimensionalen Objektmodellen bzw. entsprechenden Daten, beschreibt, insbesondere approximiert, und das in einer Ausführung eine höhere Genauigkeit aufweist als das (grob ermittelte) Umgebungsmodell. Hierdurch wird in einer Ausführung ein vorteilhaftes wenigstens zweistufiges
Verfahren mit einer anfänglichen groben Erfassung der Umgebungskontur und darauf basierenden Ermittlung des Umgebungsmodells und/oder Freiraums und einer anschließenden präziseren Erfassung der Feinkontur und darauf basierenden
Ermittlung des Umweltmodells und/oder Kollisionsraums für den Roboterarm vorgeschlagen.
In einer Ausführung wird das Umgebungsmodell und/oder der Freiraum, in einer Ausführung zusätzlich oder alternativ (auch) das Umweltmodell und/oder der
Kollisionsraum, (jeweils)
- auf Basis von geometrischen Objekten, insbesondere Primitiven, in einer
Ausführung Primitiven aus einer Gruppe, die eine(n) oder mehrere Zylinder,
Kugeln und/oder Polyeder, insbesondere Quader aufweist, wobei diese
geometrischen Objekte, in einer Ausführung unabhängig von a priori bekannten Objekten in der Umgebung des Roboterarms, vorgegeben sind bzw. werden und/oder, insbesondere mittels Mustererkennung, in der erfassten
Umgebungskontur ermittelt werden;
- auf Basis eines, insbesondere maximal( möglich- bzw. erreichbaren Arbeitsraums des Roboterarms; und/oder
- auf Basis einer Verbindung und/oder Approximation erfasster Punkte in der
Umgebung, insbesondere Meshbildung, Interpolation oder dergleichen, ermittelt.
Durch die Verwendung von vorgegebenen geometrischen Objekten kann in einer Ausführung die erfasste Umgebungskontur vorteilhaft ergänzt und/oder korrigiert werden, wobei der Verzicht auf die Nutzung a priori bekannter Objekte, insbesondere CAD-Modellen solcher Objekte, das Verfahren vereinfachen und/oder beschleunigen kann.
In einer Ausführung wird der Freiraum wenigstens teilweise durch den Arbeitsraum des Roboterarms begrenzt. Hierdurch können in einer Ausführung Bereiche der Umgebungskontur, die der Roboterarm, insbesondere bei ruhender Plattform, aufgrund kinematischer bzw. konstruktiver Einschränkungen nicht erreichen kann, bei der Ermittlung des Freiraums ausgeschlossen werden. Gleichwohl können solche Bereiche in einer Ausführung in der erfassten Umgebungskontur visualisiert werden bzw. in dem ermittelten Umgebungsmodell enthalten sein. In einer Ausführung wird der Arbeitsraum des Roboterarms auf Basis seiner Identifizierung ermittelt, insbesondere aus einer Datenbank bzw. -basis ein dem identifizierten Roboterarm zugeordneter spezifischer Arbeitsraum ermittelt und dieser bei der Ermittlung des Umgebungsmodells, Freiraums, Umweltmodells und/oder Kollisionsraums verwendet, insbesondere der Frei- und/oder Kollisionsraum durch diesen spezifischen
Arbeitsraum wenigstens teilweise begrenzt, der auf Basis der Identifizierung des Roboterarms ermittelt worden ist. Bei mobilen Roboteranordnungen kann der
Arbeitsraum des Roboterarms insbesondere sein Arbeitsraum bei unbewegter Roboterarmbasis bzw. Plattform sein.
Durch Meshbildung, Interpolation oder dergleichen kann in einer Ausführung die Umgebungskontur gröber erfasst, insbesondere die Anzahl erfasster Punkte in der Umgebung reduziert werden. In einer Ausführung wird das Umgebungsmodell und/oder der Freiraum, in einer Ausführung zusätzlich oder alternativ (auch) das Umweltmodell und/oder der Kollisionsraum, (jeweils) auf Basis eines 3D- Belegungsgitters, insbesondere auf Voxeibasis („3D occupancy grid“) ermittelt, was eine besonders vorteilhafte Approximation darstellt.
In einer Ausführung wird beim Ermitteln des Umgebungsmodells und/oder Freiraums und/oder Umweltmodells und/oder Kollisionsraums (jeweils) ein Sicherheitsabstand zur erfassten Umgebungs- bzw. Feinkontur vorgesehen bzw. -halten bzw.
berücksichtigt, insbesondere hinzuaddiert. Hierdurch kann die Sicherheit erhöht werden.
In einer Ausführung wird auf Basis des ermittelten Umgebungsmodells und/oder Freiraums und/oder der ermittelten Feinkontur, insbesondere des hierauf basierenden Umweltmodells und/oder Kollisionsraums, (jeweils) eine Bewegung, insbesondere Bahn bzw. Trajektorie, der Roboteranordnung, insbesondere des Roboterarms, insbesondere eine Arbeitsbewegung bzw. -bahn zum Ausführen eines
Arbeitsprozesses, eine Rückzugbewegung bzw. -bahn aus einer Fehler-,
insbesondere Kollisionspose bzw. -Situation, und/oder eine Suchbewegung
bzw. -bahn zum Erfassen der Feinkontur mithilfe des robotergeführten Sensors, insbesondere autonom bzw. durch die Roboteranordnung selber und/oder vorab bzw. offline oder während des Betriebs der Roboteranordnung bzw. online, vorgegeben, insbesondere geplant, gesteuert, insbesondere geregelt, und/oder überwacht.
Dies stellt jeweils besonders vorteilhafte Modi zum Betreiben der Roboteranordnung dar.
In einer Ausführung kann die reale Umgebung der Roboteranordnung einen
Arbeitsplatz, insbesondere eine Roboterzelle, aufweisen, insbesondere sein, wobei der Roboterarm in einer Ausführung beim Erfassen der Umgebungskontur an dem Arbeitsplatz angeordnet ist, in einer anderen Ausführung die Umgebungskontur ohne den Roboterarm erfasst und dieser erst anschließend an dem Arbeitsplatz angeordnet wird. Entsprechend wird auch eine (beim Erfassen noch) zukünftige Umgebung als reale Umgebung der Roboteranordnung im Sinne der vorliegenden Erfindung bezeichnet.
Wenn der Roboterarm beim Erfassen der Umgebungskontur an dem Arbeitsplatz angeordnet ist, kann insbesondere das Ermitteln einer Pose der roboterarmfesten Referenz und der erfassten Umgebungskontur relativ zueinander vereinfacht und/oder deren Präzision und/oder Zuverlässigkeit verbessert werden. Umgekehrt kann ein Erfassen der Umgebungskontur noch ohne Roboterarm das Erfassen vereinfachen.
Nach einer Ausführung ist ein (Betriebs)Mittel zum Betreiben der Roboteranordnung, insbesondere hard- und/oder Software-, insbesondere programmtechnisch, zur Durchführung eines hier beschriebenen Verfahrens eingerichtet und/oder weist auf:
- Erfassungsmittel zum, insbesondere dreidimensionalen, Erfassen einer
dreidimensionalen Umgebungskontur einer realen Umgebung der
Roboteranordnung;
- Verarbeitungsmittel zum Ermitteln eines Umgebungsmodells auf Basis bzw. in Abhängigkeit von dieser erfassten Umgebungskontur und/oder Ermitteln eines Freiraums für den bzw. einen oder mehrere der Roboterarm(e) auf Basis bzw. in Abhängigkeit von dieser erfassten Umgebungskontur, in einer Ausführung auf Basis bzw. in Abhängigkeit von diesem Umgebungsmodell; und
- Mittel zum Betreiben der Roboteranordnung auf Basis bzw. in Abhängigkeit von diesem ermittelten Umgebungsmodell und/oder Freiraum. In einer Ausführung weist das (Betriebs)Mittel und/oder sein(e) Mittel auf: Mittel zum berührungslosen, insbesondere optischen Erfassen der Umgebungskontur. Zusätzlich oder alternativ weist in einer Ausführung das Erfassungsmittel wenigstens einen Sensor, insbesondere 2D- oder 3D-Sensor, insbesondere eine 2D- oder 3D-Kamera, auf.
In einer Weiterbildung ist der Sensor zum Erfassen bei manuellem Führen, insbesondere Verschwenken, und/oder zur Kommunikation über wenigstens eine Leitung oder zur drahtlosen Kommunikation mit dem Verarbeitungsmittel eingerichtet und/oder an einem Handheld, insbesondere einem Smartphone, angeordnet.
In einer Ausführung weist das (Betriebs)Mittel und/oder sein(e) Mittel auf:
Mittel zum Identifizieren wenigstens eines roboterarmfesten Elements, insbesondere eines robotergeführten Werkzeugs und/oder des Roboterarms, in der erfassten Umgebungskontur, und/oder Mittel zum Erfassen einer Stellung des Roboterarms, und/oder Mittel zum Ermitteln des Umgebungsmodells und/oder des Freiraums auf Basis der Identifikation des roboterarmfesten Elements und/oder der erfassten Stellung; und/oder
Mittel zum Erfassen einer dreidimensionalen Feinkontur der realen Umgebung der Roboteranordnung nach dem Erfassen der Umgebungskontur mit höherer
Genauigkeit und/oder langsamer als die Umgebungskontur und/oder mithilfe wenigstens eines robotergeführten Sensors und Betreiben der Roboteranordnung, insbesondere Ermitteln eines Umweltmodells und/oder eines Kollisionsraum für den Roboterarm, auf Basis der ermittelten Feinkontur; und/oder
Mittel zum Ermitteln des Umgebungsmodells und/oder Freiraums auf Basis von, insbesondere unabhängig von a priori bekannten Objekten in der Umgebung des Roboterarms, vorgegebenen geometrischen Objekten, insbesondere Primitiven, auf Basis eines Arbeitsraums des Roboterarms, und/oder auf Basis einer Verbindung und/oder Approximation erfasster Punkte in der Umgebung; und/oder
Mittel zum Vorgeben, Steuern und/oder Überwachen einer Bewegung der
Roboteranordnung, insbesondere einer Arbeitsbewegung zum Ausführen eines Arbeitsprozesses, einer Rückzugbewegung aus einer Fehlerpose und/oder einer Suchbewegung zum Erfassen der Feinkontur mithilfe des robotergeführten Sensors, auf Basis des ermittelten Umgebungsmodells und/oder Freiraums und/oder der ermittelten Feinkontur. Ein Mittel im Sinne der vorliegenden Erfindung kann hard- und/oder softwaretechnisch ausgebildet sein, insbesondere eine, vorzugsweise mit einem Speicher- und/oder Bussystem daten- bzw. signalverbundene, insbesondere digitale, Verarbeitungs-, insbesondere Mikroprozessoreinheit (CPU) und/oder ein oder mehrere Programme oder Programmmodule aufweisen. Die CPU kann dazu ausgebildet sein, Befehle, die als ein in einem Speichersystem abgelegtes Programm implementiert sind, abzuarbeiten, Eingangssignale von einem Datenbus zu erfassen und/oder
Ausgangssignale an einen Datenbus abzugeben. Ein Speichersystem kann ein oder mehrere, insbesondere verschiedene, Speichermedien, insbesondere optische, magnetische, Festkörper- und/oder andere nicht-flüchtige Medien aufweisen. Das Programm kann derart beschaffen sein, dass es die hier beschriebenen Verfahren verkörpert bzw. auszuführen imstande ist, sodass die CPU die Schritte solcher Verfahren ausführen kann und damit insbesondere die Roboteranordnung betreiben kann. Ein Computerprogrammprodukt kann in einer Ausführung ein, insbesondere nicht-flüchtiges, Speichermedium zum Speichern eines Programms bzw. mit einem darauf gespeicherten Programm aufweisen, insbesondere sein, wobei ein Ausführen dieses Programms ein System bzw. eine Steuerung, insbesondere einen Computer, dazu veranlasst, ein hier beschriebenes Verfahren bzw. einen oder mehrere seiner Schritte auszuführen.
In einer Ausführung werden ein oder mehrere, insbesondere alle, Schritte des
Verfahrens vollständig oder teilweise automatisiert durchgeführt, insbesondere durch das (Betriebs)Mittel bzw. sein(e) Mittel.
In einer Ausführung umfasst das Erfassen einer dreidimensionalen Umgebungskontur das Erfassen mehrerer gegeneinander versetzter dreidimensionaler Teil- Umgebungskonturen der realen Umgebung und deren Zusammenfügen zur erfassten (Gesamt-)Umgebungskontur. Dabei werden in einer Ausführung in den erfassten Teil- Umgebungskonturen jeweils die Roboteranordnung oder ein Teil der
Roboteranordnung lokalisiert, insbesondere in hier beschriebener Weise identifiziert, und die erfassten Teil-Umgebungskonturen dann auf Basis dieser Lokalisierungen zur Gesamt-Umgebungskontur zusammengefügt, insbesondere (jeweils) in ein bzw. das gemeinsame(s) Referenz(koordinaten)system transformiert, wobei sich die (jeweilige) Transformation aus der Lokalisierung der Roboteranordnung in der (jeweiligen) Teil- Umgebungskontur ergibt. In einer Ausführung werden die Teil-Umgebungskonturen so zusammengefügt, dass die in ihnen lokalisierten Roboteranordnungen
übereinstimmen.
Zusätzlich oder alternativ kann in einer Ausführung auch das Erfassen einer dreidimensionalen Feinkontur das Erfassen mehrerer dreidimensionaler Teil- Feinkonturen der realen Umgebung und deren Zusammenfügen zur erfassten
(Gesamt-)Feinkontur umfassen. Dabei werden in einer Ausführung in den erfassten Teil-Feinkonturen jeweils die Roboteranordnung oder ein Teil der Roboteranordnung lokalisiert, insbesondere in hier beschriebener Weise identifiziert, und die Teil- Feinkonturen dann auf Basis dieser Lokalisierungen zur Gesamt-Feinkontur zusammengefügt, insbesondere (jeweils) in ein bzw. das gemeinsame(s)
Referenz(koordinaten)system transformiert, wobei sich die (jeweilige) Transformation aus der Lokalisierung der Roboteranordnung in der (jeweiligen) Teil-Feinkontur ergibt. In einer Ausführung werden die Teil-Feinkonturen so zusammengefügt, dass die in ihnen lokalisierten Roboteranordnungen übereinstimmen.Zusätzlich oder alternativ kann in einer Ausführung das Ermitteln des Umgebungs- und/oder des
Umweltmodells das Ermitteln mehrerer Teil-Umgebungs- bzw. Umweltmodelle und deren Zusammenfügen zum (Gesamt-)Umgebungs- bzw. Umweltmodell umfassen. Dabei werden in einer Ausführung in den ermittelten Teil-Umgebungs- bzw.
Umweltmodellen jeweils die Roboteranordnung oder ein Teil der Roboteranordnung lokalisiert, insbesondere in hier beschriebener Weise identifiziert, und die Teil- Umgebungs- bzw. Umweltmodelle dann auf Basis dieser Lokalisierungen zum
(Gesamt-)Umgebungs- bzw. Umweltmodell zusammengefügt, insbesondere (jeweils) in ein bzw. das gemeinsame(s) Referenz(koordinaten)system transformiert, wobei sich die (jeweilige) Transformation aus der Lokalisierung der Roboteranordnung in dem (jeweiligen) Teil-Umgebungs- bzw. Umweltmodell ergibt. In einer Ausführung werden die Teil-Umgebungs- bzw. Umweltmodelle so zusammengefügt, dass die in ihnen lokalisierten Roboteranordnungen übereinstimmen.
Weitere Vorteile und Merkmale ergeben sich aus den Unteransprüchen und den Ausführungsbeispielen. Hierzu zeigt, teilweise schematisiert: Fig. 1 : eine Roboteranordnung mit einem Roboterarm und einem Mittel zum Betreiben der Roboteranordnung nach einer Ausführung der vorliegenden Erfindung; und
Fig. 2: ein Verfahren zum Betreiben der Roboteranordnung nach einer
Ausführung der vorliegenden Erfindung.
Fig. 1 zeigt eine Roboteranordnung mit einem sechsachsigen Roboterarm 10, der in einer Roboterzelle 100 angeordnet ist, die durch Zellwände, beispielsweise Zäune 21 begrenzt ist.
In der Zelle 100 sind exemplarisch zwei Objekte 22, beispielsweise Tische, Regale, Werkzeugmaschinen, Fördereinrichtungen oder dergleichen angeordnet.
Eine Robotersteuerung 1 1 führt ein Verfahren zum Betreiben der Roboteranordnung nach einer Ausführung der vorliegenden Erfindung durch, das nachfolgend mit Bezug auf Fig. 2 erläutert wird.
In einem Schritt S10 wird eine dreidimensionale Umgebungskontur 1 10 der realen Umgebung in Form der Roboterzelle 100 mithilfe einer manuell durch einen Anwender geführten 3D-Kamera eines Smartphones 30 erfasst, die dieser hierzu verschwenkt und die entsprechende Daten drahtlos an die Robotersteuerung 1 1 übermittelt. In einer Abwandlung kann auch eine 2D-Kamera verwendet und die dreidimensionale Umgebungskontur beispielsweise über ein sogenanntes„structure from motion“- Verfahren berechnet werden.
Die erfasste Umgebungskontur 1 10 ist in Fig. 1 strichpunktiert angedeutet, wobei eine Abweichung dieser grob erfassten Umgebungskontur 1 10 von der realen Umgebung 100 schematisiert und übertrieben dadurch angedeutet ist, dass die erfassten
Umgebungskontur 1 10 teilweise innerhalb oder außerhalb der realen Umgebung 100 dargestellt ist.
In einem Schritt S20 identifiziert die Robotersteuerung 1 1 den Roboterarm 10 in der erfassten Umgebungskontur 1 10, was in Fig. 1 kreuzschraffiert angedeutet ist. Zusätzlich erfasst sie in Schritt S20 dessen Stellung auf Basis seiner erfasste Gelenk- bzw. Achswinkel.
In einem Schritt S30 ermittelt sie auf Basis der erfassten Umgebungskontur 1 10, des in dieser identifizierten Roboterarms 10 und seiner erfassten Stellung ein
Umgebungsmodell.
Hierzu entfernt sie aus der erfassten Umgebungskontur 1 10 den identifizierten Roboterarm 10.
Zudem identifiziert sie in der erfassten Umgebungskontur 1 10 geometrische Primitive. Exemplarisch ist hierzu ein Quader 120 schraffiert angedeutet, mit dem im
Umgebungsmodell das in Fig. 1 rechte Objekt 22 approximiert wird.
Außerdem richtet die Robotersteuerung 1 1 das Umgebungsmodell bzw. die erfasste Umgebungskontur 1 10 relativ zu einem roboterarmbasisfesten Koordinatensystem, bezüglich dem die Stellung des Roboterarms 10 auf Basis seiner erfassten Gelenk- bzw. Achswinkel erfasst worden ist, derart aus, dass die Stellung des in der erfassten Umgebungskontur 1 10 identifizierten Roboterarms 10 möglichst wenig von dieser auf Basis seiner erfassten Gelenk- bzw. Achswinkel erfassten Stellung abweicht.
Beispielsweise kann die Robotersteuerung 1 1 das Umgebungsmodell bzw. die erfasste Umgebungskontur 1 10 solange um eine zur Zeichenebene der Fig. 1 senkrechte Achse verdrehen und/oder in der Zeichenebene der Fig. 1 verschieben, bis die Orientierung bzw. Position von Schwinge und Hand des identifizierten
Roboterarms möglichst gut mit der Stellung von Schwinge und Hand entsprechend der erfassten Gelenk- bzw. Achswinkel übereinstimmt.
In einem Schritt S40 ermittelt die Robotersteuerung 1 1 auf Basis dieses grob ermittelten Umgebungsmodells, das seinerseits auf Basis der grob erfassten
Umgebungskontur 1 10 ermittelt worden ist, grob einen Freiraum 200, dessen Grenze 210 in Fig. 1 gestrichelt angedeutet ist. Wie daraus erkennbar, wird dieser Freiraum 200 auch durch den konstruktiv maximal möglichen Arbeitsraum 300 des Roboterarms limitiert, der in Fig. 1 punktiert angedeutet ist.
In einem Schritt S50 verfährt die Robotersteuerung 1 1 den Roboterarm 10 innerhalb dieses grob ermittelten Freiraums 200 dann, um mit einer robotergeführten 3D- Kamera 13 präzise eine Feinkontur 130 der Umgebung 100 zu erfassen, die im Rahmen der Zeichengenauigkeit der Fig. 1 mit der Umgebung 100 übereinstimmt und daher in Fig. 1 nicht separat erkennbar ist.
In einem Schritt S60 kann die Robotersteuerung 1 1 analog zu Schritt S30, S40 nun auf Basis der erfassten Feinkontur 130 ein (genaueres) Umweltmodell und/oder einen (genaueren) Kollisionsraum für den Roboterarm 10 ermitteln.
Alternativ zum Scannen der Umgebung 100 mit der robotergeführten 3D-Kamera 13 kann Schritt S60 auch entfallen und die Robotersteuerung 1 1 in Schritt S50 beispielsweise eine Rückzugbewegung des Roboterarms 10 aus einer
Kollisionssituation oder eine andere autonome Bewegungsfunktionalität auf Basis des grob ermittelten Freiraums 200 planen und steuern.
Obwohl in der vorhergehenden Beschreibung exemplarische Ausführungen erläutert wurden, sei darauf hingewiesen, dass eine Vielzahl von Abwandlungen möglich ist.
So kann insbesondere mehrfach jeweils eine Teil-Umgebungskontur erfasst und in dieser der Roboterarm lokalisiert werden, wobei diese gegeneinander versetzten Teil- Umgebungskonturen dann entsprechend des jeweils darin lokalisierten Roboterarms zu der bzw. einer Gesamt-Umgebungskontur zusammengefügt und hierzu
entsprechend aufeinander bzw. in ein gemeinsames Referenz(koordinaten)system transformiert werden. Außerdem sei darauf hingewiesen, dass es sich bei den exemplarischen
Ausführungen lediglich um Beispiele handelt, die den Schutzbereich, die
Anwendungen und den Aufbau in keiner Weise einschränken sollen. Vielmehr wird dem Fachmann durch die vorausgehende Beschreibung ein Leitfaden für die
Umsetzung von mindestens einer exemplarischen Ausführung gegeben, wobei diverse Änderungen, insbesondere in Hinblick auf die Funktion und Anordnung der beschriebenen Bestandteile, vorgenommen werden können, ohne den Schutzbereich zu verlassen, wie er sich aus den Ansprüchen und diesen äquivalenten
Merkmalskombinationen ergibt.
Bezuqszeichenliste
10 Roboterarm
1 1 Robotersteuerung
13 robotergeführter 3D-Sensor
21 Roboterzellenzaun
22 Objekt in Roboterzelle
30 handgeführte 3D-Kamera
100 Umgebung
1 10 erfasste Umgebungskontur
120 geometrisches Primitiv
130 erfasste Feinkontur
200 Freiraum
210 Freiraumgrenze
300 Arbeitsraum(grenze)

Claims

Patentansprüche
1. Verfahren zum Betreiben einer Roboteranordnung mit wenigstens einem
Roboterarm (10), mit den Schritten:
- Erfassen (S10) einer dreidimensionalen Umgebungskontur (1 10) einer realen Umgebung (100) der Roboteranordnung;
- Ermitteln (S30) eines Umgebungsmodells und/oder eines Freiraums (200) für den Roboterarm auf Basis der erfassten Umgebungskontur; und
- Betreiben (S50) der Roboteranordnung auf Basis des ermittelten
Umgebungsmodells und/oder Freiraums.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Umgebungskontur berührungslos, insbesondere optisch, und/oder mithilfe wenigstens eines Sensors, insbesondere 2D- oder 3D-Sensors, insbesondere einer 2D- oder 3D-Kamera (30), erfasst wird.
3. Verfahren nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, dass der Sensor (30) zum Erfassen manuell geführt, insbesondere verschwenkt, wird und/oder drahtlos oder über wenigstens eine Leitung mit einem
Verarbeitungsmittel zum Ermitteln des Umgebungsmodells und/oder Freiraums kommuniziert und/oder an einem Handheld, insbesondere einem Smartphone, angeordnet ist.
4. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch
wenigstens einen der Schritte:
- Identifizieren (S20) wenigstens eines roboterarmfesten Elements,
insbesondere eines robotergeführten Werkzeugs (13) und/oder des
Roboterarms (10), in der erfassten Umgebungskontur (1 10); und/oder
- Erfassen (S20) einer Stellung des Roboterarms (10),
wobei das Umgebungsmodell und/oder der Freiraum auf Basis der Identifikation des roboterarmfesten Elements und/oder der erfassten Stellung ermittelt wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch den Schritt: - Erfassen (S50) einer dreidimensionalen Feinkontur (130) der realen
Umgebung (100) der Roboteranordnung nach dem Erfassen der
Umgebungskontur (1 10);
wobei die Feinkontur mit höherer Genauigkeit und/oder langsamer als die
Umgebungskontur und/oder mithilfe wenigstens eines robotergeführten Sensors (13) erfasst und die Roboteranordnung auf Basis der ermittelten Feinkontur betrieben, insbesondere ein Umweltmodell und/oder ein Kollisionsraum für den Roboterarm ermittelt wird (S60).
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Umgebungsmodell und/oder der Freiraum
- auf Basis von, insbesondere unabhängig von a priori bekannten Objekten in der Umgebung des Roboterarms, vorgegebenen geometrischen Objekten, insbesondere Primitiven (120);
- auf Basis eines Arbeitsraums (300) des Roboterarms; und/oder
- auf Basis einer Verbindung und/oder Approximation erfasster Punkte in der
Umgebung
ermittelt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf Basis des ermittelten Umgebungsmodells und/oder Freiraums und/oder der ermittelten Feinkontur eine Bewegung der Roboteranordnung, insbesondere eine Arbeitsbewegung zum Ausführen eines Arbeitsprozesses, eine
Rückzug beweg ung aus einer Fehlerpose und/oder eine Suchbewegung zum Erfassen der Feinkontur mithilfe des robotergeführten Sensors, vorgegeben, gesteuert und/oder überwacht wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die reale Umgebung der Roboteranordnung einen Arbeitsplatz, insbesondere eine Roboterzelle (100), aufweist, wobei der Roboterarm beim Erfassen der Umgebungskontur an dem Arbeitsplatz angeordnet ist oder die Umgebungskontur ohne den Roboterarm erfasst wird.
9. Mittel (1 1 , 30) zum Betreiben einer Roboteranordnung mit wenigstens einem Roboterarm (10), das zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist und/oder aufweist:
- Erfassungsmittel (30) zum Erfassen einer dreidimensionalen
Umgebungskontur (1 10) einer realen Umgebung (100) der Roboteranordnung;
- Verarbeitungsmittel (1 1 ) zum Ermitteln eines Umgebungsmodells und/oder eines Freiraums (200) für den Roboterarm auf Basis der erfassten
Umgebungskontur; und
- Mittel (1 1 ) zum Betreiben der Roboteranordnung auf Basis des ermittelten Umgebungsmodells und/oder Freiraums.
10. Roboteranordnung mit einem Roboterarm (10) und einem Mittel (1 1 , 30) zum
Betreiben der Roboteranordnung nach einem der vorhergehenden Ansprüche.
1 1 . Computerprogrammprodukt mit einem Programmcode, der auf einem von einem Computer lesbaren Medium gespeichert ist, zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
PCT/EP2018/076216 2017-11-17 2018-09-27 Verfahren und mittel zum betreiben einer roboteranordnung Ceased WO2019096479A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017010718.1A DE102017010718A1 (de) 2017-11-17 2017-11-17 Verfahren und Mittel zum Betreiben einer Roboteranordnung
DE102017010718.1 2017-11-17

Publications (1)

Publication Number Publication Date
WO2019096479A1 true WO2019096479A1 (de) 2019-05-23

Family

ID=63720677

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/076216 Ceased WO2019096479A1 (de) 2017-11-17 2018-09-27 Verfahren und mittel zum betreiben einer roboteranordnung

Country Status (2)

Country Link
DE (1) DE102017010718A1 (de)
WO (1) WO2019096479A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112171671A (zh) * 2020-09-23 2021-01-05 中国铁建重工集团股份有限公司 工程车辆、机械臂与柔性管路的干涉检测方法及系统
CN114390963A (zh) * 2019-09-06 2022-04-22 罗伯特·博世有限公司 用于工业机器人的标定方法及装置、三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台
CN116745083A (zh) * 2020-12-21 2023-09-12 发那科株式会社 安全视觉装置以及安全视觉系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202019003026U1 (de) * 2019-07-19 2019-08-12 lndustrie-Partner GmbH Radebeul-Coswig Roboterzelle zum Einsatz an Werkzeugmaschinen und/oder Montageautomaten
EP3865257A1 (de) 2020-02-11 2021-08-18 Ingenieurbüro Hannweber GmbH Einrichtung und verfahren zur überwachung und steuerung eines technischen arbeitssystems
WO2023174875A1 (de) * 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Planen einer bahn eines roboters
DE102023200928A1 (de) * 2023-02-06 2024-08-08 Kuka Deutschland Gmbh Ermittlung eines von einem Roboter nutzbaren oder für einen Roboter gesperrten Raums
DE102023118992B3 (de) 2023-07-18 2024-08-29 Hochschule Bielefeld, Körperschaft des Öffentlichen Rechts System und Verfahren zur Eingabe von virtuellen Objekten in drei Dimensionen mittels Augmented Reality zum Ermitteln des Bewegungsraums für Roboter

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
DE102006005958A1 (de) * 2006-02-08 2007-08-16 Kuka Roboter Gmbh Verfahren zum Erzeugen eines Umgebungsbildes
DE102007007576A1 (de) * 2007-02-15 2008-08-21 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Sichern eines Arbeitsraums
WO2017121642A1 (de) * 2016-01-15 2017-07-20 Kuka Roboter Gmbh Roboteranordnung mit handheld

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1906281B1 (de) * 2006-09-30 2011-04-06 ABB Technology AG Verfahren und System zur Auslegung und Überprüfung von Sicherheitsbereichen eines Roboters
EP2048557B1 (de) * 2007-10-11 2013-03-27 Sick Ag Optoelektronischer Sensor und mobile Vorrichtung sowie Verfahren zur Konfiguration
JP6123307B2 (ja) * 2013-01-23 2017-05-10 株式会社デンソーウェーブ ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
DE202013104264U1 (de) * 2013-09-18 2015-01-09 Daimler Ag Arbeitsstation
DE102013110901B4 (de) * 2013-10-01 2022-11-10 Mercedes-Benz Group AG MRK Planungstechnologie
DE202014100411U1 (de) * 2014-01-30 2015-05-05 Kuka Systems Gmbh Sicherheitseinrichtung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
DE102006005958A1 (de) * 2006-02-08 2007-08-16 Kuka Roboter Gmbh Verfahren zum Erzeugen eines Umgebungsbildes
DE102007007576A1 (de) * 2007-02-15 2008-08-21 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Sichern eines Arbeitsraums
WO2017121642A1 (de) * 2016-01-15 2017-07-20 Kuka Roboter Gmbh Roboteranordnung mit handheld

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
OLESYA OGORODNIKOVA: "Human Robot Interaction: The Safety Challenge (An integrated frame work for human safety)", 10 January 2010 (2010-01-10), pages 1 - 114, XP055177445, Retrieved from the Internet <URL:http://www.omikk.bme.hu/collections/phd/Gepeszmernoki_Kar/2010/Ogorodnikova_Olesya/ertekezes.pdf> [retrieved on 20150318] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114390963A (zh) * 2019-09-06 2022-04-22 罗伯特·博世有限公司 用于工业机器人的标定方法及装置、三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台
CN112171671A (zh) * 2020-09-23 2021-01-05 中国铁建重工集团股份有限公司 工程车辆、机械臂与柔性管路的干涉检测方法及系统
CN116745083A (zh) * 2020-12-21 2023-09-12 发那科株式会社 安全视觉装置以及安全视觉系统

Also Published As

Publication number Publication date
DE102017010718A1 (de) 2019-05-23

Similar Documents

Publication Publication Date Title
WO2019096479A1 (de) Verfahren und mittel zum betreiben einer roboteranordnung
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
EP1521211B1 (de) Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
EP1602456B1 (de) Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten
EP1681111B1 (de) Verfahren zum Betrieb einer Fertigungseinrichtung
EP2216144B1 (de) Verfahren und System zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung
DE102020130520A1 (de) Verfahren zum steuern eines roboters in gegenwart menschlicher bediener
EP3324362B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
DE102019212452A1 (de) Interferenzvermeidungsvorrichtung und Robotersystem
DE102010007025A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
EP3221094B1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
EP3664973B1 (de) Handhabungsanordnung mit einer handhabungseinrichtung zur durchführung mindestens eines arbeitsschritts sowie verfahren und computerprogramm
DE102018125841B4 (de) Roboter, Robotersystem und Verfahren zum Festlegen eines Koordinatensystems eines Roboters
DE112021001173T5 (de) Entgratungsvorrichtung und Steuerungssystem
WO2023174875A1 (de) Planen einer bahn eines roboters
EP3323565B1 (de) Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
EP3812106B1 (de) Roboteranordnung, verfahren zum betreiben der roboteranordnung, computerprogramm sowie maschinenlesbares speichermedium
DE102018205669B4 (de) Aufnehmen von Nutzlasten mittels eines robotergeführten Werkzeugs
WO2017191029A1 (de) Mobiles messsystem
DE102014100538B4 (de) Verfahren zum Kalibrieren eines Roboters und einer Kamera und System zum Durchführen des Verfahrens
DE102010007027A1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE102022126199B4 (de) Unterbetätigtes Fügesystem für sich bewegende Montagelinie
DE102022202563B3 (de) Planen einer Bahn eines Roboters
EP2353800B1 (de) Verfahren und Vorrichtung zur Überwachung eines Manipulatorraumes
DE112021003175B4 (de) Robotervorrichtung zur erkennung der störungen eines roboterbauteils

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18780079

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18780079

Country of ref document: EP

Kind code of ref document: A1