WO2025149480A1 - Accurate application of liquids to a target object in an agricultural field - Google Patents
Accurate application of liquids to a target object in an agricultural fieldInfo
- Publication number
- WO2025149480A1 WO2025149480A1 PCT/EP2025/050242 EP2025050242W WO2025149480A1 WO 2025149480 A1 WO2025149480 A1 WO 2025149480A1 EP 2025050242 W EP2025050242 W EP 2025050242W WO 2025149480 A1 WO2025149480 A1 WO 2025149480A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- time
- nozzle
- target object
- computing
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M7/00—Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
- A01M7/0089—Regulating or controlling systems
Definitions
- precision agriculture refers to methods of site-specific and targeted management of agricultural land.
- One task in precision agriculture is to detect objects such as plants, pests, or companion plants in a digitally recorded image, then make a diagnosis, and then perform an action (e.g., treatment).
- An example of such a task is "ultra-high-precision spraying" (UHPS), in which a tractor drives across a planted field and takes consecutive images of the agricultural field with the attached spray device.
- UHPS ultra-high-precision spraying
- the companion plants for example, are identified in the images and then sprayed with a herbicide using a spray boom in a single treatment step.
- UHPS One challenge with UHPS is scheduling and activating the nozzles at the right time and in the right place, as it must be ensured that the precision of the fluid application to the target objects in the agricultural field is aligned to hit the target object as accurately as possible.
- UHPS with an accuracy of up to 4 cm x 4 cm
- a first object of the present invention is a device for applying a liquid to at least part of a target object in an agricultural field, comprising a computing and control unit, at least one reservoir for receiving the liquid, at least one nozzle,
- a further subject matter of the present disclosure is a method for applying a liquid to at least part of a target object in an agricultural field, comprising steps (1) to (3): in step (1) moving a device for applying a liquid to at least part of a target object in an agricultural field, in step (2) conveying a liquid from at least one storage container in the direction of at least one nozzle during the movement, in step (3a) causing at least one sensor unit to generate at least one image at time t1 and to forward this at least one image to the computing and control unit, in step (3b) causing at least one position determination unit to determine the position of the at least one sensor unit at time t1 and to forward this position data to the computing and control unit, in step (3c) determining at least part of a target object - if present - on the at least one image by image processing and georeferencing the at least part of the target object using the position data of the at least one sensor unit from time t1 in order to determine the distance Sj from the at least one nozzle to the to determine at least a part of
- the present invention discloses a device for applying a liquid to at least a portion of a target object in an agricultural field.
- the liquid can be applied to at least a portion of a target object in an agricultural field.
- the liquid can be applied to substantially the entire target object. It is also possible for the liquid to be applied to multiple target objects.
- the liquid may be water or an aqueous solution or suspension.
- the aqueous solution or suspension may contain one or more nutrients and/or one or more crop protection agents and/or one or more seed treatment agents.
- plant protection product refers to a product used to protect plants or plant products from pests or to prevent their effects, to destroy undesirable plants or parts of plants, to inhibit or prevent undesirable plant growth, and/or to influence plant life processes in a manner other than by providing nutrients (e.g., growth regulators).
- plant protection products include herbicides, fungicides, and other pesticides (e.g., insecticides).
- target object describes one or more plants, one or more areas of a field, pests or other objects.
- target object describes one or more plants.
- the target object is located on the ground or near the ground.
- at least a part of a target object preferably describes a part (e.g. a leaf, leaf section, stem, stem section, etc.) of one or more several plants or one or more pests.
- the target objects are individual crop plants or (individual) parts of individual crop plants or individual groups of crop plants.
- the target objects are individual seeds or groups of seeds that are and/or have been sown in a field for crop plants.
- the target objects are one or more companion plants or (individual) parts of individual companion plants or individual groups of companion plants.
- the target objects are plant components that are infested with pests.
- pests can be animal pests, fungi, viruses or bacteria.
- cultiva plant refers to a plant that is purposefully cultivated as a useful or ornamental plant through human intervention.
- weeds refers to plants of the spontaneous accompanying vegetation (segetal flora) in crop stands, grassland or gardens, which are not deliberately cultivated there and develop, for example, from the seed potential of the soil or via migration.
- Agricultural field refers to a spatially definable area of the earth’s surface that is used for agricultural purposes, in which crops are planted, possibly supplied with nutrients and harvested.
- processing and control unit refers to components of a computer or processor that perform arithmetic and logical operations, as well as control sequences of instructions and operations.
- CPU Central Processing Unit
- the liquid is conveyed from the at least one storage container toward the at least one nozzle by means of conveying equipment.
- a pump for example, can be used to convey the liquid.
- the device according to the invention comprises at least one sensor unit.
- a sensor unit comprises at least one sensor.
- a “sensor” is a technical component that can detect certain physical and/or chemical properties and/or the material properties of its environment qualitatively or quantitatively as a measured variable. These variables are detected by means of physical or chemical effects and converted into a further processable, usually electrical or optical signal.
- a sensor unit can contain means for processing signals provided by the at least one sensor.
- a sensor unit can comprise means for transmitting and/or forwarding signals and/or information (e.g., to the control unit).
- the one or more sensor units can be part of the system and/or connected to it via a communication link (e.g., via radio).
- the one or more sensor units can be configured to transmit one or more signals to the computing and control unit continuously or at defined time intervals or upon the occurrence of defined events, on the basis of which signals the computing and control unit carries out the further steps, for example to plan the activation time of the spraying process for the at least one nozzle.
- the at least one sensor unit which can be aligned toward a target object in the direction of the agricultural field, preferably comprises one or more cameras.
- the camera axis of the at least one camera as a component of the device according to the invention can preferably be aligned substantially perpendicular (vertical) to the ground (i.e., the at least one camera points "down” or "straight ahead” with respect to the ground).
- the at least one camera is located (in the direction of travel) in front of the at least one spray unit. This distance is preferably between 30 cm and 100 cm, more preferably between 40 and 60 cm.
- the camera used according to the invention can comprise an image sensor and optical elements.
- the position data determination was carried out using visual odometry and at time t t ,i it is determined that the signal strength of the GNSS receiver has now reached the threshold level, the position data determination for time t i:1 will be carried out by the GNSS receiver. During the next iteration, it will be checked again whether the signal strength is sufficient to use the GNSS receiver or whether it is necessary to switch back to visual odometry. The switching between the two positioning units therefore takes place Preferably as seamlessly as possible to ensure uninterrupted positioning.
- the first attempt is to determine the position using at least one GNSS receiver.
- Such a method can be performed using a different positioning unit technology, such as radar (see above), instead of visual odometry. The method is explained in more detail below using visual odometry.
- the visual odometry technology may include additional sensor units to improve the accuracy of positioning using sensor fusion.
- additional sensor units include, for example, inertial sensors such as gyroscopes and accelerometers. Precise calibration of at least one camera and any additional sensor units is required to ensure accurate positioning.
- the computing and control unit is configured to cause the at least one sensor unit to generate at least one image at each time point t and tu, wherein the time interval between t and tu is selected to be so short that the images overlap (step (a' )), wherein the computing and control unit is configured to determine at time point tt, 2 - and deviating from the steps described in bullet points (c) and (e) to (g) - in the alternative steps (c'), (e') and (f) - at least partly on the basis of these images at least one of the data selected from the group of distance S ii2 from the at least one nozzle to the at least part of the target object at time point t ii2 , speed Vi,i of the at least one nozzle at time point and direction r iti of the at least one nozzle at time point tj,i.
- the computing and control unit is further configured (in alternative step (g)) to plan the activation time of the spraying process for the at least one nozzle onto at least a part of a target object at least partially based on the distance .SA from the at least one nozzle to the at least a part of the target object at time tt, 2 and the speed Vt,i and direction ii of the at least one nozzle at time t i:1 .
- the computing and control unit is configured to activate the at least one nozzle at least partially based on the planned activation time of the spraying process in step (g') and to apply the liquid to the at least a part of the target object.
- the computing and control unit is configured (in alternative step (c ')) to detect coincidences between the recordings from the times t i,i and (in alternative step (e )) to calculate the relative image movement and the rotation angle on the basis of these data.
- the computing and control unit is configured to detect at least one matching pixel movement (preferably at least one pixel of at least part of a target object) of the current (7) image in comparison to the image from the previous iteration (z-7). This procedure is called "image registration" in computer vision.
- the relative movement and the rotation of this at least one matching pixel can, for example, be recorded using a Transformation matrix can be determined.
- the computing and control unit is configured to determine, on the basis of the determined relative movement and the angle of rotation, at least one of the data selected from the group of: the distance .SA from the at least one nozzle to the at least one part of the target object at time tt,2, speed Vt,i of the at least one nozzle at time tt,i, direction rt,i of the at least one nozzle at time ti,i.
- the distance St, 2 at time tt,2 can be determined, for example, via the intermediate step using formula (3):
- Sc stands for the position of the at least one nozzle at time A2, Vi,i for the speed of the at least one nozzle at time tt,i.
- the time t t ,i describes the time of the recording by the camera (bullet point (a ⁇ ) for the device and step (3a ,) in the method) in iteration i.
- the time t i: 2 stands for the time after the image processing (after the steps according to bullet point (c ⁇ ), (e ⁇ ) for the device and (3c',), (3e',) in the method) in iteration i (ie a time in step f in iteration 7).
- the distance .SA can be determined via S c and the calculated rotation angle.
- the speed v, from the time point can be determined, for example, by the formula (4): where Vi is the speed of at least one nozzle at the time and ⁇ z is the relative image movement (determined by image analysis).
- the denominator of formula (3) is the time difference between the two images from time t i:1 and time ti, 1 has the same
- the time -7,7 describes the time of the camera recording (bullet point (a ,.;) in the device and step (3a' w) in the method) in iteration i-1.
- the time interval between A-7,7 and A,i is chosen so short that the recordings overlap.
- Figure 1 shows the device (10) for applying a liquid (F) to at least part of a target object (PI) in an agricultural field (LF).
- the device (10) comprises a computing and control unit (11), at least one reservoir (12) for receiving the liquid (F), at least one nozzle (13), at least one position-determining unit (14), means (15) for conveying the liquid (F) from the at least one reservoir (12) in the direction of the at least one nozzle (13), and at least one sensor unit (16) oriented toward a target object (PI) in the direction of the agricultural field (F).
- the device (10) is moving toward the target object (PI) (i.e., to the left), and the at least one sensor unit (16) is located in front of the at least one nozzle (13) in the direction of movement.
- the direction of the nozzle (13) is shown obliquely relative to the soil surface. However, the direction of the nozzle (13) can also be directed straight downwards relative to the soil surface.
- Figure 2 schematically shows steps (a) to (g) or optionally (h) coordinated by the computing and control unit (11). This corresponds to steps 3a to 3g or optionally 3h in the method according to the invention.
- the computing and control unit (11) is configured to cause the at least one sensor unit (16) to generate at least one image at time L and to receive this at least one image (in Figure 2, the image is shown as a rectangle with a plant).
- the computing and control unit (11) is configured to cause the at least one position-determining unit (14) to determine the position of the at least one nozzle (13) at time tj and to receive this position data (in Figure 2, this is schematically shown with a reduced version of the device (10) from Figure 1 and a small crosshair for acquiring the position data at time L).
- the computing and Control unit (11) configured to cause the at least one position-determining unit (14) to determine the position of the at least one nozzle (13) at time t 2 and to receive this position data, wherein time t 2 is a later time than ti (in Figure 2 this is shown schematically analogously to step (b), but at time fe).
- the computing and control unit (11) is configured to determine the distance S 2 from the at least one nozzle (13) to the at least one part of the target object based on the position data of the at least one nozzle (13) at time t 2 and the position data of the at least one georeferenced part of the target object on the image at time ti.
- the computing and control unit (11) is configured to determine the speed v 2 and direction r 2 of the at least one nozzle (13) from time t 2 at least partially based on the position data of the at least one nozzle (13) from time t 1 and from time t 2 ( Figure 2 schematically shows a smaller version of the device (10), but the position of the at least one nozzle (13) is relevant).
- the computing and control unit (11) is configured to (g) plan the activation time of the spraying process for the at least one nozzle (13) onto at least a part of the target object (PI) at least partially based on the distance S 2 from the at least one nozzle (13) to the at least a part of the target object (PI) from time t 2 and the speed v 2 and direction r 2 of the at least one nozzle (13) from time t 2 ( Figure 2 schematically shows a plan for this process).
- the computing and control unit (11) is configured to activate the at least one nozzle (13) at least partially based on the planned activation time of the spraying process and to apply the liquid (F) to at least a part of the target object (PI).
- Figure 3 schematically shows the steps (a) to (g) or optionally (h) or (a ), (b), (c'), (d), (e'), (f ) and (g') and optionally (h') coordinated by the computing and control unit (11) in three successive iterative cycles i-1, i and i+1.
- steps (a, /) to (gz-y) or optionally (h z -y) are carried out.
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Insects & Arthropods (AREA)
- Pest Control & Pesticides (AREA)
- Wood Science & Technology (AREA)
- Zoology (AREA)
- Environmental Sciences (AREA)
- Catching Or Destruction (AREA)
Abstract
Description
Zielgenaue Applikation von Flüssigkeiten auf ein Zielobjekt in einem landwirtschaftlichen Feld Precise application of liquids to a target object in an agricultural field
Die vorliegende Offenbarung betrifft das technische Gebiet der Präzisionslandwirtschaft. Gegenstände der vorliegenden Erfindung sind eine Vorrichtung und ein Verfahren zur präzisen Ausbringung einer Flüssigkeit auf ein Zielobjekt in einem landwirtschaftlichen Feld. The present disclosure relates to the technical field of precision agriculture. The present invention relates to a device and a method for precisely applying a liquid to a target object in an agricultural field.
Unter dem Begriff Präzisionslandwirtschaft werden Verfahren der ortsdifferenzierten und zielgerichteten Bewirtschaftung landwirtschaftlicher Nutzflächen verstanden. The term precision agriculture refers to methods of site-specific and targeted management of agricultural land.
Eine Aufgabe in der Präzisionslandwirtschaft ist es, Objekte wie Pflanzen, Schädlinge oder Begleitpflanzen auf einem digital aufgenommenen Bild zu erkennen, dann eine Diagnose zu stellen und danach eine Aktion (z.B. Behandlung) durchzufuhren. Ein Beispiel für eine solche Aufgabe ist das „ Ultra-High-Precision-Spraying“ (UHPS), bei der mit einem Traktor über ein bepflanztes Feld gefahren wird und mit der angehängten Sprühvorrichtung aufeinanderfolgende Aufnahmen vom landwirtschaftlichen Feld gemacht werden. Durch Bildverarbeitungsalgorithmen werden beispielsweise die Begleitpflanzen auf den Aufnahmen identifiziert und dann in einem Behandlungsschritt mittels eines Sprühbalkens mit einem Herbizid besprüht. One task in precision agriculture is to detect objects such as plants, pests, or companion plants in a digitally recorded image, then make a diagnosis, and then perform an action (e.g., treatment). An example of such a task is "ultra-high-precision spraying" (UHPS), in which a tractor drives across a planted field and takes consecutive images of the agricultural field with the attached spray device. Using image processing algorithms, the companion plants, for example, are identified in the images and then sprayed with a herbicide using a spray boom in a single treatment step.
Dieser Typ von Aufgabe macht es erforderlich, einmal erkannte Zielobjekte wie Begleitpflanzen von der aktuellen Position auf dem während der Fahrt aufgenommenen Aufnahmen nachzuverfolgen, bis sich der Sprühbalken durch die Traktorbewegung kurz vor einem zu behandelnden Zielobjekt befindet, um dann im richtigen Moment ein oder mehrere Düsen zu öffnen, z.B. ein Herbizid zu sprühen und nach der erforderlichen Öffnungszeit wieder zu schließen. This type of task requires tracking target objects such as companion plants once they have been detected from the current position on the images taken while driving until the spray boom, due to the tractor movement, is just in front of a target object to be treated, in order to then open one or more nozzles at the right moment, e.g. to spray a herbicide, and close them again after the required opening time.
Eine Herausforderung stellt bei UHPS die Planung und Aktivierung der Düsen zum richtigen Zeitpunkt und am richtigen Ort dar, denn es muß gewährleistet werden, daß die Präzision der Applikation der Flüssigkeit auf die Zielobjekte auf dem landwirtschaftlichen Feld darauf ausgerichtet ist, das Zielobjekt möglichst genau zu treffen. Für ein UHPS mit einer Treffgenauigkeit von bis 4 cm x 4 cm sind sehr präzise Düsenaktivierungzeitplannungen notwendig, denn wenn ein Traktor z.B. mit einer Geschwindigkeit von 10 km/h fährt, legt er bereits eine Wegstrecke (pro Zeiteinheit) von ca. 278 cm/Sekunde = ca. 2,8 mm/Millisekunde zurück. Wenn man kleine Zielobjekte mit Durchmessern im cm-Bereich treffen möchte, muß man daher die Öffnungszeiten auf die Millisekunde genau berechnen.One challenge with UHPS is scheduling and activating the nozzles at the right time and in the right place, as it must be ensured that the precision of the fluid application to the target objects in the agricultural field is aligned to hit the target object as accurately as possible. For a UHPS with an accuracy of up to 4 cm x 4 cm, very precise nozzle activation scheduling is necessary. If a tractor, for example, is traveling at a speed of 10 km/h, it already covers a distance (per unit of time) of approximately 278 cm/second = approximately 2.8 mm/millisecond. Therefore, if you want to hit small target objects with diameters in the cm range, you have to calculate the opening times to the millisecond.
Diese und weitere Herausforderungen werden durch die Gegenstände der unabhängigen Patentansprüche gelöst. Bevorzugte Ausführungsformen finden sich in den abhängigen Patentansprüchen, der vorliegenden Beschreibung und in den Zeichnungen. These and other challenges are addressed by the subject matter of the independent claims. Preferred embodiments can be found in the dependent claims, the present description, and the drawings.
Ein erster Gegenstand der vorliegenden Erfindung ist eine Vorrichtung zum Ausbringen einer Flüssigkeit auf zumindest einen Teil eines Zielobjekts in einem landwirtschaftlichen Feld umfassend eine Rechen- und Steuereinheit, mindestens einen Vorratsbehälter zur Aufnahme der Flüssigkeit, mindestens eine Düse, A first object of the present invention is a device for applying a liquid to at least part of a target object in an agricultural field, comprising a computing and control unit, at least one reservoir for receiving the liquid, at least one nozzle,
Mittel zur Förderung der Flüssigkeit von dem mindestens einen Vorratsbehälter in Richtung der mindestens einen Düse, mindestens eine Sensoreinheit, die in Richtung des landwirtschaftlichen Feldes auf ein Zielobjekt ausgerichtet werden kann, und konfiguriert ist mindestens eine Aufnahme zu erzeugen, mindestens eine Positionsbestimmungseinheit, wobei die Rechen- und Steuereinheit konfiguriert ist, (a) die mindestens eine Sensoreinheit zu veranlassen am Zeitpunkt 0 mindestens eine Aufnahme zu erzeugen und diese mindestens eine Aufnahme zu empfangen, wobei die Rechen- und Steuereinheit konfiguriert ist, (b) die mindestens eine Positionsbestimmungseinheit zu veranlassen am Zeitpunkt ti die Position der mindestens einen Sensoreinheit zu bestimmen und diese Positionsdaten zu empfangen, wobei die Rechen- und Steuereinheit konfiguriert ist, (c) durch Bildverarbeitung mindestens einen Teil eines Zielobjekts - falls vorhanden - auf der mindestens einen Aufnahme zu bestimmen und zumindest einen Teil dieses Zielobjekts unter Verwendung der Positionsdaten der mindestens einen Sensoreinheit vom Zeitpunkt ti zu georeferenzieren, um den Abstand Sj von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts auf der Aufnahme vom Zeitpunkt ti zu bestimmen, wobei die Rechen- und Steuereinheit konfiguriert ist, (d) die mindestens eine Positionsbestimmungseinheit zu veranlassen am Zeitpunkt t2 die Position der mindestens einen Düse zu bestimmen und diese Positionsdaten zu empfangen, wobei der Zeitpunkt t2 ein späterer Zeitpunkt als ti ist, wobei die Rechen- und Steuereinheit konfiguriert ist, (e) den Abstand S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts anhand der Positionsdaten der mindestens einen Düse vom Zeitpunkt t2 und den Positionsdaten des mindestens einen georeferenzierten Teils des Zielobjektes auf der Aufnahme vom Zeitpunkt ti zu bestimmen, wobei die Rechen- und Steuereinheit konfiguriert ist, (f) die Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse vom Zeitpunkt t2 zumindest teilweise auf Basis der Positionsdaten der mindestens einen Düse vom Zeitpunkt ti und vom Zeitpunkt / Z11 bestimmen, wobei die Rechen- und Steuereinheit konfiguriert ist, (g) den Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil des Zielobjekts zumindest teilweise auf Basis des Abstands S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt 6 und der Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse vom Zeitpunkt t2 zu planen. Means for conveying the liquid from the at least one reservoir towards the at least one nozzle, at least one sensor unit which can be directed towards a target object in the direction of the agricultural field and is configured to generate at least one image, at least one position determination unit, wherein the computing and control unit is configured to (a) cause the at least one sensor unit to generate at least one image at time 0 and to receive this at least one image, wherein the computing and control unit is configured (b) to cause the at least one position-determining unit to determine the position of the at least one sensor unit at time t1 and to receive these position data, wherein the computing and control unit is configured (c) to determine at least a part of a target object - if present - on the at least one image by image processing and to georeference at least a part of this target object using the position data of the at least one sensor unit from time t1 in order to determine the distance Sj from the at least one nozzle to the at least a part of the target object on the image from time t1, wherein the computing and control unit is configured (d) to cause the at least one position-determining unit to determine the position of the at least one nozzle at time t2 and to receive these position data, wherein time t2 is a later time than time t1, wherein the computing and control unit is configured (e) to determine the distance S2 from the at least one nozzle to the at least a part of the target object based on the position data of the at least one nozzle from time t 2 and the position data of the at least one georeferenced part of the target object on the recording from time t 1, wherein the computing and control unit is configured (f) to determine the speed v 2 and direction r 2 of the at least one nozzle from time t 2 at least partially based on the position data of the at least one nozzle from time t 1 and from time / Z11, wherein the computing and control unit is configured (g) to plan the activation time of the spraying process for the at least one nozzle on at least a part of the target object at least partially based on the distance S 2 from the at least one nozzle to the at least a part of the target object from time t 1 and the speed v 2 and direction r 2 of the at least one nozzle from time t 2 .
Ein weiterer Gegenstand der vorliegenden Offenbarung ist ein Verfahren zum Ausbringen einer Flüssigkeit auf zumindest einen Teil eines Zielobjekts in einem landwirtschaftlichen Feld umfassend die Schritte (1) bis (3): in Schritt (1) Bewegen einer Vorrichtung zum Ausbringen einer Flüssigkeit auf zumindest einen Teil eines Zielobjekts in einem landwirtschaftlichen Feld, in Schritt (2) Fördern einer Flüssigkeit aus mindestens einem Vorratsbehälter in Richtung mindestens einer Düse während des Bewegens, in Schritt (3a) Veranlassen, dass mindestens eine Sensoreinheit am Zeitpunkt ti mindestens eine Aufnahme erzeugt und diese mindestens eine Aufnahme an die Rechen- und Steuereinheit weiterleitet, in Schritt (3b) Veranlassen, dass mindestens eine Positionsbestimmungseinheit am Zeitpunkt ti die Position der mindestens einen Sensoreinheit bestimmt und diese Positionsdaten an die Rechen- und Steuereinheit weiterleitet, in Schritt (3c) Bestimmen von mindestens einem Teil eines Zielobjekts - falls vorhanden - auf der mindestens einen Aufnahme durch Bildverarbeitung und Georeferenzieren des mindestens einen Teils des Zielobjektes unter Verwendung der Positionsdaten der mindestens einen Sensoreinheit vom Zeitpunkt ty, um den Abstand Sj von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts auf der Aufnahme vom Zeitpunkt ti zu bestimmen, in Schritt (3d) Veranlassen, dass die mindestens eine Positionsbestimmungseinheit am Zeitpunkt t2 die Position der mindestens einen Düse bestimmt und diese Positionsdaten an die Rechen- und Steuereinheit weiterleitet, wobei der Zeitpunkt t2 ein späterer Zeitpunkt als ti ist, in Schrit (3e) Bestimmen des Abstand S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts anhand der Positionsdaten der mindestens einen Düse vom Zeitpunkt t2 und der Positionsdaten des mindestens einen georeferenzierten Teils des Zielobjektes auf der Aufnahme vom Zeitpunkt ti, in Schrit (3f) Bestimmen der Geschwindigkeit v2 und der Richtung r2 der mindestens einen Düse vom Zeitpunkt t2 zumindest teilweise auf Basis der Positionsdaten der mindestens einen Düse vom Zeitpunkt ti und vom Zeitpunkt t2, in Schrit (3g) Planung des Aktivierungszeitpunktes des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil des Zielobjekts zumindest teilweise auf Basis des Abstands S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt / ind der Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse vom Zeitpunkt t2. A further subject matter of the present disclosure is a method for applying a liquid to at least part of a target object in an agricultural field, comprising steps (1) to (3): in step (1) moving a device for applying a liquid to at least part of a target object in an agricultural field, in step (2) conveying a liquid from at least one storage container in the direction of at least one nozzle during the movement, in step (3a) causing at least one sensor unit to generate at least one image at time t1 and to forward this at least one image to the computing and control unit, in step (3b) causing at least one position determination unit to determine the position of the at least one sensor unit at time t1 and to forward this position data to the computing and control unit, in step (3c) determining at least part of a target object - if present - on the at least one image by image processing and georeferencing the at least part of the target object using the position data of the at least one sensor unit from time t1 in order to determine the distance Sj from the at least one nozzle to the to determine at least a part of the target object on the image from time t 1, in step (3d) causing the at least one position determination unit to determine the position of the at least one nozzle at time t 2 and to forward this position data to the computing and control unit, wherein time t 2 is a later time than t 1, in step (3e) determining the distance S 2 from the at least one nozzle to the at least one part of the target object based on the position data of the at least one nozzle from time t 2 and the position data of the at least one georeferenced part of the target object on the image from time t 1 , in step (3f) determining the speed v 2 and the direction r 2 of the at least one nozzle from time t 2 at least partly on the basis of the position data of the at least one nozzle from time t 1 and from time t 2 , in step (3g) planning the activation time of the spraying process for the at least one nozzle on at least one part of the target object at least partly on the basis of the distance S 2 from the at least one nozzle to the at least one part of the target object from time t 1 and the speed v 2 and direction r 2 of the at least one nozzle from time t 2 .
Die Erfindung wird nachstehend näher erläutert, ohne zwischen den Erfindungsgegenständen (Vorrichtung, Verfahren) zu unterscheiden. Die nachfolgenden Erläuterungen sollen vielmehr für alle Erfindungsgegenstände in analoger Weise gelten, unabhängig davon, in welchem Kontext (Vorrichtung, Verfahren) sie erfolgen. The invention is explained in more detail below, without distinguishing between the subject matter of the invention (device, method). Rather, the following explanations are intended to apply analogously to all subject matter of the invention, regardless of the context (device, method) in which they occur.
Die vorliegende Erfindung offenbart eine Vorrichtung zum Ausbringen einer Flüssigkeit auf mindestens einen Teil eines Zielobjekts in einem landwirtschaftlichen Feld. D.h. die Flüssigkeit kann in einem landwirtschaftlichen Feld auf mindestens einen Teil eines Zielobjekts aufgebracht werden. Alternativ kann die Flüssigkeit im Wesentlichen auf das ganze Zielobjekt aufgebracht werden. Es ist auch möglich, dass die Flüssigkeit auf mehrere Zielobjekte appliziert wird. The present invention discloses a device for applying a liquid to at least a portion of a target object in an agricultural field. This means that the liquid can be applied to at least a portion of a target object in an agricultural field. Alternatively, the liquid can be applied to substantially the entire target object. It is also possible for the liquid to be applied to multiple target objects.
Bei der Flüssigkeit kann es sich um Wasser oder eine wässrige Lösung oder Suspension handeln. Die wässrige Lösung oder Suspension kann einen oder mehrere Nährstoffe und/oder ein oder mehrere Pflanzenschutzmitel und/oder ein oder mehrere Mitel zur Behandlung von Saatgut enthalten. The liquid may be water or an aqueous solution or suspension. The aqueous solution or suspension may contain one or more nutrients and/or one or more crop protection agents and/or one or more seed treatment agents.
Unter dem Begriff „Nährstoffe“ werden diejenigen anorganischen und organischen Verbindungen verstanden, denen Pflanzen die Elemente entnehmen können, aus denen ihre Körper aufgebaut sind. Als Nährstoffe werden oft auch diese Elemente selbst bezeichnet. Dabei handelt es sich meistens um einfache anorganische Verbindungen wie Nitrat (NO3 ). Phosphat (PO43 -1 und Kalium (K+). Lebensnotwendig sind neben den Kemelementen der organischen Substanz (C, O, H, N und P) noch K, S, Ca, Mg, Mo, Cu, Zn, Fe, B, Mn, CI bei höheren Pflanzen, Co, Ni. Für die einzelnen Nährstoffe können verschiedene Verbindungen vorliegen, so kann beispielsweise Stickstoff als Nitrat, Ammonium oder Aminosäure zugeführt werden. The term “nutrients” refers to those inorganic and organic compounds from which plants can obtain the elements that make up their bodies. These elements themselves are often also referred to as nutrients. These are usually simple inorganic compounds such as nitrate (NO3), phosphate ( PO4 ) and potassium (K + ). In addition to the core elements of organic matter (C, O, H, N and P), K, S, Ca, Mg, Mo, Cu, Zn, Fe, B, Mn, CI in higher plants, Co and Ni are also essential for life. Different compounds can be present for the individual nutrients; for example, nitrogen can be supplied as nitrate, ammonium or amino acid.
Unter dem Begriff „Pflanzenschutzmitel“ wird ein Mitel verstanden, das dazu dient, Pflanzen oder Pflanzenerzeugnisse vor Schadorganismen zu schützen oder deren Einwirkung vorzubeugen, unerwünschte Pflanzen oder Pflanzenteile zu vernichten, ein unerwünschtes Wachstum von Pflanzen zu hemmen oder einem solchen Wachstum vorzubeugen, und/oder in einer anderen Weise als Nährstoffe die Lebensvorgänge von Pflanzen zu beeinflussen (z.B. Wachstumsregler). Beispiele für Pflanzenschutzmitel sind Herbizide, Fungizide und andere Pestizide (z.B. Insektizide). The term "plant protection product" refers to a product used to protect plants or plant products from pests or to prevent their effects, to destroy undesirable plants or parts of plants, to inhibit or prevent undesirable plant growth, and/or to influence plant life processes in a manner other than by providing nutrients (e.g., growth regulators). Examples of plant protection products include herbicides, fungicides, and other pesticides (e.g., insecticides).
Wachstumsregler dienen zum Beispiel der Erhöhung der Standfestigkeit bei Getreide durch Verkürzung der Halmlänge (Intemodienverkürzer), Verbesserung der Bewurzelung von Stecklingen, Verringerung der Pflanzenhöhe durch Stauchung im Gartenbau oder der Verhinderung der Keimung von Kartoffeln. Wachstumsregler können beispielsweise Phytohormone oder deren synthetischen Analoge sein. Growth regulators are used, for example, to increase lodging in cereals by shortening stalk length (intermode shorteners), improve rooting of cuttings, reduce plant height by stunting in horticulture, or prevent potato germination. Growth regulators can be, for example, phytohormones or their synthetic analogues.
Der Begriff „Zielobjekt“ beschreibt eine oder mehrere Pflanzen, einen oder mehrere Bereiche eines Feldes, Schädlinge oder andere Objekte. Vorzugsweise beschreibt der Begriff „Zielobjekt“ eine oder mehrere Pflanzen. In einer weiteren bevorzugten Ausführungsform befindet sich das Zielobjekt auf dem Boden bzw. in Bodennähe. Der Begriff „mindestens einen Teil eines Zielobjekts“ beschreibt vorzugsweise einen Teil (z.B. ein Blat, Blatabschnit, Stängel, Stängelabschnit etc.) einer oder mehrere Pflanzen bzw. einen oder mehrere Schädlinge. In einer bevorzugten Ausfuhrungsform handelt es sich bei den Zielobjekten um einzelne Kulturpflanzen oder (einzelne) Teile von einzelnen Kulturpflanzen oder um einzelne Gruppen von Kulturpflanzen. In einer weiteren bevorzugten Ausführungsform handelt es sich bei den Zielobjekten um einzelne Samen oder Gruppen von Samen, die in einem Feld für Kulturpflanzen ausgesät werden und/oder ausgesät worden sind. In einer weiteren bevorzugten Ausführungsform handelt es sich bei den Zielobjekten um eine oder mehrere Begleitpflanzen oder (einzelne) Teile von einzelnen Begleitpflanzen oder um einzelne Gruppen von Begleitpflanzen. In einer weiteren Ausführungsform handelt es sich bei den Zielobjekten um Pflanzenbestandteile, die von Schädlingen befallen sind. Solche Schädlinge können tierische Schädlinge, Pilze, Viren oder Bakterien sein. The term "target object" describes one or more plants, one or more areas of a field, pests or other objects. Preferably, the term "target object" describes one or more plants. In a further preferred embodiment, the target object is located on the ground or near the ground. The term "at least a part of a target object" preferably describes a part (e.g. a leaf, leaf section, stem, stem section, etc.) of one or more several plants or one or more pests. In a preferred embodiment, the target objects are individual crop plants or (individual) parts of individual crop plants or individual groups of crop plants. In a further preferred embodiment, the target objects are individual seeds or groups of seeds that are and/or have been sown in a field for crop plants. In a further preferred embodiment, the target objects are one or more companion plants or (individual) parts of individual companion plants or individual groups of companion plants. In a further embodiment, the target objects are plant components that are infested with pests. Such pests can be animal pests, fungi, viruses or bacteria.
Unter dem Begriff „Kulturpflanze“ wird eine Pflanze verstanden, die durch das Eingreifen der Menschen zielgerichtet als Nutz- oder Zierpflanze angebaut wird. The term “cultivated plant” refers to a plant that is purposefully cultivated as a useful or ornamental plant through human intervention.
Unter dem Begriff „Begleitpflanzen“ (oftmals auch als Unkraut/Unkräuter bezeichnet) werden Pflanzen der spontanen Begleitvegetation (Segetalflora) in Kulturpflanzenbeständen, Grünland oder Gartenanlagen verstanden, die dort nicht gezielt angebaut werden und z.B. aus dem Samenpotential des Bodens oder über Zuflug zur Entwicklung kommen. The term “companion plants” (often also referred to as weeds) refers to plants of the spontaneous accompanying vegetation (segetal flora) in crop stands, grassland or gardens, which are not deliberately cultivated there and develop, for example, from the seed potential of the soil or via migration.
Unter dem Begriff „landwirtschaftliches Feld“ wird ein räumlich abgrenzbarer Bereich der Erdoberfläche verstanden, der landwirtschaftlich genutzt wird, indem auf einem solchen Feld Kulturpflanzen angepflanzt, gegebenenfalls mit Nährstoffen versorgt und geerntet werden. The term “agricultural field” refers to a spatially definable area of the earth’s surface that is used for agricultural purposes, in which crops are planted, possibly supplied with nutrients and harvested.
Der Begriff „Rechen- und Steuereinheit“ steht für Komponenten eines Computers oder Prozessors zur Durchführung von arithmetischen und logischen Operationen sowie der Kontrolle von Abläufen von Befehlen und Operationen. In modernen Computern sind Recheneinheit und Steuereinheit oft eng miteinander verbunden und bilden gemeinsam die sogenannte „CPU“ („Central Processing Unit“). Diese beiden Einheiten arbeiten zusammen, um die Verarbeitung und Ausführung von Befehlen in einem Computer zu ermöglichen. Es ist auch möglich, dass zumindest bestimmte Funktionen über „Cloud“-basiertes „Computing“ durchgeführt werden. The term "processing and control unit" refers to components of a computer or processor that perform arithmetic and logical operations, as well as control sequences of instructions and operations. In modern computers, the processing unit and control unit are often closely linked and together form what is known as the "CPU" ("Central Processing Unit"). These two units work together to enable the processing and execution of instructions in a computer. It is also possible that at least certain functions are performed via "cloud"-based computing.
Die Flüssigkeit befindet sich vor dem Ausbringen in einem Vorratsbehälter. Es können mehrere Vorratsbehälter vorhanden sein. Es können mehrere (verschiedene) Flüssigkeiten ausgebracht werden. Die Flüssigkeit wird über eine Düse oder mehrere Düsen auf zumindest einen Teil des Zielobjekts ausgebracht. In einer Ausführungsform ist die mindestens eine Düse ein Bestandteil eines Inkjet-Druckkopfes. In der Ausführungsform wird also die Technik, die bei Inkjet-Druckem eingesetzt, um die Flüssigkeit auf mindestens einen Teil des Zielobjekts auszubringen. Die Verwendung der Technik von Inkjet-Druckem in der Landwirtschaft ist beispielsweise beschrieben in M.- Idbella et al.: Structure, Functionality, Compatibility with Pesticides and Beneficial Microbes, and Potential Applications of a New Delivery System Based on Ink-Jet Technology, Sensors 2023, 23(6), 3053. In einer bevorzugten Ausführungsform werden mehrere Düsen verwenden, die bevorzugt von einem Balken oder eine Leiste umfaßt sind (nachfolgend als „Sprühbalken“ bezeichnet). The liquid is located in a storage container before application. There may be multiple storage containers. Several (different) liquids may be applied. The liquid is applied via one or more nozzles onto at least part of the target object. In one embodiment, the at least one nozzle is a component of an inkjet print head. In this embodiment, the technology used in inkjet printers is used to apply the liquid onto at least part of the target object. The use of inkjet printer technology in agriculture is described, for example, in M.- Idbella et al.: Structure, Functionality, Compatibility with Pesticides and Beneficial Microbes, and Potential Applications of a New Delivery System Based on Ink-Jet Technology, Sensors 2023, 23(6), 3053. In a preferred embodiment, several nozzles are used, which are preferably enclosed by a bar or a strip (hereinafter referred to as "spray bar").
In einer weiteren bevorzugten Variante umfasst die erfmdungsgemäße Vorrichtung eine Vielzahl von Düsen. Der Begriff Vielzahl bedeutet vorzugsweise mehr als zehn. Die Düsen sind vorzugsweise so angeordnet, dass jede Düse Flüssigkeit in einem Bereich mit einer maximalen lateralen Ausdehnung von weniger als 20 cm, vorzugsweise weniger als 10 cm, am meisten bevorzugt von weniger als 5 cm appliziert. Die Vielzahl an Düsen kann beispielsweise nebeneinander entlang eines Sprühbalkens angeordnet sein, der sich quer (z.B. in einem Winkel von 90°) zu der Bewegungsrichtung der Vorrichtung erstreckt. Jeder Düse kann mindestens eine Sensoreinheit (z.B. eine Kamera) zugeordnet sein. Bei einer solchen Ausführungsform besteht die Möglichkeit, dass ein Zielobjekt den Sichtbereich der mindestens einen Sensoreinheit bei einer Kurvenfahrt verlässt und deshalb die benachbarte Sensoreinheit aktiviert wird. Zum Ausbringen wird die Flüssigkeit mit Fördermitteln aus dem mindestens einen Vorratsbehälter in Richtung der mindestens einen Düse befördert. Zur Förderung der Flüssigkeit kann beispielsweise eine Pumpe eingesetzt werden. In a further preferred variant, the device according to the invention comprises a plurality of nozzles. The term "plurality" preferably means more than ten. The nozzles are preferably arranged such that each nozzle applies liquid in an area with a maximum lateral extent of less than 20 cm, preferably less than 10 cm, most preferably less than 5 cm. The plurality of nozzles can, for example, be arranged next to one another along a spray bar that extends transversely (e.g., at an angle of 90°) to the direction of movement of the device. Each nozzle can be assigned at least one sensor unit (e.g., a camera). In such an embodiment, there is the possibility that a target object leaves the field of view of the at least one sensor unit when cornering, and therefore the adjacent sensor unit is activated. For application, the liquid is conveyed from the at least one storage container toward the at least one nozzle by means of conveying equipment. A pump, for example, can be used to convey the liquid.
Die erfindungsgemäße Vorrichtung umfasst mindestens eine Sensoreinheit. Eine Sensoreinheit umfasst mindestens einen Sensor. Ein "Sensor" ist ein technisches Bauteil, das bestimmte physikalische und/oder chemische Eigenschaften und/oder die stoffliche Beschaffenheit seiner Umgebung qualitativ oder als Messgröße quantitativ erfassen kann. Diese Größen werden mittels physikalischer oder chemischer Effekte erfasst und in ein weiter verarbeitbares, meist elektrisches oder optisches Signal umgeformt. Eine Sensoreinheit kann Mittel zur Verarbeitung von Signalen enthalten, die der mindestens eine Sensor liefert. Eine Sensoreinheit kann Mittel zum Übermitteln und/oder Weiterleiten von Signalen und/oder Informationen (z.B. an die Steuereinheit) umfassen. Die eine oder die mehreren Sensoreinheiten können Bestandteil des Systems sein und/oder mit diesem über eine Kommunikationsverbindung (z.B. über Funk) verbunden sein. Der eine oder die mehreren Sensoreinheiten können konfiguriert sein, kontinuierlich oder in definierten zeitlichen Abständen oder bei Eintritt definierter Ereignisse ein oder mehrere Signale an die Rechen- und Steuereinheit zu übermitteln, auf deren Basis die Rechen- und Steuereinheit die weiteren Schritte beispielsweise zur Planung des Aktivierungszeitpunktes des Sprühvorgangs für die mindestens eine Düse durchführt. The device according to the invention comprises at least one sensor unit. A sensor unit comprises at least one sensor. A "sensor" is a technical component that can detect certain physical and/or chemical properties and/or the material properties of its environment qualitatively or quantitatively as a measured variable. These variables are detected by means of physical or chemical effects and converted into a further processable, usually electrical or optical signal. A sensor unit can contain means for processing signals provided by the at least one sensor. A sensor unit can comprise means for transmitting and/or forwarding signals and/or information (e.g., to the control unit). The one or more sensor units can be part of the system and/or connected to it via a communication link (e.g., via radio). The one or more sensor units can be configured to transmit one or more signals to the computing and control unit continuously or at defined time intervals or upon the occurrence of defined events, on the basis of which signals the computing and control unit carries out the further steps, for example to plan the activation time of the spraying process for the at least one nozzle.
Die mindestens eine Sensoreinheit, die in Richtung des landwirtschaftlichen Feldes auf ein Zielobjekt ausgerichtet werden kann, umfasst vorzugsweise eine Kamera oder mehrere Kameras. D.h. der Begriff „Aufnahme“ beschreibt vorzugsweise eine „Bildaufhahme“. Die Kameraachse der mindestens einen Kamera als Bestandteil der erfindungsgemäßen Vorrichtung kann vorzugsweise im Wesentlichen senkrecht (vertikal) zum Boden ausgerichtet werden (d.h. die mindestens eine Kamera zeigt nach „unten“ oder „geradeaus“ in Bezug auf den Boden). Vorzugsweise befindet sich die mindestens eine Kamera (in Fahrtrichtung) vor der mindestens einen Sprüheinheit. Dieser Abstand ist vorzugsweise zwischen 30 cm und 100 cm noch bevorzugter zwischen 40 und 60 cm. Die erfindungsgemäß eingesetzte Kamera kann einen Bildsensor und optische Elemente umfassen. Der Bildsensor ist eine Vorrichtung zur Aufnahme von zweidimensionalen Abbildern aus Licht auf elektrischem Weg. Üblicherweise handelt es sich um halbleiterbasierte Bildsensoren wie beispielsweise CCD- (CCD = charge-coupled device) oder CMOS-Sensoren (CMOS = complementary metal-oxide-semiconductor). Die optischen Elemente (Linsen, Blenden und dergleichen) dienen einer möglichst scharfen Abbildung eines Objekts auf dem Bildsensor. The at least one sensor unit, which can be aligned toward a target object in the direction of the agricultural field, preferably comprises one or more cameras. This means that the term "recording" preferably describes an "image capture." The camera axis of the at least one camera as a component of the device according to the invention can preferably be aligned substantially perpendicular (vertical) to the ground (i.e., the at least one camera points "down" or "straight ahead" with respect to the ground). Preferably, the at least one camera is located (in the direction of travel) in front of the at least one spray unit. This distance is preferably between 30 cm and 100 cm, more preferably between 40 and 60 cm. The camera used according to the invention can comprise an image sensor and optical elements. The image sensor is a device for electrically capturing two-dimensional images from light. These are typically semiconductor-based image sensors such as CCD (charge-coupled device) or CMOS (complementary metal-oxide-semiconductor) sensors. The optical elements (lenses, apertures, etc.) serve to produce the sharpest possible image of an object on the image sensor.
Die Kamera kann durch die Rechen- und Steuereinheit veranlasst werden, in definierten Zeitabständen oder kontinuierlich Bildaufhahmen von mindestens einem Teil eines Zielobjekts (Aufzählungspunkt (a) bei der erfindungsgemäßen Vorrichtung und Schritt (3a) beim erfindungsgemäßen Verfahren) zu erzeugen. Der mindestens eine Teil eines Zielobjekts kann beispielsweise eine Kulturpflanze, eine Begleitpflanze und/oder ein Schädling sein. Dabei kann es sich bei der Rechen- und Steuereinheit um die Rechen- und Steuereinheit der erfindungsgemäßen Vorrichtung oder um eine separate Rechen- und Steuereinheit handeln. Vorzugsweise wird dafür die Rechen- und Steuereinheit der erfindungsgemäßen Vorrichtung verwendet. Jede Aufnahme wird mit einem Zeitstempel gekennzeichnet, um den genauen Zeitpunkt der Aufnahme des Bildes zu dokumentieren. Es kann auch vorkommen, dass auf einer einzelnen Aufnahme kein Teil eines Zielobjekts vorhanden ist und beispielsweise nur der Boden bzw. das landwirtschaftliche Feld ohne einen Teil eines Zielobjekts erfasst wird. The camera can be caused by the computing and control unit to create image recordings of at least part of a target object (bullet point (a) in the device according to the invention and step (3a) in the method according to the invention) at defined time intervals or continuously. The at least one part of a target object can be, for example, a cultivated plant, a companion plant and/or a pest. The computing and control unit can be the computing and control unit of the device according to the invention or a separate computing and control unit. Preferably, the computing and control unit of the device according to the invention is used for this purpose. Each image is marked with a timestamp to document the exact time the image was captured. It can also happen that no part of a target object is present in an individual image and, for example, only the soil or the agricultural field is captured without any part of a target object.
Die erfindungsgemäße Ausgestaltung der Vorrichtung umfasst neben der oben beschriebenen mindestens einen Sensoreinheit auch mindestens eine Positionsbestimmungseinheit. Die mindestens eine Positionsbestimmungseinheit kann auch einen oder mehrere Sensoren umfassen. Die mindestens eine Positionsbestimmungseinheit der Vorrichtung ist so konfiguriert, dass zu dem jeweiligen Zeitpunkt, zu dem die mindestens eine Sensoreinheit eine Bildaufhahme erzeugt, die Positionsdaten der mindestens einen Sensoreinheit (der Kamera und vorzugsweise die Positionsdaten des Kameralinsenmittelpunkts) erfasst werden und diese Information an die Rechen- und Steuereinheit der Vorrichtung weitergegeben werden (Aufzählungspunkt (b) bei der Vorrichtung und Schritt (3b) beim Verfahren). The inventive embodiment of the device comprises, in addition to the above-described at least one sensor unit, also at least one position-determining unit. The at least one position-determining unit can also comprise one or more sensors. The at least one position-determining unit of the device is configured such that, at the respective time at which the at least one sensor unit generates an image recording, the position data of the at least one sensor unit (the camera and preferably the Position data of the camera lens center) are recorded and this information is passed on to the computing and control unit of the device (bullet point (b) for the device and step (3b) for the method).
Die mindestens eine Positionsbestimmungseinheit kann beispielsweise einen Empfänger eines Satellitennavigationssystems (GNSS, Global Navigation Satellite System) umfassen, umgangssprachlich auch als GPS-Empfänger bezeichnet. Das Global Positioning System (Abk.: GPS), offiziell NAVSTAR GPS, ist ein Beispiel eines globalen Satellitennavigationssystems zur Positionsbestimmung; andere Beispiele sind GLONASS, Galileo und Beidou. Die Satelliten eines solchen Satellitennavigationssystems teilen über Funkcodes ihre genaue Position und Uhrzeit mit. Zur Positionsbestimmung muss ein Empfänger (der „GPS-Empfänger“) die Signale von mindestens vier Satelliten gleichzeitig empfangen. Im Empfänger werden die Pseudo-Signallaufzeiten gemessen und daraus die aktuelle Position ermittelt. The at least one positioning unit can, for example, comprise a receiver of a satellite navigation system (GNSS, Global Navigation Satellite System), colloquially also referred to as a GPS receiver. The Global Positioning System (abbreviation: GPS), officially NAVSTAR GPS, is an example of a global satellite navigation system for positioning; other examples are GLONASS, Galileo, and Beidou. The satellites of such a satellite navigation system communicate their exact position and time via radio codes. To determine the position, a receiver (the "GPS receiver") must receive the signals from at least four satellites simultaneously. The pseudo-signal propagation times are measured in the receiver, and the current position is determined from this.
In einer bevorzugten Ausführungsform werden mindestens zwei GNSS Empfänger eingesetzt. Vorzugsweise erfolgt die Positionsbestimmung der mindestens einen Düse der Vorrichtung mit einer „Moving-baseline“-Differential-GNSS-Installation (DGPS), die eine Genauigkeit der Positionen- Bestimmung von unter 10 mm ermöglicht und Update-Raten zwischen 8 und 100 Hz erreicht. Bei der „Moving-Baseline“-DGPS-Installation werden zwei GNSS -Empfänger mit angeschlossenen GNSS-Sensoren in festem Abstand auf der erfmdungsgemäßen Vorrichtung angebracht. Eine davon nimmt die Rolle einer „Moving Baseline“ ein, die andere die des „Rovers“. Beispielsweise können diese beiden Komponenten an den entgegengesetzten Enden des Sprühbalkens installiert werden. Mit dieser Technologie können DGPS-Korrekturdaten während der Fahrt erzeugt werden, die die oben angesprochenen Genauigkeit ermöglichen. Da der Abstand der mindestens einen Sensoreinheit, (vorzugsweise der Kamera-Linsen) und der mindestens einen Düse zu den GNSS- Empfängem auf der erfmdungsgemäßen Vorrichtung fest ist, können deren Positionen auf Basis der Position der GNSS-Empfänger mit nur wenigen Rechenoperationen sehr schnell bestimmt werden. D.h. sobald die Positionsbestimmungseinheit die Position der mindestens einen Sensoreinheit bestimmt hat, ist auch die Position der mindestens einen Düse bekannt. Analog dazu ist bei einer Positionsbestimmung der mindestens einen Düse zu einem bestimmten Zeitpunkt, die Position der mindestens einen Sensoreinheit zu demselben Zeitpunkt ebenfalls bekannt. In a preferred embodiment, at least two GNSS receivers are used. The position of at least one nozzle of the device is preferably determined using a moving baseline differential GNSS (DGPS) installation, which enables a position determination accuracy of less than 10 mm and achieves update rates between 8 and 100 Hz. In the moving baseline DGPS installation, two GNSS receivers with connected GNSS sensors are mounted at a fixed distance on the device according to the invention. One of these assumes the role of a moving baseline, the other that of a rover. For example, these two components can be installed at opposite ends of the spray boom. With this technology, DGPS correction data can be generated during travel, enabling the accuracy mentioned above. Since the distance of the at least one sensor unit (preferably the camera lens) and the at least one nozzle from the GNSS receivers on the device according to the invention is fixed, their positions can be determined very quickly based on the position of the GNSS receivers with only a few computational operations. This means that as soon as the position-determining unit has determined the position of the at least one sensor unit, the position of the at least one nozzle is also known. Analogously, when the position of the at least one nozzle is determined at a specific time, the position of the at least one sensor unit at the same time is also known.
Die Rechen- und Steuereinheit der Vorrichtung (bzw. des Verfahrens) empfängt die mindestens eine Aufnahme vom Zeitpunkt ti von der Sensoreinheit und die Positionsdaten vom Zeitpunkt von der mindestens einen Positionsbestimmungseinheit. Die Rechen- und Steuereinheit ist konfiguriert, die Aufnahmen durch Bildverarbeitung zu verarbeiten, um zumindest einen Teil eines Zielobjekts - falls vorhanden - in den Aufnahmen zu erkennen, z.B. eine definierte Pflanze (z.B. eine Begleitpflanze), einen Teil einer definierten Pflanze (z.B. ein Blatt), einen Schädling, eine mit einem Schädling befallene Pflanze und/oder ein anderes Objekt (Aufzählungspunkt (c) bei der Vorrichtung und Schritt (3c) beim Verfahren). Methoden und Vorrichtungen zum Erkennen von Objekten in Bildaufhahmen sind vielfältig im Stand der Technik beschrieben (siehe z.B.: W02020120802A1, W02020120804A1, WO2020229585A1). Für die Bildverarbeitung zur Objekterkennung können unterschiedliche Methoden angewendet werden wie beispielsweise eine Merkmalsextraktion mit Deep Learning Modellen wie neuronalen Netzen, Support Vector Machines (SVM), Entscheidungsbäume etc. Weitere mögliche einsetzbare Methoden sind die farbgestützte Erkennung, die Texturanalyse, die formbasierte Erkennung, die Spektralanalyse, die Farbhistogrammanalyse, die Histogramm von Orientierten Gradienten Methode (HOG), morphologische Operationen oder eine Kombinationen dieser Methoden. The computing and control unit of the device (or method) receives the at least one image from time t1 from the sensor unit and the position data from time t1 from the at least one position-determining unit. The computing and control unit is configured to process the images using image processing to detect at least part of a target object—if present—in the images, e.g., a defined plant (e.g., a companion plant), a part of a defined plant (e.g., a leaf), a pest, a plant infested with a pest, and/or another object (bullet point (c) in the device and step (3c) in the method). Numerous methods and devices for detecting objects in image recordings are described in the prior art (see, for example, WO2020120802A1, W02020120804A1, WO2020229585A1). Different methods can be used for image processing for object recognition, such as feature extraction with deep learning models such as neural networks, support vector machines (SVM), decision trees, etc. Other possible methods that can be used are color-based recognition, texture analysis, shape-based recognition, spectral analysis, color histogram analysis, the histogram of oriented gradients method (HOG), morphological operations, or a combination of these methods.
In einer bevorzugten Ausführungsform ist die Rechen- und Steuereinheit konfiguriert, die Bestimmung des mindestens einen Teils des Zielobjektes auf der Aufnahme mit maschinellem Lernen durchzuführen. Die Modelle, die bei dieser Bildverarbeitung verwendet werden, basieren vorzugsweise auf Deep-Leaming Techniken, wie neuronalen Netzen (beispielsweise einem Convolutional Neural Network (CNN)). Ein solches Modell wird mit annotierten Bildern trainiert, um zu lernen, wie es zwischen verschiedenen Klassen, wie z.B. einer Begleitpflanze und anderen Pflanzen, unterscheiden kann. Nach dem Training kann ein solches Modell mit neuen Aufnahmen angewendet werden. Eine Aufnahme, die von der mindestens einen Sensoreinheit empfangen wird, kann für die Verwendung mit dem Modell vorverarbeitet werden („preprocessing“). Die Vorverarbeitung umfasst gängige Methoden wie Normalisierungs- oder Skalierungsschritte, das Entfernen von Rauschen, das Ändern von Kontrasten oder andere Methoden zur Verbesserung der Datenqualität sowie das Konvertierten der Aufnahme in das Eingabeformat des Modells. Das Modell teilt jedes Pixel im Bild einer bestimmten Klasse zu, beispielsweise ob das Pixel zu einem Zielobjekt, einem Nicht-Zielobjekt, oder zum Hintergrund gehört. Dieses Verfahren wird auch als semantische Segmentierung bezeichnet. Die semantische Segmentierung hinsichtlich der Identifizierung von Pflanzen auf einem Feld ist im Stand der Technik beschrieben (siehe beispielsweise WO19226869 Al). Im Rahmen der Nachverarbeitung („postprocessing“) der klassifizierten Daten auf Pixelebene des Modells können Transformationen oder Analyseoperation wie die Generierung von Pixelmasken (z.B. binäre Darstellung von Pixeln die zum erkannten Zielobjekt gehören oder nicht), die Generierung von „Bounding Boxen“ (rechteckiger Rahmen um ein erkanntes Zielobjekt), die Bestimmung des Flächenschwerpunkts (Mittelpunkt der Fläche des erkannten Zielobjekts der als repräsentativer Punkt für das erkannte Zielobjekt verwendet werden kann), die Generierung von einem Umriß-Polygon (eine Serie von Punkten die die Kontur des erkannten Zielobjekts beschreiben) durchgeführt werden. Neben der semantischen Segmentierung können aber auch „Object-Detection“ Algorithmen wie beispielsweise Yolo, SSD, Faster-RCNN etc. eingesetzt werden. Mit diesen Algorithmen ist es möglich - anstelle des Zwischenweges über die Pixelmasken - direkt „Bounding Boxen“ für das erkannte Zielobjekt zu generieren. In a preferred embodiment, the computing and control unit is configured to perform the determination of at least one part of the target object on the image using machine learning. The models used in this image processing are preferably based on deep learning techniques, such as neural networks (for example, a convolutional neural network (CNN)). Such a model is trained with annotated images. to learn how to distinguish between different classes, such as a companion plant and other plants. After training, such a model can be applied to new images. A recording received by the at least one sensor unit can be preprocessed for use with the model. Preprocessing includes common methods such as normalization or scaling steps, removing noise, changing contrasts or other methods to improve data quality, as well as converting the recording into the model's input format. The model assigns each pixel in the image to a specific class, for example whether the pixel belongs to a target object, a non-target object, or to the background. This method is also referred to as semantic segmentation. Semantic segmentation with regard to the identification of plants in a field is described in the prior art (see, for example, WO19226869 A1). During post-processing of the classified data at the pixel level of the model, transformations or analysis operations such as the generation of pixel masks (e.g. binary representation of pixels that belong to the detected target object or not), the generation of bounding boxes (rectangular frames around a detected target object), the determination of the centroid (center of the surface of the detected target object that can be used as a representative point for the detected target object), and the generation of an outline polygon (a series of points that describe the contour of the detected target object) can be performed. In addition to semantic segmentation, object detection algorithms such as Yolo, SSD, Faster-RCNN, etc. can also be used. With these algorithms, it is possible to directly generate bounding boxes for the detected target object instead of going through the intermediate process of using pixel masks.
Bevorzugt wird durch die Bildanalyse das ganze Zielobjekt erkannt. Es kann aber vorkommen, dass auf der Aufnahme nur ein Teil eines Zielobjektes vorhanden ist und nur dieser Teil erkannt werden kann. Die oben genannten Bildverarbeitungsverfahren inklusive der „pre-„ und „postprocessing“ Schritte können auch durchgeführt werden, wenn nur ein Teil eines Zielobjektes auf der Aufnahme erkannt wurde. Ideally, image analysis detects the entire target object. However, it may happen that only part of a target object is present in the image, and only this part can be detected. The image processing methods described above, including the pre- and post-processing steps, can also be performed if only part of a target object was detected in the image.
Nach der Bildverarbeitung wird zumindest ein Teil des erkannten Zielobjekts mit den Positionsdaten der mindestens einen Sensoreinheit vom Zeitpunkt ti georeferenziert (Aufzählungspunkt (c) bei der Vorrichtung und Schritt (3c) beim Verfahren). In einer Ausführungsform der erfmdungsgemäßen Vorrichtung wird zumindest eine Pixel-Koordinate des zumindest einen Teil des erkannten Zielobjekts in Positionsdaten auf dem landwirtschaftlichen Feld umgerechnet. In einer weiteren bevorzugten Ausführungsform ist dieser eine Pixel-Koordinate der Flächenschwerpunkt des erkannten Zielobjekts. In einer weiteren bevorzugten Ausführungsform werden mehrere Pixel- Koordinaten des erkannten Zielobjekts georeferenziert, wie beispielsweise alle Punkte der Pixelmaske, die zum erkannten Zielobjekt zugeordnet wurden oder alle Punkte innerhalb der „Bounding Box“ oder des Umriss-Polygons des erkannten Zielobjekts. Anhand des georeferenzierten Punktes bzw. der georeferenzierten Punkte, sowie der Kenntnis von optischen Parametern der Kamera (z.B. der Öffhungswinkel der Kamera, die vertikale und horizontale Auflösung der Kamera) und der Kenntnis von dem Abstand der Kamera (bevorzugt von der Kameralinse bzw. von dem Kameralinsenmittelpunkt) zum Boden des landwirtschaftlichen Feldes kann der Abstand Sj von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts auf der Aufnahme vom Zeitpunkt ti bestimmt werden. In einer bevorzugten Variante der Erfindung wird diese Berechnung mit Hilfe folgender Formeln durchgeführt: After image processing, at least a portion of the detected target object is georeferenced with the position data of the at least one sensor unit from time t1 (item (c) in the device and step (3c) in the method). In one embodiment of the device according to the invention, at least one pixel coordinate of at least a portion of the detected target object is converted into position data on the agricultural field. In a further preferred embodiment, this one pixel coordinate is the centroid of the detected target object. In a further preferred embodiment, several pixel coordinates of the detected target object are georeferenced, such as all points of the pixel mask that were assigned to the detected target object or all points within the bounding box or the outline polygon of the detected target object. Based on the georeferenced point(s), as well as knowledge of the camera's optical parameters (e.g., the camera's aperture angle, the camera's vertical and horizontal resolution), and knowledge of the camera's distance (preferably from the camera lens or from the camera lens center) to the ground of the agricultural field, the distance Sj from the at least one nozzle to the at least part of the target object in the image taken at time t i can be determined. In a preferred variant of the invention, this calculation is performed using the following formulas:
(1) (2) wobei in Formel (1) Sy für die Anzahl Pixel pro Einheit Höhe auf dem Bildsensor der Kamera (vertikale Auflösung pro Höheneinheit), y für die vertikale Auflösung der Kamera, H für den Abstand von der Kameralinse zum Boden und ay für den vertikalen Öffhungswinkel der Kamera steht, wobei in Formel (2) & für die Anzahl Pixel pro Einheit Breite auf dem Bildsensor der Kamera (horizontale Auflösung pro Breiteneinheit), x für die horizontale Auflösung der Kamera, H für den Abstand von der Kameralinse zum Boden und ax für den horizontalen Öffhungswinkel der Kamera steht, wobei man ausgehend von der Pixel-Koordinate der zumindest einen Aufnahme über den jeweiligen Kehrwert von Sy und .S die Positionsdaten der zumindest einen Pixel-Koordinate des mindestens einen Teil des Zielobjektes auf dem landwirtschaftlichen Feld berechnet. (1) (2) where in formula (1) Sy is the number of pixels per unit height on the camera's image sensor (vertical resolution per unit height), y is the vertical resolution of the camera, H is the Distance from the camera lens to the ground and a y stands for the vertical aperture angle of the camera, where in formula (2) & stands for the number of pixels per unit width on the image sensor of the camera (horizontal resolution per unit width), x stands for the horizontal resolution of the camera, H stands for the distance from the camera lens to the ground and a x stands for the horizontal aperture angle of the camera, where starting from the pixel coordinate of the at least one image via the respective reciprocal of S y and .S the position data of the at least one pixel coordinate of at least one part of the target object on the agricultural field is calculated.
Die Rechen- und Steuereinheit ist weiter konfiguriert, die mindestens eine Positionsbestimmungseinheit zu veranlassen am Zeitpunkt U die Position der mindestens einen Düse zu bestimmen und diese Positionsdaten zu empfangen, wobei der Zeitpunkt t2 ein späterer Zeitpunkt als ti ist (Aufzählungspunkt (d) bei der Vorrichtung und Schritt (3d) beim Verfahren). In einer bevorzugten Ausführungsform ist die Vorrichtung dabei in Bewegung, damit die Positionsdaten der mindestens einen Düse am Zeitpunkt ti und Zeitpunkt t2 nicht gleich sind. In einer weiteren bevorzugten Variante bewegt sich die Vorrichtung auf das Zielobjekt zu. The computing and control unit is further configured to cause the at least one position-determining unit to determine the position of the at least one nozzle at time U and to receive this position data, wherein time t2 is a later time than t1 (bullet point (d) in the device and step (3d) in the method). In a preferred embodiment, the device is in motion so that the position data of the at least one nozzle at time t1 and time t2 are not the same. In a further preferred variant, the device moves toward the target object.
Die Rechen- und Steuereinheit ist weiter konfiguriert, den Abstand S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts anhand der Positionsdaten der mindestens einen Düse vom Zeitpunkt U und der Positionsdaten des mindestens einen georeferenzierten Teils des Zielobjektes auf der Aufnahme vom Zeitpunkt zu bestimmen, (Aufzählungspunkt (e) bei der Vorrichtung und Schritt (3e) beim Verfahren). The computing and control unit is further configured to determine the distance S2 from the at least one nozzle to the at least one part of the target object based on the position data of the at least one nozzle from time U and the position data of the at least one georeferenced part of the target object on the image from time U (bullet point (e) in the device and step (3e) in the method).
Die Rechen- und Steuereinheit ist weiter konfiguriert, die Geschwindigkeit V2 und Richtung der mindestens einen Düse vom Zeitpunkt t2 zumindest teilweise auf Basis der Positionsdaten der mindestens einen Düse vom Zeitpunkt tj und vom Zeitpunkt t2 zu bestimmen (Aufzählungspunkt (f) bei der Vorrichtung und Schritt (3f) beim Verfahren). Dabei ist zu berücksichtigen, dass beim Vorhandensein von mehreren Düsen, jede der Düsen - bei einer Kurvenfahrt der Vorrichtung - eine andere Geschwindigkeit aufweisen kann. Die Geschwindigkeit V2 von der mindestens einen Düse kann durch die vorhandene Kenntnis der zurückgelegten Strecke der Vorrichtung zwischen ti bis U bestimmt werden. Die Richtung r2 der mindestens einen Düse vom Zeitpunkt U kann durch Kenntnis der zwei unterschiedlichen Positionsdaten der mindestens einen Düse vom Zeitpunkt ti und vom Zeitpunkt t2 bestimmt werden. Die Richtung zwischen zwei Koordinatenpunkten wird üblicherweise als Azimut oder Kurs ausgedrückt. Der Azimut ist der Winkel in Grad, gemessen im Uhrzeigersinn von der Nordrichtung aus. The computing and control unit is further configured to determine the speed V2 and direction of the at least one nozzle from time t2 at least partially based on the position data of the at least one nozzle from time tj and from time t2 (bullet point (f) in the device and step (3f) in the method). It should be noted that if there are multiple nozzles, each of the nozzles can have a different speed when the device is cornering. The speed V2 of the at least one nozzle can be determined by knowing the distance traveled by the device between t1 and U. The direction r2 of the at least one nozzle from time U can be determined by knowing the two different position data of the at least one nozzle from time t1 and time t2 . The direction between two coordinate points is usually expressed as azimuth or heading. The azimuth is the angle in degrees, measured clockwise from north.
Die Rechen- und Steuereinheit ist weiter konfiguriert ist, den Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil des Zielobjekts zumindest teilweise auf Basis des Abstands S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt U und der Geschwindigkeit V2 und Richtung /vdcr mindestens einen Düse vom Zeitpunkt U zu planen (Aufzählungspunkt (g) bei der Vorrichtung und Schritt (3g) beim Verfahren). The computing and control unit is further configured to plan the activation time of the spraying process for the at least one nozzle on at least a part of the target object at least partially based on the distance S2 from the at least one nozzle to the at least a part of the target object from time U and the speed V2 and direction /vdcr of at least one nozzle from time U (bullet point (g) in the device and step (3g) in the method).
In einer bevorzugten Ausführungsform ist die Rechen- und Steuereinheit weiter konfiguriert ist, die mindestens eine Düse zumindest teilweise auf der Basis des geplanten Aktivierungszeitpunktes des Sprühvorgangs zu aktivieren und die Flüssigkeit auf mindestens einen Teil eines Zielobjekts zu applizieren (Aufzählungspunkt (h) bei der Vorrichtung und Schritt (3h) beim Verfahren). In a preferred embodiment, the computing and control unit is further configured to activate the at least one nozzle at least partially based on the planned activation time of the spraying process and to apply the liquid to at least a part of a target object (bullet point (h) in the device and step (3h) in the method).
In einer weiteren bevorzugten Ausführungsform ist die Rechen- und Steuereinheit konfiguriert, die in den Aufzählungspunkten (a) bis (f) genannten Schritte (Schritte 3a bis 3f des Verfahrens) und die Berechnung der jeweiligen Parameter A, ti, vt, rt iterativ (i) durchzuführen. Der Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil eines Zielobjekts in dem in Aufzählungspunkt (g) genannten Schritt kann durch jeden iterativen Schrit gegebenenfalls angepasst werden. Vorzugsweise wird bei einer iterativen Durchführung das Zielobjekt vollständig durch die Bildanalyse erkannt. Dadurch ist es möglich den Aktivierungszeitpunkt des Sprühvorgangs für das vollständige Zielobjekt zu planen und auch den Sprühvorgang entsprechend für das vollständige Zielobjekt durchzuführen. In a further preferred embodiment, the computing and control unit is configured to carry out the steps mentioned in bullet points (a) to (f) (steps 3a to 3f of the method) and the calculation of the respective parameters A, ti, v t , rt iteratively (i). The activation time of the spraying process for the at least one nozzle on at least a part of a target object in the step mentioned in bullet point (g) can be determined by each iterative Each step can be adjusted if necessary. Preferably, in an iterative implementation, the target object is fully identified through image analysis. This makes it possible to plan the activation time of the spraying process for the entire target object and also to carry out the spraying process accordingly for the entire target object.
In einer bevorzugten Ausführungsform werden für die Berechnungen (Aufzählungspunkt (c), (e), (f) und (g) sowie (c'), (e'), (f ) und (g') bei der Vorrichtung und Schrit (3c), (3e), (3f) und (3g), sowie (3c'), (3e' ), (3f ) und (3g') beim Verfahren) Messdaten (Aufnahmen und - falls vorhanden - gemessene Positionsbestimmungsdaten) aus mehreren Iterationszyklen verwendet. Vorzugsweise werden Messdaten von zwischen 2 - 100, bevorzugter zwischen 3 - 50 und noch bevorzugter zwischen 3 - 10 Iterationzyklen verwendet. Durch die größere Datenbasis können die Mess- und Analysedaten stabilisiert werden. Gleichzeitig wird durch die Begrenzung der Iterationszyklen vermieden, dass zu alte, mitlerweile irrelevante Daten für die Berechnungsschrite verwendet werden. In a preferred embodiment, measurement data (images and - if available - measured position determination data) from several iteration cycles are used for the calculations (bullet points (c), (e), (f) and (g) as well as (c'), (e'), (f ) and (g') in the device and steps (3c), (3e), (3f) and (3g), as well as (3c'), (3e' ), (3f ) and (3g') in the method). Preferably, measurement data from between 2 - 100, more preferably between 3 - 50 and even more preferably between 3 - 10 iteration cycles are used. The larger database allows the measurement and analysis data to be stabilized. At the same time, limiting the iteration cycles prevents old, now irrelevant data from being used for the calculation steps.
In einer weiteren bevorzugten Variante der vorliegenden Vorrichtung werden mindestens zwei Positionsbestimmungseinheiten eingesetzt. Als Positionsbestimmungseinheiten können beispielsweise GNSS (Global Navigation Satellite System) Empfänger, Positionsbestimmungseinheiten basierend auf visueller Odometrie-Technologie, Radar, Trilateration, Inertiale Navigationssysteme (z.B Gyroskope, Beschleunigungsmesser), Magnetometer, Funknavigationssysteme etc. verwendet werden. Bevorzugt umfasst die erste Positionsbestimmungseinheit mindestens einen GNSS (Global Navigation Satellite System) Empfänger und die zweite Positionsbestimmungseinheit basiert auf visueller Odometrie- Technologie und/oder Radar. Generell kann durch Sensorfüsion d.h. durch die Verwendung mehrerer Positionsbestimmungseinheiten die Genauigkeit und Zuverlässigkeit der Positionsbestimmung verbessert werden. Durch die Kombination mehrerer Sensoren können Fehler und Ungenauigkeiten einzelner Sensoren ausgeglichen werden. Zum Beispiel können GPS, visuelle Odometrie und/oder Radar gleichzeitig zusammen verwendet werden, um eine präzisere Positionsbestimmung zu erreichen. Die Sensorfusion kann mithilfe von Algorithmen und Techniken wie dem Kalman-Filter oder anderen fusionierten Schätzverfahren erfolgen, um die Daten aus den verschiedenen Sensoren zu kombinieren und eine optimale Schätzung der Position zu erhalten.In a further preferred variant of the present device, at least two positioning units are used. Examples of positioning units that can be used are GNSS (Global Navigation Satellite System) receivers, positioning units based on visual odometry technology, radar, trilateration, inertial navigation systems (e.g., gyroscopes, accelerometers), magnetometers, radio navigation systems, etc. The first positioning unit preferably comprises at least one GNSS (Global Navigation Satellite System) receiver, and the second positioning unit is based on visual odometry technology and/or radar. In general, the accuracy and reliability of positioning can be improved through sensor fusion, i.e., through the use of multiple positioning units. By combining multiple sensors, errors and inaccuracies of individual sensors can be compensated for. For example, GPS, visual odometry, and/or radar can be used together simultaneously to achieve more precise positioning. Sensor fusion can be performed using algorithms and techniques such as the Kalman filter or other fused estimation methods to combine the data from the different sensors and obtain an optimal position estimate.
In einer weiteren bevorzugten Ausführungsform ist die Rechen- und Steuereinheit konfiguriert, vor und/oder während einer Positionsdatenbestimmung mit dem GNSS Empfänger zu überprüfen, ob die Signalstärke des GNSS Empfänger ein vordefmiertes Schwellenwertniveau erreicht oder überschreitet. Falls das vordefmierte Schwellenwertniveau nicht erreicht wird, wird die Positionsbestimmung von der Positionsbestimmungseinheit bestimmt, die eine visuelle Odometrie- Technologie umfasst. Die Definition eines geeigneten Schwellenwertniveaus für einen GNSS Empfänger hängt von verschiedenen Faktoren wie beispielsweise der Empfindlichkeit des GNNS Empfängers ab. Ein möglicher Schwellenwert könnte beispielsweise im Bereich von -130 dBm (Dezibel Milliwat) bis -150 dBM hegen. In a further preferred embodiment, the computing and control unit is configured to check, before and/or during a position data determination with the GNSS receiver, whether the signal strength of the GNSS receiver reaches or exceeds a predefined threshold level. If the predefined threshold level is not reached, the position determination is determined by the positioning unit, which comprises visual odometry technology. The definition of a suitable threshold level for a GNSS receiver depends on various factors, such as the sensitivity of the GNSS receiver. A possible threshold could, for example, be in the range of -130 dBm (decibel milliwatts) to -150 dBM.
In einer bevorzugten Variante wird die Signalstärke vor jeder Durchführung der in Aufzählungspunkt (b) und (d) bei der Vorrichtung beschriebenen Schrite (Schrit (3b) und (3d) beim Verfahren) gemessen und geprüft, ob die Signalstärke des GNSS Empfängers das vordefmierte Schwellenwertniveau erreicht oder überschreitet. Vorzugsweise wird dies nur vor jeder Durchführung des in Aufzählungspunkt (b) bei der Vorrichtung beschriebenen Schrits (Schrit (3b) beim Verfahren) durchgeführt. Falls beispielsweise am Zeitpunkt dieIn a preferred variant, the signal strength is measured before each execution of the steps described in bullet point (b) and (d) for the device (steps (3b) and (3d) for the method) and it is checked whether the signal strength of the GNSS receiver reaches or exceeds the predefined threshold level. Preferably, this is only carried out before each execution of the step described in bullet point (b) for the device (step (3b) for the method). If, for example, at the time
Positionsdatenbestimmung mit visueller Odometrie durchgeführt wurde und am Zeitpunkt tt,i festgestellt wird, dass die Signalstärke des GNSS Empfängers nun das Schwellenwertniveau erreicht, wird die Positionsdatenbestimmung für den Zeitpunkt ti:1 durch den GNSS Empfänger erfolgen. Bei der nächsten Iteration wird wiederum geprüft, ob die Signalstärke ausreicht, um den GNSS Empfänger einsetzen zu können oder ob wieder auf visuelle Odometrie gewechselt werden muß. Das Umschalten zwischen den beiden Positionsbestimmungseinheiten erfolgt daher vorzugsweise möglichst nahtlos, um eine unterbrechungsfreie Positionsbestimmung sicherstellen zu können. Dabei wird vorzugsweise zuerst versucht, die Positionsbestimmung über den mindestens einen GNSS Empfänger durchzufuhren. Ein solches Verfahren kann anstatt mit der visuellen Odometrie auch mit einer anderen Positionsbestimmungseinheit Technologie wie z.B. Radar (siehe oben) durchgeführt werden. Das Verfahren wird im Folgenden anhand der visuellen Odometrie näher erläutert. If the position data determination was carried out using visual odometry and at time t t ,i it is determined that the signal strength of the GNSS receiver has now reached the threshold level, the position data determination for time t i:1 will be carried out by the GNSS receiver. During the next iteration, it will be checked again whether the signal strength is sufficient to use the GNSS receiver or whether it is necessary to switch back to visual odometry. The switching between the two positioning units therefore takes place Preferably as seamlessly as possible to ensure uninterrupted positioning. Preferably, the first attempt is to determine the position using at least one GNSS receiver. Such a method can be performed using a different positioning unit technology, such as radar (see above), instead of visual odometry. The method is explained in more detail below using visual odometry.
Die visuelle Odometrie basiert auf der Verfolgung der Bewegung und der Position eines Objektes (vorzugsweise zumindest einen Teil eines Zielobjektes) im Feld anhand der Aufnahmen von der mindestens einen Kamera. Durch eine Bildanalyse aufeinanderfolgenden Aufnahmen identifiziert die Rechen- und Steuereinheit visuelle Merkmale, die stabil und eindeutig identifizierbar sind. Dies sind vorzugsweise charakteristische Punkte von zumindest einem Teil eines Zielobjekts. Die Bildanalyse verfolgt die Bewegung der identifizierten Merkmale zwischen aufeinanderfolgenden Aufnahmen. Dies kann durch Methoden wie optischer Fluß oder „Feature-Matching“-Algorithmen erreicht werden. Basierend auf der Veränderung der Position der identifizierten Merkmale kann die Bewegung des Objektes (vorzugsweise zumindest einem Teil eines Zielobjekts) geschätzt werden. Diese Schätzung kann die Translation (Bewegung in x, y und z-Richtung) sowie die Rotation (Drehung um die Achsen) umfassen. Es ist auch möglich, dass eine simultane Lokalisierung und Kartierung (SLAM, „simultaneous localization and mapping“) integriert ist, bei dem neben der unmittelbaren Positionsbestimmung auch ein relatives Koordinatensystem (Karte der Umgebung) erstellt wird. Die visuelle Odometrie Technologie kann weitere Sensoreinheiten umfassen um die Genauigkeit der Positionsbestimmung mit dieser Technologie mittels Sensorfusion zu verbessern. Solche weiteren Sensoreinheiten umfassen beispielsweise Inertialsensoren wie Gyroskope und Beschleunigungsmesser. Eine präzise Kalibrierung der mindestens einen Kamera und möglicher weiterer Sensoreinheiten ist erforderlich um eine genaue Positionsbestimmung zu gewährleisten.Visual odometry is based on tracking the movement and position of an object (preferably at least part of a target object) in the field using images from at least one camera. By analyzing consecutive images, the computing and control unit identifies visual features that are stable and uniquely identifiable. These are preferably characteristic points of at least part of a target object. The image analysis tracks the movement of the identified features between consecutive images. This can be achieved using methods such as optical flow or feature matching algorithms. Based on the change in the position of the identified features, the movement of the object (preferably at least part of a target object) can be estimated. This estimation can include translation (movement in the x, y, and z directions) as well as rotation (rotation around the axes). It is also possible to integrate simultaneous localization and mapping (SLAM), which, in addition to the direct position determination, also creates a relative coordinate system (map of the environment). The visual odometry technology may include additional sensor units to improve the accuracy of positioning using sensor fusion. Such additional sensor units include, for example, inertial sensors such as gyroscopes and accelerometers. Precise calibration of at least one camera and any additional sensor units is required to ensure accurate positioning.
In einer Ausführungsform (bei der Verwendung der visuellen Odometrie zur Positionsbestimmung) ist die Rechen- und Steuereinheit konfiguriert, die mindestens eine Sensoreinheit zu veranlassen am Zeitpunkt und tu jeweils mindestens eine Aufnahme zu erzeugen, wobei der Zeitabstand zwischen und tu so kurz gewählt wird, dass sich die Aufnahmen überlagern (Schritt (a' )), wobei die Rechen- und Steuereinheit konfiguriert ist am Zeitpunkt tt,2 - und abweichend von den beschriebenen Schritten in Aufzählungspunkten (c) und (e) bis (g) - in den alternativen Schritten (c'), (e') und (f) - zumindest teilweise auf Basis dieser Aufnahmen zumindest eine der Daten ausgewählt aus der Gruppe von Abstand Sii2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt tii2, Geschwindigkeit Vi,i der mindestens einen Düse vom Zeitpunkt Richtung riti der mindestens einen Düse vom Zeitpunkt tj,i zu bestimmen. Die Rechen- und Steuereinheit ist weiter konfiguriert, (im alternativen Schritt (g )) den Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil eines Zielobjekts zumindest teilweise auf Basis des Abstands .SA von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt tt,2 und der Geschwindigkeit Vt,i und Richtung i i der mindestens einen Düse vom Zeitpunkt ti:1 zu planen. Im optionalen Schritt (h ) ist die Rechen- und Steuereinheit konfiguriert, die mindestens eine Düse zumindest teilweise auf der Basis des geplanten Aktivierungszeitpunktes des Sprühvorgangs in Schritt (g') zu aktivieren und die Flüssigkeit auf den mindestens einen Teil des Zielobjekts zu applizieren. In one embodiment (when using visual odometry for position determination), the computing and control unit is configured to cause the at least one sensor unit to generate at least one image at each time point t and tu, wherein the time interval between t and tu is selected to be so short that the images overlap (step (a' )), wherein the computing and control unit is configured to determine at time point tt, 2 - and deviating from the steps described in bullet points (c) and (e) to (g) - in the alternative steps (c'), (e') and (f) - at least partly on the basis of these images at least one of the data selected from the group of distance S ii2 from the at least one nozzle to the at least part of the target object at time point t ii2 , speed Vi,i of the at least one nozzle at time point and direction r iti of the at least one nozzle at time point tj,i. The computing and control unit is further configured (in alternative step (g)) to plan the activation time of the spraying process for the at least one nozzle onto at least a part of a target object at least partially based on the distance .SA from the at least one nozzle to the at least a part of the target object at time tt, 2 and the speed Vt,i and direction ii of the at least one nozzle at time t i:1 . In optional step (h), the computing and control unit is configured to activate the at least one nozzle at least partially based on the planned activation time of the spraying process in step (g') and to apply the liquid to the at least a part of the target object.
In einer bevorzugten Ausführungsform der Vorrichtung, ist die Rechen- und Steuereinheit konfiguriert (im alternativen Schritt (c ')) Übereinstimmungen der Aufnahmen von den Zeitpunkten und ti,i zu erkennen und (im alternativen Schritt (e )) die relative Bildbewegung und den Rotationswinkels auf Basis dieser Daten zu berechnen. In einer weiteren bevorzugten Variante ist die Rechen- und Steuereinheit konfiguriert, zumindest eine übereinstimmende Pixelbewegung (bevorzugt zumindest ein Pixel zumindest eines Teils eines Zielobjekts) des aktuellen (7) Bildes im Vergleich zum Bild aus der vorherigen Iteration (z-7) zu erkennen. Dieses Vorgehen wird in der „Computer Vision“ „Image Registration“ genannt. Die relative Bewegung und die Rotation von diesem zumindest einen übereinstimmenden Pixel kann beispielsweise mit einer Transformationsmatrix bestimmt werden. Im alternativen Schritt (f ) ist die Rechen- und Steuereinheit konfiguriert, auf Basis der bestimmten relativen Bewegung und des Rotationswinkels zumindest eine der Daten ausgewählt aus der Gruppe von: der Abstand .SA von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt tt,2, Geschwindigkeit Vt,i der mindestens einen Düse vom Zeitpunkt tt,i, Richtung rt,i der mindestens einen Düse vom Zeitpunkt ti,i zu bestimmen. In a preferred embodiment of the device, the computing and control unit is configured (in alternative step (c ')) to detect coincidences between the recordings from the times t i,i and (in alternative step (e )) to calculate the relative image movement and the rotation angle on the basis of these data. In a further preferred variant, the computing and control unit is configured to detect at least one matching pixel movement (preferably at least one pixel of at least part of a target object) of the current (7) image in comparison to the image from the previous iteration (z-7). This procedure is called "image registration" in computer vision. The relative movement and the rotation of this at least one matching pixel can, for example, be recorded using a Transformation matrix can be determined. In the alternative step (f ), the computing and control unit is configured to determine, on the basis of the determined relative movement and the angle of rotation, at least one of the data selected from the group of: the distance .SA from the at least one nozzle to the at least one part of the target object at time tt,2, speed Vt,i of the at least one nozzle at time tt,i, direction rt,i of the at least one nozzle at time ti,i.
Der Abstand St, 2 am Zeitpunkt tt,2 kann beispielsweise über den Zwischenschritt mit der Formel (3) bestimmt werden: The distance St, 2 at time tt,2 can be determined, for example, via the intermediate step using formula (3):
Sc = Vi,i ■ (ti,2 - ti,i) Sc = Vi,i ■ (ti,2 - ti,i)
(3) wobei Sc für die Position der mindestens einen Düse am Zeitpunkt A2, Vi,i für die Geschwindigkeit der mindestens einen Düse am Zeitpunkt tt,i steht. Der Zeitpunkt tt,i beschreibt den Zeitpunkt der Aufnahme durch die Kamera (Aufzählungspunkt (a\) bei der Vorrichtung und Schritt (3a ,) beim Verfahren) in Iteration i. Der Zeitpunkt ti:2 steht für den Zeitpunkt nach der Bildverarbeitung (nach den Schritten gemäß Aufzählungspunkt (c\), (e\) bei der Vorrichtung und (3c',), (3e',) beim Verfahren) in Iteration i (d.h. ein Zeitpunkt in Schritt f in Interation 7). Der Abstand .SA lässt sich über Sc und dem berechneten Rotationswinkel bestimmen. (3) where Sc stands for the position of the at least one nozzle at time A2, Vi,i for the speed of the at least one nozzle at time tt,i. The time t t ,i describes the time of the recording by the camera (bullet point (a\) for the device and step (3a ,) in the method) in iteration i. The time t i: 2 stands for the time after the image processing (after the steps according to bullet point (c\), (e\) for the device and (3c',), (3e',) in the method) in iteration i (ie a time in step f in iteration 7). The distance .SA can be determined via S c and the calculated rotation angle.
Die Geschwindigkeit v, vom Zeitpunkt kann beispielsweise durch die Formel (4) bestimmt werden: wobei Vi für die Geschwindigkeit der mindestens einen Düse am Zeitpunkt und ^ z für die relative Bildbewegung (durch Bildanalyse bestimmt) steht. Im Nenner der Formel (3) steht die Zeitdifferenz der beiden Aufnahmen vom Zeitpunkt ti:1 und Der Zeitpunkt ti, 1 hat die gleicheThe speed v, from the time point can be determined, for example, by the formula (4): where Vi is the speed of at least one nozzle at the time and ^ z is the relative image movement (determined by image analysis). The denominator of formula (3) is the time difference between the two images from time t i:1 and time ti, 1 has the same
Bedeutung wie bei Formel (3) beschrieben. Der Zeitpunkt -7,7 beschreibt den Zeitpunkt der Aufnahme der Kamera (Aufzählungspunkt (a ,.;) bei der Vorrichtung und Schritt (3a' w) beim Verfahren) in Iteration i-1. Der Zeitabstand zwischen A-7,7 und A,i ist so kurz gewählt, dass sich die Aufnahmen überlagern. Meaning as described in formula (3). The time -7,7 describes the time of the camera recording (bullet point (a ,.;) in the device and step (3a' w) in the method) in iteration i-1. The time interval between A-7,7 and A,i is chosen so short that the recordings overlap.
Die Richtung r, kann beispielsweise über eine Transformationsmatrix bestimmt werden. The direction r can be determined, for example, using a transformation matrix.
Die oben beschrieben Zeitpunkte ti und A betreffen eine gleiche Iteration. Beim Verfahren sind die oben beschriebenen alternativen Schritte (a'), (c'), (e'), (f ), (g'), (h') im dritten Schritt mit (3a'), (3c'), (3e ), (3f ), (3g'), (3h') gekennzeichnet. The times ti and A described above refer to the same iteration. In the method, the alternative steps (a'), (c'), (e'), (f ), (g'), (h') described above are labeled (3a'), (3c'), (3e ), (3f ), (3g'), (3h') in the third step.
Eine weitere Ausführungsform der Erfindung betrifft die erfindungsgemäße Vorrichtung die mindestens eine weitere Sensoreinheit umfasst, die in Richtung des landwirtschaftlichen Feldes auf ein Zielobjekt ausgerichtet werden kann. Die Rechen- und Steuereinheit ist konfiguriert, diese mindestens eine weitere Sensoreinheit zu veranlassen am Zeitpunkt A eine 3D-Punktwolke zu erfassen und die Rechen- und Steuereinheit ist weiter konfiguriert diese 3D-Punktwolke zu empfangen. A further embodiment of the invention relates to the device according to the invention, which comprises at least one further sensor unit that can be aligned toward a target object in the direction of the agricultural field. The computing and control unit is configured to cause this at least one further sensor unit to capture a 3D point cloud at time A, and the computing and control unit is further configured to receive this 3D point cloud.
Geeignete Sensoreinheiten um eine 3D-Punktwolke zu erfassen sind beispielsweise LIDAR- Sensoren und 3D Kameras. Wenn mehrere 2D Kameras vorhanden sind, kann durch photogrammetrische Analysen (Analysen von Aufnahmen aus verschiedenen Perspektiven) eine 3D-Punktwolke zum Zeitpunkt A erstellt werden. Dazu kann man Techniken wie beispielsweise Struktur aus Bewegung („Structure from Motion“, SfM) und die Triangulation verwenden. LIDAR- Sensoren senden Laserstrahlen aus und messen, wie lange die Zeit dauert, bis das reflektierte Licht zurückkehrt. Dies ermöglicht die Erstellung von 3D-Punktwolken mit genauen Entfemungsdaten. 3D-Kameras (z.B. Kinect, RealSense oder andere) erfassen neben den Pixeldaten auch Tiefeninformationen woraus man durch Umwandlung in 3D-Koordinaten eine 3D-Punktwolke erzeugen kann. Eine 3D-Punktwolke ist eine Datenstruktur, die eine Sammlung von dreidimensionalen Punkten im Raum repräsentiert. Jeder Punkt in der Punktwolke wird durch x-,y- und z- Koordinaten beschrieben und kann auch zusätzliche Informationen wie Farbe oder Intensität enthalten. Suitable sensor units for capturing a 3D point cloud include LIDAR sensors and 3D cameras. If multiple 2D cameras are available, a 3D point cloud at time A can be created using photogrammetric analysis (analysis of images from different perspectives). Techniques such as structure from motion (SfM) and triangulation can be used for this purpose. LIDAR sensors emit laser beams and measure the time it takes for the reflected light to return. This enables the creation of 3D point clouds with precise distance data. 3D cameras (e.g., Kinect, RealSense, or others) capture depth information in addition to pixel data, which can be converted into 3D coordinates to create a 3D point cloud. A 3D point cloud is a data structure that represents a collection of three-dimensional points in space. Each point in the point cloud is described by x, y, and z coordinates and can also contain additional information such as color or intensity.
In einer bevorzugten Ausführungsform der Erfindung ist die Steuer- und Recheneinheit konfiguriert, (in (Schritt (c) bzw. (c') der Vorrichtung und Schritt (3c) bzw. (3c') des Verfahrens) die zumindest eine Pixelkoordinate zumindest einen Teils eines Zielobjektes auf dem landwirtschaftlichen Feld auf die 3D-Punktwolkedaten zu projizieren. Vorzugsweise werden mehrere Pixel des zumindest einen Teils des Zielobjektes (z.B. Pixel der Eckpunkte der „Bounding Boxen“ oder eines Umriss-Polygons etc), auf die 3D-Punktwolkedaten projiziert. In einer weiteren bevorzugten Ausführungsform der Erfindung ist die Steuer- und Recheneinheit konfiguriert, die Höhe des Zielobjektes auf dem landwirtschaftlichen Feld mittels der 3D-Punktwolke zu bestimmen, wobei die Distanz zwischen dem vertikal niedrigsten Punkt des Zielobjekts und dem vertikal höchsten Punkt des Zielobjekts in der 3D-Punktwolke berechnet wird. Dabei ist eine Bildanalyse von zumindest einem vollständigen Zielobjekt bevorzugt. In einer weiteren bevorzugten Ausführungsform ist die Rechen- und Steuereinheit konfiguriert, (Aufzählungspunkt (g) oder (g') bei der Vorrichtung und Schritt (3g) oder (3g') beim Verfahren) den Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil des Zielobjekts zumindest teilweise zusätzlich auch auf Basis der Daten der 3D-Punktwolke zum Zeitpunkt ti zu bestimmen. Vorzugsweise wird dabei auch die berechnete Höhe des Zielobjektes auf dem landwirtschaftlichen Feld berücksichtigt (da sich die Flugzeit der Flüssigkeit in Abhängigkeit der Höhe des Zielobjektes verkürzt oder verlängert).In a preferred embodiment of the invention, the control and computing unit is configured (in (step (c) or (c') of the device and step (3c) or (3c') of the method) to project the at least one pixel coordinate of at least a part of a target object in the agricultural field onto the 3D point cloud data. Preferably, several pixels of the at least part of the target object (e.g., pixels of the corner points of the bounding boxes or of a contour polygon, etc.) are projected onto the 3D point cloud data. In a further preferred embodiment of the invention, the control and computing unit is configured to determine the height of the target object in the agricultural field using the 3D point cloud, wherein the distance between the vertically lowest point of the target object and the vertically highest point of the target object in the 3D point cloud is calculated. An image analysis of at least one complete target object is preferred. In a further preferred embodiment, the computing and control unit is configured (bullet point (g) or (g') in of the device and step (3g) or (3g') in the method) to determine the activation time of the spraying process for the at least one nozzle onto at least part of the target object, at least partially additionally based on the data of the 3D point cloud at time t1. Preferably, the calculated height of the target object in the agricultural field is also taken into account (since the flight time of the liquid shortens or lengthens depending on the height of the target object).
Bei einer weiteren Ausführungsform der Erfindung ist die Rechen- und Steuereinheit konfiguriert, (Aufzählungspunkt (g) oder (g') bei der Vorrichtung und Schritt (3g) oder (3g') beim Verfahren) für die Bestimmung des Aktivierungszeitpunktes des Sprühvorgangs für die mindestens eine Düse auf mindestens einen Teil des Zielobjekts zumindest teilweise die Latenz der mindestens einen Düse und die Flugzeit der Flüssigkeit von der mindestens einen Düse bis zum Auftreffen auf mindestens einen Teil des Zielobjekts zu berücksichtigen. In a further embodiment of the invention, the computing and control unit is configured (bullet point (g) or (g') in the device and step (3g) or (3g') in the method) to at least partially take into account the latency of the at least one nozzle and the flight time of the liquid from the at least one nozzle until it hits at least part of the target object in order to determine the activation time of the spraying process for the at least one nozzle onto at least part of the target object.
Mit den Informationen vom Abstand S2 von der mindestens einen Düse zu dem mindestens einen Teil des Zielobjekts vom Zeitpunkt t2 und der Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse vom Zeitpunkt t2 kann der Düsenöffhungszeitpunkt tA (d.h. der Aktivierungszeitpunkt für die Düsenöffhung welcher in dieser Offenbarung die gleiche Bedeutung hat wie der Aktivierungszeitpunkt des Sprühvorgangs) bestimmt werden. In einer bevorzugten Ausführungsform der Erfindung wird dieser Düsenöffhungszeitpunkt tA noch bezüglich der Latenz der mindestens einen Düse LD (d.h. die Düsenöffhungslatenz) sowie die Flugzeit der Flüssigkeit von der mindestens einen Düse bis zum Auftreffen auf dem Zielobjekt tF korrigiert. D.h. Der geplante Düsenöffhungszeitpunkt tP kann durch folgende Formel (5) berechnet werden: tP = tA - LD - tF Using the information on the distance S 2 from the at least one nozzle to the at least part of the target object at time t 2 and the speed v 2 and direction r 2 of the at least one nozzle at time t 2 , the nozzle opening time tA (i.e., the activation time for the nozzle opening, which in this disclosure has the same meaning as the activation time of the spraying process) can be determined. In a preferred embodiment of the invention, this nozzle opening time tA is further corrected with respect to the latency of the at least one nozzle LD (i.e., the nozzle opening latency) as well as the flight time of the liquid from the at least one nozzle until it hits the target object tF. That is, the planned nozzle opening time tP can be calculated using the following formula (5): tP = tA - LD - tF
(5) (5)
Wobei tP für den geplanten Düsenöffnungszeitpunkt, LD für die Düsenöffhungslatenz der mindestens einen Düse und tF für die Flugzeit der Flüssigkeit von der mindestes einen Düse bis zum Auftreffen auf dem Zielobjekt steht. Where tP stands for the planned nozzle opening time, LD for the nozzle opening latency of at least one nozzle and tF for the flight time of the liquid from the at least one nozzle until it hits the target object.
LD ergibt sich aus verschiedenen Faktoren wie beispielsweise dem Düsen-Typ und Düsen-Design, dem Flüssigkeitsdruck, der Beschaffenheit der Rechen- und Steuereinheit, der Düsengröße, der Viskosität der Flüssigkeit, dem Wartungszustand der mindestens einen Düse und der Umgebungstemperatur. tF ergibt sich aus Tropfengeschwindigkeit der Flüssigkeit, die sich wiederum insbesondere nach Flüssigkeitsdruck und mechanischer Düsenbeschaffenheit richtet (und im Labor bestimmt werden kann). Vorzugsweise wird für die Bestimmung von tF auch die berechnete Höhe des Zielobjektes auf dem landwirtschaftlichen Feld berücksichtigt. LD results from various factors such as the nozzle type and design, the fluid pressure, the nature of the computing and control unit, the nozzle size, the viscosity of the fluid, the maintenance condition of at least one nozzle and the ambient temperature. tF is determined from the drop velocity of the liquid, which in turn depends particularly on the liquid pressure and the mechanical properties of the nozzle (and can be determined in the laboratory). Preferably, the calculated height of the target object in the agricultural field is also taken into account when determining tF.
In einer weiteren bevorzugten Variante der Erfindung, die Rechen- und Steuereinheit konfiguriert, (in Aufzählungspunkt (g) und (g') bei der Vorrichtung bzw. (3g) und (3g') beim Verfahren) die Dauer der Düsenöffhung zu planen. D.h. die Dauer der Öffhungszustandes der mindestens einen Düse ab dem Düsenöffhungszeitpunkt. Die Dauer der Düsenöffnung richtet sich vorzugsweise nach der Zielobjektgröße: Je nach vertikaler Ausdehnung des Zielobjektes wird basierend auf der Düsengeschwindigkeit berechnet, wie lange ein Düse geöffnet werden muss, um das ganze Zielobjekt vollständig zu behandeln. Vorzugsweise wird daher für die Bestimmung der Dauer der Düsenöffnung auch die berechnete Höhe des Zielobjektes auf dem landwirtschaftlichen Feld berücksichtigt. In einer weiteren bevorzugten Variante wird die Düsenschließlatenz (die oftmals wegen des Drucks größer ist als die Düsenöffnungslatenz) bei der Planung der Dauer der Düsenöffhung mitberücksichtigt. In a further preferred variant of the invention, the computing and control unit is configured (in bullet points (g) and (g') for the device or (3g) and (3g') for the method) to plan the duration of the nozzle opening. This means the duration of the opening state of the at least one nozzle from the time of nozzle opening. The duration of the nozzle opening is preferably based on the size of the target object: depending on the vertical extent of the target object, the nozzle speed is used to calculate how long a nozzle must be open in order to completely treat the entire target object. Therefore, the calculated height of the target object on the agricultural field is preferably also taken into account when determining the duration of the nozzle opening. In a further preferred variant, the nozzle closing latency (which is often greater than the nozzle opening latency due to the pressure) is also taken into account when planning the duration of the nozzle opening.
Die erfmdungsgemäße Vorrichtung kann ein Teil eines Sprühgeräts, beispielsweise einer Landmaschine, eines Roboters oder ein Luftfahrzeug (z.B. eine Drohne) sein oder damit verbindbar sein. Eine solches Sprühgerät kann sich autonom in bzw. über einem Feld bewegen oder durch einen Menschen gesteuert werden. The device according to the invention can be part of, or connectable to, a spraying device, for example, an agricultural machine, a robot, or an aircraft (e.g., a drone). Such a spraying device can move autonomously in or over a field or be controlled by a human.
Ausführungsformen der vorliegenden Erfindung sind: Embodiments of the present invention are:
Figur 1 bis Figur 3 zeigen beispielhaft und schematisch eine Ausführungsform der erfmdungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens. Figures 1 to 3 show, by way of example and schematically, an embodiment of the device according to the invention and the method according to the invention.
Figur 1 zeigt die Vorrichtung (10) zum Ausbringen einer Flüssigkeit (F) auf zumindest einen Teil eines Zielobjekts (PI) in einem landwirtschaftlichen Feld (LF). Die Vorrichtung (10) umfasst eine Rechen- und Steuereinheit (11), mindestens einen Vorratsbehälter (12) zur Aufnahme der Flüssigkeit (F), mindestens eine Düse (13), mindestens eine Positionsbestimmungseinheit (14), Mittel (15) zur Förderung der Flüssigkeit (F) von dem mindestens einen Vorratsbehälter (12) in Richtung der mindestens einen Düse (13), mindestens eine Sensoreinheit (16), die in Richtung des landwirtschaftlichen Feldes (F) auf ein Zielobjekt (PI) ausgerichtet ist. In Figur 1 bewegt sich die Vorrichtung (10) auf das Zielobjekt (PI) zu (d.h. nach links) und die mindestens eine Sensoreinheit (16) befindet sich in der Bewegungsrichtung vor der mindestens einen Düse (13). Die Richtung der Düse (13) ist relativ zur Bodenoberfläche schräg dargestellt. Die Richtung der Düse (13) kann aber auch relativ zur Bodenoberfläche gerade nach unten gerichtet sein. Figure 1 shows the device (10) for applying a liquid (F) to at least part of a target object (PI) in an agricultural field (LF). The device (10) comprises a computing and control unit (11), at least one reservoir (12) for receiving the liquid (F), at least one nozzle (13), at least one position-determining unit (14), means (15) for conveying the liquid (F) from the at least one reservoir (12) in the direction of the at least one nozzle (13), and at least one sensor unit (16) oriented toward a target object (PI) in the direction of the agricultural field (F). In Figure 1, the device (10) is moving toward the target object (PI) (i.e., to the left), and the at least one sensor unit (16) is located in front of the at least one nozzle (13) in the direction of movement. The direction of the nozzle (13) is shown obliquely relative to the soil surface. However, the direction of the nozzle (13) can also be directed straight downwards relative to the soil surface.
Figur 2 zeigt schematisch die durch die Rechen- und Steuereinheit (11) koordinierten Schritte (a) bis (g) bzw. optional (h). Dies entspricht den Schritten 3a bis 3g bzw. optional 3h beim erfmdungsgemäßen Verfahren. Bei (a) ist die Rechen- und Steuereinheit (11) konfiguriert, die mindestens eine Sensoreinheit (16) zu veranlassen am Zeitpunkt L mindestens eine Aufnahme zu erzeugen und diese mindestens eine Aufnahme zu empfangen (in Figur 2 ist die Aufnahme als Viereck mit Pflanze dargestellt). In (b) ist die Rechen- und Steuereinheit (11) konfiguriert, die mindestens eine Positionsbestimmungseinheit (14) zu veranlassen am Zeitpunkt tj die Position der mindestens einen Düse (13) zu bestimmen und diese Positionsdaten zu empfangen (in Figur 2 ist dies schematisch mit einer verkleinerten Version der Vorrichtung (10) aus Figur 1 und einem kleinen Fadenkreuz für die Erfassung der Positionsdaten zum Zeitpunkt L dargestellt). In (c) ist die Rechen- und Steuereinheit (11) konfiguriert, durch Bildverarbeitung mindestens einen Teil eines Zielobjekts (PI) auf der mindestens einen Aufnahme zu bestimmen und dieses mindestens eine Zielobjekt (PI) unter Verwendung der Positionsdaten der mindestens einen Sensoreinheit (16) vom Zeitpunkt ti zu georeferenzieren (in Figur 2 ist dies wiederum durch das kleine Fadenkreuz auf der Aufnahme dargestellt), um den Abstand Sj von der mindestens einen Düse (13) zu dem mindestens einen Teil des Zielobjekts (PI) auf der Aufnahme vom Zeitpunkt 0 zu bestimmen. In (d) ist die Rechen- und Steuereinheit (11) konfiguriert, die mindestens eine Positionsbestimmungseinheit (14) zu veranlassen am Zeitpunkt t2 die Position der mindestens einen Düse (13) zu bestimmen und diese Positionsdaten zu empfangen, wobei der Zeitpunkt t2 ein späterer Zeitpunkt als ti ist (in Figur 2 ist dies schematisch analog wie in Schritt (b) dargestellt, jedoch am Zeitpunkt fe). In (e) ist die Rechen- und Steuereinheit (11) konfiguriert, den Abstand S2 von der mindestens einen Düse (13) zu dem mindestens einen Teil des Zielobjekts anhand der Positionsdaten der mindestens einen Düse (13) vom Zeitpunkt t2 und der Positionsdaten des mindestens einen georeferenzierten Teils des Zielobjektes auf der Aufnahme vom Zeitpunkt ti zu bestimmen. In (f) ist die Rechen- und Steuereinheit (11) konfiguriert, die Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse (13) vom Zeitpunkt t2 zumindest teilweise auf Basis der Positionsdaten der mindestens einen Düse (13) vom Zeitpunkt ti und vom Zeitpunkt t2 zu bestimmen (in Figur 2 ist schematisch eine kleinere Version der Vorrichtung (10) abgebildet, relevant ist aber die Position der mindestens einen Düse (13)). In (g) ist die Rechen- und Steuereinheit (11) konfiguriert, (g) den Aktivierungszeitpunkt des Sprühvorgangs für die mindestens eine Düse (13) auf mindestens einen Teil des Zielobjekts (PI) zumindest teilweise auf Basis des Abstands S2 von der mindestens einen Düse (13) zu dem mindestens einen Teil des Zielobjekts (PI) vom Zeitpunkt t2 und der Geschwindigkeit v2 und Richtung r2 der mindestens einen Düse (13) vom Zeitpunkt t2 zu planen (In Figur 2 ist schematisch ein Plan für diesen Vorgang abgebildet). Im optionalen Schritt (h) ist die Rechen- und Steuereinheit (11) konfiguriert, die mindestens eine Düse (13) zumindest teilweise auf der Basis des geplanten Aktivierungszeitpunktes des Sprühvorgangs zu aktivieren und die Flüssigkeit (F) auf mindestens einen Teil des Zielobjekts (PI) zu applizieren. Figure 2 schematically shows steps (a) to (g) or optionally (h) coordinated by the computing and control unit (11). This corresponds to steps 3a to 3g or optionally 3h in the method according to the invention. In (a), the computing and control unit (11) is configured to cause the at least one sensor unit (16) to generate at least one image at time L and to receive this at least one image (in Figure 2, the image is shown as a rectangle with a plant). In (b), the computing and control unit (11) is configured to cause the at least one position-determining unit (14) to determine the position of the at least one nozzle (13) at time tj and to receive this position data (in Figure 2, this is schematically shown with a reduced version of the device (10) from Figure 1 and a small crosshair for acquiring the position data at time L). In (c), the computing and control unit (11) is configured to determine at least a part of a target object (PI) on the at least one image by image processing and to georeference this at least one target object (PI) using the position data of the at least one sensor unit (16) from time t1 (in Figure 2 this is again represented by the small crosshairs on the image) in order to determine the distance Sj from the at least one nozzle (13) to the at least part of the target object (PI) on the image from time 0. In (d), the computing and Control unit (11) configured to cause the at least one position-determining unit (14) to determine the position of the at least one nozzle (13) at time t 2 and to receive this position data, wherein time t 2 is a later time than ti (in Figure 2 this is shown schematically analogously to step (b), but at time fe). In (e), the computing and control unit (11) is configured to determine the distance S 2 from the at least one nozzle (13) to the at least one part of the target object based on the position data of the at least one nozzle (13) at time t 2 and the position data of the at least one georeferenced part of the target object on the image at time ti. In (f), the computing and control unit (11) is configured to determine the speed v 2 and direction r 2 of the at least one nozzle (13) from time t 2 at least partially based on the position data of the at least one nozzle (13) from time t 1 and from time t 2 (Figure 2 schematically shows a smaller version of the device (10), but the position of the at least one nozzle (13) is relevant). In (g), the computing and control unit (11) is configured to (g) plan the activation time of the spraying process for the at least one nozzle (13) onto at least a part of the target object (PI) at least partially based on the distance S 2 from the at least one nozzle (13) to the at least a part of the target object (PI) from time t 2 and the speed v 2 and direction r 2 of the at least one nozzle (13) from time t 2 (Figure 2 schematically shows a plan for this process). In optional step (h), the computing and control unit (11) is configured to activate the at least one nozzle (13) at least partially based on the planned activation time of the spraying process and to apply the liquid (F) to at least a part of the target object (PI).
Figur 3 zeigt schematisch die durch die Rechen- und Steuereinheit (11) koordinierten Schritte (a) bis (g) bzw. optional (h) bzw. (a ), (b), (c'), (d), (e'), (f ) und (g') und optional (h') in drei aufeinanderfolgenden iterativen Zyklen i-1, i sowie i+1. Dies entspricht den Schritten 3a bis 3g bzw. optional 3h bzw. (3a ), (3b), (3c'), (3d), (3e'), (3f ) und (3g') und optional (3h') beim erfmdungsgemäßen Verfahren. Im Iterationszyklus i-1 werden die Schritte (a, /) bis (gz-y) bzw. optional (hz-y) durchgeführt. Die in Schritt (b / ) und (d,./) (zu Beginn der Durchführung der Schritte) gemessene Signalstärke des GNSS Empfängers hat das vordefmierte Schwellenwertniveau erreicht, so dass die Positionsbestimmung mit dem GNSS Empfänger durchgeführt werden kann. In Iterationszyklus i erreicht die in Schritt (bi) (und optional auch in Schritt (di)) gemessene Signalstärke des GNSS Empfängers nicht das vordefmierte Schwellenwertniveau. Daher werden neben diesen Schritten die Schritte (a ,). (c';), (e';), (f ,). (g ) und optional (h',j durchgeführt. Im Iterationszyklus i+1 erreicht die in Schritt (b,+y) und (dt+i) gemessene Signalstärke des GNSS Empfängers das Schwellenwertniveau wieder. Daher werden die Schritte (a,+y) bis (gt+i) und optional (h!+ 7) durchgeführt. Figure 3 schematically shows the steps (a) to (g) or optionally (h) or (a ), (b), (c'), (d), (e'), (f ) and (g') and optionally (h') coordinated by the computing and control unit (11) in three successive iterative cycles i-1, i and i+1. This corresponds to steps 3a to 3g or optionally 3h or (3a ), (3b), (3c'), (3d), (3e'), (3f ) and (3g') and optionally (3h') in the method according to the invention. In iteration cycle i-1, steps (a, /) to (gz-y) or optionally (h z -y) are carried out. The signal strength of the GNSS receiver measured in steps (b / ) and (d,./) (at the beginning of the execution of the steps) has reached the predefined threshold level, so that the position determination can be carried out with the GNSS receiver. In iteration cycle i, the signal strength of the GNSS receiver measured in step (b i) (and optionally also in step (d i)) does not reach the predefined threshold level. Therefore, in addition to these steps, steps (a ,). (c'; ), (e'; ), (f ,). (g ) and optionally (h',j) are carried out. In iteration cycle i+1, the signal strength of the GNSS receiver measured in steps (b,+y) and (dt+i) reaches the threshold level again. Therefore, steps (a,+y) to (gt+i) and optionally (h !+ 7) are carried out.
Claims
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP24151510.5 | 2024-01-12 | ||
| EP24151510.5A EP4585043A1 (en) | 2024-01-12 | 2024-01-12 | Precise application of liquids to a target object in an agricultural field |
| EP24185634.3 | 2024-07-01 | ||
| EP24185634 | 2024-07-01 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025149480A1 true WO2025149480A1 (en) | 2025-07-17 |
Family
ID=94341032
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2025/050242 Pending WO2025149480A1 (en) | 2024-01-12 | 2025-01-07 | Accurate application of liquids to a target object in an agricultural field |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025149480A1 (en) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8260507B2 (en) * | 2009-01-14 | 2012-09-04 | University Of Florida Research Foundation, Inc. | Managing application of agrochemicals to plants |
| EP3357332A1 (en) * | 2017-02-06 | 2018-08-08 | Bilberry Sas | Weed control systems and methods, agricultural sprayer |
| WO2019226869A1 (en) | 2018-05-24 | 2019-11-28 | Blue River Technology Inc. | Semantic segmentation to identify and treat plants in a field and verify the plant treatments |
| WO2020120804A1 (en) | 2018-12-14 | 2020-06-18 | Bilberry Sas | A weeding system and method for use in agriculture |
| WO2020120802A1 (en) | 2018-12-14 | 2020-06-18 | Bilberry Sas | System and method for railway weeding |
| WO2020229585A1 (en) | 2019-05-16 | 2020-11-19 | Basf Se | System and method for plant disease detection support |
| US20230112376A1 (en) * | 2020-04-03 | 2023-04-13 | Precision Planting Llc | Agricultural systems and methods |
| EP4206841A1 (en) * | 2021-12-28 | 2023-07-05 | Blue River Technology Inc. | Compensatory actions for automated farming machine failure |
-
2025
- 2025-01-07 WO PCT/EP2025/050242 patent/WO2025149480A1/en active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8260507B2 (en) * | 2009-01-14 | 2012-09-04 | University Of Florida Research Foundation, Inc. | Managing application of agrochemicals to plants |
| EP3357332A1 (en) * | 2017-02-06 | 2018-08-08 | Bilberry Sas | Weed control systems and methods, agricultural sprayer |
| WO2019226869A1 (en) | 2018-05-24 | 2019-11-28 | Blue River Technology Inc. | Semantic segmentation to identify and treat plants in a field and verify the plant treatments |
| WO2020120804A1 (en) | 2018-12-14 | 2020-06-18 | Bilberry Sas | A weeding system and method for use in agriculture |
| WO2020120802A1 (en) | 2018-12-14 | 2020-06-18 | Bilberry Sas | System and method for railway weeding |
| WO2020229585A1 (en) | 2019-05-16 | 2020-11-19 | Basf Se | System and method for plant disease detection support |
| US20230112376A1 (en) * | 2020-04-03 | 2023-04-13 | Precision Planting Llc | Agricultural systems and methods |
| EP4206841A1 (en) * | 2021-12-28 | 2023-07-05 | Blue River Technology Inc. | Compensatory actions for automated farming machine failure |
Non-Patent Citations (1)
| Title |
|---|
| M.- IDBELLA ET AL.: "Structure, Functionality, Compatibility with Pesticides and Beneficial Microbes, and Potential Applications of a New Delivery System Based on Ink-Jet Technology", SENSORS, vol. 23, no. 6, 2023, pages 3053 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12245534B2 (en) | Detecting and tracking features of plants for treatment in an agricultural environment | |
| US12426589B2 (en) | Multiaction treatment of plants in an agricultural environment | |
| EP3700320B1 (en) | Creation of digital processing cards | |
| EP3599846B1 (en) | Drift correction in the distribution of plant protection agents | |
| EP3262934A1 (en) | Method for combating undesired plant growth | |
| DE102016212623A1 (en) | UAV-based sensing for workflows in a workspace | |
| DE102022207537A1 (en) | MAP BASED CONTROL SYSTEM WITH POSITION ERROR CORRECTION FOR AGRICULTURAL MACHINERY | |
| DE102009028990A1 (en) | Environment i.e. agricultural crop, capturing method, involves forming three-dimensional image of environment using radiation reflected by environment, and deducing properties of environment and its objects from image of environment | |
| DE102011078292A1 (en) | Method for generating trafficability chart of surrounding area of vehicle, involves detecting image of surrounding area of vehicle by image sensor unit | |
| WO2023069841A1 (en) | Autonomous detection and control of vegetation | |
| EP4064818B1 (en) | Method for treating plants in a field | |
| WO2020164834A1 (en) | Trajectory determination for agricultural machines using grid maps | |
| DE102019218192A1 (en) | Method of working crops in a field | |
| WO2021105017A1 (en) | Method for processing plants in a field | |
| CN109814551A (en) | Cereal handles automated driving system, automatic Pilot method and automatic identifying method | |
| US20230403964A1 (en) | Method for Estimating a Course of Plant Rows | |
| WO2025149480A1 (en) | Accurate application of liquids to a target object in an agricultural field | |
| EP4585043A1 (en) | Precise application of liquids to a target object in an agricultural field | |
| DE102023126750A1 (en) | CALIBRATION SETTING FOR AGRICULTURAL SPRAYER WITH REAL-TIME TARGET SENSOR ON THE MACHINE | |
| DE102023119302A1 (en) | Arrangement for guiding an agricultural vehicle across a field using sensor fusion and corresponding method | |
| DE102022207830A1 (en) | Weed detection with polar masks | |
| WO2021244887A1 (en) | Method for cultivating row crops | |
| DE102019201984A1 (en) | Control unit for use in agriculture | |
| DE102022103370A1 (en) | Method for sensor-assisted guidance of a work machine and corresponding arrangement | |
| EP4480292A1 (en) | A machine-based crop and non-crop discrimination system and method for performing actions and action execution, and computer-aided modification unit |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 25700469 Country of ref document: EP Kind code of ref document: A1 |