[go: up one dir, main page]

ES2795500A1 - AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding) - Google Patents

AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding) Download PDF

Info

Publication number
ES2795500A1
ES2795500A1 ES201930444A ES201930444A ES2795500A1 ES 2795500 A1 ES2795500 A1 ES 2795500A1 ES 201930444 A ES201930444 A ES 201930444A ES 201930444 A ES201930444 A ES 201930444A ES 2795500 A1 ES2795500 A1 ES 2795500A1
Authority
ES
Spain
Prior art keywords
module
vines
vine
images
cutting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
ES201930444A
Other languages
Spanish (es)
Inventor
Lopez Felipe Beteta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to ES201930444A priority Critical patent/ES2795500A1/en
Publication of ES2795500A1 publication Critical patent/ES2795500A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G3/00Cutting implements specially adapted for horticultural purposes; Delimbing standing trees
    • A01G3/08Other tools for pruning, branching or delimbing standing trees
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G17/00Cultivation of hops, vines, fruit trees, or like trees
    • A01G17/02Cultivation of hops or vines
    • A01G17/023Machines for priming and/or preliminary pruning of vines, i.e. removing shoots and/or buds

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Botany (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Forests & Forestry (AREA)
  • Manipulator (AREA)

Abstract

Dispositivo autónomo para la poda automática de vides. La presente invención divulga un dispositivo autónomo para la poda automática de vides que permite automatizar el proceso de poda de las vides en espaldera. Un módulo de visión artificial (12) está configurado para recibir las imágenes de nube de puntos (20), de una vid con ramas (18), y generar, mediante combinación y tratamiento de las imágenes (20), un modelo 3D únicamente de la vid con ramas y enviar el modelo 3D al módulo de inteligencia artificial (14), el cual está configurado para identificar la rama a podar, calcular la posición en 3D de la posición de corte de la rama a podar y transferir la posición de corte y una trayectoria de corte al módulo motriz de brazos robóticos (15) que conecta con el brazo robótico (6, 7) para que lleve al elemento de corte (22) hasta la posición de corte siguiendo la trayectoria de corte y accione el elemento de corte.Autonomous device for automatic pruning of vines. The present invention discloses an autonomous device for the automatic pruning of vines that allows automating the process of pruning the trellised vines. An artificial vision module (12) is configured to receive the point cloud images (20), of a vine with branches (18), and generate, by combining and processing the images (20), a 3D model only of the vine with branches and send the 3D model to the artificial intelligence module (14), which is configured to identify the branch to be pruned, calculate the 3D position of the cutting position of the branch to be pruned and transfer the cutting position and a cutting path to the robotic arm motor module (15) that connects with the robotic arm (6, 7) to bring the cutting element (22) to the cutting position following the cutting path and actuate the cutting element. cut.

Description

DESCRIPCIÓNDESCRIPTION

Objeto de la invenciónObject of the invention

Es objeto de la invención es un dispositivo autónomo para la poda automática de vides. El dispositivo de la presente invención tiene por objetivo permitir la poda automática de vides en espaldera y/o emparradas sin interacción alguna de individuos.The object of the invention is an autonomous device for the automatic pruning of vines. The object of the present invention is to allow the automatic pruning of trellis and / or trellises without any interaction of individuals.

Para lograr el objetivo anterior, el dispositivo combina, entre otros, visión artificial, redes neuronales, inteligencia artificial, robótica y mecánica específica.To achieve the above objective, the device combines, among others, artificial vision, neural networks, artificial intelligence, robotics and specific mechanics.

Campo Técnico de la InvenciónTechnical Field of the Invention

El campo técnico al que pertenece la presente invención es la de los dispositivos que, mediante análisis de imágenes, reconocen objetos tales como vides para el posterior tratamiento de las mismas.The technical field to which the present invention belongs is that of devices that, by means of image analysis, recognize objects such as vines for their subsequent treatment.

Antecedentes de la InvenciónBackground of the Invention

Actualmente se están buscando formas de automatizar tareas como la poda de la vid. La mayoría de las soluciones aportadas parten de lo que se conoce como “espaldera de vid”, “vid en espaldera” o “vid emparrada”. Una espaldera de vid es un soporte para aguantar y conducir la planta de vid, ya que no es capaz de soportar su propio peso a medida que crecen. La mayor ventaja de las vides en espaldera es que permiten la mecanización del cultivo, y por tanto un ahorro en mano de obra muy importante, ya que al no existir sarmientos que cuelguen entre las calles, la maquinaria puede circular sin pisar ni romper sarmientos en cualquier época del ciclo de cultivo.Ways to automate tasks such as vine pruning are currently being sought. Most of the solutions provided are based on what is known as "vine trellis", "trellis vine" or "trellis vine". A vine trellis is a support to support and guide the vine plant, as it is not capable of supporting its own weight as they grow. The greatest advantage of trellised vines is that they allow the mechanization of the crop, and therefore a very important saving in labor, since there are no branches hanging between the streets, the machinery can circulate without stepping on or breaking branches in any time of the growing cycle.

Existen muchas formas de montar un emparrado o espaldera, pero la finalidad es la misma: la conducción de las partes aéreas de la viña. Básicamente se puede distinguir entre dos tipos, el parral y la espaldera en línea. Una línea de espaldera está formada básicamente por:There are many ways to mount a trellis or trellis, but the purpose is the same: the conduction of the aerial parts of the vineyard. Basically you can distinguish between two types, the vine and the trellis in line. A trellis line is basically made up of:

• dos postes cabeceros o extremos, uno al principio y uno al final de cada hilera, que son unos 40 cm más largos que los intermedios y más fuertes, pues van a soportar una importante tensión. Se suelen clavar con una inclinación de unos 60°; • two head or end posts, one at the beginning and one at the end of each row, which are about 40 cm longer than the intermediate ones and are stronger, as they will withstand a significant tension. They are usually nailed with an inclination of about 60 °;

• postes intermedios que normalmente se colocaran cada 5 cepas o cada 6 metros. No son tan fuertes como los extremos. Todos los postes intermedios vienen perforados, en toda su longitud, a una distancia que nos va a permitir colocar los alambres a diferentes alturas en función del crecimiento vegetativo de la vid en ese momento.• intermediate posts that will normally be placed every 5 vines or every 6 meters. They are not as strong as the extremes. All the intermediate posts are drilled, along their entire length, at a distance that will allow us to place the wires at different heights depending on the vegetative growth of the vine at that time.

• hilo de alambre para la fase de formación de vid y otro para la vegetación (pueden ser 2, 3 o 4 hilos). El hilo puede ser desde 0,2mm a 0,6mm en función del tipo de carga que va a soportar. Normalmente los de formación son de 0,4/0,6mm y los de vegetación de 0,4/0,2mm.• wire strand for the vine formation phase and another for vegetation (they can be 2, 3 or 4 strands). The thread can be from 0.2mm to 0.6mm depending on the type of load it will bear. Normally those for formation are 0.4 / 0.6mm and those for vegetation 0.4 / 0.2mm.

A pesar de que la línea de espaldera facilita el crecimiento de las ramas de la vid en un plano bidimensional, las ramas no pueden ser colocadas durante su crecimiento en lugares exactos como para que una máquina de forma predeterminada pueda conocer el punto exacto de corte. Además, no todas las ramas deben ser cortadas a la vez ni por el mismo punto de corte. Por último las ramas no tienen ningún patrón o simetría entre sí, sino que crecen con diferentes ángulos y formas.Although the trellis line facilitates the growth of the vine branches in a two-dimensional plane, the branches cannot be placed during their growth in exact places so that a machine by default can know the exact cutting point. Also, not all branches need to be cut at the same time or at the same cutting point. Finally the branches do not have any pattern or symmetry with each other, but instead grow with different angles and shapes.

Ante las dificultades anteriormente mencionadas, sería deseable encontrar un dispositivo de poda de vides que pudiese tener en cuenta toda la aleatoriedad con la que crecen las ramas de las vides en el momento de poda de las mismas.Given the aforementioned difficulties, it would be desirable to find a vine pruning device that could take into account all the randomness with which vine branches grow at the time of pruning them.

Descripción de la InvenciónDescription of the Invention

La presente invención divulga un dispositivo autónomo para la poda automática de vides que permite automatizar el proceso de poda de las vides en espaldera.The present invention discloses an autonomous device for the automatic pruning of vines that allows automating the process of pruning the trellised vines.

El dispositivo de la presente invención combina de forma novedosa inteligencia artificial, apoyado por redes neuronales, visión artificial, robótica y mecánica específica, pudiendo ser capaz de desplazarse de forma completamente autónoma, sin dependencia de ningún otro elemento. Simplemente sería suficiente con que el usuario (agricultor) coloque el dispositivo de la presente invención en el primer carril para iniciar la poda automática. También es necesario que el usuario (agricultor) delimite mediante una aplicación o similar, la extensión del viñedo que se pretende podar. A partir de ese momento, el dispositivo de la presente invención se desplaza totalmente autónomo sin intervención humana. The device of the present invention combines artificial intelligence in a novel way, supported by neural networks, artificial vision, robotics and specific mechanics, being able to move completely autonomously, without dependence on any other element. It would simply be enough for the user (farmer) to place the device of the present invention in the first lane to start automatic pruning. It is also necessary for the user (farmer) to define, through an application or similar, the extension of the vineyard to be pruned. From that moment on, the device of the present invention moves completely autonomously without human intervention.

En una forma de realización de la invención, el dispositivo autónomo de poda automática para vides comprende una plataforma móvil y una cabina de trabajo, donde:In an embodiment of the invention, the autonomous automatic pruning device for vines comprises a mobile platform and a work cabin, where:

• la plataforma móvil comprende al menos un sistema propulsor;• the mobile platform comprises at least one propulsion system;

• la cabina de trabajo comprende: un módulo de control general; dos paredes interiores y paralelas entre sí, separadas por una distancia predeterminada; dos brazos robóticos, donde cada brazo robótico articulado comprende al menos un elemento de corte; al menos dos cámaras de profundidad por cada pared lateral que generan imágenes de nube de puntos.• the work cabin includes: a general control module; two interior walls parallel to each other, separated by a predetermined distance; two robotic arms, where each articulated robotic arm comprises at least one cutting element; at least two depth cameras per side wall that generate point cloud images.

Donde el módulo de control general comprende un módulo de visión artificial, un módulo de inteligencia artificial y un módulo motriz de brazos robóticos. Y donde el módulo de visión artificial está configurado para recibir las imágenes de nube de puntos, de una vid con ramas situada entre las paredes interiores, y generar, mediante combinación y tratamiento de las imágenes de nube de puntos, un modelo 3D únicamente de la vid con ramas y enviar dicho modelo 3D al módulo de inteligencia Artificial, el cual está configurado para identificar la rama a podar, calcular la posición en 3D de la posición de corte de dicha rama a podar y transferir dicha posición de corte y una trayectoria de corte al módulo motriz de brazos robóticos que conecta con el brazo robótico para que lleve al elemento de corte hasta la posición de corte siguiendo la trayectoria de corte y accione dicho elemento de corte.Where the general control module comprises an artificial vision module, an artificial intelligence module and a robotic arm motor module. And where the artificial vision module is configured to receive the point cloud images, of a vine with branches located between the interior walls, and generate, by combining and treating the point cloud images, a 3D model only of the vine with branches and send said 3D model to the Artificial intelligence module, which is configured to identify the branch to be pruned, calculate the 3D position of the cutting position of said branch to be pruned and transfer said cutting position and a path of cut to the robotic arm drive module that connects to the robotic arm to bring the cutting element to the cutting position following the cutting path and actuate said cutting element.

En otra forma de realización de la invención, la plataforma móvil comprende un chasis, una batería para alimentar a los brazos robóticos y una segunda batería para alimentar a la plataforma móvil y a la cabina de trabajo.In another embodiment of the invention, the mobile platform comprises a chassis, a battery to power the robotic arms and a second battery to power the mobile platform and the work cabin.

En otra forma de realización de la invención, el sistema propulsor está conectado al módulo de control general. Además el sistema propulsor comprende al menos una rueda tractora y omnidireccional, un motor de dirección que orienta la rueda tractora y omnidireccional, un motor de tracción que proporciona movimiento a la rueda tractora y omnidireccional, y un sensor odométrico. La cabina de trabajo puede adicionalmente comprender un módulo de navegación, el cual comprende un módulo GPS conectado con una antena GPS, dos cámaras de navegación frontal, dos cámaras de navegación trasera, unos sensores LIDAR tanto en la parte frontal como en la parte trasera, y al menos un sensor inercial. La cabina de trabajo adicionalmente puede comprender una fotocélula detectora de obstáculos de tal forma que el dispositivo autónomo de poda automática para vides se auto-desplaza mediante el sistema propulsor en base a unas coordenadas GPS obtenidas en el módulo de navegación y en base a unos obstáculos detectados por la fotocélula y de un entorno captado por los sensores LIDAR, el sensor inercial y las cámaras de navegación frontal y trasera. El módulo de control general adicionalmente puede comprender un módulo de control remoto, el cual a su vez comprende unos medios de comunicación WiFi/Bluetooth y 4G/5G con un dispositivo de usuario de modo que el módulo de control remoto está configurado para que el dispositivo autónomo de poda automática para vides funcione según un modo de trabajo seleccionado entre: modo autónomo, en el que el dispositivo autónomo está configurado para analizar el entorno y auto-desplazarse dentro del entorno mediante el sistema propulsor; y, modo cliente/servidor, en el que el dispositivo autónomo está configurado para recibir instrucciones en tiempo real del dispositivo de usuario y ejecutar dichas instrucciones en tiempo real.In another embodiment of the invention, the drive system is connected to the general control module. Furthermore, the propulsion system comprises at least one omnidirectional and traction wheel, a steering motor that guides the omnidirectional and traction wheel, a traction motor that provides movement to the omnidirectional and traction wheel, and an odor sensor. The work cabin can additionally comprise a navigation module, which comprises a GPS module connected to a GPS antenna, two front navigation cameras, two rear navigation cameras, LIDAR sensors both on the front and on the rear, and at least one inertial sensor. The work cabin can additionally comprise an obstacle detector photocell in such a way that the autonomous automatic pruning device for vines is self-moving by means of the propulsion system based on GPS coordinates obtained in the navigation module and based on obstacles detected by the photocell and from an environment captured by the LIDAR sensors, the inertial sensor and the front and rear navigation cameras. The general control module can additionally comprise a remote control module, which in turn comprises a WiFi / Bluetooth and 4G / 5G communication means with a user device so that the remote control module is configured so that the device autonomous automatic pruning for vines works according to a working mode selected from: autonomous mode, in which the autonomous device is configured to analyze the environment and auto-move within the environment by means of the propulsion system; and, client / server mode, in which the standalone device is configured to receive instructions in real time from the user device and execute said instructions in real time.

En otra forma de realización de la invención, el módulo de visión artificial está configurado para recibir imágenes 2D de la vid generadas por las cámaras de profundidad, donde las imágenes 2D se combinan con las imágenes de nube de puntos para obtener el modelo 3D. Con esto se mejora la localización de las yemas. Para esta forma de realización, el módulo de visión artificial está configurado para:In another embodiment of the invention, the artificial vision module is configured to receive 2D images of the vine generated by the depth cameras, where the 2D images are combined with the point cloud images to obtain the 3D model. This improves the location of the buds. For this embodiment, the machine vision module is configured to:

• limpiar ruido de imágenes de nube de puntos y de las imágenes 2D mediante filtros;• clean noise from point cloud images and 2D images using filters;

• separar el primer plano respecto del fondo de las imágenes de nube de puntos y las imágenes 2D mediante matrices 5x5;• separate the foreground from the background of point cloud images and 2D images using 5x5 matrices;

• establecer correspondencias entre las imágenes de nube de puntos y entre las imágenes 2D generadas por las cámaras de profundidad;• establish correspondences between the point cloud images and between the 2D images generated by the depth cameras;

• detectar unos obstáculos formados por alambres, cables y postes de emparrado contenidos en las imágenes de nube de puntos y en las imágenes 2D;• detect obstacles formed by wires, cables and trellis posts contained in the point cloud images and in the 2D images;

• detectar una estructura de la vid;• detect a vine structure;

• generar un modelo 3D sólo de la vid, eliminando los obstáculos.• generate a 3D model of the vine only, removing obstacles.

En otra forma de realización de la invención, el módulo de visión artificial está configurado para:In another embodiment of the invention, the artificial vision module is configured to:

• limpiar ruido de imágenes de nube de puntos mediante filtros;• clean noise from point cloud images using filters;

• separar el primer plano respecto del fondo de las imágenes de nube de punto, preferiblemente mediante matrices 5x5;• separate the foreground from the background of the point cloud images, preferably using 5x5 matrices;

• establecer correspondencias entre las imágenes de nube de puntos generadas por las cámaras de profundidad; • establish correspondences between the point cloud images generated by the depth cameras;

• detectar unos obstáculos formados por alambres, cables y postes de emparrado contenidos en las imágenes de nube de puntos;• detect obstacles formed by wires, cables and trellis posts contained in the point cloud images;

• detectar una estructura de la vid;• detect a vine structure;

• generar un modelo 3D sólo de la vid, eliminando los obstáculos.• generate a 3D model of the vine only, removing obstacles.

En otra forma de realización de la invención, el módulo de inteligencia artificial está configurado para:In another embodiment of the invention, the artificial intelligence module is configured to:

• interpretar y estudiar morfológicamente la vid;• interpret and study the vine morphologically;

• reconstruir la vid en un modelo 3D;• rebuild the vine in a 3D model;

• añadir al modelo 3D los obstáculos detectados en el módulo de visión artificial;• add the obstacles detected in the artificial vision module to the 3D model;

• calcular e introducir unas yemas de los viñedos en el modelo 3D;• calculate and introduce some buds of the vineyards in the 3D model;

• identificar las ramas a cortar;• identify the branches to be cut;

• identificar unos puntos de corte a realizar en la vid.• Identify some cutting points to make on the vine.

En otra forma de realización de la invención, el brazo robótico comprende un elemento de corte, como puede ser una tijera o una cuchilla, una cámara de visión artificial y un sensor laser controlados por un módulo de visión embarcada y corte comprendido en el módulo de control general. El brazo robótico puede comprender una plataforma fija superior, a la que se fijan tres motores, de cada uno de los cuales se suspende una pareja de barras. Cada pareja de barras está unida a una plataforma móvil donde se integran el elemento de corte, la cámara de visión artificial y el sensor laser.In another embodiment of the invention, the robotic arm comprises a cutting element, such as a scissors or a blade, an artificial vision camera and a laser sensor controlled by an on-board vision module and cutting included in the module of general control. The robotic arm may comprise an upper fixed platform, to which three motors are attached, from each of which a pair of bars is suspended. Each pair of bars is attached to a mobile platform where the cutting element, the artificial vision camera and the laser sensor are integrated.

En otra forma de realización de la invención, el brazo robótico puede comprender una plataforma superior, la cual conecta con un motor de rotación del brazo por uno de los extremos de la plataforma superior mediante un motor superior, el cual mueve verticalmente la plataforma superior, el otro extremo de la plataforma superior está conectado con una plataforma inferior movida por un motor inferior a través de una correa que permite el desplazamiento vertical de la plataforma inferior, la cual está dividida en codo, brazo, antebrazo, muñeca, los cuales se conectan por un motor de codo, un motor de antebrazo y un motor de muñeca, respectivamente. En el extremo de la plataforma inferior se sitúan el elemento de corte, la cámara de visión artificial y el sensor laser.In another embodiment of the invention, the robotic arm can comprise an upper platform, which connects to an arm rotation motor at one of the ends of the upper platform by means of an upper motor, which vertically moves the upper platform, the other end of the upper platform is connected with a lower platform driven by a lower motor through a belt that allows vertical displacement of the lower platform, which is divided into elbow, arm, forearm, wrist, which are connected by an elbow motor, a forearm motor and a wrist motor, respectively. At the end of the lower platform are the cutting element, the artificial vision camera and the laser sensor.

En otra forma de realización de la invención, el módulo motriz de brazos robóticos adicionalmente puede comprender un sub-módulo de generación de trayectorias que comprende una función de costes para calcular las diferentes trayectorias de corte de cada brazo robótico.In another embodiment of the invention, the robotic arm motor module may additionally comprise a sub-module for generating trajectories that it comprises a cost function to calculate the different cutting paths of each robotic arm.

En otra forma de realización de la invención, el dispositivo autónomo de poda automática para vides adicionalmente puede comprender una segunda cabina y una segunda plataforma móvil. Mediante dos cabinas y dos plataformas móviles, el dispositivo de la presente invención puede podar dos hileras de vides simultáneamente. Ello conlleva ahorro de tiempo y costes principalmente.In another embodiment of the invention, the autonomous automatic pruning device for vines may additionally comprise a second cabin and a second mobile platform. By means of two cabins and two mobile platforms, the device of the present invention can prune two rows of vines simultaneously. This entails saving time and costs mainly.

Breve descripción de las Figuras.Brief description of the Figures.

La figura 1 muestra el dispositivo autónomo para la poda automática de vides según una forma de realización de la invención.Figure 1 shows the autonomous device for the automatic pruning of vines according to an embodiment of the invention.

La figura 2 muestra otra perspectiva del dispositivo autónomo para la poda automática de vides mostrado en la figura 1.Figure 2 shows another perspective of the autonomous device for automatic pruning of vines shown in figure 1.

La figura 3 muestra una vista superior del dispositivo autónomo para la poda automática de vides mostrado en la figura 1.Figure 3 shows a top view of the autonomous device for automatic grapevine pruning shown in figure 1.

La figura 4 muestra un diagrama de bloques de los módulos que componen el dispositivo autónomo para la poda automática de vides mostrado en la figura 1.Figure 4 shows a block diagram of the modules that make up the autonomous device for automatic pruning of vines shown in figure 1.

La figura 5 muestra dos perspectivas del dispositivo autónomo para la poda automática de vides mostrado en la figura 1 con paredes laterales.Figure 5 shows two perspectives of the autonomous device for automatic pruning of vines shown in figure 1 with side walls.

La figura 6 muestra una perspectiva del dispositivo autónomo para la poda automática de vides mostrado en la figura 1 con las cámaras de profundidad apuntando a un mismo punto.Figure 6 shows a perspective of the autonomous device for the automatic pruning of vines shown in figure 1 with the depth cameras pointing to the same point.

La figura 7 muestra una forma de realización del brazo robótico según la presente invención.Figure 7 shows an embodiment of the robotic arm according to the present invention.

La figura 8 muestra otra forma de realización del brazo robótico según la presente invención. Figure 8 shows another embodiment of the robotic arm according to the present invention.

La figura 9 muestra una imagen de nube de puntos representando una vid y los obstáculos realizada por el módulo de visión artificial.Figure 9 shows a point cloud image representing a vine and obstacles made by the artificial vision module.

La figura 10 muestra una transformación de la nube de puntos en una vid realizada por el módulo de inteligencia artificial.Figure 10 shows a transformation of the point cloud into a vine carried out by the artificial intelligence module.

La figura 11 muestra un cálculo de la forma de una vid resultado de la media característica de la misma realizada por el módulo de inteligencia artificial.Figure 11 shows a calculation of the shape of a vine resulting from its characteristic mean made by the artificial intelligence module.

La figura 12 muestra un procesado inteligente de la vid llevado a cabo por el módulo de inteligencia artificial.Figure 12 shows an intelligent processing of the vine carried out by the artificial intelligence module.

La figura 13 muestra una generación de un modelo 3D completo llevada a cabo por el módulo de inteligencia artificial.Figure 13 shows a generation of a complete 3D model carried out by the artificial intelligence module.

La figura 14 muestra la identificación de unas yemas en una vid llevada a cabo por el módulo de inteligencia artificial.Figure 14 shows the identification of some buds on a vine carried out by the artificial intelligence module.

La figura 15 muestra los distintos puntos de una rama calculados por el módulo de inteligencia artificial y los diferentes ángulos con los que un elemento de corte puede acceder a un punto de corte.Figure 15 shows the different points of a branch calculated by the artificial intelligence module and the different angles with which a cutting element can access a cutting point.

Descripción de una forma de realización.Description of an embodiment.

A la vista de las mencionadas figuras, y de acuerdo con la numeración adoptada, se puede observar en ellas un ejemplo de realización preferente de la invención, la cual comprende las partes y elementos que se indican y describen en detalle a continuación.In view of the aforementioned figures, and in accordance with the numbering adopted, an example of a preferred embodiment of the invention can be seen in them, which comprises the parts and elements that are indicated and described in detail below.

El listado de referencias utilizado en las figuras es el siguiente:The list of references used in the figures is as follows:

1. - Dispositivo autónomo de poda automática para vides.1. - Autonomous automatic pruning device for vines.

2. - Plataforma móvil.2. - Mobile platform.

3. - Cabina de trabajo.3. - Work cabin.

4. - Chasis de la plataforma móvil.4. - Chassis of the mobile platform.

5. - Sistema propulsor: 5a - rueda tractora y omnidireccional;5. - Propulsion system: 5th - traction and omnidirectional wheel;

5b - motor de dirección; 5c - motor de tracción; 5b - steering motor; 5c - traction motor;

5d - sensor odométrico en cada rueda.5d - odometric sensor on each wheel.

6. - Brazo robótico tipo “Y”.6. - “Y” type robotic arm.

7. - Brazo robótico tipo “L”.7. - Robotic arm type “L”.

8. - Módulo de control general.8. - General control module.

9. - Cámaras de profundidad.9. - Depth cameras.

10. - Fotocélula.10. - Photocell.

11. - Módulo de navegación: 11a - módulo GPS; 11b - antena GPS;11. - Navigation module: 11a - GPS module; 11b - GPS antenna;

11c - cámaras de navegación frontal; 11d - cámaras de navegación trasera; 11e - sensores laser tipo LIDAR (frontal y trasero); 11f - sensor inercial.11c - front navigation cameras; 11d - rear navigation cameras; 11e - LIDAR type laser sensors (front and rear); 11f - inertial sensor.

12. - Módulo de Visión Artificial.12. - Machine Vision Module.

13. - Módulo de control Remoto: 13a - WiFi; 13b - 4G.13. - Remote control module: 13a - WiFi; 13b - 4G.

14. - Módulo de Inteligencia artificial: 14a - algoritmo de Inteligencia Artificial. 15. - Módulo motriz de brazos robóticos: Sub-módulo de generación de trayectorias (15a).14. - Artificial Intelligence Module: 14a - Artificial Intelligence algorithm. 15. - Robotic arms motor module: Sub-module for the generation of trajectories (15a).

16. - Módulo de visión embarcada y corte.16. - Embedded vision module and cut.

17. - Baterías: 17a - batería de los brazos robóticos;17. - Batteries: 17th - robotic arms battery;

17b - resto de componentes.17b - other components.

18. - Vid: 18a - rama de la vid.18. - Vine: 18a - branch of the vine.

19. - Obstáculos: alambres y postes metálicos.19. - Obstacles: wires and metal posts.

20. - Imagen de nube de puntos.20. - Point cloud image.

21. - Pared interior de la cabina de trabajo.21. - Inside wall of the work cabin.

22. - Elemento de corte del brazo robótico.22. - Robotic arm cutting element.

23. - Cámara de visión artificial del brazo robótico.23. - Artificial vision camera of the robotic arm.

24. - Sensor laser del brazo robótico.24. - Robot arm laser sensor.

25. - Plataforma fija superior.25. - Fixed upper platform.

26. - Motores del brazo robótico 6.26. - Motors of the robotic arm 6.

27. - Barras del brazo robótico.27. - Robotic arm bars.

28. - Plataforma móvil del brazo robótico.28. - Mobile platform of the robotic arm.

29. - Motores del brazo: 29a - superior; 29b - inferior; 29c - antebrazo; 29d -codo; 29e - muñeca.29. - Arm motors: 29a - upper; 29b - lower; 29c - forearm; 29d - elbow; 29e - wrist.

30. - Correa transmisión brazo robótico.30. - Robotic arm transmission belt.

31. - Motor rotación del brazo robótico.31. - Rotation motor of the robotic arm.

32. - Plataforma superior del brazo robótico.32. - Upper platform of the robotic arm.

33. - Plataforma inferior del brazo robótico: 33a -codo; 33b - brazo;33. - Lower platform of the robotic arm: 33a - elbow; 33b - arm;

33c - antebrazo; 33d - muñeca.33c - forearm; 33d - wrist.

34. - Dispositivo de usuario como teléfono Inteligente “Smartphone” o tablet. 34. - User device such as “Smartphone” or tablet.

35. - imagen obtenida al aplicar un grafo a la nube de puntos 20.35. - image obtained by applying a graph to the point cloud 20.

36. - imagen obtenida del grafo resultado de la media de los puntos característicos.36. - Image obtained from the graph resulting from the mean of the characteristic points.

37. - imagen obtenida del procesado inteligente del grafo.37. - image obtained from the intelligent processing of the graph.

38. - modelo 3D de la vid38. - 3D model of the vine

39. - imagen 2D de la vid.39. - 2D image of the vine.

40. - punto de corte situado en la yema de una rama o muy cerca de la misma (aprox. 1 cm).40. - cutting point located at or very close to the bud of a branch (approx. 1 cm).

41. - ángulos de aproximación al punto de corte.41. - approach angles to the cut-off point.

En toda la presente descripción, el término “conectado” puede significar que los elementos que están “conectados” pueden compartir conexión eléctrica para la alimentación y/o conexión de datos para la comunicación entre ambos elementos. La conexión de datos puede ser unidireccional o bidireccional. De forma alternativa o adicional, el término “conectado” puede significar que los elementos que están “conectados” pueden estar “mecánicamente” unidos por una o más partes de cada elemento.Throughout the present description, the term "connected" can mean that the elements that are "connected" can share electrical connection for power and / or data connection for communication between both elements. The data connection can be one-way or two-way. Alternatively or additionally, the term "connected" can mean that the elements that are "connected" can be "mechanically" joined by one or more parts of each element.

Así, tal y como se observa en la figura 1, en una posible realización preferente del dispositivo autónomo 1, el dispositivo autónomo 1 está comprendido esencialmente por la plataforma móvil 2 y la cabina de trabajo 3, las cuales trabajan conjuntamente. La plataforma móvil está configurada para desplazar a la cabina de trabajo y proporcionarle todos los medios necesarios para realizar la poda según se describe a continuación.Thus, as seen in Figure 1, in a possible preferred embodiment of the autonomous device 1, the autonomous device 1 is essentially comprised of the mobile platform 2 and the work cabin 3, which work together. The mobile platform is configured to move the work cabin and provide all the necessary means for pruning as described below.

Tal y como se observa en la figura 2, la plataforma móvil 2 está compuesta por el chasis 4 y el sistema propulsor 5. El sistema propulsor 5 comprende las ruedas motrices 5a, los motores de dirección 5b, los motores de tracción 5c y el sensor odométrico 5d en cada rueda motriz 5a. Concretamente, en el ejemplo de la figura 2, el sistema propulsor 5 comprende cuatro ruedas motrices con sus correspondientes motores de dirección, motores de tracción y sensores de odométricos. Como cada rueda motriz tiene su propio motor de dirección y motor de tracción, cada rueda puede orientarse de forma independiente al resto. Esto permite desplazarse de forma autónoma por el viñedo detectando la hilera de viñedos. Todo esto gracias a algoritmos de inteligencia artificial junto con los sensores ambientales, como los sensores láser tipo LIDAR, sensores inerciales, sensores odométricos en las ruedas, cámaras de navegación y antena GPS. As seen in figure 2, the mobile platform 2 is made up of the chassis 4 and the propulsion system 5. The propulsion system 5 comprises the driving wheels 5a, the steering motors 5b, the traction motors 5c and the sensor. odometer 5d on each drive wheel 5a. Specifically, in the example of figure 2, the propulsion system 5 comprises four driving wheels with their corresponding steering motors, traction motors and odomometric sensors. As each driving wheel has its own steering motor and traction motor, each wheel can be oriented independently of the rest. This allows to move autonomously through the vineyard by detecting the row of vineyards. All this thanks to artificial intelligence algorithms together with environmental sensors, such as LIDAR-type laser sensors, inertial sensors, odometric sensors on the wheels, navigation cameras and GPS antenna.

Por su parte, la cabina de trabajo 3 está compuesta de dos brazos robóticos articulados 7 (alternativamente 6) (ver figuras 1 a 3), uno a cada lado de la cabina de trabajo 3 y orientados de forma opuesta entre sí. Sobre la cabina de trabajo 3 se sitúan las cámaras de profundidad 9, entre dos y tres (con tres se aumenta la robustez) cámaras de profundidad 9 a cada lado de la cabina de trabajo 3 y la fotocélula 10 se sitúa en el centro de la cabina de trabajo para que el viñedo quede justo en frente de los brazos robóticos. Todo este conjunto de elementos gracias a algoritmos de visión e inteligencia artificial serán capaces de interactuar con el viñedo realizando la poda del mismo.For its part, the work cabin 3 is composed of two articulated robotic arms 7 (alternatively 6) (see Figures 1 to 3), one on each side of the work cabin 3 and oriented opposite each other. Depth cameras 9 are located on the work cabin 3, between two and three (with three increases the robustness) depth cameras 9 on each side of the work cabin 3 and the photocell 10 is located in the center of the work cabin so that the vineyard is right in front of the robotic arms. All this set of elements thanks to vision algorithms and artificial intelligence will be able to interact with the vineyard by pruning it.

El dispositivo autónomo para la poda automática de vides 1 funciona con dos baterías 17 (ver figura 3). Una primera batería 17a dedicada a alimentar únicamente los brazos robóticos 7 (alternativamente 6) y una segunda batería 17b para alimentar el resto de componentes que conforman el dispositivo autónomo para la poda automática de vides.The autonomous device for automatic grapevine pruning 1 works with two batteries 17 (see figure 3). A first battery 17a dedicated to powering only the robotic arms 7 (alternatively 6) and a second battery 17b to power the rest of the components that make up the autonomous device for automatic vine pruning.

Tal y como se observa en la figura 3, el dispositivo autónomo para la poda automática de vides 1 comprende el módulo de control general 8, el cual está situado en la plataforma móvil 2, aunque podría estar situado en la cabina de trabajo 3, ya que su emplazamiento no es relevante. El módulo de control general 8 permite controlar el movimiento de la plataforma móvil 2, y por tanto del dispositivo autónomo para la poda automática de vides 1. La plataforma móvil 2 se detendrá en cada viñedo durante un tiempo para operar con la vid, cuando la plataforma móvil 2 tenga que cambiar de carril tendrá un movimiento continuo para salir de un carril en el que ha trabajado y meterse en el siguiente carril. Adicionalmente, el módulo de control general 8 es capaz de calcular la autonomía de las baterías 17a-17b para preavisar a un usuario de la necesidad de recargar las baterías.As can be seen in figure 3, the autonomous device for the automatic pruning of vines 1 comprises the general control module 8, which is located on the mobile platform 2, although it could be located in the work cabin 3, as that its location is not relevant. The general control module 8 allows to control the movement of the mobile platform 2, and therefore of the autonomous device for the automatic pruning of vines 1. The mobile platform 2 will stop at each vineyard for a time to operate with the vine, when the moving platform 2 you have to change lanes you will have a continuous movement to leave a lane in which you have worked and get into the next lane. Additionally, the general control module 8 is capable of calculating the autonomy of the batteries 17a-17b to pre-warn a user of the need to recharge the batteries.

Tal y como se muestra en el diagrama de bloques de la figura 4, el módulo de control general 8 está conectado con el resto de módulos (11, 12, 13, 14, 15, 16) de los que se compone el dispositivo autónomo para la poda automática de vides 1 y también está conectado con los elementos distribuidos por la plataforma móvil 2 y la cabina de trabajo 3, tales como cámaras de profundidad 9, fotocélula 10, sistema propulsor 5, sensores inerciales 11f, sensores LIDAR 11e, la antena GPS 11a, las cámaras de navegación frontal 11c y trasera 11d. Así, el módulo de control general 8 está conectado con el módulo de navegación 11, el módulo de visión artificial 12, el módulo de control remoto 13, el módulo de inteligencia artificial 14 y el módulo motriz de brazos robóticos 15. El módulo motriz de brazos robóticos 15 a su vez comprende el módulo de visión embarcada y corte 16.As shown in the block diagram of figure 4, the general control module 8 is connected with the rest of the modules (11, 12, 13, 14, 15, 16) of which the autonomous device is composed for the automatic pruning of vines 1 and is also connected with the elements distributed by the mobile platform 2 and the work cabin 3, such as depth cameras 9, photocell 10, propulsion system 5, inertial sensors 11f, LIDAR sensors 11e, the antenna GPS 11a, front 11c and rear 11d navigation cameras. Thus, the general control module 8 is connected with the navigation module 11, the artificial vision module 12, the remote control module 13, the artificial intelligence module 14 and the motor module of robotic arms 15. The robotic arms motor module 15 in turn comprises the on-board vision and cutting module 16.

El módulo motriz de brazos robóticos 15 controla los movimientos de los brazos robóticos 6,7. Cada brazo robótico 6,7 tiene situado en su extremo el elemento de corte 22 (tijera o una cuchilla), la cámara de visión artificial 23 y el sensor laser 24. El módulo de visión embarcada y corte 16 mediante la cámara de visión artificial 23 y/o el sensor laser 24, permite acercarse de forma precisa a la rama que se va a cortar. Además, el módulo de visión embarcada y corte 16 tiene acceso a la cámara de visión artificial 23 y al sensor laser 24 para servir de apoyo a otros módulos como se describe más adelante. Las formas de realización de los brazos robóticos 6,7 se muestran en las figuras 7 y 8, respectivamente. La forma del brazo robótico 6 mostrado en la figura 7 tiene una plataforma fija superior 25, a la que se fijan tres motores 26, de cada uno de los cuales se suspende la pareja de barras 27. Cada pareja de barras 27 está unida a la plataforma móvil 28, donde se integran los elementos de corte 22, la cámara de visión artificial 23 y el sensor laser 24. La otra forma de realización del brazo robótico 7 se muestra en la figura 8. El brazo robótico 7 mostrado en la figura 8 tiene el motor de rotación del brazo 31 que conecta el propio brazo robótico 7 con el chasis y que permite rotaciones del brazo robótico 7 de 360°. Adicionalmente, el brazo robótico 7 tiene la plataforma superior 32. En un extremo de la plataforma superior 32, se encuentra el motor superior 29a que conecta con el motor de rotación del brazo 31. El motor superior 29a mueve verticalmente la plataforma superior 32. La plataforma superior 32 conecta por el otro de sus extremos con la plataforma inferior 33 movida por el motor inferior 29b a través de la correa 30 que permite el desplazamiento vertical de la plataforma inferior 33. La plataforma inferior 33 está dividida en cuatro partes, codo 33a - brazo 33b - antebrazo 33c - muñeca 33d, que se conectan por el motor de codo 29d, el motor de antebrazo 29c y el motor de muñeca 29e, respectivamente. En el extremo de la plataforma inferior 33 se sitúan el elemento de corte 22 (tijera o una cuchilla), la cámara de visión artificial 23 y el sensor laser 24.The robotic arm drive module 15 controls the movements of the robotic arms 6,7. Each robotic arm 6,7 has at its end the cutting element 22 (scissors or a blade), the artificial vision camera 23 and the laser sensor 24. The on-board vision module and cutting 16 by means of the artificial vision camera 23 and / or the laser sensor 24, allows a precise approach to the branch to be cut. In addition, the on-board vision and cutting module 16 has access to the machine vision camera 23 and the laser sensor 24 to support other modules as described below. The robotic arms 6,7 embodiments are shown in Figures 7 and 8, respectively. The shape of the robotic arm 6 shown in figure 7 has an upper fixed platform 25, to which three motors 26 are attached, from each of which the pair of bars 27 is suspended. Each pair of bars 27 is attached to the mobile platform 28, where the cutting elements 22, the artificial vision camera 23 and the laser sensor 24 are integrated. The other embodiment of the robotic arm 7 is shown in figure 8. The robotic arm 7 shown in figure 8 it has the arm rotation motor 31 which connects the robotic arm 7 itself with the chassis and which allows 360 ° rotations of the robotic arm 7. Additionally, the robotic arm 7 has the upper platform 32. At one end of the upper platform 32, there is the upper motor 29a that connects with the rotation motor of the arm 31. The upper motor 29a vertically moves the upper platform 32. The upper platform 32 connects at the other end with the lower platform 33 driven by the lower motor 29b through the belt 30 that allows the vertical movement of the lower platform 33. The lower platform 33 is divided into four parts, elbow 33a - arm 33b - forearm 33c - wrist 33d, which are connected by elbow motor 29d, forearm motor 29c and wrist motor 29e, respectively. At the end of the lower platform 33 are the cutting element 22 (scissors or a blade), the artificial vision camera 23 and the laser sensor 24.

El módulo de navegación 11 es el encargado de comprobar en todo momento su entorno para determinar cómo tiene que desplazarse el dispositivo autónomo 1 hasta el siguiente punto previsto. Para este fin, el módulo de navegación 11 comprende el módulo GPS 11a conectado con la antena GPS 11b, el cual asiste al módulo de control general 8 a determinar la posición del dispositivo autónomo 1 y las posibles trayectorias a seguir en función del modo de funcionamiento. Adicionalmente, el módulo de navegación 11 comprende el sensor inercial 11f, las cámaras de navegación frontal 11c, las cámaras de navegación trasera 11d y los dos sensores (anterior y posterior) láser tipo LIDAR 11e (ver figuras 4 y 5).The navigation module 11 is in charge of checking its environment at all times to determine how the autonomous device 1 has to move to the next planned point. For this purpose, the navigation module 11 comprises the GPS module 11a connected to the GPS antenna 11b, which assists the general control module 8 to determine the position of the autonomous device 1 and the possible trajectories to follow depending on the operating mode. . Additionally, the navigation module 11 comprises the inertial sensor 11f, the cameras of front navigation 11c, the rear navigation cameras 11d and the two sensors (front and rear) laser type LIDAR 11e (see figures 4 and 5).

Por ejemplo, cuando el dispositivo autónomo 1 llega al final de un carril o hilera del viñedo, el módulo de navegación 11 ayuda al módulo de control general 8 a calcular la trayectoria que debe recorrer el dispositivo autónomo 1, el cual seguirá recorriendo la explotación agraria carril a carril en función de la configuración del terreno que haya realizado el usuario a través del GPS. Para realizar el cambio de carril, el dispositivo autónomo 1 se desplazará de forma perpendicular al carril recorrido hasta llegar a centrarse en el siguiente carril a recorrer y una vez ahí, el dispositivo vuelve a entrar en el carril recorriéndolo hasta llegar al final y vuelta a empezar hasta acabar recorriendo todas las hileras de viñedos dentro de la limitación del terreno o viñedo indicada por la aplicación móvil (extensión terreno acotada por GPS). El módulo de control general 8 puede detectar cuando está en una posición adecuada para entrar al carril o hilera calculando la posición del dispositivo autónomo 1 mediante el módulo de navegación 11 y conociendo el entorno mediante el módulo de visión artificial 12, el cual utiliza un sensor laser tipo LIDAR frontal y dos cámaras de navegación frontales, y un sensor laser tipo LIDAR posterior y dos cámaras de navegación posterior. En total cuatro cámaras, dos en la parte frontal y dos posteriores en la parte trasera.For example, when the autonomous device 1 reaches the end of a lane or row in the vineyard, the navigation module 11 helps the general control module 8 to calculate the path that the autonomous device 1 must travel, which will continue to travel the farm. lane by lane depending on the configuration of the terrain made by the user through GPS. To make the lane change, the autonomous device 1 will move perpendicular to the lane traveled until it comes to focus on the next lane to travel and once there, the device will re-enter the lane, traveling it until it reaches the end and back to start to finish traveling all the rows of vineyards within the limitation of the land or vineyard indicated by the mobile application (land area bounded by GPS). The general control module 8 can detect when it is in a suitable position to enter the lane or row by calculating the position of the autonomous device 1 by means of the navigation module 11 and knowing the environment by means of the artificial vision module 12, which uses a sensor front LIDAR type laser and two front navigation cameras, and one rear LIDAR type laser sensor and two rear navigation cameras. In total four cameras, two in the front and two rear in the back.

Tal y como se muestra en el diagrama de bloques de la figura 4, el módulo de control remoto 13 puede comprender el módulo Wifi/Bluetooth 13a y el módulo 4G/5G 13b para las comunicaciones inalámbricas con otros dispositivos remotos 34 de un usuario como teléfonos móviles inteligentes de modo que el dispositivo autónomo 1 puede funcionar en base a dos modos principales:As shown in the block diagram of figure 4, the remote control module 13 can comprise the Wifi / Bluetooth module 13a and the 4G / 5G module 13b for wireless communications with other remote devices 34 of a user such as telephones. smart phones so that the autonomous device 1 can operate based on two main modes:

• Modo autónomo, en el que el dispositivo autónomo 1 se desplaza por el viñedo automáticamente ayudado de los sensores odométricos 5d en cada rueda (para verificar el movimiento de cada rueda), así como de los motores de dirección 5b, los motores de tracción 5c, el módulo de navegación 11 y el módulo de visión artificial 12, incluyendo sensores inerciales 11f (para determinar inclinación), los sensores LIDAR 11e, las cámaras de navegación 11c-11d y el módulo GPS 11a. La combinación de los elementos descritos anteriormente (11, 5b, 5c, 5d, 11a-11f, 12) permite la ubicación sin fallos del dispositivo autónomo 1 en el espacio de trabajo óptimo para realizar la poda. El usuario la única acción que tendrá que realizar es delimitar la parcela mediante coordenadas GPS para que el dispositivo autónomo 1 entienda cual es el área de trabajo, una vez establecido el punto de partida (el inicio de un carril de viñedo), el dispositivo autónomo 1 podrá desplazarse a lo largo del viñedo sin necesidad de intervención humana realizando la tarea de la poda y cambiando de carril de forma autónoma cuando se acabe el carril actual. La plataforma móvil 2 cuando esté trabajando en este modo se irá deteniendo en cada viñedo para que los módulos correspondientes realicen la acción de la poda. La plataforma móvil 2 detecta cada viñedo gracias a la fotocélula 10. La fotocélula 10 está elevada a una distancia de 37 cm del suelo, dicha altura está calculada de forma óptima para que únicamente exista una presencia o bien de viñedo (tronco de la vid), o bien de poste de emparrado. Cuando se produce un corte del sensor de la fotocélula 10 indica que hay presencia o bien de viñedo o de poste de emparrado. Es entonces cuando entra en juego el módulo de visión artificial 12 que dictamina si es vid o no. En caso de ser vid comienza el proceso de trabajo que se detalla en dicho módulo de visión artificial 12, en caso contrario comunicará proseguir la marcha de la plataforma móvil 2 hasta el siguiente corte de la fotocélula 10.• Autonomous mode, in which the autonomous device 1 moves through the vineyard automatically assisted by the odometric sensors 5d on each wheel (to verify the movement of each wheel), as well as the steering motors 5b, the traction motors 5c , the navigation module 11 and the artificial vision module 12, including inertial sensors 11f (to determine inclination), the LIDAR sensors 11e, the navigation cameras 11c-11d and the GPS module 11a. The combination of the elements described above (11, 5b, 5c, 5d, 11a-11f, 12) allows the stand-alone device 1 to be positioned without fail in the optimal workspace for pruning. The only action that the user will have to perform is to delimit the plot using GPS coordinates so that the autonomous device 1 understands which is the work area, once the starting point (the beginning of a vineyard lane) has been established, the autonomous device 1 may move along the vineyard without the need for human intervention, performing the task of pruning and changing lanes autonomously when the current lane ends. When the mobile platform 2 is working in this mode, it will stop at each vineyard so that the corresponding modules carry out the pruning action. The mobile platform 2 detects each vineyard thanks to the photocell 10. The photocell 10 is raised at a distance of 37 cm from the ground, this height is optimally calculated so that there is only one presence or the vineyard (trunk of the vine) , or as a trellis post. When the sensor of the photocell 10 is cut, it indicates that there is either a vineyard or a trellis post. It is then that the artificial vision module 12 comes into play, which determines whether it is vid or not. In the case of being a vine, the work process that is detailed in said artificial vision module 12 begins, otherwise it will communicate to continue the march of the mobile platform 2 until the next cut of the photocell 10.

• Modo remoto, en el que dispositivo autónomo 1 está configurado para ejecutar y recibir instrucciones de un usuario y ejecutar dichas instrucciones en tiempo real. El usuario conduce manualmente el dispositivo autónomo 1 mediante un dispositivo remoto 34 del cliente ayudado de una aplicación móvil dedicada, como puede ser un teléfono inteligente (“Smartphone”) o tableta digital (“Tablet”) con comunicación bidireccional que, mediante una aplicación dedicada, permite al usuario controlar el dispositivo autónomo 1 de la presente invención, intercambiando constantemente datos de funcionamiento del dispositivo autónomo 1 con el módulo de control remoto 13 que pueden ser útiles para el usuario.• Remote mode, in which standalone device 1 is configured to execute and receive instructions from a user and execute those instructions in real time. The user manually drives the autonomous device 1 through a remote device 34 of the client aided by a dedicated mobile application, such as a smart phone (“Smartphone”) or digital tablet (“Tablet”) with bidirectional communication that, through a dedicated application , allows the user to control the autonomous device 1 of the present invention, constantly exchanging operating data of the autonomous device 1 with the remote control module 13 that may be useful to the user.

Para poder realizar la poda, el dispositivo autónomo para la poda automática de vides 1 tiene que analizar las vides que se encuentran dentro de la cabina de trabajo 3, y más concretamente entre las paredes internas 21 paralelas entre sí. Para ello, el dispositivo autónomo 1 comprende el módulo de visión artificial 12 que se apoya en las cámaras de profundidad 9. La figura 6 muestra cómo se orientan las cuatros cámaras de profundidad 9 hacia un mismo punto. Para analizar una vid que se situase en el interior de la cabina de trabajo 3, el módulo de visión artificial 12 se conecta con las cámaras de profundidad 9 para realizar un barrido del interior de la cabina de trabajo 3 según se explica a continuación.In order to carry out the pruning, the autonomous device for the automatic pruning of vines 1 has to analyze the vines located inside the work cabin 3, and more specifically between the internal walls 21 parallel to each other. For this, the autonomous device 1 comprises the artificial vision module 12 which is supported by the depth cameras 9. Figure 6 shows how the four depth cameras 9 are oriented towards the same point. To analyze a vine that is located inside the work cabin 3, the artificial vision module 12 is connected with the depth cameras 9 to scan the interior of the work cabin 3 as explained below.

El módulo de visión artificial 12 se apoya en imágenes de profundidad que generan las imágenes de nube de puntos 20, y opcionalmente imágenes 2D (tipo fotografía), ya que las cámaras utilizadas para captar la vid son cámaras de profundidad y permiten captar ambos tipos de formato. Las cámaras de profundidad 9 rodean al viñedo desde distintos puntos y con diferentes ángulos para obtener una mayor precisión del viñedo al captarse desde diferentes puntos. Las imágenes de profundidad se utilizan para recomponer y superponer todas las nubes de puntos, y opcionalmente las imágenes 2D, de las diferentes cámaras de profundidad 9, haciendo que estas coincidan en un único modelo 3D de la vid. Este modelo 3D 18 generado por el módulo de visión artificial 12 es únicamente sobre el viñedo, quitando de este modelo 3D los obstáculos 19 (alambres, mástil y/o poste de los viñedos emparrados), ya que dicha información ahora no interesa procesar, se añadirá a posteriori al modelo 3D. Cuando este módulo de visión artificial termina de generar el modelo 3D sin obstáculos, le proporcionará al módulo de inteligencia artificial 14. Una vez recompuesta el modelo 3D del viñedo (solo viñedo) gracias al módulo de visión artificial 12, el módulo de inteligencia artificial 14, comenzara su función.The artificial vision module 12 relies on depth images that generate the point cloud images 20, and optionally 2D images (photography type), already that the cameras used to capture the vine are depth cameras and allow both types of format to be captured. The 9 depth cameras surround the vineyard from different points and at different angles to obtain greater precision of the vineyard when captured from different points. The depth images are used to recompose and superimpose all the point clouds, and optionally the 2D images, from the 9 different depth cameras, making them coincide in a single 3D model of the vine. This 3D model 18 generated by the artificial vision module 12 is only about the vineyard, removing from this 3D model the obstacles 19 (wires, mast and / or pole of the trellised vineyards), since said information is now not interesting to process, it is added later to the 3D model. When this artificial vision module finishes generating the 3D model without obstacles, it will provide the artificial intelligence module 14. Once the 3D model of the vineyard (vineyard only) has been recomposed thanks to the artificial vision module 12, the artificial intelligence module 14 , will begin its function.

Cuando el módulo de visión artificial 12 realiza el barrido del interior de la cabina de trabajo 3, se obtiene el modelo 3D formada por una nube de puntos según se muestra en la figura 9. El resultado de la recomposición en el modelo 3D es una nube de puntos que entremezcla la vid 18 y los elementos que rodean la vid que se denominan “obstáculos” 19 en la presente memoria descriptiva. Los obstáculos detectados 19 son eliminados por el módulo de visión artificial 12 antes de enviar el modelo 3D al módulo de inteligencia artificial 14. El módulo de visión artificial 12 procesa y triangula la información obtenida a partir de las cuatro cámaras de profundidad 9 situadas por cabina (dos cámaras de profundidad en cada lado) con el objetivo de recomponer la vid en el modelo 3D, generando el modelo 3D 18 del viñedo puro, quitando el ruido que pueda tener las imágenes y otros elementos que ahora no son de interés como el poste metálico y los alambres del emparrado. Es decir, el módulo de visión artificial 12 toma imágenes de nube de puntos, y opcionalmente imágenes 2D, de la vid a partir de las cuatro cámaras por cabina de trabajo, las analiza para discriminar la vid de los obstáculos (alambres y postes metálicos comunes en las vides “emparradas”) y posteriormente se lo facilita al módulo de inteligencia artificial 14, el cual trabaja también tanto con el modelo 3D del viñedo puro, como opcionalmente con las imágenes en 2D, realizando operaciones diferentes. El módulo de visión artificial 12 tiene un margen de error inferior a 1 milímetro con la realidad. Con esta precisión, el módulo de visión artificial 12 permite detectar correctamente el modelo del viñedo en un entorno real. When the artificial vision module 12 sweeps the interior of the work booth 3, the 3D model formed by a cloud of points is obtained as shown in figure 9. The result of the recomposition in the 3D model is a cloud of dots that intermingle the vine 18 and the elements surrounding the vine that are referred to as "obstacles" 19 in the present specification. The detected obstacles 19 are eliminated by the artificial vision module 12 before sending the 3D model to the artificial intelligence module 14. The artificial vision module 12 processes and triangulates the information obtained from the four depth cameras 9 located per cabin (two depth cameras on each side) with the aim of recomposing the vine in the 3D model, generating the 3D model 18 of the pure vineyard, removing the noise that the images and other elements that are now not of interest such as the post may have metal and trellis wires. That is, the artificial vision module 12 takes point cloud images, and optionally 2D images, of the vine from the four cameras per work cabin, analyzes them to discriminate the vine from obstacles (common metal wires and posts in the “trellised” vines) and later it is provided to the artificial intelligence module 14, which also works both with the 3D model of the pure vineyard, and optionally with the 2D images, performing different operations. The machine vision module 12 has a margin of error of less than 1 millimeter with reality. With this precision, the artificial vision module 12 makes it possible to correctly detect the vineyard model in a real environment.

Además, para aumentar la precisión, el módulo de visión artificial 12 se puede conectar con el módulo de visión embarcada y corte 16 para, mediante la cámara de visión artificial 23 y/o el sensor láser 24 situados en los extremos de la herramienta de corte, medir con exactitud la distancia que dista de la vid analizada y los puntos de corte calculados antes de cortar cada rama. Es decir, el módulo de visión embarcada y corte 16 se acerca o aproxima a las distancias que recibe del módulo de inteligencia artificial 14 y esta puede ser retroalimentada cuando el brazo se acerca al punto de corte gracias al módulo de visión embarcada y corte 16 que va comprobando en todo momento la distancia hasta llegar al punto de corte y si está situada correctamente en la posición la herramienta de corte entonces es cuando corta y comprueba si se ha cortado o no la rama. Si no se corta puede reintentarlo hasta en al menos dos ocasiones adicionales.In addition, to increase precision, the artificial vision module 12 can be connected with the on-board vision and cutting module 16, through the artificial vision camera 23 and / or the laser sensor 24 located at the ends of the cutting tool. , accurately measure the distance from the analyzed vine and the cut points calculated before cutting each branch. That is, the on-board vision and cutting module 16 approaches or approaches the distances it receives from the artificial intelligence module 14 and this can be fed back when the arm approaches the cut-off point thanks to the on-board vision and cutting module 16 that at all times it checks the distance to the cutting point and if the cutting tool is correctly positioned in the position, then it is when it cuts and checks whether or not the branch has been cut. If it is not cut, you can retry up to at least two additional times.

El módulo de visión artificial 12 lleva a cabo, principalmente, las siguientes funcionalidades:The artificial vision module 12 mainly carries out the following functionalities:

• limpiar ruido de las imágenes (nubes de puntos y opcionalmente imágenes 2D) tomadas con diferentes filtros;• clean noise from images (point clouds and optionally 2D images) taken with different filters;

• separación del primer plano respecto del fondo;• separation of the foreground from the background;

• correspondencia entre imágenes (nubes de puntos y opcionalmente imágenes 2D) de las diferentes cámaras de profundidad.• correspondence between images (point clouds and optionally 2D images) from the different depth cameras.

• detección de los alambres y postes de emparrado;• detection of trellis wires and posts;

• detección de la estructura del viñedo; y,• detection of the vineyard structure; and,

• generación de un modelo 3D puro del viñedo, sin otros elementos como cables o postes.• generation of a pure 3D model of the vineyard, without other elements such as cables or poles.

La funcionalidad de “limpiar ruido de las imágenes tomadas con diferentes filtros” consiste en aplicar diversos filtros para eliminar el “ruido” o información no útil al realizarse las capturas tanto de las imágenes en 2D como de las imágenes de la nube de puntos.The “clean noise from images taken with different filters” functionality consists of applying various filters to eliminate “noise” or non-useful information when capturing both the 2D images and the point cloud images.

Dentro de la funcionalidad de “separación del primer plano respecto del fondo”, la cabina de trabajo 3 estará compuesta por cuatro cámaras de profundidad 9 y dos brazos robóticos 6,7 como los mostrados en las figuras 7 y 8, en la disposición de la cabina de trabajo mostrada en cualquiera de las figuras 1 a 3. De esta forma, cada grupo de dos cámaras de profundidad 9 por lado trabaja en dos planos: primer plano y fondo. Se considera primer plano a los obstáculos (cables del enrejado, los postes) y la vid en sí. El fondo sería entonces la cara interna de la pared lateral 21 de la cabina de trabajo 3 que se encuentra detrás de la vid. Es decir, entre las paredes internas de la cabina de trabajo, sólo se encuentran los brazos robóticos 6 o 7 y la vid emparrada. El resto de elementos del dispositivo autónomo 1 se encuentran o enrasados con las paredes interiores o por detrás de las paredes interiores y distribuidos por el chasis de la plataforma móvil. La cara interna de la pared lateral de la cabina puede ser de cualquier color, pero los mejores resultados se obtienen para un color azul uniforme y un blanco mate. La separación del primer plano respecto del fondo se basará en los algoritmos SVM (Support Vector Machine). Concretamente en RBF-SVM, (Radial Basis Function Support Vector Machine), que es un conjunto de algoritmos de aprendizaje supervisado. El módulo de visión artificial 12 comprende unas librerías que hacen posible etiquetar cada pixel como cable, poste o vid basándose en su forma, color y en el color de los píxeles vecinos. Las características que se analizan mediante la SVM son matrices de 5x5 píxeles, calculando la media de los píxeles opuestos de la matriz para hacer dichas características invariantes a la rotación.Within the functionality of "separation of the foreground from the background", the work cabin 3 will be composed of four depth cameras 9 and two robotic arms 6,7 as shown in figures 7 and 8, in the arrangement of the work booth shown in any of figures 1 to 3. In this way, each group of two depth cameras 9 per side works in two planes: foreground and background. Obstacles (lattice cables, poles) and the vine itself. The bottom would then be the internal face of the side wall 21 of the work cabin 3 that is behind the vine. That is, between the internal walls of the work cabin, there are only 6 or 7 robotic arms and the trellis vine. The rest of the elements of the autonomous device 1 are either flush with the interior walls or behind the interior walls and distributed throughout the chassis of the mobile platform. The inside of the cab side wall can be any color, but the best results are obtained for a uniform blue color and a matte white. The separation of the foreground from the background will be based on SVM (Support Vector Machine) algorithms. Specifically in RBF-SVM, (Radial Basis Function Support Vector Machine), which is a set of supervised learning algorithms. The artificial vision module 12 comprises libraries that make it possible to label each pixel as cable, pole or vine based on its shape, color and the color of neighboring pixels. The characteristics that are analyzed by SVM are 5x5 pixel matrices, calculating the average of the opposite pixels of the matrix to make said characteristics invariant to rotation.

La funcionalidad “correspondencia entre imágenes de las diferentes cámaras” consiste en identificar la correspondencia entre los mismos puntos que son capturados desde las distintas cámaras de profundidad tanto en las imágenes 2D como en las capturas de las nubes de puntos. Haciendo que, en el caso de la nube de puntos, todas las capturas tomadas coincidan en el mismo espacio, creando de esta forma un primer modelo 3D de la vid y de los obstáculos.The "correspondence between images from the different cameras" functionality consists of identifying the correspondence between the same points that are captured from the different depth cameras, both in 2D images and in point cloud captures. Making that, in the case of the point cloud, all the captures taken coincide in the same space, creating in this way a first 3D model of the vine and the obstacles.

Una vez realizado el proceso anterior la funcionalidad “detección de los alambres y postes de emparrado” hará la detección de los obstáculos identificando los objetos característicos con líneas rectas pertenecientes a postes o alambres y quitando los mismos del modelo 3D. Para detectar los cables y los postes se utilizarán técnicas de visión artificial, como son la detección de líneas rectas, la transformada de Hough o la diferenciación de elementos por color con algoritmos como RegionGrowingRGB.Once the above process has been carried out, the functionality "detection of the wires and trellis posts" will detect obstacles by identifying the characteristic objects with straight lines belonging to posts or wires and removing them from the 3D model. To detect the cables and poles, artificial vision techniques will be used, such as the detection of straight lines, the Hough transform or the differentiation of elements by color with algorithms such as RegionGrowingRGB.

La funcionalidad de “detección de la estructura del viñedo” para la detección de la estructura de la vid, el módulo de Visión Artificial 12 utiliza como base la estructura estándar de una vid: una rama grande que sube del suelo y termina en una cabeza o base de forma irregular o una especie de T entre el tronco y la rama principal (dependiendo de la variedad), separándose después en ramas más pequeñas que a su vez se dividen en otras más pequeñas. The functionality of "detection of the vineyard structure" for the detection of the structure of the vine, the Machine Vision 12 module uses as its base the standard structure of a vine: a large branch that rises from the ground and ends in a head or irregularly shaped base or a kind of T between the trunk and the main branch (depending on the variety), later separating into smaller branches which in turn divide into smaller ones.

El algoritmo de visión artificial para asegurar que todos los elementos no pertenecientes a la vid de la nube de puntos son eliminados, también restará la información determinada en el paso anterior cuando detectó los postes de emparrado y alambres.The machine vision algorithm to ensure that all non-vine elements from the point cloud are removed, it will also subtract the information determined in the previous step when it detected the trellis posts and wires.

Tras realizar este paso de identificación de vid y el paso anterior de eliminación de obstáculos a través de la funcionalidad “detección de alambres y postes de emparrado” se procederá a generar un modelo 3D “puro” 18, es decir, solo contendrá el viñedo en 3D sin ningún otro tipo de obstáculos.After carrying out this vine identification step and the previous step of eliminating obstacles through the “detection of wires and trellis posts” functionality, a “pure” 3D model will be generated 18, that is, it will only contain the vineyard in 3D without any other obstacles.

Con la información facilitada por el módulo de visión artificial 12, el módulo de inteligencia artificial 14 comienza a transformar la nube de puntos (facilitada por el módulo de visión artificial 12) en un componente que pueda entender y procesar para saber cómo realizar la poda de este viñedo.With the information provided by the artificial vision module 12, the artificial intelligence module 14 begins to transform the point cloud (provided by the artificial vision module 12) into a component that it can understand and process to know how to perform pruning. this vineyard.

El módulo de inteligencia artificial 14 tiene un algoritmo de inteligencia artificial complejo que sólo está preparado para recibir la nube de puntos del viñedo sin que tenga otros elementos como cables y postes (ver figura 9), es decir, sería únicamente la nube de los puntos que representan la vid 18 sin obstáculos tales como alambres y postes metálicos 19 (ver figura 9). Es por este motivo que el módulo de visión artificial 12 envía al módulo de inteligencia artificial 14, un modelo 3D (ver figura 9) únicamente del viñedo 18 eliminando todo el ruido de imagen y otros elementos captados, como alambres y mástil del emparrado 19 que puedan interferir en la comprensión del viñedo por parte del algoritmo de inteligencia artificial 14a. Es entonces cuando comienza el procesado de las nubes de puntos del viñedo realizando un esqueleto del mismo y sacando un resumen característico del viñedo para poder interactuar con él.The artificial intelligence module 14 has a complex artificial intelligence algorithm that is only prepared to receive the point cloud of the vineyard without having other elements such as cables and poles (see figure 9), that is, it would only be the point cloud representing the vine 18 without obstacles such as wires and metal posts 19 (see figure 9). It is for this reason that the artificial vision module 12 sends to the artificial intelligence module 14, a 3D model (see figure 9) only of the vineyard 18 eliminating all the image noise and other captured elements, such as wires and the mast of the trellis 19 that may interfere with the understanding of the vineyard by the artificial intelligence algorithm 14a. It is then when the processing of the point clouds of the vineyard begins, making a skeleton of the same and taking a characteristic summary of the vineyard to be able to interact with it.

El algoritmo de inteligencia artificial 14a incluye funciones de descomposición y reconstrucción de objetos en imágenes, así como algoritmos de segmentación y contracción e interpretación. Es decir, la nube de puntos del modelo en 3D representando a la vid 18 (figura 9) es tratada por el algoritmo de inteligencia artificial que realiza los pasos de: descomposición 35 (figura 10), reconstrucción 36 (figura 11), segmentación 37 (figura 12), contracción e interpretación 38 (figura 13) para obtener la información característica de la morfología de la vid. Una vez obtenida la información característica de la morfología de la vid, el módulo de inteligencia artificial 14 dictamina cuales son las ramas a cortar (pero no el punto de corte) en función de la fisiología de la vid y del método de poda elegido (el dispositivo autónomo 1 puede podar hasta en tres métodos diferentes de poda: poda Guyot, poda en Cordón y poda en Guyot doble).The artificial intelligence algorithm 14a includes functions of decomposition and reconstruction of objects in images, as well as algorithms of segmentation and contraction and interpretation. That is, the point cloud of the 3D model representing vine 18 (figure 9) is processed by the artificial intelligence algorithm that performs the steps of: decomposition 35 (figure 10), reconstruction 36 (figure 11), segmentation 37 (figure 12), contraction and interpretation 38 (figure 13) to obtain the characteristic information of the morphology of the vine. Once the characteristic information on the morphology of the vine has been obtained, the artificial intelligence module 14 determines which branches are to be cut (but not the cutting point) based on the physiology of the vine and the chosen pruning method (the standalone device 1 can prune up to three different pruning methods: Guyot pruning, Cordon pruning and double Guyot pruning).

Para la identificación de las ramas a cortar, el módulo de Inteligencia Artificial 14 toma como modelo el comportamiento esperable de una persona real podando el viñedo. Esta persona seleccionaría las ramas que no quiere cortar en base a unos criterios (longitud, posición, ángulo respecto de la cabeza o base, distancia bajo los cables, o si la rama crece desde la cabeza, o desde el tronco o desde otra rama) y cortaría el resto. Estos criterios se entrenan con redes neuronales parametrizadas con una función de costes, de modo que los parámetros antes mencionados (longitud, grosor, posición, ángulo, etc...) tendrán un coste asociado en base a unas reglas predefinidas con anterioridad, por lo que al tener la vid representada en 3D, el algoritmo de inteligencia artificial del módulo de Inteligencia Artificial 14 tiene asociado un determinado coste a cada una de las ramas que conforman la vid en función de los criterios programados y al final se decide qué combinación de cortes a realizar es la que minimiza dicha función de costes.For the identification of the branches to be cut, the Artificial Intelligence module 14 takes as a model the expected behavior of a real person pruning the vineyard. This person would select the branches that they do not want to cut based on criteria (length, position, angle from the head or base, distance under the cables, or if the branch grows from the head, or from the trunk or from another branch) and cut the rest. These criteria are trained with parameterized neural networks with a cost function, so that the aforementioned parameters (length, thickness, position, angle, etc ...) will have an associated cost based on previously predefined rules, therefore that by having the vine represented in 3D, the artificial intelligence algorithm of the Artificial Intelligence module 14 has a certain cost associated with each of the branches that make up the vine based on the programmed criteria and in the end it is decided what combination of cuts to be carried out is the one that minimizes said cost function.

Una vez seleccionada las ramas que han sido elegidas para podar, se recurre nuevamente al módulo de visión artificial 12, el cual ha guardado la información relativa a la nube de puntos de los obstáculos 19 (alambres y postes) y que fueron inicialmente eliminados por el módulo de visión artificial 12. Esta información se vuelve a juntar al modelo 3D procesado por el módulo de inteligencia artificial 14.Once the branches that have been chosen for pruning have been selected, the artificial vision module 12 is used again, which has saved the information related to the point cloud of the obstacles 19 (wires and posts) and that were initially eliminated by the artificial vision module 12. This information is put back together to the 3D model processed by artificial intelligence module 14.

El módulo de inteligencia artificial 14 añade al modelo 3D las yemas de las ramas 40 del viñedo, cruciales para determinar el punto de corte exacto. La identificación de las yemas (ver figura 14) se realiza con algoritmos de “machine learning” (redes neuronales) tipo “TensorFlow” sobre las imágenes 2D, identificando las yemas y a continuación se pasarán las coordenadas de las yemas detectadas al modelo 3D.The artificial intelligence module 14 adds to the 3D model the buds of the branches 40 of the vineyard, crucial for determining the exact cut point. The identification of the buds (see figure 14) is carried out with “machine learning” algorithms (neural networks) type “TensorFlow” on the 2D images, identifying the buds and then the coordinates of the detected buds will be passed to the 3D model.

La posición o coordenadas de las yemas (detectadas en las imágenes 2D) en el modelo 3D se realizará mediante fórmulas matemáticas, en función de la posición y ángulo de cada cámara de profundidad, junto con la medición de determinados puntos característicos entre diferentes cámaras de profundidad (triangulación). Esta triangulación permitirá, partiendo de un 2D con coordenadas X e Y de los objetos, pasar a un modelo 3D con coordenadas X, Y, Z y RX, RY, RZ. The position or coordinates of the buds (detected in the 2D images) in the 3D model will be made using mathematical formulas, depending on the position and angle of each depth camera, together with the measurement of certain characteristic points between different depth cameras. (triangulation). This triangulation will allow, starting from a 2D with X and Y coordinates of the objects, to pass to a 3D model with X, Y, Z and RX, RY, RZ coordinates.

Cuando el modelo 3D dispone de toda la información calculada (viñedo procesado, obstáculos detectados como alambres y postes, yemas detectadas y ramas seleccionadas para su poda), el módulo de inteligencia artificial 14 procede a calcular la posición exacta del punto de corte de la rama a podar. A continuación, esta información del punto de corte y objetos detectados se facilitará al módulo motriz de brazos robóticos 15. En la figura 15 se observan los distintos puntos característicos de una rama calculados por el módulo de inteligencia artificial 14 y los diferentes ángulos de aproximación 41 con los que el elemento de corte puede acceder al punto de corte.When the 3D model has all the calculated information (processed vineyard, obstacles detected such as wires and posts, buds detected and branches selected for pruning), the artificial intelligence module 14 proceeds to calculate the exact position of the cutting point of the branch to prune. This information about the cut-off point and detected objects will then be provided to the robotic arms motor module 15. Figure 15 shows the different characteristic points of a branch calculated by the artificial intelligence module 14 and the different approach angles 41 with which the cutting element can access the cutting point.

El módulo de inteligencia artificial 14 realiza los siguientes pasos:The artificial intelligence module 14 performs the following steps:

• transforma la nube de puntos en un grafo capaz de procesar puntos característicos (ver figura 10);• transforms the point cloud into a graph capable of processing characteristic points (see figure 10);

• calcula la forma de un grafo resultado de la media de los puntos característicos (ver figura 11);• calculates the shape of a graph resulting from the mean of the characteristic points (see figure 11);

• lleva a cabo un procesado inteligente del grafo (ver figura 12);• carries out an intelligent processing of the graph (see figure 12);

• genera el modelo 3D completo, procesado e interpretado (ver figura 13);• generates the complete 3D model, processed and interpreted (see figure 13);

En el contexto de la presente memoria descriptiva, un grafo es un conjunto de objetos llamados vértices o nodos unidos por enlaces llamados aristas o arcos, que permiten representar relaciones binarias entre elementos de un conjunto.In the context of the present specification, a graph is a set of objects called vertices or nodes joined by links called edges or arcs, which allow representing binary relationships between elements of a set.

El procesado inteligente consiste en asignar un valor a cada nodo del grafo en función de las características de ese punto de la vid. Por ejemplo, si es un nodo de la cabeza de la vid, se le asignara un valor alto para que nunca se corte la cabeza. Si es el inicio de una rama fina se asignara un valor bajo para que lo considere como un punto de corte aproximado. Si es el final de la rama se le asignará un valor alto puesto que cortar por arriba de la rama o a una distancia superior a 20 cm no es interesante. A priori, es más interesante cortar o a una distancia de 4 o 5 centímetros del inicio de la rama, o la rama enrasada con la cabeza (0cm de la rama) para que desaparezca completamente.Intelligent processing consists of assigning a value to each node of the graph based on the characteristics of that point on the vine. For example, if it is a node of the head of the vine, it will be assigned a high value so that the head is never cut off. If it is the beginning of a fine branch, a low value will be assigned so that it is considered as an approximate cut-off point. If it is the end of the branch, it will be assigned a high value since cutting above the branch or at a distance greater than 20 cm is not interesting. A priori, it is more interesting to cut either at a distance of 4 or 5 centimeters from the beginning of the branch, or the branch flush with the head (0cm from the branch) so that it disappears completely.

Por tanto, el módulo de inteligencia artificial 14 lleva a cabo, principalmente, las siguientes funcionalidades:Therefore, the artificial intelligence module 14 mainly carries out the following functionalities:

• Interpretación de la vid y estudio morfológico.• Interpretation of the vine and morphological study.

• Reconstrucción de la vid en 3D. • Reconstruction of the vine in 3D.

• Introducción en el objeto 3D de los obstáculos detectados en el módulo de visión artificial.• Introduction into the 3D object of the obstacles detected in the artificial vision module.

• Calculo e introducción de las yemas de los viñedos en modelo 3D.• Calculation and introduction of the buds of the vineyards in 3D model.

• Identificación de las ramas a cortar.• Identification of the branches to be cut.

• Identificación de los puntos de corte a realizar en la vid.• Identification of the cutting points to be made on the vine.

El módulo de inteligencia artificial 14 envía los puntos de corte a realizar en la vid al módulo motriz de brazos robóticos 15. El módulo motriz de brazos robóticos 15 calcula la trayectoria a seguir por los brazos robóticos 6,7 para llegar a todos los puntos de corte establecidos evitando los obstáculos como alambres, postes y otras ramas que puedan interferir. Para esto, el módulo motriz de brazos robóticos 15 comprende el sub-módulo de generación de trayectorias 15a que utiliza algoritmos de cálculo de trayectorias libres de obstáculos basados en las librerías “Grasp Server” y “Parallel Execution”, de ROS.The artificial intelligence module 14 sends the cutting points to be made on the vine to the robotic arms motor module 15. The robotic arms motor module 15 calculates the path to be followed by the robotic arms 6,7 to reach all the points of established cutting avoiding obstacles such as wires, posts and other branches that may interfere. For this, the robotic arms motor module 15 comprises the trajectory generation sub-module 15a that uses algorithms for calculating obstacle-free trajectories based on ROS's "Grasp Server" and "Parallel Execution" libraries.

Hay que tener en cuenta que el punto de corte puede tener varias opciones de ángulos de corte (ver figura 15), por lo que un único punto de corte puede generar diferentes trayectorias de los brazos, y el módulo motriz de brazos robóticos 15 ejecutará siempre aquella que sea mínima en costes de tiempo.It must be taken into account that the cutting point can have several options of cutting angles (see figure 15), so that a single cutting point can generate different trajectories of the arms, and the robotic arms motor module 15 will always execute the one that is minimal in time costs.

Dado que el dispositivo autónomo de poda automática para vides 1 tiene dos brazos robóticos 6,7 por cabina de trabajo 3, el dispositivo 1 tiene acceso a cada vid por dos lados. Esto permitirá la maniobra de uno u otro brazo robótico en función de su accesibilidad al punto de corte elegido. La selección del brazo robótico 6,7 encargado de realizar el corte se llevará a cabo a través de un algoritmo matemático de costes, se calcula por cada punto de corte el coste de tiempo en posicionarse para llegar a los distintos puntos de corte y gracias a esto, el módulo motriz de brazos robóticos 15 puede identificar el tiempo de movimiento de la planificación antes de ejecutarla y descartarla o usarla en función de si cumple el tiempo mínimo. Los costes de cada punto de corte se calcularán y actualizarán en tiempo real en función de la posición de los brazos con respecto al viñedo. El módulo motriz de brazos robóticos 15 tiene implementado un algoritmo de prioridad para calcular el orden de los puntos de corte dando prioridad a los puntos de corte más accesibles.Since the autonomous automatic pruning device for vines 1 has two robotic arms 6,7 per work cabin 3, the device 1 has access to each vine from two sides. This will allow the maneuvering of one or another robotic arm depending on its accessibility to the chosen cut-off point. The selection of the 6,7 robotic arm in charge of making the cut will be carried out through a mathematical cost algorithm, the cost of time in positioning to reach the different cut points is calculated for each cut point and thanks to In this way, the robotic arms motor module 15 can identify the movement time of the planning before executing it and discard or use it depending on whether it meets the minimum time. The costs of each cutting point will be calculated and updated in real time according to the position of the arms with respect to the vineyard. The robotic arm drive module 15 has implemented a priority algorithm to calculate the order of the cut points giving priority to the most accessible cut points.

En la figura 15 se muestra al módulo motriz de brazos robóticos 15 calculando la planificación que tiene que realizar uno de los brazos robóticos 6,7 para llevar al elemento de corte 22 (tijera o cuchilla) hasta al punto de corte, además de mostrarse el punto de corte se muestran todas las posibles orientaciones de este punto, que puede realizar el brazo robótico 6,7 para ejecutar un corte de la rama correctamente.Figure 15 shows the robotic arms motor module 15 calculating the planning that one of the robotic arms 6,7 has to perform to bring the cutting element 22 (scissors or blade) to the cutting point, in addition to showing the cut point shows all the possible orientations of this point, which can be made by the robot arm 6,7 to execute a cut of the branch correctly.

Por último al posicionarse el brazo robótico 6,7 en el punto de corte se activará la tijera que, apoyada de la cámara de visión artificial 23 y del sensor laser 24, verificará que se ha realizado el corte de la rama en la posición indicada y actualizando el modelo 3D del viñedo, este último proceso lo realiza el módulo de visión embarcada y corte 16 que se detalla a continuación del resumen.Finally, when the robotic arm 6,7 is positioned at the cutting point, the scissors will be activated which, supported by the artificial vision camera 23 and the laser sensor 24, will verify that the branch has been cut in the indicated position and updating the 3D model of the vineyard, this last process is carried out by the on-board vision module and section 16 that is detailed below the summary.

Por tanto, el módulo motriz de brazos robóticos 15 lleva a cabo, principalmente, las siguientes funcionalidades:Therefore, the robotic arms motor module 15 mainly carries out the following functionalities:

• Generación de trayectorias de los brazos robóticos libres de colisión y minimizando el camino.• Generation of trajectories of the robotic arms free of collision and minimizing the path.

• Control de los brazos robóticos.• Control of the robotic arms.

• Verificación de los cortes realizados actualizando entorno 3D.• Verification of the cuts made by updating the 3D environment.

El módulo de visión embarcada y corte 16 controla los elementos situados en el extremo del brazo robótico 6,7 que son el elemento de corte 22, como puede ser una tijera o una cuchilla, la cámara de visión artificial 23 y el sensor laser 24. Mediante los elementos indicados (cámara de visión artificial y un sensor laser), el módulo de visión embarcada y corte 16 puede verificar si la rama se ha cortado correctamente. Si la rama se cortó correctamente, el módulo de visión embarcada y corte 16 informa al módulo de inteligencia artificial 14 de su corte y este último módulo actualiza el estado del viñedo en 3D para seguir operando con el resto de ramas. Además, mediante la cámara de visión artificial y el sensor laser, el módulo de visión embarcada y corte 16 proporciona apoyo al módulo de inteligencia artificial 14 a verificar de cerca si la posición del punto de corte elegida es correcta o si se debe corregir algunos milímetros. El módulo de visión embarcada y corte 16 determina que la poda se ha realizado de forma correcta, y por tanto, el módulo de visión embarcada y corte 16 es un mecanismo adicional de seguridad para asegurar que el corte se ha realizado correctamente. The on-board vision and cutting module 16 controls the elements located at the end of the robotic arm 6,7 that are the cutting element 22, such as a scissors or a blade, the artificial vision camera 23 and the laser sensor 24. By means of the indicated elements (artificial vision camera and a laser sensor), the on-board vision and cutting module 16 can verify if the branch has been cut correctly. If the branch was cut correctly, the on-board vision and cut module 16 informs the artificial intelligence module 14 of its cut and this last module updates the status of the vineyard in 3D to continue operating with the rest of the branches. In addition, through the artificial vision camera and the laser sensor, the on-board vision and cutting module 16 provides support to the artificial intelligence module 14 to closely verify whether the position of the chosen cut-off point is correct or whether it must be corrected by a few millimeters . The on-board vision and cutting module 16 determines that the pruning has been carried out correctly, and therefore, the on-board vision and cutting module 16 is an additional safety mechanism to ensure that the cut has been carried out correctly.

Claims (14)

REIVINDICACIONES 1. - Dispositivo autónomo de poda automática para vides (1), caracterizado por que comprende una plataforma móvil (2) y una cabina de trabajo (3), donde:1. - Autonomous automatic pruning device for vines (1), characterized in that it comprises a mobile platform (2) and a work cabin (3), where: • la plataforma móvil (2) comprende al menos un sistema propulsor (5);• the mobile platform (2) comprises at least one propulsion system (5); • la cabina de trabajo (3) comprende:• the work cabin (3) comprises: o un módulo de control general (8);or a general control module (8); o dos paredes interiores (21) y paralelas entre sí, separadas por una distancia predeterminada;or two interior walls (21) and parallel to each other, separated by a predetermined distance; o dos brazos robóticos (6,7), donde cada brazo robótico articulado comprende al menos un elemento de corte (22);or two robotic arms (6,7), where each articulated robotic arm comprises at least one cutting element (22); o al menos dos cámaras de profundidad (9) por cada pared lateral que generan imágenes de nube de puntos (20);or at least two depth cameras (9) for each side wall that generate point cloud images (20); y, donde el módulo de control general (8) comprende:and, where the general control module (8) comprises: o un módulo de visión artificial (12);or an artificial vision module (12); o un módulo de inteligencia artificial (14);or an artificial intelligence module (14); o un módulo motriz de brazos robóticos (15);or a robotic arms motor module (15); donde el módulo de visión artificial (12) está configurado para recibir las imágenes de nube de puntos (20), de una vid con ramas (18) situada entre las paredes interiores (21), y generar, mediante combinación y tratamiento de las imágenes de nube de puntos (20), un modelo 3D (18) únicamente de la vid con ramas y enviar dicho modelo 3D al módulo de inteligencia Artificial (14), el cual está configurado para identificar la rama a podar, calcular la posición en 3D de la posición de corte (40) de dicha rama a podar y transferir dicha posición de corte y una trayectoria de corte al módulo motriz de brazos robóticos (15) que conecta con el brazo robótico (6,7) para que lleve al elemento de corte (22) hasta la posición de corte siguiendo la trayectoria de corte y accione dicho elemento de corte.where the artificial vision module (12) is configured to receive the point cloud images (20), of a vine with branches (18) located between the interior walls (21), and generate, by combining and treating the images point cloud (20), a 3D model (18) only of the vine with branches and send said 3D model to the Artificial intelligence module (14), which is configured to identify the branch to be pruned, calculate the position in 3D of the cutting position (40) of said branch to be pruned and transferring said cutting position and a cutting path to the robotic arms motor module (15) that connects with the robotic arm (6,7) to carry the element of cutting (22) to the cutting position following the cutting path and actuate said cutting element. 2. - Dispositivo autónomo de poda automática para vides, según la reivindicación 1, caracterizado por que la plataforma móvil (2) comprende un chasis (4), una batería (17a) para alimentar a los brazos robóticos (6,7) y una segunda batería (17b) para alimentar a la plataforma móvil (2) y a la cabina de trabajo (3).2. - Autonomous automatic pruning device for grapevines, according to claim 1, characterized in that the mobile platform (2) comprises a chassis (4), a battery (17a) to power the robotic arms (6,7) and a second battery (17b) to feed the mobile platform (2) and the work cabin (3). 3. - Dispositivo autónomo de poda automática para vides, según la reivindicación 1, caracterizado por que el sistema propulsor (5) está conectado al módulo de control general (8), y donde el sistema propulsor (5) comprende al menos una rueda tractora y omnidireccional (5a), un motor de dirección (5b) que orienta la rueda tractora y omnidireccional (5a), un motor de tracción (5c) que proporciona movimiento a la rueda tractora y omnidireccional (5a), y un sensor odométrico (5d).3. - Autonomous automatic pruning device for vines, according to claim 1, characterized in that the drive system (5) is connected to the general control module (8), and where the drive system (5) comprises at least one traction wheel and omnidirectional (5a), a steering motor (5b) that guides the traction wheel and omnidirectional (5a), a traction motor (5c) that provides movement to the traction and omnidirectional wheel (5a), and an odometric sensor (5d). 4. - Dispositivo autónomo de poda automática para vides, según la reivindicación 3, caracterizado por que la cabina de trabajo (3) adicionalmente comprende un módulo de navegación (11), el cual comprende un módulo GPS (11a) conectado con una antena GPS (11b), dos cámaras de navegación frontal (11c), dos cámaras de navegación trasera (11d), unos sensores LIDAR (11e) tanto en el frontal como en la parte trasera y al menos un sensor inercial (11f); y donde la cabina de trabajo (3) adicionalmente comprende una fotocélula (10) detectora de obstáculos de tal forma que el dispositivo autónomo de poda automática para vides (1) se auto-desplaza mediante el sistema propulsor (5) en base a unas coordenadas GPS obtenidas en el módulo de navegación (11) y en base a unos obstáculos detectados por la fotocélula (10) y de un entorno captado por los sensores LIDAR (11e), el sensor inercial (11f) y las cámaras de navegación frontal (11c), y trasera (11d).4. - Autonomous automatic pruning device for vines, according to claim 3, characterized in that the work cabin (3) additionally comprises a navigation module (11), which comprises a GPS module (11a) connected to a GPS antenna (11b), two front navigation cameras (11c), two rear navigation cameras (11d), LIDAR sensors (11e) both at the front and at the rear and at least one inertial sensor (11f); and where the work cabin (3) additionally comprises a photocell (10) detecting obstacles in such a way that the autonomous automatic pruning device for vines (1) is self-moving by means of the propulsion system (5) based on some coordinates GPS obtained in the navigation module (11) and based on obstacles detected by the photocell (10) and an environment captured by the LIDAR sensors (11e), the inertial sensor (11f) and the frontal navigation cameras (11c ), and rear (11d). 5. - Dispositivo autónomo de poda automática para vides, según la reivindicación 1, caracterizado por que el módulo de visión artificial (12) está configurado para recibir imágenes 2D (39) de la vid generadas por las cámaras de profundidad (9), donde dichas imágenes 2D (39) se combinan con las imágenes de nube de puntos (20) para obtener el modelo 3D.5. - Autonomous automatic pruning device for vines, according to claim 1, characterized in that the artificial vision module (12) is configured to receive 2D images (39) of the vine generated by the depth cameras (9), where said 2D images (39) are combined with the point cloud images (20) to obtain the 3D model. 6. - Dispositivo autónomo de poda automática para vides, según la reivindicación 4, caracterizado por que el módulo de control general (8) adicionalmente comprende un módulo de control remoto (13), el cual a su vez comprende unos medios de comunicación WiFi/Bluetooth (13a) y 4G/5G (13b) con un dispositivo de usuario (34) de modo que el módulo de control remoto (13) está configurado para que el dispositivo autónomo de poda automática para vides (1) funcione según un modo de trabajo seleccionado entre:6. - Autonomous automatic pruning device for vines, according to claim 4, characterized in that the general control module (8) additionally comprises a remote control module (13), which in turn comprises WiFi / communication means Bluetooth (13a) and 4G / 5G (13b) with a user device (34) so that the remote control module (13) is configured so that the autonomous automatic pruning device for vines (1) works according to a mode of job selected from: • modo autónomo, en el que el dispositivo autónomo (1) está configurado para analizar el entorno y auto-desplazarse dentro del entorno mediante el sistema propulsor (5) ;• autonomous mode, in which the autonomous device (1) is configured to analyze the environment and auto-move within the environment by means of the propulsion system (5); • modo cliente/servidor, en el que el dispositivo autónomo (1) está configurado para recibir instrucciones en tiempo real del dispositivo de usuario (34) y ejecutar dichas instrucciones en tiempo real. • client / server mode, in which the standalone device (1) is configured to receive instructions in real time from the user device (34) and to execute said instructions in real time. 7. - Dispositivo autónomo de poda automática para vides, según la reivindicación 1, caracterizado por que el módulo de visión artificial (12) está configurado para:7. - Autonomous automatic pruning device for vines, according to claim 1, characterized in that the artificial vision module (12) is configured to: • limpiar ruido de imágenes de nube de puntos (20) mediante filtros;• clean noise from point cloud images (20) using filters; • separar el primer plano respecto del fondo de las imágenes de nube de puntos (20) (mediante matrices 5x5);• separate the foreground from the background of the point cloud images (20) (using 5x5 matrices); • establecer correspondencias entre las imágenes de nube de puntos (20) generadas por las cámaras de profundidad;• establish correspondences between the point cloud images (20) generated by the depth cameras; • detectar unos obstáculos (19) formados por alambres, cables y postes de emparrado contenidos en las imágenes de nube de puntos (20);• detect obstacles (19) formed by wires, cables and trellis posts contained in the point cloud images (20); • detectar una estructura de la vid (18);• detect a vine structure (18); • generar un modelo 3D (18) sólo de la vid, eliminando los obstáculos.• generate a 3D model (18) only of the vine, removing obstacles. 8. - Dispositivo autónomo de poda automática para vides, según la reivindicación 5, caracterizado por que el módulo de visión artificial (12) está configurado para:8. - Autonomous automatic pruning device for vines, according to claim 5, characterized in that the artificial vision module (12) is configured to: • limpiar ruido de imágenes de nube de puntos (20) y de las imágenes 2D mediante filtros;• clean noise from point cloud images (20) and from 2D images using filters; • separar el primer plano respecto del fondo de las imágenes de nube de puntos (20) y las imágenes 2D (mediante matrices 5x5);• separating the foreground from the background of the point cloud images (20) and the 2D images (using 5x5 matrices); • establecer correspondencias entre las imágenes de nube de puntos (20) y entre las imágenes 2D generadas por las cámaras de profundidad;• establish correspondences between the point cloud images (20) and between the 2D images generated by the depth cameras; • detectar unos obstáculos (19) formados por alambres, cables y postes de emparrado contenidos en las imágenes de nube de puntos (20) y en las imágenes 2D;• detect obstacles (19) formed by wires, cables and trellis poles contained in the point cloud images (20) and in the 2D images; • detectar una estructura de la vid (18);• detect a vine structure (18); • generar un modelo 3D sólo de la vid, eliminando los obstáculos.• generate a 3D model of the vine only, removing obstacles. 9. - Dispositivo autónomo de poda automática para vides, según la reivindicación 1, caracterizado por que el módulo de inteligencia artificial (14) está configurado para:9. - Autonomous automatic pruning device for vines, according to claim 1, characterized in that the artificial intelligence module (14) is configured to: • interpretar y estudiar morfológicamente la vid;• interpret and study the vine morphologically; • reconstruir la vid en un modelo 3D;• rebuild the vine in a 3D model; • añadir al modelo 3D los obstáculos detectados en el módulo de visión artificial;• add the obstacles detected in the artificial vision module to the 3D model; • calcular e introducir unas yemas de los viñedos en el modelo 3D;• calculate and introduce some buds of the vineyards in the 3D model; • identificar las ramas a cortar;• identify the branches to be cut; • identificar unos puntos de corte a realizar en la vid. • Identify some cutting points to make on the vine. 10. - Dispositivo autónomo de poda automática para vides, según una cualquiera de las reivindicaciones anteriores, caracterizado por que el brazo robótico (6,7) comprende un elemento de corte (22), una cámara de visión artificial (23) y un sensor laser (24) controlados por un módulo de visión embarcada y corte (16) comprendido en el módulo de control general (8).10. - Autonomous automatic pruning device for vines, according to any one of the preceding claims, characterized in that the robotic arm (6,7) comprises a cutting element (22), an artificial vision camera (23) and a sensor laser (24) controlled by an on-board vision and cutting module (16) included in the general control module (8). 11. - Dispositivo autónomo de poda automática para vides, según la reivindicación 10, caracterizado por que el brazo robótico (6) comprende una plataforma fija superior (25), a la que se fijan tres motores (26), de cada uno de los cuales se suspende una pareja de barras (27); cada pareja de barras (27) está unida a una plataforma móvil (28), donde se integran el elemento de corte (22), la cámara de visión artificial (23) y el sensor laser (24).11. - Autonomous device of automatic pruning for vines, according to claim 10, characterized in that the robotic arm (6) comprises a fixed upper platform (25), to which three motors (26) are attached, of each of the which are suspended a pair of bars (27); Each pair of bars (27) is attached to a mobile platform (28), where the cutting element (22), the artificial vision camera (23) and the laser sensor (24) are integrated. 12. - Dispositivo autónomo de poda automática para vides, según la reivindicación 10, caracterizado por que el brazo robótico (7) comprende una plataforma superior (32), la cual conecta con un motor de rotación del brazo (31) por uno de los extremos de la plataforma superior (32) mediante un motor superior (29a), el cual mueve verticalmente la plataforma superior (32), el otro extremo de la plataforma superior (32) está conectado con una plataforma inferior (33) movida por un motor inferior (29b) a través de una correa (30) que permite el desplazamiento vertical de la plataforma inferior (33), la cual está dividida en codo (33a), brazo (33b), antebrazo (33c), muñeca (33d), los cuales se conectan por un motor de codo (29d), un motor de antebrazo (29c) y un motor de muñeca (29e), respectivamente; en el extremo de la plataforma inferior (33) se sitúan el elemento de corte (22), la cámara de visión artificial (23) y el sensor laser (24).12. - Autonomous automatic pruning device for vines, according to claim 10, characterized in that the robotic arm (7) comprises an upper platform (32), which connects to a rotation motor of the arm (31) by one of the ends of the upper platform (32) by means of an upper motor (29a), which vertically moves the upper platform (32), the other end of the upper platform (32) is connected with a lower platform (33) driven by a motor lower (29b) through a strap (30) that allows the vertical movement of the lower platform (33), which is divided into elbow (33a), arm (33b), forearm (33c), wrist (33d), which are connected by an elbow motor (29d), a forearm motor (29c) and a wrist motor (29e), respectively; At the end of the lower platform (33) the cutting element (22), the artificial vision camera (23) and the laser sensor (24) are located. 13. - Dispositivo autónomo de poda automática para vides, según cualquiera de las reivindicaciones anteriores, caracterizado por que el módulo motriz de brazos robóticos (15) adicionalmente comprende un sub-módulo de generación de trayectorias (15a) que comprende una función de costes para calcular las diferentes trayectorias de corte de cada brazo robótico (6,7).13. - Autonomous automatic pruning device for vines, according to any of the preceding claims, characterized in that the robotic arms motor module (15) additionally comprises a trajectory generation sub-module (15a) that comprises a cost function for calculate the different cutting paths of each robotic arm (6,7). 14. - Dispositivo autónomo de poda automática para vides, según cualquiera de las reivindicaciones anteriores, caracterizado por que adicionalmente comprende una segunda cabina (3) y una segunda plataforma móvil (2). 14. - Autonomous automatic pruning device for vines, according to any of the preceding claims, characterized in that it additionally comprises a second cabin (3) and a second mobile platform (2).
ES201930444A 2019-05-21 2019-05-21 AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding) Pending ES2795500A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201930444A ES2795500A1 (en) 2019-05-21 2019-05-21 AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201930444A ES2795500A1 (en) 2019-05-21 2019-05-21 AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding)

Publications (1)

Publication Number Publication Date
ES2795500A1 true ES2795500A1 (en) 2020-11-23

Family

ID=73451182

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201930444A Pending ES2795500A1 (en) 2019-05-21 2019-05-21 AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding)

Country Status (1)

Country Link
ES (1) ES2795500A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022156860A1 (en) * 2021-01-25 2022-07-28 Clemens Gmbh & Co. Kg Method for controlling the opening of a work apparatus having pairwise arranged processing devices for viticulture, and work apparatus
WO2022156861A1 (en) * 2021-01-25 2022-07-28 Clemens Gmbh & Co. Kg Tying machine and method for straightening and tying shoots of plants arranged in a linear row
CN117678440A (en) * 2023-12-26 2024-03-12 华南农业大学 Automatic target adjustment attitude pruning system and pruning method based on three-dimensional point cloud
EP4578267A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578262A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578264A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578263A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578265A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method, system, and agricultural machine
EP4578266A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578270A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578269A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578268A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2196683T3 (en) * 1998-07-22 2003-12-16 Bacchini Sandro APPARATUS FOR THE AUTOMATIC PRUNING OF PLANTS OF TREE TYPE, IN PARTICULAR LIVES AND SIMILAR.
WO2005036950A1 (en) * 2003-10-17 2005-04-28 Ignacio Ramos Arnaez Automated pruning device
CN105794502A (en) * 2016-04-12 2016-07-27 山东国兴智能科技有限公司 Full-automatic branch trimming robot and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2196683T3 (en) * 1998-07-22 2003-12-16 Bacchini Sandro APPARATUS FOR THE AUTOMATIC PRUNING OF PLANTS OF TREE TYPE, IN PARTICULAR LIVES AND SIMILAR.
WO2005036950A1 (en) * 2003-10-17 2005-04-28 Ignacio Ramos Arnaez Automated pruning device
CN105794502A (en) * 2016-04-12 2016-07-27 山东国兴智能科技有限公司 Full-automatic branch trimming robot and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022156860A1 (en) * 2021-01-25 2022-07-28 Clemens Gmbh & Co. Kg Method for controlling the opening of a work apparatus having pairwise arranged processing devices for viticulture, and work apparatus
WO2022156861A1 (en) * 2021-01-25 2022-07-28 Clemens Gmbh & Co. Kg Tying machine and method for straightening and tying shoots of plants arranged in a linear row
AU2022211501B2 (en) * 2021-01-25 2025-08-28 Clemens Gmbh & Co. Kg Tying machine and method for straightening and tying shoots of plants arranged in a linear row
AU2022210260B2 (en) * 2021-01-25 2025-06-26 Clemens Gmbh & Co. Kg Method for controlling the opening of a work apparatus having pairwise arranged processing devices for viticulture, and work apparatus
EP4578264A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578262A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578267A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578263A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578265A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method, system, and agricultural machine
EP4578266A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578270A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578269A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
EP4578268A1 (en) * 2023-12-26 2025-07-02 Kubota Corporation Method for generating cut point data, system for generating cut point data, and agricultural machine
CN117678440A (en) * 2023-12-26 2024-03-12 华南农业大学 Automatic target adjustment attitude pruning system and pruning method based on three-dimensional point cloud

Similar Documents

Publication Publication Date Title
ES2795500A1 (en) AUTONOMOUS DEVICE FOR AUTOMATIC VINE PRUNING (Machine-translation by Google Translate, not legally binding)
US9603300B2 (en) Autonomous gardening vehicle with camera
ES2983425T3 (en) Navigation and training of autonomous machines using vision systems
Silwal et al. Bumblebee: A Path Towards Fully Autonomous Robotic Vine Pruning.
JP7648650B2 (en) MOBILE BODY, CONTROL UNIT, AND METHOD FOR CONTROLLING OPERATION OF MOBILE BODY
JP7688045B2 (en) MOBILE BODY, CONTROL UNIT, DATA GENERATION UNIT, METHOD FOR CONTROLLING OPERATION OF MOBILE BODY, AND METHOD FOR GENERATING DATA
WO2015180021A1 (en) Pruning robot system
US12365347B2 (en) Vehicle row follow system
Post et al. Autonomous navigation with ROS for a mobile robot in agricultural fields
CN113207675A (en) Airflow vibration type facility crop automatic pollination device and method
JP7684327B2 (en) MOBILE BODY, DATA GENERATION UNIT, AND METHOD FOR GENERATING DATA - Patent application
JPWO2020105125A1 (en) Autonomous work machine, control method and program of autonomous work machine
US20250204329A1 (en) Method, system, and agricultural machine
Milburn et al. Computer-vision based real time waypoint generation for autonomous vineyard navigation with quadruped robots
CN118542162A (en) Automatic fruit tree pruning system based on machine vision
Fei et al. Row‐sensing templates: A generic 3D sensor‐based approach to robot localization with respect to orchard row centerlines
Churuvija et al. A pose-versatile imaging system for comprehensive 3D modeling of planar-canopy fruit trees for automated orchard operations
ES1285962U9 (en) AUTONOMOUS DEVICE FOR AUTOMATIC PRUNING OF VINE
Post et al. Autonomous navigation with open software platform for field robots
US20240180057A1 (en) Row follower training
Shamshiri et al. An overview of visual servoing for robotic manipulators in digital agriculture
WO2025004036A2 (en) Systems devices and methods for agricultural weeding
CN118809590A (en) Intelligent control system for quadruped robot operation coordinated by differential chassis and grasping mechanism
CN117873054A (en) Intelligent harvester unmanned driving method and system
US20250204333A1 (en) Method for generating cut point data, system for generating cut point data, and agricultural machine

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2795500

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20201123

PA2A Conversion into utility model

Effective date: 20220107