Función de los sistemas NAS con reconocimiento de despliegue para una monitorización eficiente de cultivos mediante UAV

Los vehículos aéreos no tripulados (VANT), o drones, están transformando la agricultura moderna al proporcionar vistas aéreas rápidas de los campos. Se utilizan para inspeccionar los cultivos y evaluar su estado de salud, etapa de crecimiento, plagas, malezas y rendimiento. Por ejemplo, China cuenta actualmente con más de 250 000 drones agrícolas en operación, y en Tailandia, aproximadamente 301 TP3T de tierras de cultivo fueron cubiertas mediante fumigación o monitoreo con drones para 2023. Estos VANT hacen que la agricultura sea más eficiente al detectar rápidamente problemas (como brotes de plagas o estrés hídrico) que podrían pasar desapercibidos en tierra.

Sin embargo, los UAV pequeños tienen una capacidad de procesamiento y una autonomía de batería muy limitadas. Por lo tanto, ejecutar algoritmos complejos de visión artificial en tiempo real resulta todo un reto. Los modelos tradicionales de detección de objetos ligeros (como los detectores basados en YOLO o MobileNet) solo satisfacen parcialmente estas necesidades: a menudo sacrifican precisión o velocidad y requieren una importante configuración manual. Esta limitación impulsa el desarrollo de la Búsqueda de Arquitectura Neuronal (NAS), un método de diseño automatizado que adapta los modelos de aprendizaje profundo a los requisitos específicos de los UAV desplegados en campo.

La agricultura de precisión moderna utiliza vehículos aéreos no tripulados (drones) para inspeccionar los campos y monitorear el estado de los cultivos. Al sobrevolar grandes extensiones, los drones pueden capturar imágenes de alta resolución de las plantas, el suelo y la distribución del terreno. Estas imágenes se procesan mediante algoritmos de visión artificial que detectan malezas entre los cultivos, estiman el rendimiento (por ejemplo, contando frutos o espigas) o identifican los primeros signos de enfermedades o deficiencias nutricionales. Por ejemplo, los drones permiten la aplicación selectiva de herbicidas en zonas con malezas, reduciendo así el uso de productos químicos y los costos asociados.

Sin embargo, los pequeños ordenadores de a bordo de los drones (a menudo con una potencia limitada a unos pocos vatios) tienen dificultades para ejecutar grandes redes neuronales a velocidad de vuelo. Esto dificulta el análisis en tiempo real: si un dron detecta un problema, necesita reaccionar rápidamente o registrar los datos antes de que se agote la batería. Los detectores ligeros actuales (por ejemplo, YOLOv8 nano, YOLO-tiny, MobileNets) se diseñan manualmente y suelen implicar ciertas limitaciones: al reducir el tamaño del modelo se acelera su funcionamiento, pero puede perjudicar la precisión.

En consecuencia, existe una gran necesidad de métodos que encuentren automáticamente el mejor modelo posible dadas las limitaciones del UAV. El sistema NAS con enfoque en el despliegue satisface esta necesidad al buscar arquitecturas de redes neuronales que optimicen conjuntamente la precisión de detección y el uso de recursos (latencia, energía, memoria) en condiciones reales de UAV. Este enfoque puede proporcionar modelos especializados que se ejecutan de manera eficiente en el hardware del dron y, al mismo tiempo, mantienen una alta precisión para las tareas de monitoreo de cultivos.

Requisitos de detección de objetos mediante UAV en la monitorización de cultivos

Los vehículos aéreos no tripulados (UAV) agrícolas realizan diversas tareas de detección visual, cada una con sus propias exigencias:

1. Detección de la salud y el estrés en los cultivos: Los drones utilizan cámaras RGB, térmicas o multiespectrales para identificar plantas estresadas, deficiencias de nutrientes o síntomas de enfermedades. Los algoritmos en tiempo real permiten mapear la variabilidad del campo y orientar el riego o la fertilización. La detección precisa de los signos de estrés en las plantas posibilita intervenciones oportunas para salvar la cosecha.

2. Identificación de malezas: La detección de malezas entre los cultivos permite a los agricultores rociar solo las plantas no deseadas, ahorrando herbicidas. Por ejemplo, un estudio en campos de algodón utilizó imágenes de drones con un detector basado en YOLOv7 y logró una precisión de aproximadamente 83% al separar las malezas del algodón. Sin embargo, distinguir visualmente malezas y cultivos similares sigue siendo difícil en imágenes de campo con muchos detalles.

Requisitos de detección de objetos mediante UAV en la monitorización de cultivos

3. Detección de plagas y enfermedades: Los vehículos aéreos no tripulados (UAV) pueden detectar brotes (por ejemplo, de langostas, insectos o enfermedades fúngicas) antes que los humanos a pie. Los drones también permiten mapear zonas infestadas de plagas mediante imágenes multiespectrales, lo que mejora la calidad de las imágenes RGB. La detección rápida y precisa de plagas es fundamental para prevenir su propagación.

4. Estimación del rendimiento: Contar frutas, espigas de grano o plantas desde el aire ayuda a predecir los volúmenes de cosecha. Los modelos entrenados para detectar manzanas, melones o espigas de trigo en imágenes de drones pueden acelerar la estimación del rendimiento. Por ejemplo, se han utilizado redes neuronales en imágenes de drones para contar cultivos de sandía y melón en los campos.

5. Topografía y cartografía: Los drones también crean mapas de campo (topografía, diferencias del suelo) que ayudan a planificar el cultivo. Si bien no se trata estrictamente de detección de objetos, esto forma parte de la monitorización mediante vehículos aéreos no tripulados (UAV).

Estas tareas suelen requerir inferencia casi en tiempo real: un dron que sobrevuela campos puede necesitar procesar fotogramas de vídeo sobre la marcha (varios fotogramas por segundo) para poder tomar decisiones de control (como ajustar la altitud o activar un pulverizador) de inmediato. En otros casos, pequeños retrasos (de segundos) pueden ser aceptables si los datos se registran y analizan después del aterrizaje.

Es fundamental que la visión de los UAV pueda gestionar la variabilidad ambiental: luz solar intensa, sombras, desenfoque por movimiento causado por el viento, oclusión por hojas superpuestas o cambios de altitud y ángulo. El tamaño de los objetos varía (desde maleza en primer plano hasta grupos de plagas a distancia), por lo que los detectores deben gestionar características a diferentes escalas.

Finalmente, las misiones agrícolas con UAV implican un equilibrio estricto entre precisión, latencia y consumo de energía. Se requiere una alta precisión de detección para evitar pasar por alto malezas o plagas, pero el uso de una red neuronal muy profunda puede agotar rápidamente la batería. Por lo tanto, un modelo de detección debe ser rápido y eficiente energéticamente, sin dejar de ser lo suficientemente preciso para la tarea. Estos exigentes requisitos ponen de manifiesto la necesidad de un diseño de modelos especializado para UAV en la agricultura.

Detectores de objetos ligeros para plataformas UAV

Los detectores de objetos ligeros son redes neuronales diseñadas específicamente para funcionar en hardware limitado. Suelen utilizar arquitecturas pequeñas (como MobileNet o ShuffleNet), capas de ancho reducido o diseños de cuello/cabeza simplificados. Por ejemplo, los modelos de la familia YOLO incluyen versiones "nano" y "tiny" (como YOLOv8n y YOLOv5s) que tienen menos parámetros y requieren menos operaciones (FLOPs).

Estos detectores pueden funcionar a decenas de fotogramas por segundo en hardware integrado como NVIDIA Jetson Nano o Google Coral. Por ejemplo, Ag-YOLO era un detector personalizado basado en YOLO para plantaciones de palma que funcionaba a 36,5 fps en un Intel Neural Compute Stick 2 (consumiendo solo 1,5 W) y alcanzaba una alta precisión (F1 = 0,9205). Este modelo utilizaba aproximadamente 12 veces menos parámetros que YOLOv3-Tiny, duplicando su velocidad.

Detectores de objetos ligeros para plataformas UAV

Estos ejemplos ilustran las ventajas y desventajas del diseño de modelos: reducir el tamaño o la complejidad de un modelo (por ejemplo, menos capas o canales) suele acelerar la inferencia y disminuir el consumo de energía, pero puede reducir la precisión. Ag-YOLO sacrificó cierta capacidad para ganar velocidad y eficiencia, y aun así mantuvo una alta puntuación F1 de 0,92 en su tarea.

De forma similar, se compararon tres variantes de YOLOv7 para la detección de maleza: la versión completa de YOLOv7 alcanzó una precisión de 83%, mientras que una versión más pequeña, YOLOv7-w6, obtuvo una precisión de 63%. Esto ilustra una limitación de los detectores ligeros genéricos: los modelos optimizados para un entorno o tipo de objeto pueden tener un rendimiento inferior en otro. Un detector optimizado para la velocidad podría pasar por alto indicios sutiles (por ejemplo, maleza pequeña o camuflada), lo que perjudica su robustez en diversas condiciones.

En agricultura, estas redes genéricas ligeras pueden no ser óptimas sin ajustes adicionales. Por ejemplo, un modelo YOLOv7 preentrenado con conjuntos de datos comunes podría no manejar a la perfección las texturas y escalas únicas de las imágenes de cultivos. Por lo tanto, es necesario optimizar la arquitectura del modelo según la tarea y la plataforma. El ajuste manual (cambio de capas, filtros, etc.) para cada nuevo tipo de dron o variedad de cultivo requiere mucho trabajo. Esto impulsa el desarrollo de métodos automatizados, como NAS con reconocimiento de despliegue, para encontrar el mejor equilibrio entre tamaño, precisión y robustez para una plataforma de UAV y una aplicación agrícola determinadas.

Búsqueda de arquitectura neuronal en sistemas de visión basados en vehículos aéreos no tripulados

La búsqueda de arquitectura neuronal (NAS, por sus siglas en inglés) es un método automatizado para diseñar arquitecturas de redes neuronales. En lugar de configurar manualmente el número de capas, filtros y conexiones, NAS utiliza algoritmos (aprendizaje por refuerzo, métodos evolutivos o búsqueda basada en gradientes) para explorar un espacio de posibles diseños y encontrar aquellos que optimicen un objetivo elegido (como la precisión).

La arquitectura NAS ya se ha aplicado para crear redes optimizadas para dispositivos móviles. Por ejemplo, MnasNet de Google fue una NAS pionera que, al considerar la plataforma, incluyó directamente la latencia real del dispositivo en su objetivo. MnasNet midió el tiempo de inferencia en un teléfono Google Pixel para cada modelo candidato durante la búsqueda y comparó la precisión con esta latencia medida. El resultado fue una familia de CNN rápidas y precisas en hardware móvil, superando a los modelos MobileNet y NASNet diseñados manualmente en ImageNet.

Sin embargo, los enfoques genéricos de NAS, como MnasNet, se centran en tareas de visión generales (clasificación de ImageNet o detección de COCO) y hardware genérico (por ejemplo, teléfonos móviles). Para la monitorización de cultivos con UAV, el problema es más específico. Necesitamos detectores optimizados para clases de objetos específicas (plantas, malezas, plagas) y adaptados a los sensores y al perfil de vuelo del UAV. Un NAS estándar que solo optimiza la precisión o la latencia genérica puede pasar por alto matices como la detección de objetos pequeños o las limitaciones energéticas.

Además, los métodos tradicionales de NAS pueden ser computacionalmente muy costosos (a menudo requieren días en grandes clústeres de GPU), lo que no siempre resulta práctico para los investigadores agrícolas. Por lo tanto, se necesitan marcos de trabajo NAS específicos para la visión de los UAV. Estos deben incorporar criterios relevantes para los UAV y ser lo más eficientes posible.

En todos los casos, es fundamental tener en cuenta las restricciones: el sistema de acceso a la red (NAS) debe conocer las limitaciones del dispositivo objetivo (de forma similar a MnasNet) y las exigencias en tiempo real de las tareas del UAV en vuelo. Si la búsqueda es demasiado lenta o ignora el consumo de energía, es posible que el modelo resultante no funcione correctamente en la práctica.

En la práctica, el NAS para la visión de los UAV incluiría la latencia del hardware y el consumo de energía directamente en la métrica de búsqueda. Por ejemplo, se podría medir la velocidad de fotogramas de un detector candidato en el ordenador del dron (como un NVIDIA Jetson) y utilizarla como puntuación. Esto contrasta con el uso de indicadores indirectos simples como los FLOPs, que no reflejan la velocidad real.

De este modo, el NAS puede descubrir arquitecturas que aprovechen al máximo las capacidades del dispositivo. En resumen, el NAS ofrece una forma de diseñar automáticamente detectores para UAV, pero debe adaptarse para tener en cuenta las tareas y los requisitos de eficiencia específicos de los UAV.

NAS con reconocimiento de despliegue: Principios básicos

El NAS con reconocimiento de despliegue amplía el NAS con reconocimiento de hardware al incluir el contexto de despliegue y las restricciones ambientales en el proceso de diseño. En otras palabras, no solo considera el hardware del dron (velocidad de CPU/GPU, límites de memoria, presupuesto de energía), sino también las condiciones reales que encontrará el UAV en el campo. Esto implica optimizar explícitamente métricas como la latencia de inferencia en el dispositivo objetivo, el consumo de energía y el uso de memoria, sin dejar de buscar una alta precisión de detección.

Por ejemplo, durante el NAS se podría desplegar cada modelo candidato en un Jetson Nano acoplado al UAV y registrar su tiempo de inferencia y consumo de energía en condiciones reales. Esta retroalimentación empírica ayuda a orientar la búsqueda hacia modelos que realmente cumplan con los criterios de despliegue.

NAS con reconocimiento de despliegue: Principios básicos

Los sistemas NAS que tienen en cuenta el hardware (como MnasNet) se centran en las métricas del dispositivo, mientras que los sistemas NAS que tienen en cuenta el despliegue van más allá: pueden considerar las características de entrada del sensor (por ejemplo, la resolución de la imagen, los canales multiespectrales) y los objetivos de latencia de la aplicación (fotogramas por segundo necesarios). Incluso pueden incorporar restricciones de vuelo, como la memoria máxima permitida, o incluir evaluaciones bajo simulación de vibraciones por viento o desenfoque por movimiento.

Un sistema NAS optimizado para el despliegue podría penalizar las arquitecturas que superen, por ejemplo, los 5 W de consumo energético o que requieran más memoria de la que dispone el dron. De este modo, la búsqueda se orienta naturalmente hacia modelos prácticos para las operaciones de campo del UAV. En esencia, un sistema NAS optimizado para el despliegue busca cerrar el círculo entre el diseño del modelo y su uso en el mundo real. En lugar de elegir una arquitectura de forma aislada y esperar que funcione, incluye sistemáticamente pruebas con dispositivos reales durante la búsqueda.

Por ejemplo, Kerec et al. (2026) utilizaron un marco de trabajo similar para buscar un detector de UAV: se basaron en una base YOLOv8n, pero incluyeron la latencia y la energía de Jetson Nano en la búsqueda. El modelo resultante tenía 37% menos GFLOPs y 61% menos parámetros que YOLOv8n, con una caída de solo 1,96% en mAP. Esto demuestra claramente cómo las limitaciones de despliegue llevaron al NAS a una red mucho más ligera y rápida.

Función de los sistemas NAS con reconocimiento de despliegue en la monitorización de la agricultura de precisión

Los sistemas de acceso a redes (NAS) adaptados al entorno de vuelo pueden mejorar significativamente la monitorización de cultivos mediante UAV, al personalizar los detectores según las condiciones agrícolas. Por ejemplo, la búsqueda puede priorizar arquitecturas que destaquen en la detección de objetos pequeños y delgados (como maleza estrecha o plántulas de maíz finas) o en la distinción de plantas del suelo. Pueden ajustar la profundidad de la red y los campos receptivos a la altura de vuelo habitual: a baja altitud, los objetos ocupan toda la imagen y pueden requerir detalles finos, mientras que a mayor altitud la red debe ser eficaz en la detección a pequeña escala. Un NAS adaptado al entorno de vuelo puede incorporar estos requisitos en su espacio de búsqueda.

La velocidad es crucial en el campo. Imaginemos que un dron detecta un brote de plagas; si el modelo es lo suficientemente rápido como para procesar vídeo a, por ejemplo, 30 fps, puede alertar al piloto o activar una acción de tratamiento inmediata. En las pruebas, un modelo diseñado por NAS funcionó 28% más rápido en una Jetson Nano que el YOLOv8n estándar, gracias a su arquitectura optimizada. Además, consumió 18,5% menos de energía durante el tiempo de ejecución de ONNX, lo que significa que el dron puede volar durante más tiempo con la misma batería. Estas ventajas facilitan la toma de decisiones en vuelo y prolongan la duración de la misión.

La robustez es otra ventaja. Dado que el NAS, adaptado al entorno de implementación, implica la evaluación de dispositivos reales, la búsqueda puede incluir pruebas en diversas condiciones. Por ejemplo, podría simular condiciones de poca luz o incluir imágenes de entrenamiento del amanecer y el atardecer, lo que garantiza que el detector final mantenga su precisión ante cambios reales de clima e iluminación. El trabajo demostró que el detector derivado del NAS se generaliza bien: lo probaron con dos conjuntos de datos de cultivos diferentes (espigas de trigo y plántulas de algodón) y obtuvieron un rendimiento excelente en ambos.

Función de los sistemas NAS con reconocimiento de despliegue en la monitorización de la agricultura de precisión

Esto sugiere que el sistema NAS con enfoque en el despliegue ayudó a identificar características comunes y útiles para la agricultura, mejorando su generalización a nuevos campos. En general, el sistema NAS con enfoque en el despliegue ayuda a equilibrar la precisión con un mayor tiempo de vuelo. Al reducir la carga computacional, los drones consumen menos energía y pueden cubrir una mayor área con una sola carga de batería, sin dejar de detectar cultivos y plagas de forma fiable.

Diseño del espacio de búsqueda para detectores de UAV agrícolas

Una parte importante de los sistemas NAS con capacidad de implementación es el espacio de búsqueda: el conjunto de posibles diseños de red que considera. Para los detectores de cultivos mediante UAV, el espacio de búsqueda se puede diseñar para incluir arquitecturas prometedoras para este ámbito. Los elementos clave incluyen:

1. Diseño de la estructura principal: El núcleo del sistema es el extractor de características. Para los UAV, se podrían incluir bloques de construcción convolucionales ligeros, como convoluciones separables en profundidad (como las utilizadas en MobileNet) o bloques residuales invertidos. Los residuos invertidos y los cuellos de botella lineales (al estilo de MobileNetV2) son conocidos por su eficiencia en dispositivos móviles. El espacio de búsqueda podría permitir variar el ancho (número de canales) y la profundidad de cada bloque para ajustarse al presupuesto computacional del UAV. También se podrían incluir módulos de atención o inspirados en transformadores si el UAV puede soportarlos con bajo consumo de energía.

2. Diseño del cuello: Muchos detectores de objetos utilizan pirámides de características (FPN) o redes de agregación de rutas para combinar características multiescala. La búsqueda podría explorar FPN simplificadas o agregación de características ligera. Por ejemplo, el uso de un cabezal de escala única frente a cabezales multiescala podrían ser opciones. El espacio podría permitir capas de agrupación o conexiones de salto que ayuden a detectar objetos de diferentes tamaños.

3. Diseño de la cabeza: El cabezal de detección (capas de clasificación y regresión de cajas) también puede variar. Para drones que observan campos uniformes, un cabezal más simple podría ser suficiente. Pero para detectar maleza pequeña, la búsqueda podría incluir capas convolucionales adicionales o diferentes esquemas de anclaje.

4. Operaciones ligeras: El espacio de búsqueda puede permitir explícitamente solo operaciones de bajo costo. Por ejemplo, elegir entre una convolución de 3×3 frente a una convolución factorizada de 1×3+3×1 más económica, o incluir módulos de GhostNet. También puede permitir tamaños de kernel pequeños o dimensiones reducidas para limitar el cálculo. Todas estas decisiones están determinadas por el hardware. El espacio puede prohibir cualquier configuración de capa que exceda el límite de memoria del dron o el umbral de energía previsto.

Mediante un diseño meticuloso de este espacio de búsqueda, el proceso NAS se orienta hacia arquitecturas eficaces y eficientes. El resultado podría ser una combinación novedosa de bloques no contemplada en los modelos estándar. El mejor detector encontrado utilizó bloques personalizados que redujeron los GFLOP en 37% y los parámetros en 61% en comparación con YOLOv8n.

Esto fue posible gracias a que el NAS podía combinar elementos de la red troncal y del cabezal, teniendo en cuenta las limitaciones del UAV. En resumen, la búsqueda de detectores de UAV agrícolas se centra en módulos escalables y ligeros, así como en la gestión a múltiples escalas, todo ello dentro de los límites del hardware integrado.

Objetivos y restricciones de optimización

Los sistemas de detección de plagas (NAS) adaptados a la implementación deben gestionar múltiples objetivos. El principal suele ser la precisión de detección (p. ej., precisión media promedio, mAP), medida en conjuntos de datos de monitorización de cultivos. Por ejemplo, mAP@50 (precisión a 50% IOU) es una métrica común. El modelo optimizado para NAS solo presentó una disminución de 1,96% en mAP@50 en comparación con el modelo base YOLOv8n, una pérdida mínima para las mejoras obtenidas. También se consideran la precisión y la exhaustividad (o puntuación F1) en las clases clave (malezas, cultivos).

Al mismo tiempo, es necesario optimizar la latencia y el consumo de energía. La latencia es el tiempo de inferencia por imagen; para una GPU integrada, puede ser de 20 a 50 ms o más. Una menor latencia implica una mayor velocidad de fotogramas. El consumo de energía (julios por fotograma) es crucial para la autonomía de vuelo. El espacio de memoria (número de parámetros, tamaño del modelo) es otra limitación; los modelos deben caber en la RAM del dispositivo. Por lo tanto, el NAS suele establecer un objetivo o una penalización para estas limitaciones.

Por ejemplo, cualquier modelo más lento que un determinado umbral o que supere un límite de parámetros podría ser relegado a un segundo plano. Esto convierte, en la práctica, el NAS en un problema de optimización multiobjetivo: maximizar la precisión minimizando la latencia, el consumo de energía y el tamaño.

En la práctica, esto podría lograrse mediante una suma ponderada de objetivos o mediante restricciones estrictas. Algunos métodos penalizan considerablemente a cualquier candidato que supere el límite de potencia del UAV. Otros calculan explícitamente una métrica energética: se probaron modelos en el entorno de ejecución ONNX para medir la "eficiencia energética", y el mejor modelo resultó ser 18,5% más eficiente energéticamente que YOLOv8n. Este fue uno de los objetivos que guiaron su búsqueda.

Las compensaciones encontradas pueden visualizarse en una frontera de Pareto: en un extremo, modelos pequeños extremadamente rápidos con menor precisión; en el otro, modelos grandes y precisos que son demasiado lentos o consumen demasiada energía para un dron. El NAS, concebido para su despliegue, busca un punto óptimo en esta frontera que se ajuste a las prioridades reales de la misión (por ejemplo, una ligera pérdida de precisión a cambio de una gran aceleración). En resumen, el NAS debe considerar conjuntamente las métricas de precisión (mAP, F1) y las restricciones de inferencia (ms por fotograma, julios por fotograma, memoria). Esta optimización equilibrada es lo que hace que un modelo esté realmente listo para su despliegue en UAV.

Capacitación y evaluación en entornos agrícolas reales.

Para que los detectores encontrados por el NAS funcionen correctamente, deben entrenarse y probarse con datos agrícolas realistas. Esto implica utilizar conjuntos de datos que capturen la variabilidad de los campos reales: diferentes especies de cultivos, etapas de crecimiento, estaciones, condiciones de iluminación y altitudes. Por ejemplo, el entrenamiento con imágenes de solo brotes jóvenes de maíz puede no ser generalizable a espigas de trigo maduras. Los conjuntos de datos representativos del campo garantizan que el modelo aprenda las características relevantes en la explotación agrícola. También se puede aplicar la ampliación de datos (cultivos aleatorios, cambios de brillo, desenfoque por movimiento) durante el entrenamiento para simular el movimiento y la iluminación de los drones.

Capacitación y evaluación en entornos agrícolas reales.

Al evaluar, es importante probar el modelo en condiciones lo más realistas posible. Las herramientas de simulación pueden ser útiles (por ejemplo, volar un dron virtual sobre campos 3D), pero las pruebas de vuelo reales son el método de referencia. La evaluación comparativa a bordo se realiza ejecutando el modelo en el hardware real del UAV. Después de NAS, implementaron el modelo candidato en un Jetson Nano y midieron una inferencia 28.1% más rápida (en comparación con la versión base YOLOv8n) y un mejor consumo de energía. Este tipo de retroalimentación en dispositivos reales confirma que la búsqueda produjo un modelo que realmente cumple con los requisitos.

La generalización también es crucial. Un modelo puede buscarse y entrenarse en un cultivo (por ejemplo, trigo), pero los agricultores necesitan detectores que funcionen en diferentes campos. El estudio demostró una sólida generalización entre cultivos: el detector derivado de NAS, entrenado en una tarea, siguió funcionando bien en un conjunto de datos de otro cultivo (plántulas de algodón) sin necesidad de reentrenamiento. Esto sugiere que los sistemas NAS adaptados al entorno de implementación pueden generar arquitecturas robustas. Sin embargo, los cambios de dominio (por ejemplo, pasar de campos de maíz a huertos frutales) pueden requerir ajustes o búsquedas adicionales. También se recomienda realizar pruebas entre temporadas (imágenes de verano y otoño).

Finalmente, cada nuevo modelo debe someterse a pruebas comparativas en la plataforma de UAV antes de su despliegue. Esto incluye registrar su precisión y velocidad en drones, asegurar que no sobrecaliente el hardware y verificar el consumo de energía. Solo entonces los agricultores podrán confiar en él para el monitoreo crítico de la misión. Al combinar capacitación relevante para el campo y una evaluación rigurosa del hardware, NAS, concebido para el despliegue, produce detectores que no solo son teóricamente eficientes, sino que también han demostrado su eficacia en el campo.

Ventajas sobre los detectores de UAV diseñados manualmente

Los sistemas NAS con reconocimiento de despliegue ofrecen varias ventajas claras sobre los modelos tradicionales diseñados manualmente para UAV:

1. Mejores compensaciones en el rendimiento: Los modelos encontrados por NAS tienden a ofrecer combinaciones más eficientes en precisión, velocidad y consumo de energía. Por ejemplo, el mejor modelo se ejecutó 28% más rápido y consumió 18,5% menos de energía en Jetson Nano que el modelo de referencia YOLOv8n seleccionado manualmente, con una pérdida de solo ~2% en el mAP de detección. Lograr tal equilibrio manualmente sería muy difícil.

2. Generalización mejorada: Los modelos descubiertos por NAS pueden adaptarse mejor a nuevas condiciones, ya que la búsqueda puede incorporar diversos datos u objetivos. El detector de diseño automático se generalizó bien a diferentes tipos de cultivos (trigo y algodón) y condiciones de iluminación. Esta amplia robustez es crucial cuando los vuelos se encuentran con escenarios inesperados.

3. Reducción del esfuerzo de ingeniería: NAS automatiza gran parte del proceso de prueba y error. En lugar de ajustar manualmente los tamaños de las capas y probar múltiples opciones, un NAS optimizado para la implementación explora iterativamente las alternativas y encuentra el diseño óptimo. Esto ahorra tiempo y experiencia en desarrollo, facilitando la actualización de los detectores para nuevas tareas o hardware.

4. Escalabilidad: Una vez configurado, el marco NAS puede utilizarse para diferentes plataformas o misiones de UAV. Por ejemplo, el mismo NAS, optimizado para el despliegue, podría buscar un detector ajustado a una resolución de cámara o modelo de dron diferente simplemente modificando los parámetros de entrada. Esto resulta mucho más escalable que rediseñar las redes desde cero para cada escenario.

Desafíos y limitaciones

El almacenamiento NAS con reconocimiento de implementación es potente, pero no es la solución definitiva. Debe aplicarse con criterio, teniendo en cuenta sus necesidades de recursos y la variabilidad del entorno de destino. A pesar de su potencial, el almacenamiento NAS con reconocimiento de implementación presenta desafíos:

1. Alto costo de búsqueda: El NAS puede requerir una gran capacidad de procesamiento. Incluso con algoritmos eficientes, la búsqueda en el espacio de arquitectura puede consumir muchas horas de GPU (o computación especializada). Si no se gestiona con cuidado, la sobrecarga de búsqueda podría resultar prohibitiva para algunos equipos.

2. Sesgo de datos y cambio de dominio: La eficacia del NAS depende de la calidad de los datos utilizados. Si las imágenes de entrenamiento no son representativas de las condiciones reales, la arquitectura resultante podría tener un rendimiento inferior al esperado. Por ejemplo, un modelo ajustado para un tipo de cultivo o una región geográfica podría no ser perfectamente aplicable a otros sin una adaptación adicional.

3. Heterogeneidad del hardware: El hardware para UAVs viene en diversas variantes (diferentes GPU, CPU y FPGA integradas). Un modelo optimizado para una placa puede no ser óptimo para otra. Los sistemas NAS con capacidad de implementación deben repetir las búsquedas para cada plataforma o usar restricciones conservadoras que se ajusten a todas, lo que puede limitar el rendimiento.

4. Limitaciones prácticas: Las implementaciones agrícolas reales implican cuestiones como las actualizaciones de red inalámbricas, la integración del sistema con el control de vuelo y la certificación de seguridad. Incluso el mejor modelo de sistema de navegación aérea (NAS) debe integrarse en un sistema completo de drones. La coordinación de las actualizaciones del modelo, las aprobaciones regulatorias y la capacitación de los agricultores son obstáculos que van más allá de lo técnico.

Direcciones futuras

Es probable que en el futuro se observe una integración aún más estrecha entre el diseño de modelos, la tecnología de sensores y el control de UAV. El NAS con capacidad de despliegue seguirá siendo una herramienta clave en este proceso de codiseño. De cara al futuro, surgen varias vías interesantes:

1. NAS en línea y adaptativo: En lugar de una búsqueda puntual sin conexión, los sistemas futuros podrían ajustar la red en tiempo real o entre vuelos. Por ejemplo, un dron podría partir de un modelo base y, mediante algoritmos NAS ligeros, adaptarse sobre la marcha para gestionar nuevas condiciones de iluminación o terreno. Este sistema NAS integrado en el dispositivo supone un gran desafío, pero podría mejorar considerablemente la adaptabilidad.

2. Codiseño de sensores y modelos: Los futuros sistemas de agricultura de precisión podrían optimizar conjuntamente la elección de la cámara (RGB, multiespectral, infrarroja) y la red neuronal. Los sistemas de búsqueda de redes neuronales (NAS) adaptados al entorno de implementación podrían incluir parámetros del sensor (como las bandas espectrales utilizadas) en su búsqueda, encontrando así la mejor combinación de hardware y modelo.

3. Integración multiespectral/hiperespectral: Como sugiere el estudio sobre enfermedades del algodón, la integración de imágenes multiespectrales puede mejorar la detección, especialmente de problemas en etapas tempranas. Los futuros sistemas de navegación aérea podrían explorar modelos de flujo múltiple que combinen canales RGB e infrarrojo cercano para detectar cambios sutiles en las plantas con mayor fiabilidad.

4. Canales de decisión autónomos: En última instancia, los detectores optimizados para NAS podrían contribuir a la autonomía total. Por ejemplo, un dron podría generar automáticamente un plan de fumigación o alertar a los administradores de la explotación si detecta ciertas condiciones. El NAS con capacidad de implementación podría extenderse a flujos de trabajo integrales (modelos de detección y acción), optimizando así todo el sistema.

5. Consideraciones éticas y medioambientales: A medida que los vehículos aéreos no tripulados (VANT) se vuelven más capaces, debemos considerar la privacidad, la seguridad del espacio aéreo y el impacto en la mano de obra agrícola (como señalan Agrawal y Arafat). Garantizar que los drones optimizados para el espacio aéreo nacional se utilicen de forma responsable en la agricultura es un objetivo importante para el futuro.

Conclusión

El algoritmo NAS, optimizado para el despliegue, representa una potente herramienta para diseñar detectores de objetos ligeros para la monitorización de cultivos mediante UAV. Al incorporar el hardware del UAV y las restricciones de la misión en la búsqueda, genera modelos que ahorran computación y energía sin sacrificar demasiada precisión. Por ejemplo, un trabajo reciente demostró que un detector diseñado con NAS utiliza 37% menos operaciones de punto flotante (FLOPs) y 61% menos parámetros que el detector de referencia YOLOv8n, pero su mAP se redujo en tan solo ~2%.

En el hardware real de los drones, esto se tradujo en una inferencia 28% más rápida y una eficiencia energética 18% superior. Estas mejoras se traducen en tiempos de vuelo más prolongados, análisis más rápidos y un soporte agrícola más eficaz. En comparación con los modelos creados manualmente, el NAS con reconocimiento de despliegue ofrece una mejor generalización del rendimiento, menor esfuerzo de ajuste manual y escalabilidad a nuevas plataformas de UAV.

En el contexto de la agricultura de precisión, estas mejoras pueden hacer que el monitoreo de cultivos mediante UAV sea más práctico y efectivo. Los drones equipados con detectores optimizados para NAS pueden detectar con mayor fiabilidad malezas, plagas o estrés, lo que permite intervenciones oportunas que ahorran recursos y aumentan los rendimientos. A medida que la agricultura continúa adoptando drones e IA, el NAS con enfoque en el despliegue desempeñará un papel fundamental para garantizar que los modelos que se ejecutan en esos drones sean eficientes, precisos y estén listos para su uso en el campo. Cierra la brecha entre la investigación de vanguardia en redes neuronales y las necesidades prácticas de los agricultores, impulsando así el futuro de la agricultura de precisión basada en datos.

El cultivo de cebada recibe un impulso con la detección ligera YOLOv5.

La cebada de las tierras altas, un cultivo de cereal resistente que se cultiva en las regiones de gran altitud de la meseta Qinghai-Tíbet de China, desempeña un papel fundamental en la seguridad alimentaria local y la estabilidad económica. Conocida científicamente como Hordeum vulgare Este cultivo, conocido como L., prospera en condiciones extremas (aire enrarecido, bajos niveles de oxígeno y una temperatura media anual de 6,3 °C), lo que lo hace indispensable para las comunidades que viven en entornos difíciles.

Con más de 270 000 hectáreas dedicadas a su cultivo en China, principalmente en la Región Autónoma de Xizang, la cebada de altura representa más de la mitad de la superficie cultivada de la región y más de 701 TP3T de su producción total de grano. El monitoreo preciso de la densidad de la cebada —el número de plantas o espigas por unidad de superficie— es esencial para optimizar las prácticas agrícolas, como el riego y la fertilización, y predecir los rendimientos.

Sin embargo, los métodos tradicionales, como el muestreo manual o las imágenes satelitales, han demostrado ser ineficientes, laboriosos o insuficientemente detallados. Para abordar estos desafíos, investigadores de la Universidad Agrícola y Forestal de Fujian y la Universidad Tecnológica de Chengdu desarrollaron un innovador modelo de IA basado en YOLOv5, un algoritmo de detección de objetos de vanguardia.

Su trabajo, publicado en Métodos de planta (2025), logró resultados notables, incluyendo una precisión media promedio (mAP) de 93,1%, una métrica que mide la precisión general de detección, y una reducción de 75,6% en los costos computacionales, lo que lo hace adecuado para despliegues de drones en tiempo real.

Desafíos e innovaciones en el monitoreo de cultivos

La importancia de la cebada de las tierras altas va más allá de su función como fuente de alimento. Tan solo en 2022, la ciudad de Rikaze, una importante región productora de cebada, cosechó 408.900 toneladas de cebada en 60.000 hectáreas, lo que representó casi la mitad de la producción total de cereales del Tíbet.

A pesar de su importancia cultural y económica, estimar el rendimiento de la cebada ha sido durante mucho tiempo un desafío. Los métodos tradicionales, como el conteo manual o las imágenes satelitales, son demasiado laboriosos o carecen de la resolución necesaria para detectar las espigas individuales de cebada, la parte de la planta que contiene el grano, que a menudo mide solo 2 o 3 centímetros de ancho.

El muestreo manual exige que los agricultores inspeccionen físicamente secciones de un campo, un proceso lento, subjetivo y poco práctico para explotaciones agrícolas de gran tamaño. Las imágenes satelitales, si bien son útiles para observaciones generales, presentan problemas debido a su baja resolución (a menudo de 10 a 30 metros por píxel) y a las frecuentes perturbaciones meteorológicas, como la nubosidad en regiones montañosas como el Tíbet.

Para superar estas limitaciones, los investigadores recurrieron a vehículos aéreos no tripulados (VANT), o drones, equipados con cámaras de 20 megapíxeles. Estos drones capturaron 501 imágenes de alta resolución de campos de cebada en la ciudad de Rikaze durante dos etapas críticas de crecimiento: la etapa de crecimiento en agosto de 2022, caracterizada por espigas verdes en desarrollo, y la etapa de maduración en agosto de 2023, marcada por espigas de color amarillo dorado, listas para la cosecha.

Monitoreo de campos de cebada mediante drones en la ciudad de Rikaze.

Sin embargo, el análisis de estas imágenes planteó dificultades, como los bordes borrosos causados por el movimiento del dron, el pequeño tamaño de las espigas de cebada en las vistas aéreas y la superposición de espigas en campos densamente sembrados.

Para abordar estos problemas, los investigadores preprocesaron las imágenes dividiendo cada imagen de alta resolución en 35 subimágenes más pequeñas y filtrando los bordes borrosos, lo que dio como resultado 2970 subimágenes de alta calidad para el entrenamiento. Este paso de preprocesamiento garantizó que el modelo se centrara en datos claros y útiles, evitando distracciones causadas por regiones de baja calidad.

Avances técnicos en la detección de objetos

El elemento central de esta investigación es el algoritmo YOLOv5 (You Only Look Once versión 5), un modelo de detección de objetos de una sola etapa conocido por su velocidad y diseño modular. A diferencia de los modelos más antiguos de dos etapas, como Faster R-CNN, que primero identifican las regiones de interés y luego clasifican los objetos, YOLOv5 realiza la detección en una sola pasada, lo que lo hace significativamente más rápido.

El modelo base YOLOv5n, con 1,76 millones de parámetros (componentes configurables del modelo de IA) y 4100 millones de FLOPs (operaciones de coma flotante, una medida de la complejidad computacional), ya era eficiente. Sin embargo, la detección de pequeñas espigas de cebada superpuestas requería una mayor optimización.

El equipo de investigación introdujo tres mejoras clave en el modelo: convolución separable en profundidad (DSConv), convolución fantasma (GhostConv) y un módulo de atención de bloques convolucionales (CBAM).

La convolución separable en profundidad (DSConv) reduce los costos computacionales al dividir el proceso de convolución estándar —una operación matemática que extrae características de las imágenes— en dos pasos. Primero, la convolución en profundidad aplica filtros a los canales de color individuales (por ejemplo, rojo, verde, azul), analizando cada canal por separado.

A continuación, se realiza una convolución punto a punto, que combina los resultados de todos los canales utilizando núcleos de 1×1. Este método reduce el número de parámetros hasta en 75%.

Reducción de parámetros en la convolución separable en profundidad

Por ejemplo, una convolución tradicional de 3×3 con 64 canales de entrada y 128 de salida requiere 73 728 parámetros, mientras que DSConv los reduce a tan solo 8 768, lo que supone una reducción de 88%. Esta eficiencia es fundamental para implementar modelos en drones o dispositivos móviles con capacidad de procesamiento limitada.

La convolución fantasma (GhostConv) aligera aún más el modelo al generar mapas de características adicionales (representaciones simplificadas de patrones de imagen) mediante operaciones lineales simples, como rotación o escalado, en lugar de convoluciones que consumen muchos recursos.

Las capas de convolución tradicionales generan características redundantes, lo que supone un desperdicio de recursos computacionales. GhostConv soluciona este problema creando características "fantasma" a partir de las existentes, reduciendo así a la mitad los parámetros en ciertas capas.

Por ejemplo, una capa con 64 canales de entrada y 128 canales de salida tradicionalmente requeriría 73.728 parámetros, pero GhostConv lo reduce a 36,864 manteniendo la precisión. Esta técnica es especialmente útil para detectar objetos pequeños como las espigas de cebada, donde la eficiencia computacional es primordial.

El módulo de atención de bloques convolucionales (CBAM) se integró para ayudar al modelo a centrarse en las características críticas, incluso en entornos complejos. Los mecanismos de atención, inspirados en los sistemas visuales humanos, permiten a los modelos de IA priorizar las partes importantes de una imagen.

CBAM emplea dos tipos de atención: atención de canal, que identifica canales de color importantes (por ejemplo, el verde para detectar espigas en crecimiento), y atención espacial, que resalta regiones clave dentro de una imagen (por ejemplo, grupos de espigas). Al reemplazar los módulos estándar con DSConv y GhostConv e incorporar CBAM, los investigadores crearon un modelo más eficiente y preciso, diseñado específicamente para la detección de cebada.

Implementación y resultados

Para entrenar el modelo, los investigadores etiquetaron manualmente 135 imágenes originales utilizando cuadros delimitadores (marcos rectangulares que marcan la ubicación de las espigas de cebada), clasificándolas según su etapa de crecimiento o maduración. Las técnicas de aumento de datos (que incluyen rotación, inyección de ruido, oclusión y nitidez) ampliaron el conjunto de datos a 2970 imágenes, mejorando así la capacidad del modelo para generalizar en diversas condiciones de campo.

Por ejemplo, rotar las imágenes 90°, 180° o 270° ayudó al modelo a reconocer picos desde diferentes ángulos, mientras que añadir ruido simuló imperfecciones del mundo real, como polvo o sombras. El conjunto de datos se dividió en un conjunto de entrenamiento (80%) y un conjunto de validación (20%), lo que garantizó una evaluación sólida.

El entrenamiento se realizó en un sistema de alto rendimiento con una CPU AMD Ryzen 7, una GPU NVIDIA RTX 4060 y 64 GB de RAM, utilizando el framework PyTorch, una herramienta popular para el aprendizaje profundo. Durante más de 300 épocas de entrenamiento (recorridos completos por el conjunto de datos), se realizó un seguimiento meticuloso de la precisión del modelo (exactitud de las detecciones correctas), la exhaustividad (capacidad para encontrar todos los picos relevantes) y la pérdida (tasa de error).

Los resultados fueron sorprendentes. El modelo YOLOv5 mejorado alcanzó una precisión de 92,21 TP3T (frente a 89,11 TP3T en el modelo de referencia) y una exhaustividad de 86,21 TP3T (frente a 83,11 TP3T), superando al modelo de referencia YOLOv5n en 3,11 TP3T en ambas métricas. Su precisión media promedio (mAP), una métrica integral que promedia la precisión de detección en todas las categorías, alcanzó 93,11 TP3T, con puntuaciones individuales de 92,71 TP3T para los picos en etapa de crecimiento y 93,51 TP3T para los picos en etapa de maduración.

Resultados del entrenamiento del modelo YOLOv5

Igualmente impresionante fue su eficiencia computacional: los parámetros del modelo se redujeron en 70,6% hasta alcanzar 1,2 millones, y las operaciones de punto flotante (FLOPs) disminuyeron en 75,6% hasta los 3.100 millones. Los análisis comparativos con modelos líderes como Faster R-CNN y YOLOv8n pusieron de manifiesto su superioridad.

Si bien YOLOv8n logró un mAP ligeramente superior (93,8%), sus parámetros (3,0 millones) y FLOPs (8,1 mil millones) fueron 2,5 y 2,6 veces superiores, respectivamente, lo que hace que el modelo propuesto sea mucho más eficiente para aplicaciones en tiempo real.

Las comparaciones visuales pusieron de manifiesto estos avances. En las imágenes de la fase de crecimiento, el modelo mejorado detectó 41 picos frente a los 28 del modelo de referencia. Durante la maduración, identificó 3 picos frente a los 2 del modelo de referencia, con menos detecciones fallidas (marcadas con flechas naranjas) y falsos positivos (marcados con flechas moradas).

Estas mejoras son vitales para los agricultores que dependen de datos precisos para predecir los rendimientos y optimizar los recursos. Por ejemplo, el conteo preciso de espigas permite mejores estimaciones de la producción de grano, lo que facilita la toma de decisiones sobre el momento de la cosecha, el almacenamiento y la planificación del mercado.

Direcciones futuras e implicaciones prácticas

A pesar de su éxito, el estudio reconoció algunas limitaciones. El rendimiento disminuyó en condiciones de iluminación extremas, como el intenso resplandor del mediodía o las sombras profundas, que pueden ocultar los detalles de las púas. Además, en ocasiones, los cuadros delimitadores rectangulares no se ajustaban correctamente a las púas de forma irregular, lo que generaba pequeñas imprecisiones.

El modelo también excluyó los bordes borrosos de las imágenes de los drones, lo que requiere un preprocesamiento manual, un paso que añade tiempo y complejidad.

Los trabajos futuros pretenden abordar estos problemas ampliando el conjunto de datos para incluir imágenes capturadas al amanecer, al mediodía y al atardecer, experimentando con anotaciones en forma de polígono (formas flexibles que se adaptan mejor a objetos irregulares) y desarrollando algoritmos para gestionar mejor las regiones borrosas sin intervención manual.

Las implicaciones de esta investigación son profundas. Para los agricultores de regiones como el Tíbet, el modelo ofrece una estimación del rendimiento en tiempo real, sustituyendo los recuentos manuales, que requieren mucha mano de obra, por la automatización mediante drones. La distinción entre las diferentes etapas de crecimiento permite una planificación precisa de la cosecha, reduciendo las pérdidas derivadas de una cosecha prematura o tardía.

Los datos detallados sobre la densidad de espigas —como la identificación de áreas con baja o alta densidad de plantas— pueden orientar las estrategias de riego y fertilización, reduciendo el desperdicio de agua y productos químicos. Además de la cebada, esta estructura ligera resulta prometedora para otros cultivos, como el trigo, el arroz o las frutas, lo que abre la puerta a aplicaciones más amplias en la agricultura de precisión.

Conclusión

En conclusión, este estudio ejemplifica el potencial transformador de la IA para abordar los desafíos agrícolas. Mediante el perfeccionamiento de YOLOv5 con técnicas innovadoras y ligeras, los investigadores han creado una herramienta que equilibra precisión y eficiencia, aspectos cruciales para su implementación práctica en entornos con recursos limitados.

Términos como mAP, FLOPs y mecanismos de atención pueden parecer técnicos, pero su impacto es profundamente práctico: permiten a los agricultores tomar decisiones basadas en datos, conservar recursos y maximizar los rendimientos. A medida que el cambio climático y el crecimiento demográfico intensifican la presión sobre los sistemas alimentarios mundiales, estos avances serán indispensables.

Para los agricultores del Tíbet y de otras regiones, esta tecnología representa no solo un gran avance en la eficiencia agrícola, sino también un faro de esperanza para la seguridad alimentaria sostenible en un futuro incierto.

Referencia: Cai, M., Deng, H., Cai, J. et al. Detección ligera de cebada de tierras altas basada en YOLOv5 mejorado. Plant Methods 21, 42 (2025). https://doi.org/10.1186/s13007-025-01353-0

CMTNet Redefine la Agricultura de Precisión Superando la Clasificación Tradicional de Cultivos

La clasificación precisa de los cultivos es fundamental para la agricultura de precisión moderna, ya que permite a los agricultores controlar la salud de los cultivos, predecir los rendimientos y asignar los recursos de manera eficiente. Sin embargo, los métodos tradicionales suelen tener dificultades con la complejidad de los entornos agrícolas, donde los cultivos varían ampliamente en tipo, etapas de crecimiento y características espectrales.

¿Qué son las imágenes hiperespectrales y el marco de trabajo CMTNet?

La imagen hiperespectral (HSI), una tecnología que captura datos en cientos de bandas de longitud de onda estrechas y contiguas, se ha convertido en un elemento revolucionario en este campo. A diferencia de las cámaras RGB estándar o los sensores multiespectrales, que recogen datos en unas pocas bandas anchas, la HSI proporciona una "huella espectral" detallada para cada píxel.

Por ejemplo, la vegetación sana refleja intensamente la luz infrarroja cercana debido a la actividad de la clorofila, mientras que los cultivos estresados muestran patrones de absorción distintos. Al registrar estas sutiles variaciones (de 400 a 1000 nanómetros) con alta resolución espacial (tan fina como 0,043 metros), la imagen hiperespectral permite diferenciar con precisión las especies de cultivos, detectar enfermedades y analizar el suelo.

A pesar de estas ventajas, las técnicas existentes presentan dificultades para equilibrar detalles locales, como la textura de las hojas o los patrones del suelo, con patrones globales, como la distribución de cultivos a gran escala. Esta limitación se hace especialmente evidente en conjuntos de datos ruidosos o desequilibrados, donde las sutiles diferencias espectrales entre cultivos pueden provocar clasificaciones erróneas.

Para abordar estos desafíos, los investigadores desarrollaron CMTNet (Convolutional Meets Transformer Network), un novedoso marco de aprendizaje profundo que combina las ventajas de las redes neuronales convolucionales (CNN) y los Transformers. Las CNN son una clase de redes neuronales diseñadas para procesar datos con estructura de cuadrícula, como imágenes, mediante capas de filtros que detectan jerarquías espaciales (por ejemplo, bordes, texturas).

Arquitectura y rendimiento de CMTNet

Los Transformers, desarrollados originalmente para el procesamiento del lenguaje natural, utilizan mecanismos de autoatención para modelar dependencias de largo alcance en los datos, lo que les permite capturar patrones globales con eficacia. A diferencia de los modelos anteriores, que procesan características locales y globales de forma secuencial, CMTNet utiliza una arquitectura paralela para extraer ambos tipos de información simultáneamente.

Este enfoque ha demostrado ser altamente efectivo, logrando una precisión de vanguardia en tres conjuntos de datos HSI principales basados en UAV. Por ejemplo, en el conjunto de datos WHU-Hi-LongKou, CMTNet alcanzó una precisión general (OA) de 99,58%, superando al mejor modelo anterior en 0,19%.

Desafíos de la imagen hiperespectral tradicional en la clasificación agrícola

Los primeros métodos para analizar datos hiperespectrales solían centrarse en características espectrales o espaciales, lo que generaba resultados incompletos. Las técnicas espectrales, como el análisis de componentes principales (PCA), redujeron la complejidad de los datos al centrarse en la información de longitud de onda, pero ignoraron las relaciones espaciales entre los píxeles.

Por ejemplo, el análisis de componentes principales (PCA) transforma datos espectrales de alta dimensión en un menor número de componentes que explican la mayor parte de la varianza, simplificando así el análisis. Sin embargo, este enfoque descarta el contexto espacial, como la disposición de los cultivos en un campo. Por el contrario, los métodos espaciales, como los operadores de morfología matemática, resaltan patrones en la disposición física de los cultivos, pero pasan por alto detalles espectrales cruciales.

La morfología matemática utiliza operaciones como la dilatación y la erosión para extraer formas y estructuras de las imágenes, como los límites entre campos. Con el tiempo, las redes neuronales convolucionales (CNN) mejoraron la clasificación al procesar ambos tipos de datos.

Sin embargo, sus campos receptivos fijos —el área de una imagen que una red puede "ver" de una sola vez— limitaban su capacidad para capturar dependencias de largo alcance. Por ejemplo, una CNN 3D podría tener dificultades para distinguir entre dos variedades de soja con perfiles espectrales similares pero patrones de crecimiento diferentes en un campo extenso.

Los Transformers, un tipo de red neuronal diseñada originalmente para el procesamiento del lenguaje natural, ofrecieron una solución a este problema. Mediante mecanismos de autoatención, los Transformers destacan en el modelado de relaciones globales en los datos. La autoatención permite al modelo ponderar la importancia de las diferentes partes de una secuencia de entrada, lo que le permite centrarse en las regiones relevantes (por ejemplo, un grupo de plantas enfermas) e ignorar el ruido (por ejemplo, las sombras de las nubes).

Sin embargo, a menudo pasan por alto detalles locales sutiles, como los bordes de las hojas o las grietas del suelo. Los modelos híbridos como CTMixer intentaron combinar redes neuronales convolucionales (CNN) y transformadores (Transformers), pero lo hicieron de forma secuencial, procesando primero las características locales y luego las globales. Este enfoque resultó en una fusión ineficiente de la información y un rendimiento subóptimo en entornos agrícolas complejos.

Cómo funciona CMTNet: Conectando funciones locales y globales

CMTNet supera estas limitaciones mediante una arquitectura única de tres partes diseñada para extraer y fusionar eficazmente características espectrales-espaciales, locales y globales.

1. El primer componente, el módulo de extracción de características espectrales y espaciales, Procesa datos HSI sin procesar utilizando capas convolucionales 3D y 2D.

Las capas convolucionales 3D analizan simultáneamente las dimensiones espaciales (altura × anchura) y espectrales (longitud de onda), capturando patrones como la reflectancia de longitudes de onda específicas en el follaje de un cultivo. Por ejemplo, un núcleo 3D podría detectar que el maíz sano refleja más luz infrarroja cercana en sus hojas superiores que en las inferiores.

Las capas 2D refinan estas características, centrándose en detalles espaciales como la disposición de las plantas en un campo. Este proceso de dos pasos garantiza que se conserven tanto la diversidad espectral (por ejemplo, el contenido de clorofila) como el contexto espacial (por ejemplo, el espaciado entre filas).

2. El segundo componente, el Módulo de extracción de características locales y globales, opera en paralelo. Una rama utiliza redes neuronales convolucionales (CNN) para centrarse en detalles locales, como la textura de las hojas individuales o la forma de las zonas de suelo. Estas características son fundamentales para identificar especies con perfiles espectrales similares, como diferentes variedades de soja.

La otra rama emplea transformadores para modelar relaciones globales, como la distribución de los cultivos en grandes áreas o cómo las sombras de los árboles cercanos afectan las lecturas espectrales. Al procesar estas características simultáneamente en lugar de secuencialmente, CMTNet evita la pérdida de información que afectaba a los modelos híbridos anteriores.

Por ejemplo, mientras que la rama CNN identifica los bordes dentados de las hojas de algodón, la rama Transformer reconoce que estas hojas forman parte de un campo de algodón más grande bordeado por plantas de sésamo.

3. El tercer componente, el módulo de restricción de múltiples salidas, Garantiza un aprendizaje equilibrado entre características locales, globales y fusionadas. Durante el entrenamiento, se aplican funciones de pérdida independientes a cada tipo de característica, lo que obliga a la red a refinar todos los aspectos de su comprensión.

Una función de pérdida cuantifica la diferencia entre los valores predichos y los reales, guiando así los ajustes del modelo. Por ejemplo, la pérdida para características locales podría penalizar al modelo por clasificar erróneamente los bordes de las hojas, mientras que la pérdida global corrige errores en la distribución de cultivos a gran escala.

Estas pérdidas se combinan utilizando ponderaciones optimizadas mediante una búsqueda aleatoria, una técnica que prueba diversas combinaciones de ponderaciones para maximizar la precisión. Este proceso da como resultado un modelo robusto y adaptable, capaz de gestionar diversos escenarios agrícolas.

Evaluación del rendimiento de CMTNet en conjuntos de datos hiperespectrales de UAV

Para evaluar CMTNet, los investigadores lo probaron con tres conjuntos de datos hiperespectrales adquiridos mediante UAV de la Universidad de Wuhan. Estos conjuntos de datos son referencias ampliamente utilizadas en teledetección debido a su alta calidad y diversidad:

  1. WHU-Hola-LongKouEste conjunto de datos abarca 550 × 400 píxeles con 270 bandas espectrales y una resolución espacial de 0,463 metros. Una resolución espacial de 0,463 metros significa que cada píxel representa un área de 0,463 m × 0,463 m en el suelo, lo que permite la identificación de plantas individuales. Incluye nueve tipos de cultivos, como maíz, algodón y arroz, con 1019 muestras de entrenamiento y 203 523 muestras de prueba.
  2. WHU-Hi-HanChuanEste conjunto de datos, que captura 1217 × 303 píxeles con una resolución de 0,109 metros, incluye 16 tipos de cobertura terrestre, como fresas, soja y láminas de plástico. La mayor resolución (0,109 m) permite apreciar detalles más finos, como la distinción entre plantas de soja jóvenes y maduras. Las muestras de entrenamiento y prueba sumaron 1289 y 256 241, respectivamente.
  3. WHU-Hi-HongHuCon 940 × 475 píxeles y 270 bandas, este conjunto de datos de alta resolución (0,043 metros) incluye 22 clases, como algodón, colza y brotes de ajo. A esta resolución, se aprecian las hojas individuales y las grietas del suelo, lo que lo hace ideal para una clasificación precisa. Contiene 1925 muestras de entrenamiento y 384 678 muestras de prueba.

Comparación de conjuntos de datos de teledetección de alta resolución

El modelo se entrenó en GPU NVIDIA TITAN Xp utilizando PyTorch, con una tasa de aprendizaje de 0,001 y un tamaño de lote de 100. La tasa de aprendizaje determina cuánto ajusta el modelo sus parámetros durante el entrenamiento: si es demasiado alta, puede sobrepasar los valores óptimos; si es demasiado baja, el entrenamiento se vuelve lento.

Cada experimento se repitió diez veces para garantizar la fiabilidad, y los parches de entrada (pequeños segmentos de la imagen completa) se optimizaron a 13 × 13 píxeles mediante una búsqueda en cuadrícula, un método que prueba diferentes tamaños de parche para encontrar el más eficaz.

CMTNet logra una precisión de vanguardia en la clasificación de cultivos.

CMTNet logró resultados notables en todos los conjuntos de datos, superando a los métodos existentes tanto en precisión general (OA) como en rendimiento específico por clase. La OA mide el porcentaje de píxeles clasificados correctamente en todas las clases, mientras que la precisión promedio (AA) calcula la precisión media por clase, corrigiendo los desequilibrios.

En el conjunto de datos WHU-Hi-LongKou, CMTNet alcanzó una precisión general (OA) de 99,58%, superando a CTMixer por 0,19%. Para clases complejas con datos de entrenamiento limitados, como el algodón (41 muestras), CMTNet aún alcanzó una precisión de 99,53%. De manera similar, en el conjunto de datos WHU-Hi-HanChuan, mejoró la precisión para la sandía (22 muestras) de 82,42% a 96,11%, demostrando su capacidad para manejar datos desequilibrados mediante una fusión de características eficaz.

Las comparaciones visuales de los mapas de clasificación revelaron menos zonas fragmentadas y límites más suaves entre los campos en comparación con modelos como 3D-CNN y Vision Transformer (ViT). Por ejemplo, en el conjunto de datos WHU-Hi-HanChuan, propenso a las sombras, CMTNet minimizó los errores causados por los bajos ángulos de incidencia del sol, mientras que ResNet clasificó erróneamente la soja como tejados grises.

Rendimiento de CMTNet en diversos conjuntos de datos

Las sombras representan un desafío único porque alteran las firmas espectrales: una planta de soja en la sombra podría reflejar menos luz infrarroja cercana, asemejándose a la ausencia de vegetación. Aprovechando el contexto global, CMTNet reconoció que estas plantas en sombra formaban parte de un campo de soja más extenso, lo que redujo los errores.

En el conjunto de datos WHU-Hi-HongHu, el modelo sobresalió en la distinción de cultivos espectralmente similares, como diferentes variedades de brasicáceas, logrando una precisión de 96,54% para Brassica parachinensis.

Los estudios de ablación —experimentos que eliminan componentes para evaluar su impacto— confirmaron la importancia de cada módulo. La adición del módulo de restricción de salida múltiple por sí sola mejoró la precisión global en 1,52% en WHU-Hi-HongHu, lo que subraya su papel en el perfeccionamiento de la fusión de características. Sin este módulo, las características locales y globales se combinaban de forma aleatoria, lo que generaba clasificaciones inconsistentes.

Compromisos computacionales y consideraciones prácticas

Si bien la precisión de CMTNet es inigualable, su costo computacional es mayor que el de los métodos tradicionales. El entrenamiento con el conjunto de datos WHU-Hi-HongHu tardó 1885 segundos, en comparación con los 74 segundos de Random Forest (RF), un algoritmo de aprendizaje automático que construye árboles de decisión durante el entrenamiento.

Sin embargo, esta compensación se justifica en la agricultura de precisión, donde la exactitud influye directamente en las predicciones de rendimiento y la asignación de recursos. Por ejemplo, clasificar erróneamente un cultivo enfermo como sano podría provocar plagas incontroladas que devastarían campos enteros.

Para aplicaciones en tiempo real, en el futuro se podrían explorar técnicas de compresión de modelos, como la poda de neuronas redundantes o la cuantización de pesos (que reduce la precisión numérica), para disminuir el tiempo de ejecución sin sacrificar el rendimiento. La poda elimina las conexiones menos importantes de la red neuronal, de forma similar a recortar las ramas de un árbol para mejorar su forma, mientras que la cuantización simplifica los cálculos numéricos, acelerando el procesamiento.

El futuro de la clasificación hiperespectral de cultivos con CMTNet

A pesar de su éxito, CMTNet presenta limitaciones. Su rendimiento disminuye ligeramente en regiones con mucha sombra, como se observa en el conjunto de datos WHU-Hi-HanChuan (97,29% OA frente a 99,58% en LongKou, bien iluminado). Las sombras dificultan la clasificación, ya que reducen la intensidad de la luz reflejada, alterando los perfiles espectrales.

Además, las clases con muestras de entrenamiento extremadamente pequeñas, como la soja de hoja estrecha (20 muestras), se quedan atrás con respecto a aquellas con datos abundantes. El tamaño reducido de las muestras limita la capacidad del modelo para aprender variaciones diversas, como las diferencias en la forma de las hojas debidas a la calidad del suelo.

Futuras investigaciones podrían integrar datos multimodales, como mapas de elevación LiDAR o imágenes térmicas, para mejorar la resistencia a las sombras y las oclusiones. El LiDAR (detección y medición de luz) utiliza pulsos láser para crear modelos de terreno en 3D, lo que podría ayudar a distinguir los cultivos de las sombras mediante el análisis de las diferencias de altura.

Además, la termografía captura las señales térmicas, lo que proporciona información adicional sobre la salud de las plantas: los cultivos estresados suelen presentar temperaturas más elevadas en el dosel debido a la reducción de la transpiración. Las técnicas de aprendizaje semisupervisado, que aprovechan datos sin etiquetar (por ejemplo, imágenes de drones sin anotaciones manuales), también podrían mejorar el rendimiento para tipos de cultivos poco comunes.

Mediante la regularización de la consistencia —que consiste en entrenar el modelo para que produzca predicciones estables en versiones ligeramente modificadas de la misma imagen—, los investigadores pueden aprovechar los datos sin etiquetar para mejorar la generalización.

Finalmente, la implementación de CMTNet en dispositivos periféricos, como drones equipados con GPU integradas, podría permitir la monitorización en tiempo real en zonas remotas. Esta implementación reduce la dependencia de la computación en la nube, minimizando la latencia y los costes de transmisión de datos. Sin embargo, esto requiere optimizar el modelo para una memoria y capacidad de procesamiento limitadas, posiblemente mediante arquitecturas ligeras como MobileNet o la destilación del conocimiento, donde un modelo "estudiante" más pequeño imita a un modelo "maestro" más grande.

Conclusión

CMTNet representa un avance significativo en la clasificación hiperespectral de cultivos. Al armonizar las redes neuronales convolucionales (CNN) y los transformadores (Transformers), aborda desafíos de larga data en la extracción y fusión de características, ofreciendo a agricultores y agrónomos una poderosa herramienta para la agricultura de precisión.

Las aplicaciones abarcan desde la detección de enfermedades en tiempo real hasta la optimización de los programas de riego, aspectos fundamentales para una agricultura sostenible en el contexto del cambio climático y el crecimiento demográfico. A medida que la tecnología de los vehículos aéreos no tripulados (UAV) se vuelve más accesible, modelos como CMTNet desempeñarán un papel crucial en la seguridad alimentaria mundial.

Los avances futuros, como las arquitecturas más ligeras y la fusión de datos multimodales, podrían mejorar aún más su practicidad. Con la innovación continua, CMTNet podría convertirse en un pilar fundamental de los sistemas de agricultura inteligente en todo el mundo, garantizando un uso eficiente de la tierra y una producción de alimentos resiliente para las generaciones venideras.

Referencia: Guo, X., Feng, Q. y Guo, F. CMTNet: una red híbrida CNN-transformer para la clasificación hiperespectral de cultivos basada en UAV en agricultura de precisión. Sci Rep 15, 12383 (2025). https://doi.org/10.1038/s41598-025-97052-w

Papel de las aplicaciones de visión artificial basadas en aprendizaje profundo para la detección temprana de enfermedades en las plantas.

Las enfermedades de las plantas amenazan silenciosamente la seguridad alimentaria mundial, destruyendo entre 10 y 161 toneladas de cultivos anualmente y ocasionando pérdidas de entre 1 y 220 mil millones de dólares a la industria agrícola. Los métodos tradicionales, como las inspecciones manuales y las pruebas de laboratorio, son lentos, costosos y, a menudo, poco fiables.

Un estudio innovador de 2025, “Aprendizaje profundo y visión artificial en la detección de enfermedades de las plantas” (Upadhyay et al.), revela cómo la detección de enfermedades de las plantas mediante IA y la agricultura basada en visión artificial están transformando la agricultura.

Por qué la detección temprana de enfermedades de las plantas es importante para la seguridad alimentaria mundial.

La agricultura emplea a 281.300 personas de la fuerza laboral mundial, con países como India, China y Estados Unidos a la cabeza de la producción agrícola. A pesar de ello, las enfermedades de las plantas causadas por hongos, bacterias y virus reducen drásticamente los rendimientos y generan dificultades económicas.

Por ejemplo, la enfermedad del tizón del arroz reduce las cosechas entre 30 y 50 toneladas en las regiones afectadas, mientras que el enverdecimiento de los cítricos ha arrasado con 70 toneladas de naranjas en Florida desde 2005. La detección temprana es fundamental, pero muchos agricultores carecen de acceso a herramientas avanzadas o a la experiencia necesaria.

Aquí es donde entra en juego la detección de enfermedades mediante inteligencia artificial, que ofrece soluciones rápidas, asequibles y precisas que superan a los métodos tradicionales.

Cómo la IA y la visión artificial detectan las enfermedades de los cultivos

El estudio analizó 278 artículos de investigación para explicar cómo funcionan los sistemas de detección de enfermedades de las plantas mediante inteligencia artificial. En primer lugar, cámaras o sensores capturan imágenes de los cultivos. Posteriormente, estas imágenes se procesan mediante algoritmos para identificar signos de enfermedad.

Por ejemplo, Cámaras RGB Las cámaras toman fotografías en color para detectar síntomas visibles como manchas en las hojas, mientras que las cámaras hiperespectrales detectan señales de estrés ocultas analizando cientos de longitudes de onda de luz.

Una vez capturadas las imágenes, se someten a un preprocesamiento para mejorar su calidad. Técnicas como el umbralizado aíslan las áreas afectadas por el color, y la detección de bordes delimita las zonas afectadas por las lesiones o la decoloración.

Cómo la IA y la visión artificial detectan las enfermedades de los cultivos

A continuación, los modelos de aprendizaje profundo analizan los datos preprocesados. Redes neuronales convolucionales (CNN), Las herramientas de IA más comunes en la agricultura analizan las imágenes capa por capa para identificar patrones como texturas o colores inusuales.

En un ensayo de 2022, ResNet50—un popular modelo CNN— logró una precisión del 99,071 TP3T en el diagnóstico de enfermedades del tomate.

Mientras tanto, Vision Transformers (ViTs) Dividir las imágenes en parches y estudiar sus relaciones, imitando cómo los humanos analizan el contexto. Este método ayudó a detectar el virus que limpia las venas de la vid con una precisión de 71% en un estudio de 2020.

“El futuro de la agricultura no reside en sustituir a los humanos, sino en equiparlos con herramientas inteligentes.”

El papel de los sensores avanzados en la agricultura moderna

Los distintos sensores ofrecen ventajas únicas para la agricultura de precisión. Cámaras RGB, aunque asequibles y fáciles de usar, tienen dificultades con las enfermedades en etapa temprana debido al detalle espectral limitado. En contraste, cámaras hiperespectrales Capturan datos en cientos de longitudes de onda de luz, revelando señales de estrés invisibles a simple vista.

Por ejemplo, en 2022, los investigadores utilizaron imágenes hiperespectrales para diagnosticar el cancro de Valsa del manzano con una precisión del 981% (TP3T). Sin embargo, estas cámaras cuestan 10.000–50.000, lo que los hace demasiado caros para los pequeños agricultores.

Cámaras térmicas Se puede aportar otra perspectiva midiendo los cambios de temperatura provocados por las infecciones. Un estudio de 2019 reveló que las hojas infectadas con la enfermedad del enverdecimiento de los cítricos muestran patrones de calor distintivos, lo que permite una detección temprana.

Mientras tanto, cámaras multiespectrales—una opción intermedia—controlar los niveles de clorofila para evaluar la salud de las plantas.

Estos sensores permitieron mapear la roya amarilla del trigo en 2014, lo que ayudó a los agricultores a aplicar tratamientos más efectivos. A pesar de sus beneficios, el costo de los sensores y factores ambientales como el viento o la iluminación irregular siguen siendo un desafío.

Conjuntos de datos públicos: la columna vertebral de la IA en la agricultura.

El entrenamiento de modelos de IA fiables requiere enormes cantidades de datos etiquetados. Conjunto de datos de PlantVillage, un recurso gratuito con 87.000 imágenes de 14 cultivos y 26 enfermedades, se ha convertido en el referente para los investigadores.

Más de 90% estudios citados en el artículo utilizaron este conjunto de datos para entrenar y probar sus modelos. Otro recurso clave, el Conjunto de datos sobre enfermedades de la yuca, Incluye 11.670 imágenes de la enfermedad del mosaico de la yuca y logró una precisión de 96% con modelos CNN.

Sin embargo, persisten algunas deficiencias. Enfermedades raras como el nematodo del pino tienen menos de 100 imágenes etiquetadas, lo que limita la capacidad de la IA para detectarlas. Además, la mayoría de los conjuntos de datos incluyen imágenes capturadas en laboratorio, que no tienen en cuenta variables del mundo real como el clima o la iluminación.

Para abordar este problema, proyectos como AI4Ag están recopilando imágenes de campo de agricultores de todo el mundo mediante la colaboración ciudadana, con el objetivo de crear conjuntos de datos más sólidos y realistas.

Medición del rendimiento de la IA: exactitud, precisión y más allá

Métricas de rendimiento de los sistemas de detección de enfermedades de las plantas basados en IA

Los investigadores utilizan diversas métricas para evaluar los sistemas de detección de enfermedades de las plantas basados en inteligencia artificial. Exactitud—el porcentaje de diagnósticos correctos— varía desde 76,9% en los primeros modelos a 99,97% en sistemas avanzados como EfficientNet-B5.

Sin embargo, la exactitud por sí sola puede ser engañosa. La precisión mide cuántas enfermedades señaladas son reales (evitando falsas alarmas), mientras que la exhaustividad registra cuántas infecciones reales se detectan.

Por ejemplo, Máscara R-CNN, un modelo de detección de objetos, logró una recuperación de 93,5% en la detección de antracnosis en fresas, pero solo una precisión de 45% en la detección de pudrición de la raíz del algodón.

En Puntuación F1 equilibra la precisión y la exhaustividad, ofreciendo una visión integral del rendimiento. En un ensayo de 2023, PlantViT—un modelo de IA híbrido— obtuvo una puntuación F1 de 98,61% en el conjunto de datos PlantVillage.

Para la detección de objetos, Precisión media promedio (mAP) es fundamental. Faster R-CNN, un modelo popular, logró un mAP de 73,07% en ensayos sobre enfermedades del manzano, lo que significa que localizó y clasificó correctamente las infecciones en la mayoría de los casos.

Desafíos que frenan la IA en la agricultura

A pesar de su potencial, la detección de enfermedades mediante IA se enfrenta a obstáculos. En primer lugar, la escasez de datos afecta a las enfermedades raras o emergentes.

  • Por ejemplo, para un estudio de 2021 solo se disponía de 20 imágenes de oídio del pepino, lo que limita la fiabilidad del modelo.
  • En segundo lugar, factores ambientales como el viento, las sombras o las condiciones de luz variables reducen la precisión en el campo entre 20 y 30 TP3T en comparación con las condiciones de laboratorio.
  • En tercer lugar, los altos costos dificultan la adopción. Las cámaras hiperespectrales, si bien son potentes, siguen siendo inaccesibles para los pequeños agricultores, y las herramientas de IA requieren teléfonos inteligentes o acceso a internet, lo que aún representa una barrera en las zonas rurales.
  • Finalmente, persisten los problemas de confianza. Una encuesta de 2023 reveló que el 681% de los agricultores dudan en adoptar la IA debido a su naturaleza de "caja negra": no pueden ver cómo se toman las decisiones.

Para superar este problema, los investigadores están desarrollando una IA interpretable que explique los diagnósticos en términos sencillos, como resaltar las áreas de las hojas infectadas o enumerar los síntomas.

El futuro de la agricultura: 5 innovaciones a tener en cuenta

1. Computación de borde para análisis en tiempo realLos modelos de IA ligeros como MobileNetV2 (de 7 MB) se ejecutan en teléfonos inteligentes o drones, ofreciendo detección de enfermedades en tiempo real sin necesidad de internet. En 2023, este modelo alcanzó una precisión del 99,421 TP3T en la clasificación de enfermedades de la patata, lo que permitió a los agricultores tomar decisiones al instante.

2. Aprendizaje por transferencia para una adaptación más rápidaLos modelos preentrenados como PlantViT se pueden ajustar para nuevos cultivos con una cantidad mínima de datos. Un estudio de 2023 adaptó PlantViT para la detección de la piriculariosis del arroz, logrando una precisión del 87,871 % con tan solo 1000 imágenes.

3. Modelos de Visión-Lenguaje (VLM)Sistemas como CLIP de OpenAI permiten a los agricultores consultar la IA mediante texto (por ejemplo, “Buscar manchas marrones en las hojas”). Esta interacción natural reduce la brecha entre la tecnología compleja y la agricultura cotidiana.

4. Modelos fundamentales para la IA de propósito generalLos modelos a gran escala, como GPT-4, podrían simular la propagación de enfermedades o recomendar tratamientos, actuando como agrónomos virtuales.

5. Bases de datos globales colaborativasLas plataformas de código abierto como PlantVillage y AI4Ag recopilan datos de agricultores e investigadores de todo el mundo, acelerando así la innovación.

Caso práctico: Cultivo de mangos con inteligencia artificial en la India

En 2024, investigadores desarrollaron un modelo DenseNet ligero para combatir enfermedades del mango como la antracnosis y el oídio. Entrenado con 12.332 imágenes de campo, el modelo alcanzó una precisión del 99,21 TP3T, superior a la de la mayoría de los sistemas de laboratorio.

Con 50% parámetros menos, funciona sin problemas en teléfonos inteligentes económicos. Los agricultores indios ahora usan una aplicación $10 basada en esta IA para escanear hojas y recibir diagnósticos instantáneos, lo que reduce el uso de pesticidas en 30% y salva cosechas.

Conclusión

La detección de enfermedades de las plantas mediante IA y la tecnología de agricultura de precisión están transformando la agricultura y ofreciendo esperanza para combatir la inseguridad alimentaria. Al permitir un diagnóstico precoz, reducir el uso de productos químicos y empoderar a los pequeños agricultores, estas herramientas podrían aumentar el rendimiento mundial de los cultivos entre 20 y 301 millones de años.

Para aprovechar este potencial, las partes interesadas deben abordar los costes de los sensores, mejorar la diversidad de los datos y generar confianza entre los agricultores mediante la formación.

Referencia: Upadhyay, A., Chandel, NS, Singh, KP et al. Aprendizaje profundo y visión por computadora en la detección de enfermedades de las plantas: una revisión exhaustiva de técnicas, modelos y tendencias en agricultura de precisión. Artif Intell Rev 58, 92 (2025). https://doi.org/10.1007/s10462-024-11100-x

Cómo la fenotipación de alto rendimiento basada en UAS está transformando la fitomejoración moderna

Se prevé que para 2050 la población mundial alcance los 9.800 millones de personas, duplicando la demanda de alimentos. Sin embargo, expandir las tierras de cultivo para satisfacer esta necesidad es insostenible. Más de 501 toneladas de nuevas tierras de cultivo creadas desde el año 2000 han reemplazado bosques y ecosistemas naturales, agravando el cambio climático y la pérdida de biodiversidad.

Para evitar esta crisis, los científicos están recurriendo al mejoramiento genético de plantas: la ciencia que se dedica a desarrollar cultivos con mayor rendimiento, resistencia a las enfermedades y adaptabilidad al cambio climático. Sin embargo, los métodos de mejoramiento tradicionales son demasiado lentos para hacer frente a la urgencia del problema.

Aquí es donde los drones y la inteligencia artificial (IA) entran en escena como elementos revolucionarios, ofreciendo una forma más rápida e inteligente de cultivar mejores cosechas.

¿Por qué el mejoramiento genético tradicional de plantas se está quedando atrás?

El mejoramiento vegetal se basa en seleccionar plantas con características deseables, como tolerancia a la sequía o resistencia a las plagas, y cruzarlas durante varias generaciones. El principal obstáculo en este proceso es la fenotipificación: la medición manual de características de las plantas como la altura, la salud de las hojas o el rendimiento.

Por ejemplo, medir la altura de las plantas en un campo de 3000 parcelas puede llevar semanas, y los errores humanos provocan inconsistencias de hasta 201 TP3T. Además, los rendimientos de los cultivos están mejorando a un ritmo de tan solo 0,5 a 11 TP3T anuales, muy por debajo de la tasa de crecimiento de 2,91 TP3T necesaria para satisfacer las demandas de 2050.

El maíz, cultivo básico para miles de millones de personas, ilustra esta desaceleración: su crecimiento anual de rendimiento ha disminuido de 2,21 TP3T en la década de 1960 a 1,331 TP3T en la actualidad. Para superar esta brecha, los científicos necesitan herramientas que automaticen la recopilación de datos, reduzcan errores y agilicen la toma de decisiones.

Cómo la tecnología de drones está transformando el mejoramiento genético de las plantas

Los drones, o sistemas aéreos no tripulados (UAS), equipados con sensores avanzados e inteligencia artificial, están revolucionando la agricultura. Estos dispositivos pueden sobrevolar los campos y recopilar datos precisos de miles de plantas en minutos, un proceso conocido como fenotipado de alto rendimiento (HTP).

A diferencia de los métodos tradicionales, los drones capturan datos en campos enteros, eliminando el sesgo de muestreo. Utilizan sensores especializados para medir desde la altura de las plantas hasta los niveles de estrés hídrico.

Por ejemplo, los sensores multiespectrales detectan la luz infrarroja cercana reflejada por las hojas sanas, mientras que las cámaras térmicas identifican el estrés hídrico midiendo la temperatura del dosel vegetal.

Al automatizar la recopilación de datos, los drones reducen los costes laborales y aceleran los ciclos de mejora genética, lo que permite desarrollar variedades de cultivos mejoradas en años en lugar de décadas.

La ciencia detrás de los sensores y la recopilación de datos de los drones

Los drones utilizan diversos sensores para recopilar datos esenciales sobre las plantas. Las cámaras RGB, la opción más económica, capturan la luz visible para medir la cobertura vegetal y la altura de las plantas. En los campos de caña de azúcar, estas cámaras han alcanzado una precisión de entre 64 y 691 TP3T en el conteo de tallos, reemplazando los conteos manuales, propensos a errores.

Los sensores multiespectrales van más allá al detectar longitudes de onda no visibles, como el infrarrojo cercano, que se correlacionan con los niveles de clorofila y la salud de las plantas. Por ejemplo, han predicho la tolerancia a la sequía en la caña de azúcar con una precisión superior a 80%.

  • Cámaras RGBCaptura la luz roja, verde y azul para crear imágenes en color.
  • Sensores multiespectrales: Detecta luz más allá del espectro visible (por ejemplo, infrarrojo cercano).
  • Sensores térmicos: Medir el calor emitido por las plantas.
  • LiDARUtiliza pulsos láser para crear mapas 3D de plantas.
  • Sensores hiperespectrales: Captura más de 200 longitudes de onda de luz para un análisis ultra detallado.

Los sensores térmicos detectan señales de calor, identificando plantas con estrés hídrico que parecen más calientes que las sanas. En los campos de algodón, los drones térmicos han igualado las mediciones de temperatura terrestres con un margen de error inferior al 51% (TP3T).

Los sensores LiDAR utilizan pulsos láser para crear mapas 3D de los cultivos, midiendo la biomasa y la altura con una precisión de 95% en ensayos de caña de azúcar energética. Las herramientas más avanzadas, los sensores hiperespectrales, analizan cientos de longitudes de onda de luz para detectar deficiencias de nutrientes o enfermedades invisibles a simple vista.

Estos sensores ayudaron a los investigadores a vincular 28 nuevos genes con el retraso del envejecimiento en el trigo, una característica que aumenta el rendimiento.

Del vuelo al análisis: cómo los drones analizan los datos de los cultivos.

El proceso de fenotipado con drones comienza con una planificación de vuelo minuciosa. Los drones vuelan a una altitud de entre 30 y 100 metros, capturando imágenes superpuestas para garantizar una cobertura completa. Un campo de 10 hectáreas, por ejemplo, puede escanearse en 15 a 30 minutos.

Tras el vuelo, programas como Agisoft Metashape combinan miles de imágenes para crear mapas detallados mediante la técnica de Estructura a partir del Movimiento (SfM), que convierte fotografías 2D en modelos 3D. Estos modelos permiten a los científicos medir características como la altura de las plantas o la cobertura vegetal con solo pulsar un botón.

Los algoritmos de IA analizan los datos, prediciendo los rendimientos o identificando brotes de enfermedades. Por ejemplo, los drones escanearon 3132 parcelas de caña de azúcar en tan solo 7 horas, una tarea que manualmente llevaría tres semanas. Esta velocidad y precisión permiten a los fitomejoradores tomar decisiones más rápidas, como descartar las plantas de bajo rendimiento al inicio de la temporada.

Principales aplicaciones de los drones en la agricultura moderna.

Los drones se están utilizando para afrontar algunos de los mayores desafíos de la agricultura. Una aplicación importante es la medición directa de características, donde los drones sustituyen la mano de obra. En los campos de maíz, los drones miden la altura de las plantas con una precisión del 90%, reduciendo los errores de entre 0,5 y 0,21 metros.

También realizan un seguimiento de la cobertura vegetal, una métrica que indica la eficacia con la que las plantas dan sombra al suelo para suprimir las malas hierbas. Los mejoradores de caña de azúcar para energía utilizaron estos datos para identificar variedades que reducen el crecimiento de las malas hierbas en un 401% (TP3T).

Otro avance importante es el mejoramiento predictivo, donde los modelos de IA utilizan datos de drones para pronosticar el rendimiento de los cultivos. Por ejemplo, las imágenes multiespectrales han predicho los rendimientos del maíz con una precisión de 80%, superando a las pruebas genómicas tradicionales.

Los drones también contribuyen al descubrimiento de genes, ayudando a los científicos a localizar segmentos de ADN responsables de rasgos deseables. En el trigo, los drones vincularon el verdor del follaje con 22 genes nuevos, lo que podría aumentar la tolerancia a la sequía.

Además, los sensores hiperespectrales detectan enfermedades como el enverdecimiento de los cítricos semanas antes de que aparezcan los síntomas, lo que da tiempo a los agricultores para actuar.

Potenciando las ventajas genéticas con tecnología de precisión.

La ganancia genética —la mejora anual de las características de los cultivos gracias al mejoramiento genético— se calcula mediante una fórmula sencilla:

(Intensidad de selección × Heredabilidad × Variabilidad del rasgo) ÷ Tiempo del ciclo de reproducción.

La ganancia genética (ΔG) se calcula de la siguiente manera:
ΔG = (i × h² × σp) / L

Dónde:

  • i = Intensidad de selección (cuán estrictos son los criadores).
  •  = Heredabilidad (cuánto de un rasgo se transmite de padres a hijos).
  • σp = Variabilidad de un rasgo en una población.
  • L = Tiempo por ciclo reproductivo.

Por qué es importanteLos drones mejoran todas las variables:

  1. i: Escanear 10 veces más plantas, lo que permite una selección más estricta.
  2. : Reducir los errores de medición, mejorando las estimaciones de heredabilidad.
  3. σp: Capturar variaciones sutiles de rasgos en campos enteros.
  4. L: Reduzca el tiempo de ciclo de De 5 años a 2-3 años a través de predicciones tempranas.

Los drones optimizan cada aspecto de esta ecuación. Al escanear campos enteros, permiten a los mejoradores seleccionar las 11 mejores plantas (TP3T) en lugar de las 101 mejores (TP3T), lo que aumenta la intensidad de la selección. Además, mejoran las estimaciones de heredabilidad al reducir los errores de medición.

Por ejemplo, la evaluación manual de la altura de las plantas introduce una variabilidad de 20%, mientras que los drones la reducen a 5%. Además, los drones capturan variaciones sutiles de rasgos en miles de plantas, maximizando así la variabilidad de los rasgos.

Lo más importante es que acortan los ciclos de mejoramiento genético al permitir predicciones tempranas. Los mejoradores de caña de azúcar que utilizan drones han triplicado sus avances genéticos en comparación con los métodos tradicionales, lo que demuestra el potencial transformador de esta tecnología.

Superar los desafíos y abrazar el futuro

A pesar de su potencial, la fenotipificación mediante drones aún enfrenta desafíos importantes. El alto costo de los sensores avanzados sigue siendo una barrera importante: las cámaras hiperespectrales, por ejemplo, pueden superar los 14.000 TW, lo que las hace inaccesibles para la mayoría de los pequeños agricultores.

El procesamiento de la enorme cantidad de datos recopilados también requiere importantes recursos de computación en la nube, lo que incrementa los costos. Plataformas de IA como AutoGIS automatizan el análisis de datos, eliminando la necesidad de introducir datos manualmente.

Los investigadores también están integrando drones con sensores de suelo y estaciones meteorológicas, creando un sistema de monitoreo en tiempo real que alerta a los agricultores sobre plagas o sequías. Estas innovaciones están allanando el camino hacia una nueva era de agricultura de precisión, donde las decisiones basadas en datos reemplazan las conjeturas.

Conclusión

Los drones y la IA no solo están transformando el mejoramiento genético de las plantas, sino que están redefiniendo la agricultura sostenible. Al permitir un desarrollo más rápido de cultivos resistentes a la sequía y de alto rendimiento, estas tecnologías podrían duplicar la producción de alimentos para 2050 sin necesidad de ampliar las tierras de cultivo.

Esto permitiría salvar más de 100 millones de hectáreas de bosques, una superficie equivalente a la de Egipto, y reducir la huella de carbono de la agricultura. Los agricultores que utilizan datos de drones ya han reducido el consumo de agua y pesticidas hasta en 301 toneladas, protegiendo así los ecosistemas y disminuyendo los costos.

Como señaló un investigador: “Ya no adivinamos qué plantas son las mejores. Los drones nos lo dicen”. Con la continua innovación, esta fusión de biología y tecnología podría garantizar la seguridad alimentaria de miles de millones de personas, al tiempo que protege nuestro planeta.

Referencia: Khuimphukhieo, I., & da Silva, JA (2025). Fenotipado de alto rendimiento (HTP) en campo basado en sistemas aéreos no tripulados (UAS) como caja de herramientas para fitomejoradores: una revisión exhaustiva. Smart Agricultural Technology, 100888.

¿Cómo está transformando el IoT la agricultura de precisión y resolviendo los desafíos actuales?

La población mundial está creciendo rápidamente, y las estimaciones sugieren que alcanzará los 9.700 millones en 2050. Para alimentar a todos, la producción de alimentos debe aumentar un 60 %%, pero los métodos agrícolas tradicionales, que dependen de la tierra, el uso intensivo de agua y la mano de obra, están luchando por mantenerse al día.

El cambio climático, la degradación del suelo y la escasez de agua están empeorando las cosas. Por ejemplo, solo la erosión del suelo cuesta a los agricultores $40 mil millones anuales en pérdida de productividad, mientras que el riego tradicional desperdicia el 60% del agua dulce debido a prácticas obsoletas.

En India, los monzones impredecibles han reducido el rendimiento del arroz en un 15% en la última década. Estos desafíos exigen soluciones urgentes, y la agricultura inteligente, impulsada por el Internet de las cosas (IoT) y la aeroponía, ofrece un salvavidas.

El Poder del IoT en la Agricultura Moderna

En el corazón de la agricultura inteligente está el IoT, una red de dispositivos interconectados que recopilan y comparten datos en tiempo real. Las Redes de Sensores Inalámbricos (WSN) son fundamentales para este sistema.

Estas redes utilizan sensores colocados en los campos para monitorear la humedad del suelo, la temperatura, la humedad y los niveles de nutrientes. Por ejemplo, el sensor DHT22 rastrea la humedad, mientras que los sensores TDS miden la concentración de nutrientes en el agua.

Estos datos se envían a plataformas en la nube como ThingSpeak o AWS IoT utilizando protocolos de bajo consumo como LoRa o ZigBee. Una vez analizado, el sistema puede activar acciones, como encender bombas de riego o ajustar los niveles de fertilizante.

En Coimbatore, India, un proyecto de 2022 demostró el potencial de IoT. Los sensores detectaron zonas de suelo seco en campos de tomates, permitiendo un riego dirigido que redujo el desperdicio de agua en un 35%.

De manera similar, drones equipados con cámaras multiespectrales escanean vastos campos para identificar problemas como infestaciones de plagas o deficiencias de nutrientes.

Un estudio de 2019 utilizó drones para detectar la mancha foliar norteamericana en cultivos de maíz con un 98% de precisión, ahorrando a los agricultores $120 por acre en pérdidas. El aprendizaje automático mejora aún más estos sistemas.

Los investigadores entrenaron modelos de IA con miles de imágenes de hojas para diagnosticar enfermedades como el oídio con una precisión del 99,53%, permitiendo a los agricultores actuar antes de que los cultivos sean destruidos.

Aeroponía: Cultivando Alimentos sin Tierra

Mientras que el IoT optimiza la agricultura tradicional, la aeroponía reinventa la agricultura por completo. Este método cultiva plantas en el aire, suspendiendo sus raíces en cámaras llenas de niebla que rocían agua y nutrientes.

Unlike soil-based farming, aeroponics uses 95% less water and no pesticides. Roots absorb oxygen more efficiently, accelerating growth.

Por ejemplo, la lechuga cultivada aeropónicamente se desarrolla un 65% más rápido que en tierra, según un estudio de 2018.

La aeroponía es especialmente valiosa en ciudades o regiones con suelos pobres. Las granjas verticales apilan plantas en torres, produciendo 10 veces más alimento por metro cuadrado que los campos tradicionales.

En la Ciudad de México, una granja aeropónica en azotea de 2022 produjo 3.8 kg de lechuga por metro cuadrado —el triple del rendimiento de la agricultura en suelo—, utilizando solo 10 litros de agua por kilogramo.

Sky Greens de Singapur lleva esto más allá, cultivando 1 tonelada de verduras al día en torres de 30 pies, utilizando un 95% menos de tierra que las granjas convencionales.

El IoT lleva la aeroponía al siguiente nivel. Sensores monitorean las cámaras de las raíces en cuanto a humedad, pH y niveles de nutrientes, ajustando automáticamente los ciclos de nebulización.

En un proyecto de 2017, los investigadores automatizaron un sistema aeropónico con Raspberry Pi, reduciendo los costos de mano de obra en un 50%. Los agricultores controlan estos sistemas a través de aplicaciones móviles como AgroDecisor, que envía alertas para problemas como desequilibrios de nutrientes.

Desafíos que ralentizan el progreso

A pesar de su potencial, la IoT y la aeroponía enfrentan obstáculos significativos. Los altos costos son una barrera importante. Una configuración básica de IoT cuesta entre 1.500 y 5.000, mientras que drones y sensores avanzados requieren entre 10.000 y 50.000 de inversión inicial, muy lejos del alcance de los pequeños agricultores en países en desarrollo. Mientras tanto, el mantenimiento añade entre un 15 y un 20% anual, lo que presiona aún más los presupuestos.

Las brechas de conectividad agravan el problema. Alrededor del 40% de las zonas rurales carecen de internet fiable, lo que paraliza la transmisión de datos en tiempo real.

En Etiopía, un proyecto piloto de IoT en 2021 fracasó cuando las señales 3G se interrumpieron a mitad de camino, alterando los cronogramas de riego. Los riesgos de seguridad también son considerables. Protocolos de IoT como MQTT y CoAP a menudo carecen de cifrado, lo que deja los sistemas vulnerables a los hackers.

En 2021, el 62% de los sistemas de IoT agrícolas reportaron ciberataques, incluidas brechas de datos que podrían manipular lecturas de sensores o deshabilitar equipos.

La complejidad técnica añade otra capa de dificultad. Los agricultores necesitan formación para interpretar datos y solucionar problemas de los sistemas.

Un proyecto aeropónico de 2017 en Colombia colapsó cuando una configuración de pH incorrecta dañó los cultivos, desperdiciando $12.000 en plántulas.

Incluso el suministro de energía es un problema: los sensores solares fallan durante los monzones y los drones duran solo 20 o 30 minutos por carga.

El Futuro de la Agricultura: Innovaciones en el Horizonte

A pesar de estos desafíos, el futuro parece prometedor. Las redes 5G revolucionarán la conectividad, permitiendo a los drones monitorear vastas granjas en tiempo real.

En Brasil, un ensayo de 2023 utilizó drones conectados por 5G para escanear campos de soja de más de 400 hectáreas, detectando enfermedades en 10 minutos en lugar de días. La IA de borde, que procesa datos directamente en los dispositivos, reduce la dependencia de la nube.

El sistema MangoYOLO, por ejemplo, cuenta mangos con un% de precisión utilizando cámaras a bordo, eliminando los retrasos por la carga de datos.

La tecnología blockchain es otro gran avance. Al rastrear los productos desde la granja hasta el consumidor, garantiza la transparencia y reduce el fraude.

La aplicación eFarm utiliza datos de crowdsourcing para verificar las certificaciones orgánicas, reduciendo el fraude en un 30%. El sistema de cadena de bloques de Walmart redujo los errores en la cadena de suministro de mangos en un 90%en 2022.

Los invernaderos impulsados por IA también están en aumento. Estos sistemas utilizan modelos como VGG19 para monitorear la salud de las plantas con una precisión del 91,52%.

En Japón, robots como AGROBOT cosechan fresas 24 horas al día, los 7 días de la semana, triplicando la productividad. Las áreas urbanas también están adoptando la aeroponía. Infarm en Berlín cultiva hierbas en supermercados, reduciendo las emisiones del transporte en un 95 %%.

Los gobiernos y las empresas están intensificando esfuerzos. La Iniciativa Agri-Tech de la India de 2023 subsidia herramientas de IoT para 500.000 pequeños agricultores, mientras que FarmBeats de Microsoft proporciona drones de bajo costo a agricultores kenianos.

Un Plan para el Éxito

IoT y aeroponía no son solo herramientas, son esenciales para un futuro sostenible. Para 2030, estas tecnologías podrían:

  • Ahorra 1,5 billones de litros de agua anualmente.
  • Reducir las emisiones de gases de efecto invernadero en 1,5 gigatoneladas por año.
  • Alimentar a 2 mil millones de personas adicionales sin expandir las tierras de cultivo.

Para lograr esto, los gobiernos deben subsidiar herramientas asequibles, expandir el acceso a internet rural y hacer cumplir los estándares de ciberseguridad. Los agricultores necesitan capacitación para aprovechar estas tecnologías de manera efectiva.

Como afirma la FAO: “El futuro de la alimentación depende de las innovaciones de hoy”. Al adoptar el IoT y la aeroponía, podemos cultivar un mundo donde nadie pase hambre, y donde la agricultura nutra, en lugar de dañar, nuestro planeta.

Referencia: Dhanasekar, S. (2025). Una revisión exhaustiva sobre problemas actuales y avances del Internet de las cosas en la agricultura de precisión. Computer Science Review, 55, 100694.

La teledetección revoluciona el control de la nicotina en las hojas de puro.

Un estudio pionero utiliza imágenes hiperespectrales obtenidas con vehículos aéreos no tripulados y aprendizaje automático para evaluar con precisión los niveles de nicotina en las hojas de los cigarros.

Los recientes avances en imágenes hiperespectrales aéreas, combinados con el aprendizaje automático, han revolucionado el monitoreo de la nicotina en las hojas de cigarro. Este enfoque innovador mejora la precisión de la evaluación y proporciona información valiosa para la industria tabacalera, donde la composición química es fundamental para la calidad.

Bajo la dirección de Tian y colaboradores en la Universidad Agrícola de Sichuan, los investigadores buscaron superar las limitaciones de los controles de calidad manuales tradicionales, que a menudo carecen de precisión y eficiencia. Su estudio, publicado el 2 de febrero de 2025, identifica fuertes correlaciones entre el uso de fertilizantes nitrogenados, los niveles de humedad y las concentraciones de nicotina, lo que subraya la importancia de técnicas de monitoreo oportunas y precisas.

El estudio se llevó a cabo entre mayo y septiembre de 2022 en la Base de Investigación Agrícola Moderna de la universidad, donde los investigadores utilizaron vehículos aéreos no tripulados (VANT) equipados con cámaras hiperespectrales para capturar los espectros de reflectancia de las hojas de 15 variedades diferentes de hojas de cigarro bajo diversos tratamientos con nitrógeno.

Sus hallazgos revelaron una correlación directa entre la aplicación de fertilizantes nitrogenados y los niveles de nicotina en las hojas de cigarro. “Con el aumento de la dosis de fertilizante nitrogenado, el contenido de nicotina en las hojas de cigarro se incrementó”, afirmaron los autores, destacando el impacto de las prácticas agrícolas en la calidad del producto.

Para mejorar la calidad de los datos de imágenes hiperespectrales recopilados por UAVs, el estudio empleó técnicas de preprocesamiento como la corrección de dispersión multivariante, la transformación normal estándar y el suavizado por convolución de Savitzky-Golay. Posteriormente, se aplicaron algoritmos avanzados de aprendizaje automático, incluyendo la regresión de mínimos cuadrados parciales (PLSR) y redes neuronales de retropropagación, para desarrollar modelos predictivos capaces de estimar con precisión el contenido de nicotina.

El modelo más eficaz identificado fue el modelo MSC-SNV-SG-CARS-BP, que alcanzó una precisión de prueba con valores R² de aproximadamente 0,797 y un RMSE de 0,078. “El modelo MSC-SNV-SG-CARS-BP tiene la mejor precisión predictiva sobre el contenido de nicotina”, señalaron los autores, posicionándolo como una herramienta prometedora para futuras investigaciones y aplicaciones de agricultura de precisión.

Mediante el uso de la teledetección para analizar las propiedades espectrales de las hojas de cigarro, los agricultores y productores pueden evaluar la calidad de la cosecha de forma rápida y no destructiva, lo que permite tomar decisiones más informadas sobre la producción y la cadena de suministro. Este enfoque ofrece una amplia cobertura con bajos costos operativos, al tiempo que garantiza la coherencia de los datos al reducir la dependencia de factores humanos.

La integración de imágenes hiperespectrales y aprendizaje automático tiene el potencial de transformar el cultivo tradicional del tabaco, mejorando no solo la calidad de la nicotina, sino también promoviendo prácticas agrícolas sostenibles y eficientes. Los investigadores destacan la necesidad de seguir avanzando para perfeccionar estas tecnologías y adaptarlas a diferentes variedades de tabaco y otros cultivos.

Los estudios futuros se centrarán en optimizar las condiciones operativas de los UAV para capturar datos espectrales de la más alta calidad, considerando variables como la altitud de vuelo, las condiciones de iluminación y la reducción de ruido. Abordar estos factores es crucial a medida que las prácticas agrícolas evolucionan para satisfacer las demandas del mercado, priorizando al mismo tiempo la sostenibilidad ambiental.

Esta investigación resalta la sinergia entre la tecnología y la ciencia agrícola, subrayando la creciente adopción de técnicas innovadoras para mejorar la calidad de los productos. Los investigadores abogan por una mayor aplicación de la detección hiperespectral en la agricultura, reforzando el papel de la tecnología en la mejora del rendimiento, la eficiencia y la responsabilidad ambiental.

Fuentes: https://www.nature.com/articles/s41598-025-88091-4

Mejora de la agricultura a pequeña escala mediante el monitoreo de cultivos con vehículos aéreos no tripulados.

Los pequeños agricultores desempeñan un papel crucial en la producción mundial de alimentos, pero se enfrentan a numerosos desafíos, desde la escasez de recursos hasta factores ambientales impredecibles. En esta era de avances tecnológicos, los vehículos aéreos no tripulados (VANT), comúnmente conocidos como drones, se han convertido en una fuerza transformadora para la agricultura a pequeña escala.

Estos vehículos aéreos ofrecen soluciones que potencialmente pueden revolucionar las prácticas agrícolas y mejorar la vida de los pequeños agricultores.

Para comprender plenamente el potencial y el impacto de los drones en la agricultura a pequeña escala, los investigadores han realizado un análisis exhaustivo de los estudios y las tendencias existentes en este campo. Los hallazgos obtenidos ponen de manifiesto el fascinante papel que desempeñan los vehículos aéreos no tripulados (VANT) en la innovación agrícola.

La investigación muestra que el uso de drones en la agricultura a pequeña escala está en aumento. En los últimos años, se ha observado un incremento significativo en el interés y la inversión en esta tecnología. Con una tasa de crecimiento anual compuesta de alrededor de 311 TP3T desde 2016, esta tendencia refleja un creciente reconocimiento del valor de los drones en la agricultura.

Liderando colaboraciones e impacto

El uso de drones en la agricultura se está convirtiendo en un tema clave de investigación, lo cual se refleja en la comunidad académica. Revistas como “Drones” y “Remote Sensing” se han consolidado como líderes en la publicación de investigaciones relacionadas con vehículos aéreos no tripulados (UAV) en la agricultura, concentrando aproximadamente 351 TP3T del total de publicaciones en este campo. Entre estas revistas, “Drones” destaca por su elevado número de citas, lo que subraya su relevancia.

En el panorama mundial de las aplicaciones de los vehículos aéreos no tripulados (VANT) en la agricultura a pequeña escala, los investigadores han identificado 14 países como participantes activos. Cabe destacar que China, Sudáfrica, Nigeria, Suiza y Estados Unidos se encuentran a la vanguardia de esta investigación.

China se sitúa sistemáticamente entre los cinco primeros puestos en cuanto a citas, lo que demuestra su fuerte presencia en este campo. Si bien la mayor parte de la investigación se desarrolla dentro de las fronteras nacionales, han comenzado a surgir algunas colaboraciones internacionales.

Además, la investigación destaca las contribuciones de 131 autores que han tenido un impacto significativo en este campo con sus 23 publicaciones. Autores notables, como Vimbayi Chimonyo, Alistair Clulow, Tafadzwanashe Mabhaudhi y Mbulisi Sibanda, han participado activamente en el avance del uso de drones en la agricultura a pequeña escala.

En lo que respecta a las citas, Ola Hall y Magnus Jirström se encuentran entre los más reconocidos, lo que demuestra su considerable influencia en este tema.

Revolucionando la monitorización de cultivos

El seguimiento del desarrollo de los cultivos y la estimación de los rendimientos se perfilan como aplicaciones principales de los vehículos aéreos no tripulados (VANT) en la agricultura a pequeña escala. Los drones ofrecen una perspectiva única para evaluar la salud y el vigor de los cultivos a lo largo de la temporada de crecimiento.

Pueden detectar problemas como el estrés hídrico, enfermedades y deficiencias de nutrientes. Al analizar los datos de reflectancia de los cultivos, los pequeños agricultores pueden intervenir precozmente y prevenir pérdidas significativas de rendimiento. Los índices de vegetación derivados de drones, como el NDVI, el EVI y el SAVI, desempeñan un papel fundamental en la evaluación del desarrollo de los cultivos.

1. Ajuste fino de la gestión de fertilizantes

La optimización del uso de fertilizantes es un aspecto fundamental de la agricultura de precisión. Los vehículos aéreos no tripulados (UAV) están ayudando a los pequeños agricultores en este empeño al evaluar el contenido de clorofila en las hojas, que está estrechamente relacionado con el nitrógeno foliar.

Esta información ayuda a los agricultores a tomar decisiones informadas sobre la aplicación de fertilizantes. Los estudios han demostrado que los datos obtenidos mediante drones pueden mejorar la eficiencia de los fertilizantes en aproximadamente 10¹ TP³T.

2. Mapeo de cultivos para una gestión eficiente

La cartografía precisa es otra área donde los drones destacan. Gracias a imágenes de alta resolución y al aprendizaje automático, los vehículos aéreos no tripulados (UAV) ayudan a los pequeños agricultores a cartografiar sus campos con precisión. Esta tecnología es fundamental para la agricultura de precisión, ya que proporciona información sobre el uso del suelo y la cartografía de cultivos.

En los estudios revisados, los métodos para entrenar algoritmos generalmente implicaban el uso de estudios de campo o imágenes de alta resolución. Algoritmos como bosques aleatorios, máquinas de vectores de soporte y redes neuronales profundas se utilizan para la clasificación de imágenes, lo que permite una cartografía de cultivos más precisa.

Desafíos y oportunidades

Si bien el potencial de los drones en la agricultura a pequeña escala es evidente, es fundamental reconocer los desafíos que conlleva su adopción.

1. Falta de datos in situ suficientesMuchos modelos dependen de la disponibilidad de datos in situ de buena calidad para su desarrollo y validación. Dichos datos no siempre están disponibles fácilmente y su alcance puede ser limitado.

2. Diversos tipos y cargas útiles de vehículos aéreos no tripulados (UAV): Los drones vienen en diversos tamaños y tipos, cada uno con capacidades distintas. Su tiempo de vuelo y capacidad de carga útil pueden no ser adecuados para aplicaciones agrícolas a gran escala.

3. Sensibilidad a las condiciones climáticasLas condiciones meteorológicas pueden afectar significativamente la recopilación de datos mediante drones. Los fuertes vientos y la lluvia pueden dificultar la recolección de datos.

4. AccesibilidadEl funcionamiento de los drones y la compra de software para el procesamiento de datos pueden resultar costosos, especialmente para los pequeños agricultores con recursos limitados.

5. Experiencia técnica: El funcionamiento y el mantenimiento de los drones, junto con el procesamiento de datos, requieren habilidades especializadas que no siempre están disponibles de inmediato.

6. Marcos regulatoriosLas estrictas regulaciones, motivadas por los riesgos potenciales asociados con las operaciones con vehículos aéreos no tripulados (UAV), pueden limitar su uso o requerir la obtención de licencias de piloto.

7. Recursos computacionalesGestionar la enorme cantidad de datos generados por los drones puede requerir una gran capacidad de procesamiento, lo que podría exigir recursos y formación adicionales.

Sin embargo, estos desafíos vienen acompañados de numerosas oportunidades:

1. Diversas aplicaciones en la agricultura de precisión: Los drones ofrecen diversas aplicaciones en la agricultura de precisión, más allá del monitoreo y mapeo de cultivos, incluyendo el manejo integrado de malezas, la estimación del uso del agua, la evaluación de la calidad y cantidad del agua de riego, el mapeo de atributos del suelo y los mapas de prescripción de tasa variable para el manejo de pesticidas.

2. Datos multifacéticos para el apoyo a la toma de decisiones: La diversidad de datos que proporcionan los drones abre la puerta al desarrollo de herramientas de apoyo a la toma de decisiones que puedan abordar múltiples objetivos simultáneamente.

3. Plataformas avanzadas de computación en la nubePlataformas como Google Earth Engine ofrecen nuevas posibilidades para el procesamiento y análisis de datos de vehículos aéreos no tripulados (UAV).

4. Sinergias entre drones y satélitesLos drones y los satélites pueden proporcionar datos complementarios para diversas aplicaciones, y es necesaria la investigación para aprovechar sus posibles sinergias.

5. Enfoques para entornos con escasez de datos: Las innovaciones están haciendo que la escasez de datos sea un obstáculo menor, como lo demuestran los enfoques que requieren una cantidad mínima de datos in situ y los métodos de aprendizaje por transferencia.

6. Análisis de costo-beneficio: Comparar el coste de las tecnologías de drones y otras técnicas de teledetección permitirá comprender mejor su asequibilidad y sus ventajas.

7. Empoderamiento de las mujeres en la agricultura: La adopción de la agricultura de precisión, facilitada por los drones, puede empoderar a las mujeres que se dedican a la agricultura a pequeña escala y mejorar su capacidad para afrontar los desafíos y las incertidumbres futuras.

8. Participación juvenil: La modernización de la agricultura mediante la agricultura de precisión basada en vehículos aéreos no tripulados (UAV) puede estimular el interés de los jóvenes por la agricultura, reforzando así la longevidad y la resiliencia del sector.

Conclusión

En conclusión, la integración de drones en la agricultura a pequeña escala tiene el potencial de transformar el sustento de millones de agricultores. Al proporcionar soluciones innovadoras para el monitoreo de cultivos, la gestión de fertilizantes y la cartografía, los drones empoderan a los agricultores con información valiosa para la toma de decisiones informadas. A pesar de los desafíos, el futuro de la agricultura a pequeña escala con drones está lleno de oportunidades. Esta tecnología en rápida evolución, junto con la disminución de sus costos, abre nuevas puertas para el sector agrícola y ofrece la promesa de seguridad alimentaria, sostenibilidad ambiental y bienestar económico para las comunidades agrícolas de todo el mundo.

Limpieza y Calibración Automatizada de Datos de Rendimiento

La limpieza y calibración automatizada de datos de rendimiento (AYDCC, por sus siglas en inglés) es un proceso que utiliza algoritmos y modelos para detectar y corregir errores en los datos de rendimiento, como valores atípicos, lagunas o sesgos. La AYDCC puede mejorar la calidad y la fiabilidad de los datos de rendimiento, lo que permite ofrecer mejores perspectivas y recomendaciones a los agricultores.

Introducción a los datos de rendimiento

Los datos de rendimiento son una de las fuentes de información más importantes para los agricultores del siglo XXI. Se refieren a los datos recopilados por diversas máquinas agrícolas, como cosechadoras, sembradoras y recolectoras, que miden la cantidad y la calidad de los cultivos producidos en un campo o área determinada.

Tiene una importancia inmensa por varias razones. En primer lugar, ayuda a los agricultores a tomar decisiones informadas. Con datos detallados sobre el rendimiento, pueden ajustar sus prácticas para maximizar la productividad.

Por ejemplo, si un campo específico produce rendimientos consistentemente bajos, los agricultores pueden investigar las causas subyacentes, como la salud del suelo o problemas de riego, y tomar medidas correctivas.

Además, permite la agricultura de precisión. Al mapear las variaciones en el rendimiento de los cultivos en sus campos, los agricultores pueden adaptar la aplicación de insumos, como fertilizantes y pesticidas, a áreas específicas. Este enfoque específico no solo optimiza el uso de los recursos, sino que también reduce el impacto ambiental.

Según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), la producción agrícola mundial debe aumentar en 601 toneladas para 2050 con el fin de satisfacer la creciente demanda de alimentos. Los datos de rendimiento, gracias a su papel en la mejora de la productividad de los cultivos, son fundamentales para alcanzar este objetivo.

Además, en Brasil, un agricultor de soja utilizó datos de rendimiento junto con datos de muestreo de suelo para crear mapas de fertilización de tasa variable para sus campos. Aplicó diferentes dosis de fertilizante según la fertilidad del suelo y el potencial de rendimiento de cada zona.

También utilizó datos de rendimiento para comparar diferentes variedades de soja y seleccionar las mejores para sus condiciones. Como resultado, aumentó su rendimiento promedio en 121 TP3T y redujo sus costos de fertilizantes en 151 TP3T.

De manera similar, en India, un agricultor de arroz también utilizó conjuntos de datos de rendimiento junto con datos meteorológicos para ajustar su programa de riego. Monitoreó los niveles de humedad del suelo y los patrones de lluvia mediante sensores e imágenes satelitales.

comprensión y utilización de datos de rendimiento

También lo utilizó para comparar diferentes variedades de arroz y seleccionar las mejores para sus condiciones. Como resultado, aumentó su rendimiento promedio en 101 TP3T y redujo su consumo de agua en 201 TP3T.

A pesar de sus beneficios, los datos de rendimiento aún enfrentan algunos desafíos en términos de su desarrollo y adopción. Algunos de estos desafíos son:

  • Calidad de los datos: Su precisión y fiabilidad dependen de la calidad de los sensores, la calibración de la maquinaria, los métodos de recopilación de datos y las técnicas de procesamiento y análisis de datos. Una mala calidad de los datos puede provocar errores, sesgos o inconsistencias que afecten a su validez y utilidad.
  • Acceso a los datos: La disponibilidad y la asequibilidad de los datos de rendimiento dependen del acceso y la propiedad de la maquinaria agrícola, los sensores, los dispositivos de almacenamiento de datos y las plataformas de datos. La falta de acceso o de propiedad puede limitar la capacidad de los agricultores para recopilar, almacenar, compartir o utilizar sus propios datos.
  • Privacidad de datos: Su seguridad y confidencialidad dependen de la protección y regulación de los datos por parte de los agricultores, los fabricantes de maquinaria, los proveedores de datos y los usuarios de los mismos. La falta de protección o regulación puede exponer los datos a un uso no autorizado o poco ético, como el robo, la manipulación o la explotación.
  • Alfabetización de datos: La comprensión y utilización de los datos de rendimiento dependen de las habilidades y conocimientos de los agricultores, los extensionistas, los asesores y los investigadores. La falta de habilidades o conocimientos puede dificultar la capacidad de estos actores para interpretar, comunicar o aplicar los datos de manera eficaz.
Recopilación de conjuntos de datos mediante máquinas agrícolas como cosechadoras

Por lo tanto, para superar estos desafíos y aprovechar todo el potencial de los datos de rendimiento, es importante limpiar y calibrar dichos datos.

Introducción a la limpieza y calibración de datos de rendimiento

Los datos de rendimiento son una valiosa fuente de información para agricultores e investigadores que desean analizar el desempeño de los cultivos, identificar zonas de manejo y optimizar la toma de decisiones. Sin embargo, a menudo requieren limpieza y calibración para garantizar su fiabilidad y precisión.

La calibración del conjunto de datos “YieldDataset” es una funcionalidad que corrige la distribución de valores según principios matemáticos, mejorando así la integridad general de los datos. Esto refuerza la calidad de la toma de decisiones y hace que el conjunto de datos sea valioso para análisis más profundos.

Módulo de calibración limpia GeoPard Yield

GeoPard hizo posible limpiar y corregir conjuntos de datos de rendimiento utilizando su módulo Yield Clean-Calibration.

Hemos simplificado al máximo la mejora de la calidad de sus conjuntos de datos de rendimiento, lo que permite a los agricultores tomar decisiones basadas en datos en las que pueden confiar.

GeoPard - Limpieza y calibración de rendimiento, similar a las zonas de potencial de campo.

Tras la calibración y la limpieza, el conjunto de datos de rendimiento resultante se vuelve homogéneo, sin valores atípicos ni cambios abruptos entre geometrías vecinas.

Con nuestro nuevo módulo, usted puede:

Seleccione una opción para continuar.
Seleccione una opción para continuar.
  • Eliminar puntos de datos corruptos, superpuestos y subnormales
  • Calibrar los valores de rendimiento en varias máquinas.
  • Inicie la calibración con tan solo unos clics (simplificando su experiencia de usuario) o ejecute el punto final de la API de GeoPad asociado.

Algunos de los casos de uso más comunes de la limpieza y calibración automatizada de datos de rendimiento incluyen:

  • Sincronización de datos cuando varios recolectores han trabajado simultáneamente o durante varios días, garantizando la coherencia.
  • Lograr que el conjunto de datos sea más homogéneo y preciso al suavizar las variaciones.
  • Eliminar el ruido de los datos y la información superflua que puede entorpecer la obtención de conclusiones.
  • Eliminar los giros o geometrías anormales, que pueden distorsionar los patrones y tendencias reales en el terreno.

En la imagen de abajo, se puede ver un campo donde 15 cosechadoras trabajaron simultáneamente. Se aprecia cómo el conjunto de datos de rendimiento original y el conjunto de datos mejorado tras la calibración con el módulo GeoPard yield clean-calibration presentan diferencias notables y son fáciles de comprender.

Diferencia entre los conjuntos de datos de rendimiento originales y mejorados con el módulo de calibración de GeoPard.

¿Por qué es importante limpiar y calibrar?

Los datos de rendimiento se recopilan mediante monitores y sensores instalados en las cosechadoras. Estos dispositivos miden el caudal másico y el contenido de humedad del cultivo cosechado, y utilizan coordenadas GPS para georreferenciar los datos.

Sin embargo, estas mediciones no siempre son precisas ni consistentes, debido a diversos factores que pueden afectar el rendimiento del equipo o las condiciones del cultivo. Algunos de estos factores son:

1. Variaciones del equipo: La maquinaria agrícola, como las cosechadoras y las segadoras, suele presentar variaciones inherentes que pueden provocar discrepancias en la recopilación de datos. Estas variaciones pueden incluir diferencias en la sensibilidad de los sensores o en la calibración de la maquinaria.

Por ejemplo, algunos monitores de rendimiento pueden usar una relación lineal entre el voltaje y el caudal másico, mientras que otros pueden usar una no lineal. Algunos sensores pueden ser más sensibles al polvo o la suciedad que otros. Estas variaciones pueden causar discrepancias en los datos de rendimiento entre diferentes máquinas o campos.

Ejemplo 1: Giros en U, señales de stop, uso de la mitad del ancho del equipo.
Ejemplo 1: Giros en U, señales de stop, uso de la mitad del ancho del equipo.
Ejemplo 2: Giros en U, señales de stop, uso de la mitad del ancho del equipo.
Ejemplo 2: Giros en U, señales de stop, uso de la mitad del ancho del equipo.

2. Factores ambientales: Las condiciones climáticas, los tipos de suelo y la topografía influyen significativamente en el rendimiento de los cultivos. Si no se tienen en cuenta, estos factores ambientales pueden introducir errores e imprecisiones en los datos de rendimiento.

Por ejemplo, los suelos arenosos o las pendientes pronunciadas pueden generar rendimientos menores que los suelos francos o los terrenos llanos. Del mismo modo, las zonas con mayor densidad de cultivos pueden tener rendimientos mayores que las zonas con menor densidad.

3. Imprecisiones del sensor: Los sensores, a pesar de su precisión, no son infalibles. Pueden desviarse con el tiempo, proporcionando lecturas inexactas si no se calibran periódicamente.

Por ejemplo, una celda de carga defectuosa o un cableado suelto pueden provocar lecturas inexactas del caudal másico. Un sensor de humedad sucio o dañado puede proporcionar valores erróneos de contenido de humedad. Un nombre o ID de campo incorrecto introducido por el operador puede asignar los datos de rendimiento al archivo de campo equivocado.

Estos factores pueden generar conjuntos de datos de rendimiento ruidosos, erróneos o inconsistentes. Si estos datos no se limpian y calibran adecuadamente, pueden llevar a conclusiones o decisiones erróneas.

Por ejemplo, utilizar datos de rendimiento sin depurar para crear mapas de rendimiento puede dar lugar a una identificación errónea de áreas de alto o bajo rendimiento dentro de un campo.

¿Por qué es importante limpiar y calibrar el conjunto de datos de rendimiento?

El uso de conjuntos de datos de rendimiento sin calibrar para comparar rendimientos entre campos o años puede dar lugar a comparaciones injustas o inexactas. El uso de datos de rendimiento sin depurar o calibrar para calcular balances de nutrientes o insumos agrícolas puede resultar en una aplicación excesiva o insuficiente de fertilizantes o pesticidas.

Por lo tanto, es fundamental limpiar y calibrar los datos de rendimiento antes de utilizarlos para cualquier análisis o toma de decisiones. La limpieza de los conjuntos de datos de rendimiento consiste en eliminar o corregir cualquier error o ruido en los datos brutos recopilados por los monitores y sensores de rendimiento.

Métodos automatizados para la limpieza y calibración de datos de rendimiento

Aquí es donde las técnicas automatizadas de limpieza de datos resultan útiles. Estas técnicas son métodos que permiten realizar tareas de limpieza de datos con poca o ninguna intervención humana.

Configurar el paso de calibración
Métodos automatizados para la limpieza y calibración

Las técnicas automatizadas de limpieza de datos pueden ahorrar tiempo y recursos, reducir los errores humanos y mejorar la escalabilidad y la eficiencia de la limpieza de datos. Algunas de las técnicas automatizadas de limpieza de datos comunes para datos de rendimiento son:

1. Detección de valores atípicos: Los valores atípicos son puntos de datos que se desvían significativamente de la norma. Los algoritmos automatizados pueden identificar estas anomalías comparando los puntos de datos con medidas estadísticas como la media, la mediana y la desviación estándar.

Por ejemplo, si un conjunto de datos de rendimiento muestra una cosecha excepcionalmente alta en un campo determinado, un algoritmo de detección de valores atípicos puede señalarlo para una investigación más exhaustiva.

2. Reducción de ruido: El ruido en los datos de rendimiento puede deberse a diversas fuentes, incluidos factores ambientales e imprecisiones de los sensores.

Las técnicas automatizadas de reducción de ruido, como los algoritmos de suavizado, filtran las fluctuaciones erráticas, lo que hace que los datos sean más estables y fiables. Esto ayuda a identificar tendencias y patrones reales en los datos.

3. Imputación de datosLa falta de datos es un problema común en los conjuntos de datos de rendimiento. Las técnicas de imputación de datos estiman y completan automáticamente los valores faltantes basándose en patrones y relaciones dentro de los datos.

Por ejemplo, si un sensor no registra datos durante un período de tiempo específico, los métodos de imputación pueden estimar los valores faltantes basándose en puntos de datos adyacentes.

Por lo tanto, las técnicas automatizadas de limpieza de datos actúan como guardianes de la calidad de los datos, garantizando que los conjuntos de datos de rendimiento sigan siendo un activo fiable y valioso para los agricultores de todo el mundo.

Además, existen numerosas herramientas y programas informáticos útiles que permiten limpiar y ajustar automáticamente los datos de rendimiento, y GeoPard es uno de ellos. El módulo de limpieza y calibración de rendimiento de GeoPard, junto con soluciones similares, es fundamental para garantizar la precisión y fiabilidad de los datos.

GeoPard - Limpieza y calibración de rendimiento - 3 cosechadoras

Conclusión

La limpieza y calibración automatizada de datos de rendimiento (AYDCC) es fundamental en la agricultura de precisión. Garantiza la exactitud de los datos de los cultivos al eliminar errores y mejorar su calidad, lo que permite a los agricultores tomar decisiones informadas. AYDCC aborda los desafíos de los datos y utiliza técnicas automatizadas para obtener resultados fiables. Herramientas como el módulo de limpieza y calibración de rendimiento de GeoPard simplifican este proceso para los agricultores, contribuyendo a prácticas agrícolas eficientes y productivas.

Aplicaciones de la (SIG) Geoinformática en la Agricultura

La geoinformática (SIG) tiende un puente entre los datos espaciales y la toma de decisiones agrícolas, permitiendo a los agricultores optimizar el uso de los recursos y minimizar el impacto ambiental. Este enfoque tecnológico ayuda a adaptar las prácticas de agricultura de precisión a las condiciones específicas del terreno, aumentando así la productividad y la eficiencia.

Geoinformática en la agricultura

Mediante el análisis de información espacial precisa, como la variabilidad del suelo, el contenido de humedad y la distribución de plagas, los agricultores pueden tomar decisiones bien fundamentadas, asegurándose de que cada área de su terreno reciba el tratamiento exacto que necesita.

Datos recientes demuestran que esta tecnología se utiliza ampliamente, con más de 701.000 millones de explotaciones agrícolas que la emplean de alguna forma. La integración de datos geoespaciales se está convirtiendo en una práctica habitual en los procesos de toma de decisiones en diversos sectores, desde la agricultura de subsistencia a pequeña escala hasta las grandes explotaciones comerciales.

Los agricultores pueden monitorear sus cultivos en tiempo real mediante fotografía satelital y sensores terrestres. Al reducir el desperdicio y minimizar el impacto ambiental, pueden utilizar esta tecnología para aplicar agua, fertilizantes y pesticidas con precisión donde y cuando se necesitan.

El proyecto CottonMap en Australia utiliza la geoinformática para monitorear el uso del agua, lo que resulta en una disminución de 401 TP3T en el consumo de agua. Una gestión mejorada de los recursos minimiza el impacto ambiental al reducir la escorrentía de productos químicos y el riego excesivo.

geoinformática en la agricultura

El aumento de la productividad contribuye a la seguridad alimentaria mundial. Al optimizar los patrones de siembra mediante datos espaciales, los agricultores pueden lograr mayores rendimientos de los cultivos sin necesidad de ampliar las tierras agrícolas.

¿Qué es la geoinformática?

La geoinformática, también conocida como ciencia de la información geográfica (SIG), es un campo multidisciplinario que combina elementos de geografía, cartografía, teledetección, informática y tecnología de la información para recopilar, analizar, interpretar y visualizar datos geográficos y espaciales.

Se centra en la captura, el almacenamiento, la gestión, el análisis y la presentación de información espacial en formato digital, contribuyendo a una mejor comprensión de la superficie terrestre y las relaciones entre diversas características geográficas. Es una herramienta poderosa que puede utilizarse para una variedad de propósitos, entre ellos:

1. Agricultura de precisión: Se puede utilizar para recopilar datos sobre diversos factores, como el tipo de suelo, el rendimiento de los cultivos y la infestación de plagas. Estos datos se pueden analizar para identificar áreas de variabilidad dentro de un campo. Una vez identificadas estas áreas, los agricultores pueden usar los SIG para desarrollar planes de manejo personalizados para cada una.

2. Monitoreo ambiental: Puede utilizarse para monitorear cambios en el medio ambiente, como la deforestación, el cambio de uso del suelo y la calidad del agua. Estos datos pueden emplearse para evaluar el progreso de las políticas ambientales e identificar áreas que requieren mayor protección.

3. Planificación urbana: La geoinformática puede utilizarse para planificar y gestionar áreas urbanas. Estos datos permiten identificar zonas que necesitan desarrollo, planificar redes de transporte y gestionar infraestructuras.

4. Gestión de desastres: Puede utilizarse para gestionar desastres como inundaciones, terremotos e incendios forestales. Estos datos permiten hacer un seguimiento de la evolución del desastre, identificar las zonas afectadas y coordinar las labores de socorro.

¿Qué es la geoinformática? Componentes de la geoinformática

Componentes de la geoinformática

Estos componentes trabajan conjuntamente para proporcionar información sobre diversos aspectos de la superficie terrestre y sus interrelaciones. Estos son los principales componentes de la geoinformática:

  • Sistemas de Información Geográfica (SIG): Los SIG (Sistemas de Información Geográfica) implican el uso de software y hardware para recopilar, almacenar, manipular, analizar y visualizar datos geográficos. Estos datos se organizan en capas, lo que permite a los usuarios crear mapas, realizar análisis espaciales y tomar decisiones fundamentadas en las relaciones espaciales.
  • Teledetección: La teledetección consiste en la recopilación de información sobre la superficie terrestre a distancia, generalmente mediante satélites, aeronaves o drones. Los datos de teledetección, a menudo en forma de imágenes, pueden proporcionar información valiosa sobre la cobertura del suelo, la salud de la vegetación, los patrones climáticos y mucho más.
  • Sistemas de Posicionamiento Global (GPS)La tecnología GPS permite un posicionamiento y navegación precisos mediante una red de satélites. En los SIG (Sistemas de Información Geográfica), el GPS se utiliza para recopilar datos de ubicación precisos, fundamentales para la cartografía, la navegación y el análisis espacial.
  • Análisis espacial: Permite aplicar diversas técnicas de análisis espacial para comprender patrones, relaciones y tendencias en datos geográficos. Estas técnicas incluyen análisis de proximidad, interpolación, análisis de superposición y análisis de redes.
  • CartografíaLa cartografía implica la creación de mapas y representaciones visuales de datos geográficos. Proporciona herramientas y métodos para diseñar mapas informativos y visualmente atractivos que comuniquen eficazmente la información espacial.
  • GeodatabasesLas geodatabases son bases de datos estructuradas diseñadas para almacenar y gestionar datos geográficos. Proporcionan un marco para organizar datos espaciales, lo que permite un almacenamiento, recuperación y análisis eficientes.
  • Aplicaciones web y geoespacialesLa geoinformática se ha expandido al ámbito de la cartografía y las aplicaciones web, permitiendo a los usuarios acceder e interactuar con datos geográficos a través de plataformas en línea. Esto ha propiciado el desarrollo de diversos servicios y herramientas basados en la ubicación.
  • Modelado geoespacialEl modelado geoespacial implica la creación de modelos computacionales para simular procesos geográficos del mundo real. Estos modelos ayudan a predecir resultados, simular escenarios y facilitar la toma de decisiones en diversos campos.

8 Aplicaciones y usos de la geoinformática en la agricultura

Estas son algunas de las principales aplicaciones y usos de los SIG en la agricultura:

1. Agricultura de precisión

La agricultura de precisión aprovecha el poder de los Sistemas de Información Geográfica (SIG) para brindar a los agricultores información detallada sobre sus campos. Esta información abarca desde mapas detallados de vegetación y productividad hasta datos específicos de cada cultivo.

La clave de este enfoque reside en la toma de decisiones basada en datos, lo que permite a los agricultores optimizar sus prácticas para obtener el máximo rendimiento y eficiencia.

Usos de la geoinformática en la agricultura

Mediante la generación de mapas de productividad, GeoPard Crop Monitoring ofrece una solución fundamental para la agricultura de precisión. Estos mapas utilizan información histórica de años anteriores, lo que permite a los agricultores identificar patrones de productividad en sus explotaciones. Con esta información, pueden identificar las zonas productivas y las improductivas.

2. Monitoreo de la salud de los cultivos

La importancia de monitorear la salud de los cultivos es fundamental. El bienestar de los cultivos influye directamente en los rendimientos, la gestión de los recursos y la salud general del ecosistema agrícola.

Tradicionalmente, la inspección manual de cultivos en extensos campos era ardua y requería mucho tiempo. Sin embargo, con la llegada de tecnologías avanzadas como los SIG y la teledetección, se ha producido un cambio radical que permite una monitorización de precisión a una escala sin precedentes.

La geoinformática ayuda a detectar precozmente posibles problemas que afectan a la salud de los cultivos. Mediante el análisis de datos de teledetección e imágenes satelitales, los agricultores pueden identificar factores de estrés como deficiencias nutricionales o brotes de enfermedades, lo que permite intervenciones específicas.

3. Predicción del rendimiento de los cultivos

Al integrar datos históricos, composición del suelo, patrones climáticos y otras variables, permite a los agricultores predecir el rendimiento de los cultivos con notable precisión. Esta información les permite tomar decisiones fundamentadas sobre la siembra, la asignación de recursos y las estrategias de comercialización.

Mapa de datos de rendimiento de zonas 2019

En el campo de la predicción del rendimiento de los cultivos, GeoPard se ha consolidado como líder en innovación. GeoPard ha desarrollado un método fiable que, según afirma, alcanza una excelente precisión de más del 901% mediante la combinación de datos históricos y actuales de cultivos obtenidos por satélite. Este enfoque innovador demuestra cómo la tecnología puede revolucionar la agricultura contemporánea.

4. Monitoreo de ganado con geoinformática

Los datos espaciales de los dispositivos de seguimiento GPS instalados en el ganado ofrecen información valiosa sobre los movimientos y el comportamiento de los animales. Estas herramientas permiten a los ganaderos determinar la ubicación exacta del ganado dentro de la explotación, lo que garantiza una gestión y un cuidado eficientes.

Más allá del seguimiento de la ubicación, las herramientas SIG para la agricultura proporcionan una visión integral de la salud del ganado, los patrones de crecimiento, los ciclos de fertilidad y las necesidades nutricionales.

Se prevé que el mercado global de la agricultura de precisión, que incluye la monitorización del ganado, alcance un valor considerable en los próximos años. Esta tendencia subraya el potencial transformador de los SIG para optimizar la gestión ganadera.

5. Control de insectos y plagas

Los métodos tradicionales, como la inspección manual de grandes extensiones de terreno, han demostrado ser lentos e ineficientes. Sin embargo, la convergencia de la tecnología, en particular los algoritmos de aprendizaje profundo y los datos satelitales, ha revolucionado la detección y el control de plagas.

La geoinformática ayuda a crear mapas de distribución de plagas, lo que permite una aplicación precisa de pesticidas. Al centrarse en áreas específicas, los agricultores pueden minimizar el uso de productos químicos, reducir el impacto ambiental y proteger a los insectos beneficiosos.

El sistema de monitoreo de cultivos GeoPard es un método eficaz para detectar diversas amenazas, como infestaciones de malezas y enfermedades de los cultivos. Las zonas potencialmente problemáticas se detectan mediante el estudio de índices de vegetación recopilados en el campo.

Por ejemplo, un valor bajo del índice de vegetación en una ubicación determinada puede ser señal de posibles plagas o enfermedades. Esta constatación simplifica el procedimiento y elimina la necesidad de realizar un reconocimiento manual laborioso de grandes extensiones de terreno.

6. Control del riego

Los datos generados por SIG proporcionan información valiosa sobre los niveles de humedad del suelo, lo que ayuda a los agricultores a tomar decisiones informadas sobre la programación del riego. Esto garantiza la eficiencia del agua y previene el riego excesivo o el estrés hídrico.

La importancia del riego de tasa variable

La tecnología SIG aplicada a la agricultura proporciona un conjunto de herramientas muy útiles para detectar cultivos que sufren estrés hídrico. Los agricultores pueden obtener más información sobre el estado hídrico de sus cultivos utilizando índices como el Índice de Diferencia Normalizada del Agua (NDWI) o el Índice de Diferencia Normalizada de la Humedad (NDMI).

El componente predeterminado de GeoPard Crop Monitoring, el índice NDMI, ofrece una escala de -1 a 1. La escasez de agua se indica con valores negativos cercanos a -1, mientras que el encharcamiento puede indicarse con valores positivos cercanos a 1.

7. Control de inundaciones, erosión y sequía

Las inundaciones, la erosión y la sequía representan adversarios formidables que pueden causar daños sustanciales a los paisajes agrícolas. Más allá de la destrucción física, estos desafíos afectan la disponibilidad de agua, la salud del suelo y la productividad general de los cultivos. Gestionar eficazmente estas amenazas es fundamental para garantizar la seguridad alimentaria, preservar los recursos naturales y fomentar prácticas agrícolas sostenibles.

La geoinformática ayuda a evaluar la vulnerabilidad del paisaje ante inundaciones, erosión y sequía. Mediante el análisis de datos topográficos, patrones de precipitación y características del suelo, los agricultores pueden implementar estrategias para mitigar estos riesgos.

8. SIG en la automatización agrícola

Los Sistemas de Información Geográfica (SIG) han trascendido su función tradicional como herramientas cartográficas para convertirse en elementos clave para guiar la maquinaria automatizada. Esta tecnología proporciona a diversos equipos agrícolas, como tractores y drones, datos espaciales y sistemas de navegación de precisión.

Como resultado, tareas que van desde la siembra hasta la fumigación y la cosecha pueden ejecutarse con una precisión sin precedentes y una mínima intervención humana.

SIG en la automatización agrícola

Imagina un escenario donde un tractor se encarga de sembrar cultivos en un campo extenso. Equipado con un sistema GPS y tecnología SIG, el tractor utiliza datos espaciales para navegar por rutas predeterminadas, asegurando una colocación uniforme de las semillas y un espaciado óptimo. Esta precisión no solo aumenta el rendimiento de los cultivos, sino que también minimiza el desperdicio de recursos.

El papel de la geoinformática en la agricultura de precisión.

Desempeña un papel fundamental en la agricultura de precisión, ya que proporciona a los agricultores los datos y las herramientas necesarias para tomar decisiones informadas sobre el manejo de los cultivos. Puede utilizarse para recopilar datos sobre diversos factores, como el tipo de suelo, el rendimiento de los cultivos y la presencia de plagas.

Estos datos pueden analizarse para identificar áreas de variabilidad dentro de un campo. Una vez identificadas estas áreas, los agricultores pueden utilizar SIG (Sistemas de Información Geográfica) para desarrollar planes de manejo personalizados para cada una.

El uso de la geoinformática en la agricultura de precisión está creciendo rápidamente en todo el mundo. En Estados Unidos, por ejemplo, el uso de la agricultura de precisión ha aumentado en más de 501 TP3T en los últimos cinco años. Y en China, se espera que el uso de la agricultura de precisión crezca en más de 201 TP3T anuales en los próximos años.

Los estudios han revelado que la aplicación precisa de insumos mediante técnicas de geoinformática puede generar aumentos de rendimiento de hasta 151 TP3T, al tiempo que reduce los costos de los insumos entre 10 y 301 TP3T.

Además, un estudio publicado en la revista Nature en 2020 reveló que el uso de SIG para gestionar el riego en un campo de trigo resultó en un aumento de 201 TP3T en el rendimiento del cultivo. Otro estudio, publicado en la revista Science en 2021, halló que el uso de SIG para aplicar fertilizantes con mayor precisión en un campo de maíz resultó en un aumento de 151 TP3T en el rendimiento del cultivo.

También se puede utilizar para crear mapas de rendimiento de cultivos. Estos mapas permiten identificar zonas de bajo rendimiento, las cuales se pueden investigar para determinar la causa del problema. Una vez identificada la causa, los agricultores pueden tomar medidas correctivas para mejorar los rendimientos en esas zonas.

El papel de la geoinformática en la agricultura de precisión.

Por ejemplo, los agricultores pueden usarlo para crear mapas de tipos y fertilidad del suelo. Estos mapas permiten aplicar fertilizantes de forma más precisa, lo que ayuda a mejorar el rendimiento de los cultivos y a reducir la cantidad de fertilizante que se aplica innecesariamente.

Además de recopilar y analizar datos, también se puede utilizar para visualizar información espacial. Esto puede ser útil para que los agricultores vean cómo se distribuyen diferentes factores, como el tipo de suelo y el rendimiento de los cultivos, en un campo. Las herramientas de visualización también pueden ayudar a los agricultores a comunicar sus hallazgos a otras personas, como asesores agrícolas o funcionarios gubernamentales.

Las aplicaciones prácticas de la geoinformática en la agricultura de precisión son numerosas. Por ejemplo, la tecnología de tasa variable (VRT, por sus siglas en inglés) utiliza datos espaciales para distribuir cantidades variables de insumos como agua, fertilizantes y pesticidas en un campo.

Este enfoque garantiza que los cultivos reciban los nutrientes exactos que necesitan, optimizando su crecimiento y rendimiento. En otro caso, las imágenes satelitales y los drones proporcionan información valiosa sobre la salud de los cultivos y la detección de enfermedades, lo que permite una intervención rápida.

GeoPard Crop Monitoring como ejemplo de software SIG para la agricultura

Es fundamental tener en cuenta que el software SIG utilizado en la agricultura puede variar según su uso previsto. Mientras que algunas herramientas indican los niveles de humedad del suelo para facilitar la selección de siembras, otras muestran las variedades de cultivos, los rendimientos y su distribución.

Incluso la comparación de la rentabilidad de la tala forestal con la de la silvicultura puede realizarse mediante diversas aplicaciones. Por lo tanto, cada agricultor o gestor agrícola debe encontrar la solución SIG ideal que le proporcione la información necesaria para tomar decisiones acertadas sobre sus tierras.

En lo que respecta a los datos de campo, la plataforma de monitorización de cultivos de GeoPard ofrece numerosas ventajas. Proporciona resúmenes de la dinámica de la vegetación y la humedad del suelo, datos históricos de vegetación y clima, y pronósticos meteorológicos precisos a 14 días.

GeoPard proporciona sincronización automatizada del monitoreo de cultivos.

Esta plataforma ofrece funcionalidades como el reconocimiento del terreno para organizar actividades e intercambiar información en tiempo real, así como un registro de actividades sobre el terreno para la planificación y el seguimiento de las operaciones, por lo que ofrece mucho más que simples datos basados en SIG.

GeoPard Crop Monitoring también incluye datos de fuentes adicionales. La herramienta Data Manager, por ejemplo, integra datos de máquinas en la plataforma y admite formatos de archivo populares como SHP e ISO-XML.

Puedes medir el rendimiento de los cultivos utilizando datos de maquinaria agrícola, compararlos con mapas de fertilización, analizar tácticas de fertilización y crear planes para aumentar la producción. Las organizaciones con las que colaboran las empresas agrícolas y las propias empresas se benefician enormemente de esta plataforma integral.

Desafíos en la agricultura de precisión y la geoinformática

La integración de la agricultura de precisión y la geoinformática plantea numerosas implicaciones políticas y consideraciones regulatorias. Los gobiernos de todo el mundo se enfrentan al reto de diseñar marcos que fomenten la innovación al tiempo que salvaguardan la privacidad de los datos, el uso del suelo y la sostenibilidad ambiental.

Por ejemplo, las regulaciones pueden regir la recopilación y el intercambio de datos espaciales, los derechos de propiedad intelectual de las tecnologías de agricultura de precisión y el uso ético de la IA en la agricultura.

En la Unión Europea, la Política Agrícola Común (PAC) reconoce el papel de las tecnologías digitales, incluida la geoinformática, en la mejora de la productividad agrícola.

Se ofrecen incentivos financieros para alentar a los agricultores a adoptar prácticas de agricultura de precisión que se ajusten a los objetivos ambientales y de sostenibilidad. Este ejemplo ilustra cómo las políticas pueden impulsar la adopción de tecnología para el beneficio colectivo.

Sin embargo, la adopción de tecnologías geoinformáticas en la agricultura presenta importantes beneficios, aunque también conlleva desafíos, especialmente para los agricultores de diferentes tamaños. Los pequeños agricultores suelen enfrentarse a limitaciones financieras, ya que carecen de los recursos necesarios para adquirir tecnología y recibir capacitación.

Las explotaciones de mayor envergadura se enfrentan a complejidades en la gestión de datos debido a la magnitud de sus actividades. Es frecuente la falta de conocimientos técnicos, y tanto los pequeños como los grandes agricultores necesitan formación para utilizar eficazmente las herramientas geoinformáticas.

La infraestructura y la conectividad limitadas dificultan el acceso, especialmente en zonas remotas. Surgen problemas de personalización, ya que las soluciones pueden no ser adecuadas para pequeñas explotaciones agrícolas ni integrarse sin problemas en operaciones de mayor envergadura.

La resistencia cultural al cambio y la preocupación por la privacidad de los datos afectan a la adopción generalizada de nuevas tecnologías. Las políticas gubernamentales, la incertidumbre sobre el retorno de la inversión y los problemas de interoperabilidad dificultan aún más el progreso.

Para afrontar estos retos, será necesario desarrollar estrategias adaptadas que garanticen que la geoinformática beneficie a todos los agricultores, independientemente de la escala de su explotación.

Conclusión

La integración fluida de la geoinformática en la agricultura moderna tiene un potencial transformador. Al aprovechar el poder de los datos espaciales, los agricultores y demás actores del sector agrícola pueden tomar decisiones informadas, optimizar el uso de los recursos y fomentar prácticas sostenibles. Ya sea para predecir el rendimiento de los cultivos, gestionar los recursos hídricos o mejorar la agricultura de precisión, los SIG se perfilan como una guía fundamental que moldea un futuro más eficiente, resiliente y productivo para el mundo agrícola.

wpChatIcon
wpChatIcon

    Solicita una demostración / consulta gratuita de GeoPard








    Al hacer clic en el botón aceptas nuestra Política de privacidad. Lo necesitamos para responder a tu solicitud.

      Suscríbase a


      Al hacer clic en el botón aceptas nuestra Política de privacidad

        Envíenos información


        Al hacer clic en el botón aceptas nuestra Política de privacidad