Die Rolle von einsatzorientierten NAS für eine effiziente UAV-gestützte Pflanzenüberwachung

Unbemannte Luftfahrzeuge (UAVs) oder Drohnen revolutionieren die moderne Landwirtschaft, indem sie schnelle Luftaufnahmen von Feldern ermöglichen. Sie werden eingesetzt, um Pflanzen hinsichtlich Gesundheit, Wachstumsstadium, Schädlingen, Unkraut und Ertragsprognosen zu untersuchen. In China sind beispielsweise bereits über 250.000 Agrardrohnen im Einsatz, und in Thailand sollten bis 2023 rund 301.000 Tonnen Ackerland per Drohne besprüht oder überwacht werden. Diese UAVs steigern die Effizienz der Landwirtschaft, indem sie Probleme (wie Schädlingsbefall oder Wassermangel) schnell erkennen, die am Boden übersehen werden könnten.

Kleine UAVs verfügen jedoch nur über sehr begrenzte Rechenleistung und Akkulaufzeit. Die Echtzeit-Ausführung komplexer KI-Bildverarbeitungsalgorithmen stellt daher eine Herausforderung dar. Herkömmliche, ressourcenschonende Objekterkennungsmodelle (wie die winzigen YOLO- oder MobileNet-basierten Detektoren) können diese Anforderungen nur teilweise erfüllen: Sie opfern oft Genauigkeit oder Geschwindigkeit und erfordern einen erheblichen manuellen Anpassungsaufwand. Diese Lücke motiviert die Entwicklung der einsatzorientierten neuronalen Architektursuche (NAS): eine automatisierte Entwurfsmethode, die Deep-Learning-Modelle exakt an die Anforderungen von im Feld eingesetzten UAVs anpasst.

Moderne Präzisionslandwirtschaft nutzt unbemannte Luftfahrzeuge (Drohnen) zur Feldkartierung und Überwachung des Pflanzenzustands. Durch Überflüge großer Flächen erfassen Drohnen hochauflösende Bilder von Pflanzen, Boden und Feldstrukturen. Diese Bilder werden Bildverarbeitungsalgorithmen zugeführt, die Unkraut zwischen den Kulturpflanzen erkennen, den Ertrag schätzen (z. B. durch Zählen von Früchten oder Ähren) oder frühe Anzeichen von Krankheiten oder Nährstoffmangel aufspüren. So ermöglichen Drohnen beispielsweise das gezielte Ausbringen von Herbiziden auf Unkrautflächen, wodurch der Chemikalieneinsatz und die Kosten reduziert werden.

Die kleinen Bordcomputer von Drohnen (oft nur mit wenigen Watt Leistung) haben jedoch Schwierigkeiten, große neuronale Netze bei Fluggeschwindigkeit auszuführen. Dies erschwert Echtzeitanalysen: Erkennt eine Drohne ein Problem, muss sie schnell reagieren oder die Daten protokollieren, bevor der Akku leer ist. Aktuelle Leichtbau-Detektoren (z. B. YOLOv8 nano, YOLO-tiny, MobileNets) werden manuell entwickelt und erfordern oft Kompromisse: Kleinere Modelle beschleunigen zwar die Verarbeitung, können aber die Genauigkeit beeinträchtigen.

Daher besteht ein dringender Bedarf an Methoden, die automatisch das bestmögliche Modell unter Berücksichtigung der Einschränkungen der Drohne finden. Einsatzorientierte neuronale Netzwerkarchitekturen (NAS) erfüllen diesen Bedarf, indem sie nach Architekturen suchen, die die Erkennungsgenauigkeit und den Ressourcenverbrauch (Latenz, Stromverbrauch, Speicher) unter realen Drohnenbedingungen gemeinsam optimieren. Dieser Ansatz ermöglicht die Bereitstellung spezialisierter Modelle, die effizient auf Drohnenhardware laufen und gleichzeitig für Aufgaben der Pflanzenüberwachung hochpräzise sind.

Anforderungen an die Objekterkennung durch unbemannte Luftfahrzeuge bei der Überwachung von Nutzpflanzen

Agrar-Drohnen erfüllen eine Reihe von visuellen Erfassungsaufgaben, von denen jede ihre eigenen Anforderungen stellt:

1. Erkennung von Pflanzengesundheit und Stress: Drohnen nutzen RGB-, Wärmebild- oder Multispektralkameras, um gestresste Pflanzen, Nährstoffmängel oder Krankheitssymptome zu erkennen. Echtzeit-Algorithmen erfassen die Variabilität im Feld und steuern so Bewässerung und Düngung. Die präzise Erkennung von Stressanzeichen ermöglicht rechtzeitige Maßnahmen zur Ertragssicherung.

2. Unkrautbestimmung: Die Erkennung von Unkraut zwischen Nutzpflanzen ermöglicht es Landwirten, nur unerwünschte Pflanzen zu besprühen und so Herbizide einzusparen. Beispielsweise erreichte eine Studie auf Baumwollfeldern mithilfe von UAV-Bildern und einem YOLOv7-basierten Detektor eine Genauigkeit von etwa 83% bei der Unterscheidung von Unkraut und Baumwolle. Dennoch bleibt die Unterscheidung von visuell ähnlichem Unkraut und Nutzpflanzen in unübersichtlichen Feldbildern schwierig.

Anforderungen an die Objekterkennung durch unbemannte Luftfahrzeuge bei der Überwachung von Nutzpflanzen

3. Schädlings- und Krankheitserkennung: Drohnen können Schädlingsbefall (z. B. durch Heuschrecken, Insekten oder Pilzkrankheiten) früher erkennen als Menschen zu Fuß. Sie unterstützen zudem die Kartierung von Schädlingsgebieten mittels multispektraler Bildgebung, die eine Verbesserung gegenüber reinen RGB-Bildern darstellt. Eine schnelle und präzise Schädlingserkennung ist entscheidend, um die Ausbreitung zu verhindern.

4. Ertragsschätzung: Das Zählen von Früchten, Ähren oder Pflanzen aus der Luft hilft, Erntemengen vorherzusagen. Modelle, die darauf trainiert sind, Äpfel, Melonen oder Weizenähren auf Drohnenbildern zu erkennen, können die Ertragsschätzung beschleunigen. So wurden beispielsweise neuronale Netze auf Drohnenbildern eingesetzt, um Wassermelonen und Melonen auf Feldern zu zählen.

5. Vermessung und Kartierung: Drohnen erstellen außerdem Feldkarten (Topografie, Bodenbeschaffenheit), die bei der Anbauplanung helfen. Obwohl dies nicht im engeren Sinne der Objekterkennung dient, ist es dennoch Teil der UAV-Überwachung.

Diese Aufgaben erfordern oft eine nahezu Echtzeit-Datenverarbeitung: Eine Drohne, die über Felder fliegt, muss unter Umständen Videobilder in Echtzeit verarbeiten (mehrere Bilder pro Sekunde), damit Steuerungsentscheidungen (wie die Anpassung der Flughöhe oder die Aktivierung eines Sprühgeräts) sofort getroffen werden können. In anderen Fällen sind geringfügige Verzögerungen (Sekunden) akzeptabel, wenn die Daten erst nach der Landung protokolliert und analysiert werden.

Wichtig ist, dass die UAV-Bildverarbeitung mit variablen Umgebungsbedingungen zurechtkommt: helles Sonnenlicht, Schatten, windbedingte Bewegungsunschärfe, Verdeckung durch überlappende Blätter oder Änderungen von Höhe und Winkel. Da die Objektgrößen variieren (nahe Unkräuter vs. weit entfernte Schädlingsansammlungen), müssen die Detektoren Merkmale unterschiedlicher Größenordnungen erfassen.

Schließlich erfordern Drohneneinsätze in der Landwirtschaft einen strikten Kompromiss zwischen Genauigkeit, Latenz und Energieverbrauch. Eine hohe Erkennungsgenauigkeit ist notwendig, um Unkraut und Schädlinge nicht zu übersehen, doch ein sehr dichtes Netzwerk kann den Akku schnell entladen. Ein Erkennungsmodell muss daher schnell und energieeffizient, aber gleichzeitig präzise genug für die jeweilige Aufgabe sein. Diese hohen Anforderungen verdeutlichen, warum für Drohnen in der Landwirtschaft ein spezialisiertes Modelldesign erforderlich ist.

Leichte Objektdetektoren für UAV-Plattformen

Leichtgewichtige Objektdetektoren sind neuronale Netze, die speziell für den Einsatz auf leistungsschwacher Hardware entwickelt wurden. Sie verwenden häufig kleine Backbones (wie MobileNet oder ShuffleNet), reduzierte Schichtbreiten oder vereinfachte Hals-/Kopfstrukturen. Beispielsweise gibt es zur YOLO-Familie “Nano”- und “Tiny”-Versionen (z. B. YOLOv8n, YOLOv5s), die weniger Parameter besitzen und weniger Operationen (FLOPS) benötigen.

Solche Detektoren erreichen auf eingebetteter Hardware wie NVIDIA Jetson Nano oder Google Coral Bildraten von mehreren zehn Bildern pro Sekunde. Beispielsweise lief Ag-YOLO, ein speziell entwickelter, auf YOLO basierender Detektor für Palmölplantagen, mit 36,5 Bildern pro Sekunde auf einem Intel Neural Compute Stick 2 (bei einem Stromverbrauch von nur 1,5 W) und erzielte eine hohe Genauigkeit (F1 = 0,9205). Dieses Modell benötigte etwa zwölfmal weniger Parameter als YOLOv3-Tiny und war dabei doppelt so schnell.

Leichte Objektdetektoren für UAV-Plattformen

Diese Beispiele verdeutlichen die Abwägungen beim Modelldesign: Die Reduzierung der Modellgröße oder -komplexität (z. B. durch weniger Schichten oder Kanäle) beschleunigt in der Regel die Inferenz und senkt den Energieverbrauch, kann aber die Genauigkeit verringern. Ag-YOLO opferte etwas Kapazität, um Geschwindigkeit und Effizienz zu steigern, erzielte aber dennoch einen hohen F1-Wert von 0,92 für seine Aufgabe.

Ebenso wurden drei YOLOv7-Varianten hinsichtlich ihrer Eignung zur Unkrauterkennung verglichen: Das vollständige YOLOv7 erreichte eine Genauigkeit von 83%, während ein kleineres YOLOv7-w6-Netz auf 63% abfiel. Dies verdeutlicht eine Einschränkung generischer, ressourcenschonender Detektoren: Modelle, die für eine bestimmte Umgebung oder einen bestimmten Objekttyp optimiert sind, können in anderen Umgebungen schlechter abschneiden. Ein auf Geschwindigkeit optimierter Detektor kann subtile Hinweise (z. B. kleine oder getarnte Unkräuter) übersehen, was seine Robustheit unter verschiedenen Bedingungen beeinträchtigt.

In der Landwirtschaft sind diese generischen, ressourcenschonenden Netzwerke ohne weitere Anpassungen möglicherweise nicht optimal. Beispielsweise kann ein auf gängigen Datensätzen vortrainiertes YOLOv7-Modell die spezifischen Texturen und Maßstäbe von Pflanzenbildern unter Umständen nicht perfekt verarbeiten. Daher ist eine aufgaben- und plattformspezifische Optimierung der Modellarchitektur erforderlich. Die manuelle Anpassung (Änderung von Schichten, Filtern usw.) für jeden neuen Drohnentyp oder jede neue Pflanzensorte ist sehr aufwendig. Dies motiviert den Einsatz automatisierter Methoden – wie beispielsweise einsatzbewusster Netzwerkassistenzsysteme (NAS) –, um das optimale Verhältnis von Größe, Genauigkeit und Robustheit für eine gegebene UAV-Plattform und landwirtschaftliche Anwendung zu finden.

Suche nach neuronalen Architekturen in UAV-basierten Bildverarbeitungssystemen

Die Suche nach neuronalen Architekturen (Neural Architecture Search, NAS) ist eine automatisierte Methode zum Entwurf von Architekturen neuronaler Netze. Anstatt die Anzahl der Schichten, Filter und Verbindungen manuell festzulegen, verwendet NAS Algorithmen (Reinforcement Learning, evolutionäre Methoden oder gradientenbasierte Suche), um einen Raum möglicher Designs zu durchsuchen und diejenigen zu finden, die ein gewähltes Ziel (wie z. B. Genauigkeit) optimieren.

NAS wurde bereits zur Entwicklung mobilfreundlicher Netzwerke eingesetzt. Googles MnasNet beispielsweise war ein wegweisendes “plattformbewusstes” NAS, das die tatsächliche Gerätelatenz direkt in die Zielsetzung einbezog. MnasNet maß die Inferenzzeit auf einem Google Pixel-Smartphone für jedes Kandidatenmodell während der Suche und gewichtete die Genauigkeit gegen diese gemessene Latenz. Das Ergebnis war eine Familie von CNNs, die auf mobiler Hardware sowohl schnell als auch genau waren und manuell entwickelte MobileNets- und NASNet-Modelle auf ImageNet übertrafen.

Generische NAS-Ansätze wie MnasNet konzentrieren sich jedoch auf allgemeine Bildverarbeitungsaufgaben (ImageNet-Klassifizierung oder COCO-Erkennung) und gängige Hardware (z. B. Mobiltelefone). Für die UAV-gestützte Pflanzenüberwachung ist das Problem spezialisierter. Wir benötigen Detektoren, die für spezifische Objektklassen (Pflanzen, Unkraut, Schädlinge) optimiert und auf die Sensoren und das Flugprofil der Drohne zugeschnitten sind. Ein Standard-NAS, das lediglich auf Genauigkeit oder allgemeine Latenz optimiert, kann Nuancen wie die Erkennung kleiner Objekte oder Energiebeschränkungen übersehen.

Herkömmliche NAS-Methoden sind zudem sehr rechenintensiv (oftmals tagelange Berechnungen auf großen GPU-Clustern), was für Agrarforscher nicht immer praktikabel ist. Daher werden aufgabenspezifische NAS-Frameworks für die UAV-Bildverarbeitung benötigt. Diese müssen UAV-relevante Kriterien berücksichtigen und so effizient wie möglich sein.

In allen Fällen ist die Berücksichtigung von Einschränkungen entscheidend: Das NAS muss die Einschränkungen des Zielgeräts (ähnlich wie MnasNet) und die Echtzeitanforderungen der UAV-Aufgaben im Flug kennen. Ist die Suche zu langsam oder ignoriert sie den Energieverbrauch, funktioniert das resultierende Modell in der Praxis möglicherweise nicht gut.

In der Praxis würde NAS für UAV-Vision Hardware-Latenz und Energieverbrauch direkt in die Suchmetrik einbeziehen. Beispielsweise könnte man die Bildrate eines Kandidatendetektors auf dem eigentlichen Drohnencomputer (wie einem NVIDIA Jetson) messen und als Bewertungskriterium verwenden. Dies steht im Gegensatz zur Verwendung einfacher Proxys wie FLOPs, die die reale Geschwindigkeit nicht erfassen.

Dadurch kann das NAS Architekturen ermitteln, die die Gerätefunktionen optimal nutzen. Zusammenfassend bietet das NAS eine Möglichkeit, Detektoren für UAVs automatisch zu entwerfen, muss aber an die spezifischen Aufgaben und Effizienzanforderungen von UAVs angepasst werden.

Einsatzfähiges NAS: Kernprinzipien

Einsatzorientierte NAS erweitert hardwareorientierte NAS, indem sie den Einsatzkontext und Umgebungsbedingungen in den Designprozess einbezieht. Das heißt, sie berücksichtigt nicht nur die Hardware der Drohne (CPU-/GPU-Geschwindigkeit, Speichergrenzen, Energiebudget), sondern auch die tatsächlichen Umgebungsbedingungen im Einsatz. Dies bedeutet die explizite Optimierung von Metriken wie Inferenzlatenz auf dem Zielgerät, Stromverbrauch und Speicherbedarf bei gleichzeitig hoher Erkennungsgenauigkeit.

Beispielsweise könnte man während der NAS jedes Kandidatenmodell auf einem an der Drohne befestigten Jetson Nano einsetzen und dessen tatsächliche Inferenzzeit und Energieverbrauch erfassen. Dieses empirische Feedback hilft dabei, die Suche auf Modelle auszurichten, die die Einsatzkriterien tatsächlich erfüllen.

Einsatzfähiges NAS: Kernprinzipien

Hardwarebasierte NAS-Systeme (wie MnasNet) konzentrieren sich auf Gerätemetriken, während einsatzbasierte NAS-Systeme einen Schritt weiter gehen: Sie berücksichtigen Sensoreingabecharakteristika (z. B. Bildauflösung, multispektrale Kanäle) und Latenzziele der Anwendung (benötigte Bilder pro Sekunde). Sie können sogar Flugbeschränkungen wie maximal zulässigen Speicher einbeziehen oder Auswertungen unter simulierten Windbewegungen oder Bewegungsunschärfe durchführen.

Ein einsatzorientiertes NAS könnte Architekturen benachteiligen, die beispielsweise eine Leistungsaufnahme von über 5 W aufweisen oder mehr Speicher benötigen, als die Drohne zur Verfügung hat. Dadurch wird die Suche naturgemäß auf praxisnahe Modelle für den UAV-Einsatz im Feld ausgerichtet. Im Wesentlichen geht es bei einem einsatzorientierten NAS darum, den Kreislauf zwischen Modellentwicklung und realer Anwendung zu schließen. Anstatt eine Architektur isoliert auszuwählen und auf deren Funktionsfähigkeit zu hoffen, werden Tests mit realen Geräten systematisch in die Suche einbezogen.

Kerec et al. (2026) nutzten beispielsweise ein solches Framework zur Suche nach einem UAV-Detektor: Sie bauten auf einem YOLOv8n-Baseline-Modell auf, bezogen aber die Latenz und den Energieverbrauch des Jetson Nano in die Suche mit ein. Das resultierende Modell benötigte 37% weniger GFLOPs und 61% weniger Parameter als YOLOv8n, bei einem Rückgang der mittleren durchschnittlichen Reichweite (mAP) um lediglich 1,96%. Dies verdeutlicht, wie die Bereitstellungsbeschränkungen das NAS zu einem deutlich schlankeren und schnelleren Netzwerk führten.

Rolle von einsatzorientierten NAS in der Präzisionslandwirtschaftsüberwachung

Einsatzorientierte Netzwerkassistenzsysteme (NAS) können die Überwachung von Nutzpflanzen durch unbemannte Luftfahrzeuge (UAVs) erheblich verbessern, indem sie die Detektoren an die jeweiligen landwirtschaftlichen Bedingungen anpassen. Beispielsweise kann eine Suche Architekturen bevorzugen, die sich besonders gut für die Erkennung kleiner, dünner Objekte (wie schmale Unkräuter oder zarte Maiskeimlinge) oder für die Unterscheidung von Pflanzen und Boden eignen. Die Netzwerktiefe und die rezeptiven Felder können an die typische Flughöhe angepasst werden: In geringer Höhe füllen Objekte das Bild und erfordern möglicherweise feine Details, während das Netzwerk in größerer Höhe eine gute Erkennung im kleinen Maßstab ermöglichen sollte. Ein einsatzorientiertes NAS kann diese Anforderungen in seinen Suchraum integrieren.

Geschwindigkeit ist im Einsatz entscheidend. Stellen Sie sich vor, eine Drohne entdeckt einen Schädlingsbefall. Wenn das Modell schnell genug ist, um Videos beispielsweise mit 30 Bildern pro Sekunde zu verarbeiten, kann es den Piloten alarmieren oder sofort eine Bekämpfungsmaßnahme einleiten. In Tests lief ein von NAS entwickeltes Modell dank seiner optimierten Architektur auf einem Jetson Nano 28% schneller als der Standard-YOLOv8n. Es verbrauchte zudem unter ONNX-Bedingungen 18,5% weniger Energie, wodurch die Drohne mit demselben Akku länger fliegen kann. Diese Vorteile erleichtern Entscheidungen während des Fluges und verlängern die Einsatzdauer.

Robustheit ist ein weiterer Vorteil. Da die einsatzorientierte NAS-Technologie die tatsächliche Gerätebewertung umfasst, kann die Suche Tests unter verschiedenen Bedingungen beinhalten. Beispielsweise können Schwachlichtbedingungen simuliert oder Trainingsbilder aus der Dämmerung einbezogen werden, um sicherzustellen, dass der finale Detektor seine Genauigkeit auch bei realen Wetter- und Lichtveränderungen beibehält. Die Arbeit zeigte, dass der aus der NAS-Technologie abgeleitete Detektor gut generalisiert: Er wurde an zwei verschiedenen Datensätzen von Nutzpflanzen (Weizenähren und Baumwollkeimlinge) getestet und erzielte in beiden Fällen eine hohe Leistung.

Rolle von einsatzorientierten NAS in der Präzisionslandwirtschaftsüberwachung

Dies deutet darauf hin, dass einsatzorientiertes NAS dazu beigetragen hat, gemeinsame, nützliche Merkmale für die Landwirtschaft zu identifizieren und die Übertragbarkeit auf neue Anwendungsgebiete zu verbessern. Insgesamt trägt einsatzorientiertes NAS zu einem ausgewogenen Verhältnis zwischen Genauigkeit und längerer Flugzeit bei. Durch die Reduzierung des Rechenaufwands verbrauchen Drohnen weniger Energie und können pro Akkuladung eine größere Fläche abdecken, während sie gleichzeitig Pflanzen und Schädlinge zuverlässig erkennen.

Suchraumgestaltung für landwirtschaftliche UAV-Detektoren

Ein wichtiger Bestandteil von einsatzorientierten NAS ist der Suchraum – die Menge der möglichen Netzwerkdesigns, die berücksichtigt werden. Für UAV-gestützte Ernteüberwachungssysteme kann der Suchraum so gestaltet werden, dass er vielversprechende Architekturen für diesen Bereich umfasst. Wichtige Bestandteile sind:

1. Grundgerüstdesign: Das Rückgrat bildet der Merkmalsextraktor. Für UAVs könnten ressourcenschonende Faltungsbausteine wie tiefenseparable Faltungen (wie in MobileNet verwendet) oder invertierte Residualblöcke eingesetzt werden. Invertierte Residuale und lineare Bottlenecks (nach MobileNetV2) sind für ihre hohe Effizienz auf mobilen Geräten bekannt. Der Suchraum ermöglicht die Anpassung der Breite (Anzahl der Kanäle) und Tiefe jedes Blocks an das Rechenbudget der UAV. Auch Attention- oder Transformer-inspirierte Module könnten integriert werden, sofern die UAV diese bei geringem Energieverbrauch verarbeiten kann.

2. Halsdesign: Viele Objektdetektoren verwenden Feature-Pyramiden (FPN) oder Pfadaggregationsnetzwerke, um Merkmale unterschiedlicher Größenordnung zu kombinieren. Die Suche könnte vereinfachte FPNs oder ressourcenschonende Feature-Aggregationsverfahren untersuchen. Beispielsweise wären der Einsatz eines Single-Scale-Heads anstelle von Multi-Scale-Heads Optionen. Der Suchraum könnte Pooling-Layer oder Skip-Verbindungen ermöglichen, die die Erkennung von Objekten unterschiedlicher Größe erleichtern.

3. Kopfdesign: Der Erkennungskopf (Klassifizierungs- und Box-Regressionsschichten) kann ebenfalls variiert werden. Für UAVs, die homogene Felder absuchen, kann ein einfacherer Kopf ausreichen. Um jedoch kleine Unkräuter zu erfassen, kann die Suche zusätzliche Faltungsschichten oder andere Ankerschemata umfassen.

4. Leichte Betriebsabläufe: Der Suchraum kann explizit nur kostengünstige Operationen zulassen. Beispielsweise die Wahl zwischen einer 3×3-Faltung und einer günstigeren 1×3+3×1-faktorisierten Faltung oder die Einbeziehung von GhostNet-Modulen. Er kann auch kleine Kernelgrößen oder reduzierte Dimensionen zulassen, um den Rechenaufwand zu begrenzen. Alle diese Entscheidungen werden durch die Hardware bestimmt. Der Suchraum kann jede Schichtkonfiguration verbieten, die das Speicherlimit oder den erwarteten Energieschwellenwert der Drohne überschreitet.

Durch die sorgfältige Gestaltung dieses Suchraums wird der NAS-Prozess hin zu effektiven und gleichzeitig effizienten Architekturen gelenkt. Das Ergebnis könnte eine neuartige Kombination von Blöcken sein, die in Standardmodellen nicht berücksichtigt werden. Der beste gefundene Detektor nutzte benutzerdefinierte Blockauswahlen, die die GFLOPs um 37% und die Parameter um 61% im Vergleich zu YOLOv8n reduzierten.

Dies war möglich, da das NAS Backbone- und Head-Elemente unter Berücksichtigung der UAV-Beschränkungen flexibel kombinieren konnte. Zusammenfassend lässt sich sagen, dass der Suchraum für landwirtschaftliche UAV-Detektoren auf skalierbare, ressourcenschonende Bausteine und die Handhabung verschiedener Maßstäbe fokussiert ist – alles im Rahmen der Möglichkeiten der Bordhardware.

Optimierungsziele und -beschränkungen

Einsatzorientierte NAS-Systeme müssen mehrere Ziele gleichzeitig verfolgen. Das Hauptziel ist in der Regel die Erkennungsgenauigkeit (z. B. mittlere durchschnittliche Präzision, mAP), gemessen anhand von Datensätzen zur Pflanzenüberwachung. Beispielsweise ist mAP@50 (Genauigkeit bei 50% IOU) eine gängige Metrik. Das NAS-optimierte Modell wies im Vergleich zum Basismodell YOLOv8n lediglich einen Rückgang von 1,96% in mAP@50 auf – ein sehr geringer Verlust angesichts der erzielten Verbesserungen. Präzision und Trefferquote (bzw. F1-Score) für wichtige Klassen (Unkräuter, Nutzpflanzen) werden ebenfalls berücksichtigt.

Gleichzeitig müssen Latenz und Energieverbrauch optimiert werden. Die Latenz bezeichnet die Inferenzzeit pro Bild; bei einer eingebetteten GPU kann sie 20–50 ms oder mehr betragen. Geringere Latenz bedeutet höhere Bildraten. Der Energieverbrauch (Joule pro Bild) ist entscheidend für die Flugdauer. Der Speicherbedarf (Anzahl der Parameter, Modellgröße) ist eine weitere Einschränkung; Modelle müssen in den Arbeitsspeicher des Geräts passen. Daher legt NAS üblicherweise Zielwerte oder Strafen für diese Einschränkungen fest.

Beispielsweise können Modelle, die langsamer als ein bestimmter Schwellenwert sind oder ein Parameterbudget überschreiten, herabgestuft werden. Dadurch wird NAS effektiv zu einem multikriteriellen Optimierungsproblem: Maximierung der Genauigkeit bei gleichzeitiger Minimierung von Latenz, Energieverbrauch und Größe.

Praktisch ließe sich dies durch eine gewichtete Summe von Zielen oder durch harte Nebenbedingungen realisieren. Einige Methoden bestrafen Kandidaten, die die Leistungsgrenze der Drohne überschreiten, mit hohen Strafen. Andere berechnen explizit eine Energiemetrik: Modelle wurden unter ONNX-Laufzeitumgebung getestet, um die “Energieeffizienz” zu messen. Das beste Modell war um 18,51 TP3T energieeffizienter als YOLOv8n. Dies war eines der Ziele, die die Suche leiteten.

Die gefundenen Zielkonflikte lassen sich auf einer Pareto-Front visualisieren: An einem Ende befinden sich extrem schnelle, kleine Modelle mit geringerer Genauigkeit; am anderen Ende große, genaue Modelle, die für eine Drohne zu langsam oder zu energieintensiv sind. Einsatzorientierte NAS-Systeme zielen darauf ab, einen optimalen Punkt auf dieser Front zu finden, der den tatsächlichen Missionsprioritäten entspricht (z. B. ein geringer Genauigkeitsverlust für eine deutliche Beschleunigung). Zusammenfassend muss das NAS Genauigkeitsmetriken (mAP, F1) und Inferenzbeschränkungen (ms pro Frame, Joule pro Frame, Speicher) gleichermaßen berücksichtigen. Diese ausgewogene Optimierung macht ein Modell wirklich einsatzbereit für UAVs.

Schulung und Evaluierung in realistischen landwirtschaftlichen Umgebungen

Damit die von NAS entwickelten Detektoren optimal funktionieren, müssen sie mit realistischen Agrardaten trainiert und getestet werden. Dies bedeutet die Verwendung von Datensätzen, die die Variabilität realer Felder abbilden: verschiedene Pflanzenarten, Wachstumsstadien, Jahreszeiten, Lichtverhältnisse und Höhenlagen. Beispielsweise lassen sich Trainingsergebnisse, die ausschließlich auf Bildern junger Maiskeimlinge basieren, nicht auf reife Weizenähren übertragen. Feldrepräsentative Datensätze gewährleisten, dass das Modell die für den landwirtschaftlichen Betrieb relevanten Merkmale erlernt. Datenaugmentation (zufällige Pflanzenarten, Helligkeitsänderungen, Bewegungsunschärfe) kann während des Trainings ebenfalls angewendet werden, um Drohnenbewegungen und Lichtverhältnisse zu simulieren.

Schulung und Evaluierung in realistischen landwirtschaftlichen Umgebungen

Bei der Evaluierung ist es wichtig, das Modell unter möglichst realen Bedingungen zu testen. Simulationstools können dabei hilfreich sein (z. B. das Fliegen einer virtuellen Drohne über 3D-Feldern), aber reale Flugtests sind der Goldstandard. Das Onboard-Benchmarking erfolgt durch Ausführen des Modells auf der tatsächlichen UAV-Hardware. Nach der NAS-Phase wurde der Kandidat auf einem Jetson Nano eingesetzt und eine um 28,11 TP3T schnellere Inferenz (verglichen mit dem Basismodell YOLOv8n) sowie ein geringerer Energieverbrauch gemessen. Dieses Feedback aus realen Geräten bestätigt, dass die Suche ein Modell hervorgebracht hat, das die Anforderungen tatsächlich erfüllt.

Generalisierung ist ebenfalls entscheidend. Ein Modell wird zwar möglicherweise für eine bestimmte Kulturpflanze (z. B. Weizen) entwickelt und trainiert, Landwirte benötigen jedoch Detektoren, die auf verschiedenen Anbauflächen funktionieren. Die Studie demonstrierte eine starke Generalisierungsfähigkeit über verschiedene Kulturpflanzen hinweg: Der auf einem NAS-Modell basierende Detektor, der für eine Aufgabe trainiert wurde, erzielte auch auf einem anderen Datensatz (Baumwollsetzlinge) ohne erneutes Training gute Ergebnisse. Dies deutet darauf hin, dass einsatzorientierte NAS-Architekturen robuste Ergebnisse liefern können. Domänenwechsel (z. B. von Maisfeldern zu Obstplantagen) können jedoch weiterhin eine Feinabstimmung oder weitere Recherchen erforderlich machen. Tests über verschiedene Jahreszeiten hinweg (Sommer- vs. Herbstbilder) werden ebenfalls empfohlen.

Abschließend sollte jedes neue Modell vor dem Einsatz auf der UAV-Plattform getestet werden. Dazu gehören die Erfassung von Genauigkeit und Geschwindigkeit im Drohnenbetrieb, die Sicherstellung einer sicheren Hardware-Überhitzung und die Überprüfung des Stromverbrauchs. Nur so können Landwirte dem System für missionskritische Überwachungsaufgaben vertrauen. Durch die Kombination von praxisnahen Schulungen und einer gründlichen Hardware-Evaluierung entstehen einsatzorientierte NAS-Detektoren, die nicht nur theoretisch effizient, sondern auch in der Praxis bewährt sind.

Vorteile gegenüber manuell konstruierten UAV-Detektoren

Einsatzorientierte NAS-Systeme bieten gegenüber herkömmlichen, manuell entworfenen Modellen für UAVs mehrere klare Vorteile:

1. Bessere Kompromisse bei der Leistung: Die vom NAS ermittelten Modelle bieten tendenziell eine höhere Kombination aus Genauigkeit, Geschwindigkeit und Energieeffizienz. Beispielsweise lief das beste Modell auf dem Jetson Nano 281 TP3T schneller und verbrauchte 18,51 TP3T weniger Energie als die manuell ausgewählte YOLOv8n-Baseline, während der Verlust an mAP bei der Detektion nur etwa 21 TP3T betrug. Ein solches Gleichgewicht manuell zu erreichen, wäre äußerst schwierig.

2. Verbesserte Generalisierung: Die von NAS ermittelten Modelle sind anpassungsfähiger an neue Bedingungen, da die Suche diverse Daten oder Ziele einbeziehen kann. Der automatisch entwickelte Detektor zeigte gute Ergebnisse bei verschiedenen Anbauarten (Weizen und Baumwolle) und Lichtverhältnissen. Diese hohe Robustheit ist entscheidend, wenn Flüge auf unerwartete Gegebenheiten treffen.

3. Reduzierter Entwicklungsaufwand: NAS automatisiert viele Versuche und Irrtümer. Anstatt Schichtgrößen manuell anzupassen und zahlreiche Kandidaten zu testen, erkundet ein einsatzorientiertes NAS iterativ die verschiedenen Optionen und findet das optimale Design für Ihre Anforderungen. Dies spart Entwicklungszeit und -aufwand und vereinfacht die Aktualisierung von Detektoren für neue Aufgaben oder Hardware.

4. Skalierbarkeit: Nach der Einrichtung lässt sich das NAS-Framework für verschiedene UAV-Plattformen oder Missionen nutzen. Beispielsweise kann dasselbe einsatzorientierte NAS durch einfaches Anpassen der Eingangsgrößen einen Detektor finden, der auf eine andere Kameraauflösung oder ein anderes Drohnenmodell abgestimmt ist. Dies ist deutlich skalierbarer als die Neuentwicklung von Netzwerken für jedes Szenario.

Herausforderungen und Einschränkungen

Bereitstellungsorientiertes NAS ist leistungsstark, aber kein Allheilmittel. Es muss sorgfältig eingesetzt werden, unter Berücksichtigung seines Ressourcenbedarfs und der Variabilität der Zielumgebung. Trotz seines Potenzials birgt bereitstellungsorientiertes NAS Herausforderungen:

1. Hohe Suchkosten: NAS kann einen erheblichen Rechenaufwand erfordern. Selbst mit effizienten Algorithmen kann die Suche im Architekturraum viele GPU-Stunden (oder spezialisierte Rechenleistung) in Anspruch nehmen. Wird der Suchaufwand nicht sorgfältig gemanagt, kann er für manche Teams prohibitiv sein.

2. Datenverzerrung und Domänenverschiebung: Die Leistungsfähigkeit des NAS hängt maßgeblich von den verwendeten Daten ab. Sind die Trainingsbilder nicht repräsentativ für die Feldbedingungen, kann die gefundene Architektur in der Praxis unterdurchschnittlich abschneiden. Beispielsweise lässt sich ein für eine bestimmte Kulturpflanze oder geografische Region optimiertes Modell ohne weitere Anpassung möglicherweise nicht perfekt auf andere Bereiche übertragen.

3. Hardwareheterogenität: UAV-Hardware gibt es in vielen Varianten (unterschiedliche eingebettete GPUs, CPUs, FPGAs). Ein für ein Board optimiertes Modell ist möglicherweise auf einem anderen nicht optimal. Bereitstellungsfähige NAS-Systeme müssen entweder für jede Plattform separate Suchvorgänge durchführen oder konservative, universell anwendbare Einschränkungen verwenden – was die Leistung beeinträchtigen kann.

4. Praktische Einschränkungen: Der praktische Einsatz von Drohnen in der Landwirtschaft bringt Herausforderungen mit sich, wie z. B. drahtlose Netzwerkaktualisierungen, Systemintegration mit der Flugsteuerung und Sicherheitszertifizierung. Selbst das beste NAS-Modell muss in ein vollständiges Drohnensystem integriert werden. Die Koordination von Modellaktualisierungen, behördlichen Genehmigungen und Schulungen für Landwirte stellt nicht-technische Hürden dar.

Zukünftige Ausrichtungen

Zukünftig dürfte die Integration von Modellentwicklung, Sensortechnik und UAV-Steuerung noch enger werden. Einsatzorientierte NAS-Systeme bleiben dabei ein Schlüsselinstrument. Mit Blick auf die Zukunft eröffnen sich mehrere vielversprechende Perspektiven:

1. Online- und adaptives NAS: Statt einer einmaligen Offline-Suche könnten zukünftige Systeme das Netzwerk in Echtzeit oder zwischen Flügen anpassen. Beispielsweise könnte eine Drohne mit einem Basismodell starten und sich mithilfe schlanker NAS-Algorithmen dynamisch an neue Licht- oder Geländebedingungen anpassen. Dieses “On-Device-NAS” ist zwar sehr anspruchsvoll, könnte die Anpassungsfähigkeit aber erheblich verbessern.

2. Gemeinsame Entwicklung von Sensoren und Modellen: Zukünftige Präzisionslandwirtschaftssysteme könnten die Kameraauswahl (RGB, Multispektral, Infrarot) und das neuronale Netzwerk gemeinsam optimieren. Einsatzorientierte neuronale Netze könnten Sensorparameter (wie die verwendeten Spektralbänder) in ihre Suche einbeziehen und so die optimale Kombination aus Hardware und Modell finden.

3. Multispektrale/hyperspektrale Integration: Wie die Studie zur Baumwollkrankheit nahelegt, kann die Integration multispektraler Bilddaten die Erkennung, insbesondere von Problemen im Frühstadium, verbessern. Zukünftige NAS-Systeme könnten Multistream-Modelle erforschen, die RGB- und Nahinfrarotkanäle kombinieren, um subtile Pflanzenveränderungen zuverlässiger zu erkennen.

4. Autonome Entscheidungsprozesse: Letztendlich könnten NAS-optimierte Detektoren zu vollständiger Autonomie beitragen. Beispielsweise könnte eine Drohne automatisch einen Sprühplan erstellen oder Betriebsleiter alarmieren, wenn sie bestimmte Bedingungen erkennt. Einsatzorientierte NAS-Systeme ließen sich auf durchgängige Prozesse (Erkennungs- und Aktionsmodelle) ausweiten und so das Gesamtsystem optimieren.

5. Ethische und ökologische Überlegungen: Mit zunehmender Leistungsfähigkeit von UAVs müssen wir Datenschutz, Luftraumsicherheit und Auswirkungen auf landwirtschaftliche Arbeitskräfte berücksichtigen (wie Agrawal & Arafat anmerkten). Die verantwortungsvolle Nutzung von NAS-optimierten Drohnen in der Landwirtschaft ist ein wichtiges Ziel für die Zukunft.

Schlussfolgerung

Einsatzorientiertes NAS stellt einen leistungsstarken Ansatz zur Anpassung ressourcenschonender Objektdetektoren für die UAV-gestützte Pflanzenüberwachung dar. Durch die Integration von UAV-Hardware und Missionsbeschränkungen in die Suche entstehen Modelle, die Rechenleistung und Energie sparen, ohne die Genauigkeit wesentlich zu beeinträchtigen. Beispielsweise zeigte eine aktuelle Studie, dass ein NAS-basierter Detektor 37% weniger FLOPs und 61% weniger Parameter als der Referenzdetektor YOLOv8n benötigt, dessen mittlere absolute Genauigkeit (mAP) jedoch nur um etwa 2% sinkt.

Auf der konkreten Drohnenhardware bedeutete dies eine um 28% schnellere Inferenz und eine um 18% höhere Energieeffizienz. Diese Verbesserungen führen zu längeren Flugzeiten, schnelleren Analysen und einer reaktionsschnelleren Unterstützung in der Landwirtschaft. Im Vergleich zu manuell erstellten Modellen bietet das einsatzorientierte NAS eine bessere Generalisierung der Leistung, einen geringeren manuellen Optimierungsaufwand und Skalierbarkeit auf neue UAV-Plattformen.

Im Kontext der Präzisionslandwirtschaft können diese Verbesserungen die Überwachung von Nutzpflanzen mittels UAVs praktischer und effektiver gestalten. Drohnen mit NAS-optimierten Detektoren erkennen Unkraut, Schädlinge und Stressfaktoren zuverlässiger und ermöglichen so rechtzeitige Eingriffe, die Ressourcen schonen und Erträge steigern. Da die Landwirtschaft zunehmend auf Drohnen und KI setzt, spielt ein einsatzorientiertes NAS eine zentrale Rolle, um sicherzustellen, dass die auf diesen Drohnen laufenden Modelle effizient, präzise und praxistauglich sind. Es schließt die Lücke zwischen modernster Forschung im Bereich neuronaler Netze und den praktischen Bedürfnissen der Landwirte und trägt so zur Weiterentwicklung der datengestützten Präzisionslandwirtschaft bei.

Leichtgewichtige YOLOv5-Detektion gibt dem Gerstenanbau Auftrieb

Hochlandgerste, eine widerstandsfähige Getreideart, die in den hochgelegenen Regionen des chinesischen Qinghai-Tibet-Plateaus angebaut wird, spielt eine entscheidende Rolle für die lokale Ernährungssicherheit und wirtschaftliche Stabilität. Wissenschaftlich bekannt als Hordeum vulgare L. gedeiht diese Pflanze unter extremen Bedingungen - dünne Luft, geringer Sauerstoffgehalt und eine durchschnittliche Jahrestemperatur von 6,3 °C - und ist daher für Gemeinschaften in rauen Umgebungen unverzichtbar.

Mit über 270.000 Hektar Anbaufläche in China, vor allem in der autonomen Region Xizang, macht die Hochlandgerste mehr als die Hälfte der Anbaufläche der Region und über 70% der gesamten Getreideproduktion aus. Eine genaue Überwachung der Gerstendichte - die Anzahl der Pflanzen oder Ähren pro Flächeneinheit - ist für die Optimierung landwirtschaftlicher Verfahren wie Bewässerung und Düngung sowie für die Vorhersage von Erträgen unerlässlich.

Herkömmliche Methoden wie manuelle Stichproben oder Satellitenaufnahmen haben sich jedoch als ineffizient, arbeitsintensiv oder unzureichend detailliert erwiesen. Um diese Herausforderungen zu bewältigen, haben Forscher der Fujian Agriculture and Forestry University und der Chengdu University of Technology ein innovatives KI-Modell entwickelt, das auf YOLOv5 basiert, einem hochmodernen Algorithmus zur Objekterkennung.

Ihre Arbeit, veröffentlicht in Pflanzliche Methoden (2025) erzielten bemerkenswerte Ergebnisse, darunter eine mittlere durchschnittliche Genauigkeit (mAP) von 93,1% - eine Kennzahl zur Messung der allgemeinen Erkennungsgenauigkeit - und eine Verringerung der Rechenkosten um 75,6%, was sie für den Einsatz von Drohnen in Echtzeit geeignet macht.

Herausforderungen und Innovationen bei der Überwachung von Kulturpflanzen

Die Bedeutung der Hochlandgerste geht über ihre Rolle als Nahrungsquelle hinaus. Allein im Jahr 2022 wurden in der Stadt Rikaze, einem wichtigen Gerstenanbaugebiet, auf 60.000 Hektar 408.900 Tonnen Gerste geerntet, was fast die Hälfte der gesamten Getreideproduktion Tibets ausmacht.

Trotz ihrer kulturellen und wirtschaftlichen Bedeutung war die Schätzung der Gerstenerträge lange Zeit eine Herausforderung. Herkömmliche Methoden wie die manuelle Zählung oder Satellitenbilder sind entweder zu arbeitsintensiv oder haben nicht die nötige Auflösung, um einzelne Gerstenähren - den korntragenden Teil der Pflanze, der oft nur 2-3 Zentimeter breit ist - zu erkennen.

Bei der manuellen Probenahme müssen die Landwirte Abschnitte eines Feldes physisch inspizieren - ein Prozess, der langsam, subjektiv und für Großbetriebe unpraktisch ist. Satellitenbilder sind zwar für breit angelegte Beobachtungen nützlich, haben aber mit einer geringen Auflösung (oft 10-30 Meter pro Pixel) und häufigen Wetterunterbrechungen zu kämpfen, z. B. durch Wolken in Bergregionen wie Tibet.

Um diese Einschränkungen zu überwinden, setzten die Forscher unbemannte Luftfahrzeuge (UAVs) oder Drohnen ein, die mit 20-Megapixel-Kameras ausgestattet sind. Diese Drohnen nahmen 501 hochauflösende Bilder von Gerstenfeldern in Rikaze City in zwei kritischen Wachstumsstadien auf: dem Wachstumsstadium im August 2022, das durch grüne, sich entwickelnde Ähren gekennzeichnet ist, und dem Reifestadium im August 2023, das durch goldgelbe, erntereife Ähren gekennzeichnet ist.

Drohnengestützte Überwachung von Gerstenfeldern in der Stadt Rikaze

Die Analyse dieser Bilder war jedoch mit einigen Herausforderungen verbunden, wie z. B. unscharfe Ränder durch die Bewegung der Drohne, die geringe Größe der Gerstenähren in den Luftbildern und sich überlappende Ähren in dicht bepflanzten Feldern.

Um diese Probleme zu beheben, haben die Forscher die Bilder vorverarbeitet, indem sie jedes hochauflösende Bild in 35 kleinere Teilbilder unterteilt und unscharfe Kanten herausgefiltert haben, so dass 2.970 qualitativ hochwertige Teilbilder für das Training zur Verfügung standen. Dieser Vorverarbeitungsschritt stellte sicher, dass sich das Modell auf klare, verwertbare Daten konzentrierte und Ablenkungen durch minderwertige Regionen vermieden wurden.

Technische Fortschritte bei der Objekterkennung

Im Mittelpunkt dieser Forschung steht der YOLOv5-Algorithmus (You Only Look Once Version 5), ein einstufiges Objekterkennungsmodell, das für seine Geschwindigkeit und seinen modularen Aufbau bekannt ist. Im Gegensatz zu älteren zweistufigen Modellen wie Faster R-CNN, bei denen zunächst interessierende Regionen identifiziert und dann Objekte klassifiziert werden, führt YOLOv5 die Erkennung in einem einzigen Durchgang durch und ist damit deutlich schneller.

Das YOLOv5n-Basismodell mit 1,76 Millionen Parametern (konfigurierbare Komponenten des KI-Modells) und 4,1 Milliarden FLOPs (Gleitkommaoperationen, ein Maß für die Rechenkomplexität) war bereits effizient. Die Erkennung winziger, sich überlappender Gerstenähren erforderte jedoch weitere Optimierungen.

Das Forschungsteam führte drei wichtige Verbesserungen des Modells ein: tiefenweise trennbare Faltung (DSConv), Geisterfaltung (GhostConv) und ein Faltungsblock-Attention-Modul (CBAM).

Die tiefenweise trennbare Faltung (DSConv) reduziert die Rechenkosten, indem sie den Standardfaltungsprozess - eine mathematische Operation, die Merkmale aus Bildern extrahiert - in zwei Schritte aufteilt. Zunächst werden bei der tiefenweisen Faltung Filter auf einzelne Farbkanäle (z. B. Rot, Grün, Blau) angewendet, wobei jeder Kanal separat analysiert wird.

Anschließend erfolgt eine punktweise Faltung, bei der die Ergebnisse kanalübergreifend mit 1×1-Kernen kombiniert werden. Dieser Ansatz verringert die Anzahl der Parameter um bis zu 75%.

Parameterreduzierung bei der tiefenmäßig trennbaren Faltung

Eine herkömmliche 3×3-Faltung mit 64 Eingangs- und 128 Ausgangskanälen erfordert beispielsweise 73.728 Parameter, während DSConv diese Zahl auf nur 8.768 reduziert - eine Verringerung um 88%. Diese Effizienz ist entscheidend für den Einsatz von Modellen auf Drohnen oder mobilen Geräten mit begrenzter Rechenleistung.

Ghost Convolution (GhostConv) vereinfacht das Modell weiter, indem es zusätzliche Feature Maps - vereinfachte Darstellungen von Bildmustern - durch einfache lineare Operationen wie Rotation oder Skalierung anstelle von ressourcenintensiven Faltungen erzeugt.

Herkömmliche Faltungsschichten erzeugen redundante Merkmale und verschwenden damit Rechenressourcen. GhostConv behebt dieses Problem, indem es “Geister”-Features aus bestehenden Features erzeugt und die Parameter in bestimmten Schichten effektiv halbiert.

Eine Schicht mit 64 Eingangs- und 128 Ausgangskanälen würde zum Beispiel traditionell Folgendes erfordern 73.728 Parameter, aber GhostConv reduziert dies auf 36,864 unter Beibehaltung der Genauigkeit. Diese Technik ist besonders nützlich für die Erkennung kleiner Objekte wie Gerstenähren, bei denen die Effizienz der Berechnungen von größter Bedeutung ist.

Das Convolutional Block Attention Module (CBAM) wurde integriert, um dem Modell zu helfen, sich auf kritische Merkmale zu konzentrieren, selbst in unübersichtlichen Umgebungen. Aufmerksamkeitsmechanismen, die von menschlichen visuellen Systemen inspiriert sind, ermöglichen es KI-Modellen, wichtigen Teilen eines Bildes Priorität einzuräumen.

CBAM verwendet zwei Arten von Aufmerksamkeit: Kanalaufmerksamkeit, die wichtige Farbkanäle identifiziert (z. B. Grün für wachsende Spikes), und räumliche Aufmerksamkeit, die Schlüsselregionen innerhalb eines Bildes hervorhebt (z. B. Cluster von Spikes). Durch den Ersatz von Standardmodulen durch DSConv und GhostConv und die Einbeziehung von CBAM schufen die Forscher ein schlankeres, präziseres Modell, das auf die Gerstenerkennung zugeschnitten ist.

Umsetzung und Ergebnisse

Um das Modell zu trainieren, beschrifteten die Forscher 135 Originalbilder manuell mit Bounding Boxes - rechteckigen Rahmen, die die Position der Gerstenähren markieren - und kategorisierten dieähren in Wachstums- und Reifestadien. Durch Techniken zur Datenerweiterung - einschließlich Rotation, Rauschinjektion, Okklusion und Schärfung - wurde der Datensatz auf 2.970 Bilder erweitert, wodurch sich die Fähigkeit des Modells zur Verallgemeinerung unter verschiedenen Feldbedingungen verbesserte.

Beispielsweise half das Drehen von Bildern um 90°, 180° oder 270° dem Modell, Spikes aus verschiedenen Winkeln zu erkennen, während das Hinzufügen von Rauschen reale Unvollkommenheiten wie Staub oder Schatten simulierte. Der Datensatz wurde in einen Trainingssatz (80%) und einen Validierungssatz (20%) aufgeteilt, um eine robuste Auswertung zu gewährleisten.

Das Training fand auf einem Hochleistungssystem mit AMD Ryzen 7 CPU, NVIDIA RTX 4060 GPU und 64 GB RAM statt, wobei das PyTorch-Framework - ein beliebtes Tool für Deep Learning - verwendet wurde. Über 300 Trainingsepochen (vollständige Durchläufe des Datensatzes) wurden die Präzision (Genauigkeit der korrekten Erkennungen), der Recall (Fähigkeit, alle relevanten Spikes zu finden) und der Verlust (Fehlerrate) des Modells genauestens verfolgt.

Die Ergebnisse waren beeindruckend. Das verbesserte YOLOv5-Modell erreichte eine Genauigkeit von 92,2% (gegenüber 89,1% im Basismodell) und eine Wiederauffindbarkeit von 86,2% (gegenüber 83,1%) und übertraf damit das Basismodell YOLOv5n in beiden Metriken um 3,1%. Die mittlere durchschnittliche Präzision (mAP) - eine umfassende Metrik, die die Erkennungsgenauigkeit über alle Kategorien hinweg mittelt - erreichte 93,1%, mit Einzelergebnissen von 92,7% für Spikes im Wachstumsstadium und 93,5% für Spikes im Reifungsstadium.

YOLOv5 Modell Trainingsergebnisse

Ebenso beeindruckend war seine Recheneffizienz: Die Parameter des Modells sanken um 70,6% auf 1,2 Millionen und die FLOPs um 75,6% auf 3,1 Milliarden. Vergleichende Analysen mit führenden Modellen wie Faster R-CNN und YOLOv8n unterstrichen seine Überlegenheit.

Während YOLOv8n eine etwas höhere mAP (93,8%) erreichte, waren seine Parameter (3,0 Millionen) und FLOPs (8,1 Milliarden) 2,5x bzw. 2,6x höher, wodurch das vorgeschlagene Modell für Echtzeitanwendungen weitaus effizienter ist.

Visuelle Vergleiche untermauerten diese Fortschritte. In den Bildern des Wachstumsstadiums erkannte das verbesserte Modell 41 Spikes im Vergleich zu 28 Spikes des Basismodells. Während der Reifung erkannte es 3 Spikes im Vergleich zu 2 Spikes des Basismodells, wobei weniger Fehlerkennungen (markiert durch orangefarbene Pfeile) und falsch-positive Ergebnisse (markiert durch lila Pfeile) auftraten.

Diese Verbesserungen sind entscheidend für Landwirte, die auf genaue Daten angewiesen sind, um Erträge vorherzusagen und Ressourcen zu optimieren. Genaue Ährenzählungen ermöglichen zum Beispiel bessere Schätzungen der Getreideproduktion und liefern Informationen für Entscheidungen über Erntezeitpunkt, Lagerung und Marktplanung.

Zukünftige Richtungen und praktische Implikationen

Trotz des Erfolges räumte die Studie Einschränkungen ein. Die Leistung ließ bei extremen Lichtverhältnissen nach, z. B. bei grellem Mittagsblendlicht oder starken Schatten, die Details der Spikes verdecken können. Außerdem passten die rechteckigen Bounding Boxes manchmal nicht zu den unregelmäßig geformten Spikes, was zu kleineren Ungenauigkeiten führte.

Das Modell schloss auch unscharfe Kanten von UAV-Bildern aus, was eine manuelle Vorverarbeitung erforderte - ein Schritt, der Zeit und Komplexität bedeutet.

Zukünftige Arbeiten zielen darauf ab, diese Probleme zu lösen, indem der Datensatz um Bilder erweitert wird, die in der Morgen-, Mittags- und Abenddämmerung aufgenommen wurden, indem mit polygonförmigen Anmerkungen experimentiert wird (flexible Formen, die besser zu unregelmäßigen Objekten passen), und indem Algorithmen entwickelt werden, die unscharfe Regionen ohne manuelle Eingriffe besser behandeln.

Die Auswirkungen dieser Forschung sind tiefgreifend. Für Landwirte in Regionen wie Tibet bietet das Modell eine Echtzeit-Ertragsschätzung, die arbeitsintensive manuelle Zählungen durch dronenbasierte Automatisierung ersetzt. Die Unterscheidung zwischen den Wachstumsstadien ermöglicht eine präzise Ernteplanung, wodurch Verluste durch verfrühte oder verspätete Ernte reduziert werden.

Detaillierte Daten über die Ährendichte - z. B. zur Identifizierung von unter- oder überbesiedelten Gebieten - können Informationen über Bewässerungs- und Düngestrategien liefern und so die Verschwendung von Wasser und Chemikalien reduzieren. Die leichtgewichtige Architektur ist nicht nur für Gerste, sondern auch für andere Kulturpflanzen wie Weizen, Reis oder Obst vielversprechend und ebnet den Weg für breitere Anwendungen in der Präzisionslandwirtschaft.

Schlussfolgerung

Zusammenfassend lässt sich sagen, dass diese Studie ein Beispiel für das transformative Potenzial der KI bei der Bewältigung landwirtschaftlicher Herausforderungen ist. Durch die Verfeinerung von YOLOv5 mit innovativen, leichtgewichtigen Techniken haben die Forscher ein Werkzeug geschaffen, das ein Gleichgewicht zwischen Genauigkeit und Effizienz herstellt - entscheidend für den realen Einsatz in ressourcenbeschränkten Umgebungen.

Begriffe wie mAP, FLOPs und Aufmerksamkeitsmechanismen mögen technisch anmuten, aber ihre Wirkung ist zutiefst praktisch: Sie ermöglichen es den Landwirten, datengestützte Entscheidungen zu treffen, Ressourcen zu schonen und ihre Erträge zu maximieren. Angesichts des Klimawandels und des Bevölkerungswachstums, die den Druck auf die globalen Nahrungsmittelsysteme erhöhen, werden solche Fortschritte unverzichtbar sein.

Für die Landwirte in Tibet und darüber hinaus bedeutet diese Technologie nicht nur einen Sprung in der landwirtschaftlichen Effizienz, sondern auch einen Hoffnungsschimmer für eine nachhaltige Ernährungssicherheit in einer ungewissen Zukunft.

Referenz: Cai, M., Deng, H., Cai, J. et al. Lightweight highland barley detection based on improved YOLOv5. Plant Methods 21, 42 (2025). https://doi.org/10.1186/s13007-025-01353-0

CMTNet definiert die Präzisionslandwirtschaft neu, indem es die herkömmliche Klassifizierung von Kulturpflanzen übertrifft

Eine genaue Pflanzenklassifizierung ist für die moderne Präzisionslandwirtschaft unerlässlich, da sie den Landwirten die Überwachung der Pflanzengesundheit, die Vorhersage von Erträgen und die effiziente Zuweisung von Ressourcen ermöglicht. Herkömmliche Methoden haben jedoch oft mit der Komplexität landwirtschaftlicher Umgebungen zu kämpfen, in denen sich die Arten, Wachstumsstadien und Spektralsignaturen von Nutzpflanzen stark unterscheiden.

Was ist Hyperspectral Imaging und CMTNet Framework?

Die hyperspektrale Bildgebung (HSI), eine Technologie, die Daten in Hunderten von schmalen, zusammenhängenden Wellenlängenbändern erfasst, hat sich in diesem Bereich als bahnbrechende Neuerung erwiesen. Im Gegensatz zu herkömmlichen RGB-Kameras oder multispektralen Sensoren, die Daten in einigen wenigen breiten Bändern erfassen, liefert HSI einen detaillierten “spektralen Fingerabdruck” für jedes Pixel.

So reflektiert beispielsweise eine gesunde Vegetation aufgrund der Chlorophyllaktivität stark Licht im nahen Infrarotbereich, während gestresste Pflanzen deutliche Absorptionsmuster aufweisen. Durch die Aufzeichnung dieser subtilen Variationen (von 400 bis 1.000 Nanometern) bei hoher räumlicher Auflösung (bis zu 0,043 Meter) ermöglicht HSI eine präzise Unterscheidung von Pflanzenarten, die Erkennung von Krankheiten und die Bodenanalyse.

Trotz dieser Vorteile stehen die bestehenden Verfahren vor der Herausforderung, lokale Details, wie Blatttextur oder Bodenmuster, mit globalen Mustern, wie z. B. der großflächigen Verteilung von Pflanzen, in Einklang zu bringen. Diese Einschränkung wird besonders bei verrauschten oder unausgewogenen Datensätzen deutlich, bei denen subtile spektrale Unterschiede zwischen Pflanzen zu Fehlklassifizierungen führen können.

Um diese Herausforderungen zu bewältigen, entwickelten die Forscher CMTNet (Convolutional Meets Transformer Network), ein neuartiges Deep Learning Framework, das die Stärken von Convolutional Neural Networks (CNNs) und Transformers kombiniert. CNNs sind eine Klasse neuronaler Netze, die für die Verarbeitung gitterartiger Daten, wie z. B. Bilder, entwickelt wurden. Dabei werden Filterschichten verwendet, die räumliche Hierarchien (z. B. Kanten, Texturen) erkennen.

CMTNet Architektur und Leistung

Transformatoren, die ursprünglich für die Verarbeitung natürlicher Sprache entwickelt wurden, nutzen Mechanismen der Selbstbeobachtung, um weitreichende Abhängigkeiten in Daten zu modellieren, und sind somit in der Lage, globale Muster zu erfassen. Im Gegensatz zu früheren Modellen, die lokale und globale Merkmale sequentiell verarbeiten, nutzt CMTNet eine parallele Architektur, um beide Arten von Informationen gleichzeitig zu extrahieren.

Dieser Ansatz hat sich als äußerst effektiv erwiesen, da er bei drei großen UAV-basierten HSI-Datensätzen die höchste Genauigkeit erreichte. Im WHU-Hi-LongKou-Datensatz erreichte CMTNet beispielsweise eine Gesamtgenauigkeit (OA) von 99,58% und übertraf damit das bisher beste Modell um 0,19%.

Herausforderungen der traditionellen hyperspektralen Bildgebung in der landwirtschaftlichen Klassifizierung

Frühe Methoden zur Analyse von Hyperspektraldaten konzentrierten sich häufig entweder auf spektrale oder räumliche Merkmale, was zu unvollständigen Ergebnissen führte. Spektrale Verfahren wie die Hauptkomponentenanalyse (PCA) reduzierten die Komplexität der Daten, indem sie sich auf die Wellenlängeninformationen konzentrierten, aber die räumlichen Beziehungen zwischen den Pixeln ignorierten.

Die PCA zum Beispiel wandelt hochdimensionale Spektraldaten in weniger Komponenten um, die die meiste Varianz erklären, und vereinfacht so die Analyse. Dieser Ansatz lässt jedoch den räumlichen Kontext außer Acht, etwa die Anordnung der Pflanzen auf einem Feld. Umgekehrt heben räumliche Methoden wie mathematische Morphologieoperatoren Muster in der physischen Anordnung der Pflanzen hervor, übersehen aber kritische spektrale Details.

Die mathematische Morphologie verwendet Operationen wie Dilatation und Erosion, um Formen und Strukturen aus Bildern zu extrahieren, z. B. die Grenzen zwischen Feldern. Im Laufe der Zeit verbesserten Faltungsneuronale Netze (CNN) die Klassifizierung, indem sie beide Arten von Daten verarbeiteten.

Ihre begrenzten rezeptiven Felder - der Bereich eines Bildes, den ein Netzwerk auf einmal “sehen” kann - schränken jedoch ihre Fähigkeit ein, weitreichende Abhängigkeiten zu erfassen. So könnte ein 3D-CNN beispielsweise Schwierigkeiten haben, zwischen zwei Sojabohnensorten mit ähnlichen Spektralprofilen, aber unterschiedlichen Wachstumsmustern auf einem großen Feld zu unterscheiden.

Transformers, eine Art neuronales Netz, das ursprünglich für die Verarbeitung natürlicher Sprache entwickelt wurde, bot eine Lösung für dieses Problem. Durch den Einsatz von Mechanismen der Selbstaufmerksamkeit zeichnen sich Transformers durch die Modellierung globaler Beziehungen in Daten aus. Die Selbstaufmerksamkeit ermöglicht es dem Modell, die Bedeutung verschiedener Teile einer Eingabesequenz abzuwägen, so dass es sich auf relevante Regionen konzentrieren kann (z. B. eine Gruppe kranker Pflanzen), während es Störungen (z. B. Wolkenschatten) ignoriert.

Allerdings entgehen ihnen oft feinkörnige lokale Details, wie z. B. die Ränder von Blättern oder Bodenrisse. Hybride Modelle wie CTMixer versuchten, CNNs und Transformers zu kombinieren, verarbeiteten dabei aber zuerst lokale und erst später globale Merkmale. Dieser Ansatz führte zu einer ineffizienten Fusion von Informationen und einer suboptimalen Leistung in komplexen landwirtschaftlichen Umgebungen.

Wie CMTNet funktioniert: Eine Brücke zwischen lokalen und globalen Funktionen

CMTNet überwindet diese Einschränkungen durch eine einzigartige dreiteilige Architektur, die darauf ausgelegt ist, spektral-räumliche, lokale und globale Merkmale effektiv zu extrahieren und zu verschmelzen.

1. Die erste Komponente, der Modul zur Extraktion spektral-räumlicher Merkmale, verarbeitet HSI-Rohdaten mit 3D- und 2D-Faltungsschichten.

Die 3D-Faltungsschichten analysieren sowohl die räumliche (Höhe × Breite) als auch die spektrale (Wellenlänge) Dimension gleichzeitig und erfassen so Muster wie die Reflexion bestimmter Wellenlängen in einem Pflanzendach. Ein 3D-Kernel könnte zum Beispiel erkennen, dass gesunder Mais in den oberen Blättern mehr Nahinfrarotlicht reflektiert als in den unteren.

Die 2D-Ebenen verfeinern dann diese Merkmale und konzentrieren sich auf räumliche Details wie die Anordnung der Pflanzen in einem Feld. Dieser zweistufige Prozess stellt sicher, dass sowohl die spektrale Vielfalt (z. B. der Chlorophyllgehalt) als auch der räumliche Kontext (z. B. die Reihenabstände) erhalten bleiben.

2. Die zweite Komponente, der Modul für die lokal-globale Merkmalsextraktion, arbeitet parallel. Ein Zweig verwendet CNNs, um sich auf lokale Details zu konzentrieren, wie die Textur einzelner Blätter oder die Form von Bodenflecken. Diese Merkmale sind entscheidend für die Identifizierung von Arten mit ähnlichen Spektralprofilen, wie z. B. verschiedene Sojabohnensorten.

Der andere Zweig verwendet Transformers, um globale Beziehungen zu modellieren, z. B. wie Pflanzen über große Flächen verteilt sind oder wie Schatten von nahe gelegenen Bäumen die Spektralmessungen beeinflussen. Durch die gleichzeitige und nicht sequentielle Verarbeitung dieser Merkmale vermeidet CMTNet den Informationsverlust, der bei früheren Hybridmodellen auftritt.

Während der CNN-Zweig beispielsweise die gezackten Ränder von Baumwollblättern identifiziert, erkennt der Transformer-Zweig, dass diese Blätter Teil eines größeren Baumwollfeldes sind, das von Sesampflanzen umgeben ist.

3. Die dritte Komponente, der Multi-Ausgangsbeschränkungsmodul, gewährleistet ein ausgewogenes Lernen über lokale, globale und fusionierte Merkmale. Während des Trainings werden separate Verlustfunktionen auf jede Art von Merkmal angewandt, wodurch das Netz gezwungen wird, alle Aspekte seines Verständnisses zu verfeinern.

Eine Verlustfunktion quantifiziert die Differenz zwischen den vorhergesagten und den tatsächlichen Werten und leitet die Anpassungen des Modells. Beispielsweise könnte der Verlust für lokale Merkmale das Modell für die falsche Klassifizierung von Blatträndern bestrafen, während der globale Verlust Fehler in der großräumigen Pflanzenverteilung korrigiert.

Diese Verluste werden mit Hilfe von Gewichten kombiniert, die durch eine Zufallssuche optimiert werden - eine Technik, die verschiedene Gewichtskombinationen testet, um die Genauigkeit zu maximieren. Das Ergebnis dieses Prozesses ist ein robustes und anpassungsfähiges Modell, das sich für verschiedene landwirtschaftliche Szenarien eignet.

Bewertung der CMTNet-Leistung bei UAV-Hyperspektraldatensätzen

Um CMTNet zu bewerten, testeten die Forscher es mit drei per UAV aufgenommenen Hyperspektraldatensätzen der Universität Wuhan. Diese Datensätze sind aufgrund ihrer hohen Qualität und Vielfalt weit verbreitete Benchmarks in der Fernerkundung:

  1. WHU-Hi-LongKou: Dieser Datensatz umfasst 550 × 400 Pixel mit 270 Spektralbändern und einer räumlichen Auflösung von 0,463 Metern. Eine räumliche Auflösung von 0,463 m bedeutet, dass jedes Pixel eine Fläche von 0,463 m × 0,463 m auf dem Boden darstellt und die Identifizierung einzelner Pflanzen ermöglicht. Es umfasst neun Kulturpflanzenarten, wie Mais, Baumwolle und Reis, mit 1.019 Trainingsproben und 203.523 Testproben.
  2. WHU-Hi-HanChuan: Mit 1.217 × 303 Pixeln bei einer Auflösung von 0,109 Metern enthält dieser Datensatz 16 Bodenbedeckungstypen, darunter Erdbeeren, Sojabohnen und Plastikplanen. Die höhere Auflösung (0,109 m) ermöglicht feinere Details, wie die Unterscheidung zwischen jungen und reifen Sojapflanzen. Die Trainings- und Testproben umfassten insgesamt 1.289 bzw. 256.241.
  3. WHU-Hi-HongHu: Mit 940 × 475 Pixeln und 270 Bändern umfasst dieser hochauflösende (0,043 m) Datensatz 22 Klassen, wie Baumwolle, Raps und Knoblauchsprossen. Bei einer Auflösung von 0,043 m sind einzelne Blätter und Bodenrisse sichtbar, was ihn ideal für eine feinkörnige Klassifizierung macht. Er enthält 1.925 Trainingsmuster und 384.678 Testmuster.

Vergleich von hochauflösenden Fernerkundungsdatensätzen

Das Modell wurde auf NVIDIA TITAN Xp GPUs mit PyTorch trainiert, mit einer Lernrate von 0,001 und einer Stapelgröße von 100. Die Lernrate bestimmt, wie stark das Modell seine Parameter während des Trainings anpasst - ist sie zu hoch, kann es zu einer Überschreitung der optimalen Werte kommen, ist sie zu niedrig, wird das Training träge.

Jedes Experiment wurde zehnmal wiederholt, um die Zuverlässigkeit zu gewährleisten, und die Eingabefelder - kleine Segmente des gesamten Bildes - wurden durch Rastersuche auf 13 × 13 Pixel optimiert, eine Methode, bei der verschiedene Feldgrößen getestet werden, um die effektivste zu finden.

CMTNet erreicht modernste Genauigkeit bei der Klassifizierung von Kulturpflanzen

CMTNet erzielte in allen Datensätzen bemerkenswerte Ergebnisse und übertraf die bestehenden Methoden sowohl bei der Gesamtgenauigkeit (OA) als auch bei der klassenspezifischen Leistung. OA misst den Prozentsatz der korrekt klassifizierten Pixel über alle Klassen hinweg, während die durchschnittliche Genauigkeit (AA) die durchschnittliche Genauigkeit pro Klasse berechnet und Ungleichgewichte berücksichtigt.

Auf dem WHU-Hi-LongKou-Datensatz erreichte CMTNet eine OA von 99,58% und übertraf damit CTMixer um 0,19%. Bei schwierigen Klassen mit begrenzten Trainingsdaten, wie Baumwolle (41 Proben), erreichte CMTNet immer noch eine Genauigkeit von 99,53%. In ähnlicher Weise verbesserte CMTNet im WHU-Hi-HanChuan-Datensatz die Genauigkeit für Wassermelone (22 Proben) von 82,42% auf 96,11% und bewies damit seine Fähigkeit, unausgewogene Daten durch effektive Merkmalsfusion zu verarbeiten.

Visuelle Vergleiche der Klassifizierungskarten zeigten, dass im Vergleich zu Modellen wie 3D-CNN und Vision Transformer (ViT) weniger fragmentierte Flecken und glattere Grenzen zwischen Feldern zu finden waren. Im schattenanfälligen WHU-Hi-HanChuan-Datensatz minimierte CMTNet beispielsweise die durch niedrige Sonnenwinkel verursachten Fehler, während ResNet Sojabohnen als graue Dächer falsch klassifizierte.

Leistung von CMTNet bei verschiedenen Datensätzen

Schatten stellen eine besondere Herausforderung dar, da sie die spektralen Signaturen verändern - Sojapflanzen im Schatten reflektieren möglicherweise weniger Nahinfrarotlicht und ähneln damit einer Nichtvegetation. Durch die Nutzung des globalen Kontexts erkannte CMTNet, dass diese schattigen Pflanzen Teil eines größeren Sojabohnenfeldes waren, wodurch Fehler reduziert wurden.

Im WHU-Hi-HongHu-Datensatz zeichnete sich das Modell bei der Unterscheidung spektral ähnlicher Pflanzen, wie z. B. verschiedener Brassica-Sorten, aus und erreichte eine Genauigkeit von 96,54% für Brassica parachinensis.

Ablationsstudien - Experimente, bei denen Komponenten entfernt werden, um ihre Auswirkungen zu bewerten - bestätigten die Bedeutung der einzelnen Module. Allein die Hinzufügung des Moduls "Multi-Output Constraint" steigerte die OA bei WHU-Hi-HongHu um 1,52%, was seine Rolle bei der Verfeinerung der Merkmalsfusion unterstreicht. Ohne dieses Modul wurden lokale und globale Merkmale willkürlich kombiniert, was zu inkonsistenten Klassifizierungen führte.

Rechnerische Abwägungen und praktische Überlegungen

Während die Genauigkeit von CMTNet unübertroffen ist, ist der Rechenaufwand höher als bei herkömmlichen Methoden. Das Training auf dem WHU-Hi-HongHu-Datensatz dauerte 1.885 Sekunden, verglichen mit 74 Sekunden für Random Forest (RF), einem Algorithmus für maschinelles Lernen, der während des Trainings Entscheidungsbäume erstellt.

Dieser Kompromiss ist jedoch in der Präzisionslandwirtschaft gerechtfertigt, wo sich die Genauigkeit direkt auf die Ertragsvorhersage und die Ressourcenzuweisung auswirkt. Wird beispielsweise eine kranke Pflanze fälschlicherweise als gesund eingestuft, kann dies zu einem unkontrollierten Ausbruch von Schädlingen führen und ganze Felder verwüsten.

Für Echtzeitanwendungen könnten in Zukunft Techniken zur Modellkomprimierung erforscht werden, z. B. das Beschneiden überflüssiger Neuronen oder die Quantisierung von Gewichten (Verringerung der numerischen Präzision), um die Laufzeit ohne Leistungseinbußen zu verkürzen. Beim Pruning werden weniger wichtige Verbindungen aus dem neuronalen Netz entfernt, ähnlich wie beim Beschneiden von Ästen eines Baumes, um dessen Form zu verbessern, während die Quantisierung numerische Berechnungen vereinfacht und die Verarbeitung beschleunigt.

Zukunft der hyperspektralen Klassifizierung von Kulturpflanzen mit CMTNet

Trotz seines Erfolgs stößt CMTNet an Grenzen. Die Leistung sinkt leicht in stark schattigen Regionen, wie im WHU-Hi-HanChuan-Datensatz zu sehen ist (97,29% OA vs. 99,58% im gut beleuchteten LongKou). Schatten erschweren die Klassifizierung, da sie die Intensität des reflektierten Lichts verringern und die Spektralprofile verändern.

Darüber hinaus bleiben Klassen mit extrem kleinen Trainingsstichproben, wie z. B. schmalblättrige Sojabohnen (20 Stichproben), hinter denen mit reichlich Daten zurück. Kleine Stichprobengrößen schränken die Fähigkeit des Modells ein, verschiedene Variationen zu erlernen, wie z. B. Unterschiede in der Blattform aufgrund der Bodenqualität.

Künftige Forschungsarbeiten könnten multimodale Daten wie LiDAR-Höhenkarten oder Wärmebilder integrieren, um die Widerstandsfähigkeit gegenüber Schatten und Verdeckungen zu verbessern. LiDAR (Light Detection and Ranging) verwendet Laserimpulse zur Erstellung von 3D-Geländemodellen, die durch die Analyse von Höhenunterschieden helfen könnten, Pflanzen von Schatten zu unterscheiden.

Darüber hinaus erfasst die Wärmebildtechnik Wärmesignaturen, die zusätzliche Hinweise auf den Gesundheitszustand der Pflanzen liefern - gestresste Pflanzen haben aufgrund der verringerten Transpiration oft höhere Temperaturen in der Baumkrone. Semi-überwachte Lerntechniken, die unmarkierte Daten nutzen (z. B. UAV-Bilder ohne manuelle Anmerkungen), könnten die Leistung bei seltenen Pflanzenarten ebenfalls verbessern.

Durch den Einsatz von Konsistenzregulierung - Training des Modells, um stabile Vorhersagen über leicht veränderte Versionen desselben Bildes hinweg zu erzeugen - können Forscher unbeschriftete Daten nutzen, um die Generalisierung zu verbessern.

Schließlich könnte der Einsatz von CMTNet auf Edge-Geräten wie Drohnen, die mit integrierten Grafikprozessoren ausgestattet sind, eine Echtzeitüberwachung in abgelegenen Gebieten ermöglichen. Durch den Edge-Einsatz wird die Abhängigkeit vom Cloud-Computing verringert, wodurch Latenzzeiten und Datenübertragungskosten minimiert werden. Dies erfordert jedoch eine Optimierung des Modells für begrenzten Speicher und begrenzte Verarbeitungsleistung, möglicherweise durch leichtgewichtige Architekturen wie MobileNet oder Wissensdestillation, bei der ein kleineres “Schüler”-Modell ein größeres “Lehrermodell” nachahmt.

Schlussfolgerung

CMTNet stellt einen bedeutenden Fortschritt bei der Klassifizierung hyperspektraler Pflanzen dar. Durch die Harmonisierung von CNNs und Transformatoren löst es seit langem bestehende Herausforderungen bei der Merkmalsextraktion und -fusion und bietet Landwirten und Agronomen ein leistungsstarkes Werkzeug für die Präzisionslandwirtschaft.

Die Anwendungen reichen von der Erkennung von Krankheiten in Echtzeit bis hin zur Optimierung von Bewässerungsplänen, die angesichts des Klimawandels und des Bevölkerungswachstums für eine nachhaltige Landwirtschaft von entscheidender Bedeutung sind. In dem Maße, in dem die UAV-Technologie zugänglicher wird, werden Modelle wie CMTNet eine entscheidende Rolle für die globale Ernährungssicherheit spielen.

Künftige Fortschritte, wie leichtere Architekturen und multimodale Datenfusion, könnten ihre Praxistauglichkeit weiter erhöhen. Bei fortgesetzter Innovation könnte CMTNet zu einem Eckpfeiler intelligenter Landwirtschaftssysteme weltweit werden, die eine effiziente Landnutzung und eine widerstandsfähige Nahrungsmittelproduktion für künftige Generationen gewährleisten.

Referenz: Guo, X., Feng, Q. & Guo, F. CMTNet: a hybrid CNN-transformer network for UAV-based hyperspectral crop classification in precision agriculture. Sci Rep 15, 12383 (2025). https://doi.org/10.1038/s41598-025-97052-w

Die Rolle von Deep-Learning-Anwendungen im Bereich Computer Vision für die Früherkennung von Pflanzenkrankheiten

Pflanzenkrankheiten bedrohen stillschweigend die globale Ernährungssicherheit, indem sie jährlich 10–161 Tonnen Ernteerträge vernichten und der Landwirtschaft Verluste in Höhe von 1,4 Billionen US-Dollar verursachen. Traditionelle Methoden wie manuelle Inspektionen und Labortests sind langsam, teuer und oft unzuverlässig.

Eine bahnbrechende Studie aus dem Jahr 2025, “Deep Learning und Computer Vision zur Erkennung von Pflanzenkrankheiten” (Upadhyay et al.) zeigt, wie KI-gestützte Pflanzenkrankheitserkennung und computergestützte Bildverarbeitung in der Landwirtschaft die Landwirtschaft verändern.

Warum die Früherkennung von Pflanzenkrankheiten für die globale Ernährungssicherheit wichtig ist

Die Landwirtschaft beschäftigt 281.030 der weltweiten Arbeitskräfte, wobei Länder wie Indien, China und die USA führend in der Pflanzenproduktion sind. Trotzdem führen Pflanzenkrankheiten, die durch Pilze, Bakterien und Viren verursacht werden, zu Ernteausfällen und belasten die Wirtschaft.

Beispielsweise reduziert die Reisbrandkrankheit die Ernten in betroffenen Regionen um 30–501 Tonnen, während die Zitrusvergrünung seit 2005 701 Tonnen Orangenhaine in Florida vernichtet hat. Eine Früherkennung ist entscheidend, aber vielen Landwirten fehlt der Zugang zu modernen Werkzeugen oder Fachwissen.

Hier kommt die KI-gestützte Krankheitserkennung ins Spiel, die schnelle, kostengünstige und präzise Lösungen bietet, die herkömmliche Methoden übertreffen.

Wie KI und Computer Vision Pflanzenkrankheiten erkennen

Die Studie analysierte 278 Forschungsarbeiten, um die Funktionsweise von KI-gestützten Systemen zur Erkennung von Pflanzenkrankheiten zu erklären. Zunächst erfassen Kameras oder Sensoren Bilder der Nutzpflanzen. Diese Bilder werden anschließend mithilfe von Algorithmen verarbeitet, um Krankheitsanzeichen zu identifizieren.

Zum Beispiel, RGB-Kameras Mithilfe von Farbfotos lassen sich sichtbare Symptome wie Blattflecken erkennen, während hyperspektrale Kameras durch die Analyse hunderter Lichtwellenlängen versteckte Stresssignale aufspüren.

Nach der Aufnahme werden die Bilder vorverarbeitet, um die Qualität zu verbessern. Verfahren wie die Schwellenwertsegmentierung isolieren erkrankte Bereiche anhand ihrer Farbe, und die Kantenerkennung kartiert die Grenzen von Läsionen oder Verfärbungen.

Wie KI und Computer Vision Pflanzenkrankheiten erkennen

Anschließend analysieren Deep-Learning-Modelle die vorverarbeiteten Daten. Faltungsneuronale Netze (CNNs), Die am häufigsten verwendeten KI-Tools in der Landwirtschaft scannen Bilder Schicht für Schicht, um Muster wie ungewöhnliche Texturen oder Farben zu erkennen.

In einem Prozess im Jahr 2022, ResNet50Ein beliebtes CNN-Modell erreichte eine Genauigkeit von 99,07% bei der Diagnose von Tomatenkrankheiten.

In der Zwischenzeit, Vision Transformers (ViTs) Man zerlegt Bilder in Ausschnitte und untersucht deren Beziehungen, um die menschliche Art der Kontextanalyse nachzuahmen. Dieser Ansatz trug in einer Studie aus dem Jahr 2020 dazu bei, das Aderaufhellungsvirus der Weinrebe mit einer Genauigkeit von 711 TP3T nachzuweisen.

“Die Zukunft der Landwirtschaft liegt nicht darin, den Menschen zu ersetzen, sondern darin, ihn mit intelligenten Werkzeugen auszustatten.”

Die Rolle fortschrittlicher Sensoren in der modernen Landwirtschaft

Unterschiedliche Sensoren bieten einzigartige Vorteile für die Präzisionslandwirtschaft. RGB-Kameras, Obwohl sie erschwinglich und einfach zu bedienen sind, stoßen sie bei Krankheiten im Frühstadium aufgrund begrenzter spektraler Details an ihre Grenzen. Im Gegensatz dazu, Hyperspektralkameras Sie erfassen Daten über Hunderte von Lichtwellenlängen hinweg und machen so Stresssignale sichtbar, die mit bloßem Auge nicht erkennbar sind.

Forscher nutzten beispielsweise im Jahr 2022 hyperspektrale Bildgebung, um den Apfelkrebs Valsa mit einer Genauigkeit von 98% zu diagnostizieren. Diese Kameras kosten jedoch viel Geld. 10.000–50.000, was sie für Kleinbauern zu teuer macht.

Wärmebildkameras Eine weitere Möglichkeit bietet die Messung von Temperaturveränderungen, die durch Infektionen verursacht werden. Eine Studie aus dem Jahr 2019 ergab, dass Blätter, die mit Citrus Greening infiziert sind, charakteristische Wärmemuster aufweisen, was eine Früherkennung ermöglicht.

In der Zwischenzeit, Multispektralkameras—eine Zwischenlösung—die Messung des Chlorophyllgehalts zur Beurteilung der Pflanzengesundheit.

Diese Sensoren kartierten 2014 den Gelbrostbefall des Weizens und halfen Landwirten so, Behandlungen gezielter einzusetzen. Trotz ihrer Vorteile stellen die Kosten der Sensoren und Umwelteinflüsse wie Wind oder ungleichmäßige Beleuchtung weiterhin Herausforderungen dar.

Öffentliche Datensätze: Das Rückgrat der KI-gestützten Landwirtschaft

Das Training zuverlässiger KI-Modelle erfordert riesige Mengen an gelabelten Daten. PlantVillage-Datensatz, eine kostenlose Ressource mit 87.000 Bildern von 14 Nutzpflanzen und 26 Krankheiten, ist zum Goldstandard für Forscher geworden.

Über 901.030 der in der Arbeit zitierten Studien nutzten diesen Datensatz zum Trainieren und Testen ihrer Modelle. Eine weitere wichtige Ressource ist die Maniokkrankheitsdatensatz, umfasst 11.670 Bilder der Maniokmosaikkrankheit und erreichte mit CNN-Modellen eine Genauigkeit von 96%.

Dennoch bestehen weiterhin Lücken. Für seltene Krankheiten wie den Kiefernholznematoden liegen weniger als 100 beschriftete Bilder vor, was die Erkennungsmöglichkeiten durch KI einschränkt. Zudem enthalten die meisten Datensätze im Labor aufgenommene Bilder, die reale Einflussfaktoren wie Wetter oder Lichtverhältnisse nicht berücksichtigen.

Um dem entgegenzuwirken, sammeln Projekte wie AI4Ag Bilder von Feldern von Landwirten weltweit per Crowdsourcing, mit dem Ziel, robustere und realistischere Datensätze zu erstellen.

Messung der KI-Leistung: Genauigkeit, Präzision und mehr

Leistungskennzahlen von KI-gestützten Systemen zur Erkennung von Pflanzenkrankheiten

Forscher verwenden verschiedene Kennzahlen, um KI-gestützte Systeme zur Erkennung von Pflanzenkrankheiten zu bewerten. Genauigkeit—der Prozentsatz korrekter Diagnosen— liegt zwischen 76.9% in frühen Modellen Zu 99,97% in fortschrittlichen Systemen wie EfficientNet-B5.

Genauigkeit allein kann jedoch irreführend sein. Die Präzision misst, wie viele der gemeldeten Krankheiten tatsächlich vorliegen (und vermeidet Fehlalarme), während die Trefferquote erfasst, wie viele tatsächliche Infektionen erkannt werden.

Zum Beispiel, Mask R-CNN, Ein Objekterkennungsmodell erreichte eine Trefferquote von 93,5% bei der Erkennung von Erdbeer-Anthraknose, jedoch nur eine Präzision von 45% bei der Erkennung von Baumwollwurzelfäule.

Die F1-Score Es vereint Präzision und Treffsicherheit und bietet so einen ganzheitlichen Überblick über die Leistung. In einer Studie aus dem Jahr 2023, PlantViT—ein hybrides KI-Modell—erreichte einen F1-Score von 98,61% auf dem PlantVillage-Datensatz.

Zur Objekterkennung, mittlere durchschnittliche Präzision (mAP) ist von entscheidender Bedeutung. Schnelleres R-CNN, ein beliebtes Modell, erreichte in Apfelkrankheitsversuchen einen mAP-Wert von 73.07%, was bedeutet, dass es Infektionen in den meisten Fällen korrekt lokalisierte und klassifizierte.

Herausforderungen, die den Einsatz von KI in der Landwirtschaft hemmen

Trotz ihres Potenzials steht die KI-gestützte Krankheitserkennung vor Hürden. Erstens stellt die Datenknappheit ein großes Problem bei seltenen oder neu auftretenden Krankheiten dar.

  • Für eine Studie aus dem Jahr 2021 standen beispielsweise nur 20 Bilder von Gurkenmehltau zur Verfügung, was die Zuverlässigkeit des Modells einschränkte.
  • Zweitens verringern Umweltfaktoren wie Wind, Schatten oder wechselnde Lichtverhältnisse die Genauigkeit im Feld um 20–30% im Vergleich zu Laborbedingungen.
  • Drittens behindern hohe Kosten die Verbreitung. Hyperspektralkameras sind zwar leistungsstark, aber für Kleinbauern nach wie vor unerschwinglich, und KI-Tools erfordern Smartphones oder Internetzugang – in ländlichen Gebieten immer noch ein Hindernis.
  • Schließlich bestehen weiterhin Vertrauensprobleme. Eine Umfrage aus dem Jahr 2023 ergab, dass 681.030 Landwirte aufgrund der Intransparenz von KI – sie können nicht nachvollziehen, wie Entscheidungen getroffen werden – zögern, KI einzuführen.

Um dem entgegenzuwirken, entwickeln Forscher interpretierbare KI, die Diagnosen in einfachen Worten erklärt, beispielsweise durch Hervorhebung infizierter Blattbereiche oder Auflistung von Symptomen.

Die Zukunft der Landwirtschaft: 5 Innovationen, die man im Auge behalten sollte

1. Edge Computing für EchtzeitanalyseLeichtgewichtige KI-Modelle wie MobileNetV2 (7 MB) laufen auf Smartphones oder Drohnen und ermöglichen die Krankheitserkennung in Echtzeit – auch ohne Internetverbindung. Im Jahr 2023 erreichte dieses Modell eine Genauigkeit von 99,42% bei der Klassifizierung von Kartoffelkrankheiten und versetzt Landwirte so in die Lage, sofort Entscheidungen zu treffen.

2. Transferlernen für eine schnellere AnpassungVortrainierte Modelle wie PlantViT lassen sich mit minimalen Daten für neue Nutzpflanzen feinabstimmen. Eine Studie aus dem Jahr 2023 adaptierte PlantViT für die Erkennung von Reisbrand und erreichte mit nur 1.000 Bildern eine Genauigkeit von 87,871 TP3T.

3. Vision-Language-Modelle (VLMs)Systeme wie OpenAIs CLIP ermöglichen es Landwirten, KI-Anfragen per Text zu stellen (z. B. “Finde braune Flecken auf Blättern”). Diese natürliche Interaktion schließt die Lücke zwischen komplexer Technologie und dem landwirtschaftlichen Alltag.

4. Grundlagenmodelle für allgemeine KIGroße Modelle wie GPT-4 könnten die Ausbreitung von Krankheiten simulieren oder Behandlungen empfehlen und somit als virtuelle Agronomen fungieren.

5. Kollaborative globale DatenbankenOpen-Source-Plattformen wie PlantVillage und AI4Ag bündeln Daten von Landwirten und Forschern weltweit und beschleunigen so Innovationen.

Fallstudie: KI-gestützter Mangoanbau in Indien

Im Jahr 2024 entwickelten Forscher ein ressourcenschonendes DenseNet-Modell zur Bekämpfung von Mangokrankheiten wie Anthraknose und Mehltau. Das anhand von 12.332 Feldaufnahmen trainierte Modell erreichte eine Genauigkeit von 99,21 TP3T – höher als die meisten laborbasierten Systeme.

Mit 50% weniger Parametern läuft es reibungslos auf günstigen Smartphones. Indische Landwirte nutzen nun eine auf dieser KI basierende App, um Blätter zu scannen und sofortige Diagnosen zu erhalten. Dadurch wird der Pestizideinsatz um 30% reduziert und Ernteausfälle werden verhindert.

Schlussfolgerung

KI-gestützte Pflanzenschutz- und Präzisionslandwirtschaftstechnologien revolutionieren die Landwirtschaft und bieten Hoffnung im Kampf gegen Ernährungsunsicherheit. Durch die frühzeitige Diagnose, die Reduzierung des Chemikalieneinsatzes und die Stärkung von Kleinbauern könnten diese Instrumente die globalen Ernteerträge um 20–301 Tonnen steigern.

Um dieses Potenzial auszuschöpfen, müssen die Beteiligten die Kosten der Sensoren senken, die Datenvielfalt verbessern und durch Aufklärung das Vertrauen der Landwirte stärken.

ReferenzUpadhyay, A., Chandel, NS, Singh, KP et al. Deep Learning und Computer Vision in der Pflanzenkrankheitserkennung: Ein umfassender Überblick über Techniken, Modelle und Trends in der Präzisionslandwirtschaft. Artif Intell Rev 58, 92 (2025). https://doi.org/10.1007/s10462-024-11100-x

Wie UAS-gestützte Hochdurchsatz-Phänotypisierung die moderne Pflanzenzüchtung verändert

Bis 2050 wird die Weltbevölkerung voraussichtlich auf 9,8 Milliarden Menschen anwachsen, wodurch sich der Nahrungsmittelbedarf verdoppelt. Die Ausweitung der landwirtschaftlichen Nutzfläche, um diesen Bedarf zu decken, ist jedoch nicht nachhaltig. Über 501.300 Tonnen neues Ackerland, das seit dem Jahr 2000 angelegt wurde, haben Wälder und natürliche Ökosysteme verdrängt und so den Klimawandel und den Verlust der Artenvielfalt verschärft.

Um dieser Krise zu entgehen, setzen Wissenschaftler verstärkt auf Pflanzenzüchtung – die Wissenschaft der Entwicklung von Nutzpflanzen mit höheren Erträgen, Krankheitsresistenz und Klimabeständigkeit. Traditionelle Züchtungsmethoden sind jedoch zu langsam, um mit der Dringlichkeit des Problems Schritt zu halten.

Hier kommen Drohnen und künstliche Intelligenz (KI) ins Spiel und verändern die Spielregeln grundlegend. Sie bieten eine schnellere und intelligentere Möglichkeit, bessere Nutzpflanzen zu züchten.

Warum die traditionelle Pflanzenzüchtung ins Hintertreffen gerät

Die Pflanzenzüchtung beruht auf der Auswahl von Pflanzen mit erwünschten Eigenschaften wie Trockenheitstoleranz oder Schädlingsresistenz und deren Kreuzung über mehrere Generationen. Der größte Engpass in diesem Prozess ist die Phänotypisierung – die manuelle Messung von Pflanzenmerkmalen wie Höhe, Blattgesundheit oder Ertrag.

Die Messung der Pflanzenhöhe auf einem Feld mit 3.000 Parzellen kann beispielsweise Wochen dauern, wobei menschliche Fehler zu Abweichungen von bis zu 201 Tonnen pro 100 Tonnen führen können. Hinzu kommt, dass sich die Ernteerträge jährlich nur um 0,5–11 Tonnen pro 100 Tonnen verbessern, weit unter der Wachstumsrate von 2,91 Tonnen pro 100 Tonnen, die erforderlich ist, um den Bedarf bis 2050 zu decken.

Mais, ein Grundnahrungsmittel für Milliarden von Menschen, veranschaulicht diese Verlangsamung: Sein jährliches Ertragswachstum ist von 2,21 TP3T in den 1960er Jahren auf 1,331 TP3T heute gesunken. Um diese Lücke zu schließen, benötigen Wissenschaftler Werkzeuge, die die Datenerfassung automatisieren, Fehler reduzieren und die Entscheidungsfindung beschleunigen.

Wie die Drohnentechnologie die Pflanzenzüchtung revolutioniert

Drohnen, auch unbemannte Luftfahrtsysteme (UAS) genannt, ausgestattet mit fortschrittlichen Sensoren und künstlicher Intelligenz, revolutionieren die Landwirtschaft. Diese Geräte können über Felder fliegen und innerhalb von Minuten präzise Daten von Tausenden von Pflanzen erfassen – ein Verfahren, das als Hochdurchsatz-Phänotypisierung (HTP) bekannt ist.

Im Gegensatz zu herkömmlichen Methoden erfassen Drohnen Daten über ganze Felder hinweg und vermeiden so Verzerrungen durch die Stichprobenziehung. Sie nutzen spezielle Sensoren, um alles von der Pflanzenhöhe bis zum Wasserstressniveau zu messen.

Multispektrale Sensoren erfassen beispielsweise das von gesunden Blättern reflektierte Nahinfrarotlicht, während Wärmebildkameras Trockenstress durch die Messung der Kronentemperatur erkennen.

Durch die Automatisierung der Datenerfassung reduzieren Drohnen die Arbeitskosten und beschleunigen die Züchtungszyklen, wodurch es möglich wird, verbesserte Pflanzensorten in Jahren statt Jahrzehnten zu entwickeln.

Die Wissenschaft hinter Drohnensensoren und Datenerfassung

Drohnen nutzen verschiedene Sensoren, um wichtige Pflanzendaten zu erfassen. RGB-Kameras, die kostengünstigste Option, erfassen sichtbares Licht, um die Kronenbedeckung und die Pflanzenhöhe zu messen. Auf Zuckerrohrfeldern haben diese Kameras eine Genauigkeit von 64–69% bei der Halmzählung erreicht und damit die fehleranfällige manuelle Zählung ersetzt.

Multispektrale Sensoren gehen noch einen Schritt weiter, indem sie nicht sichtbare Wellenlängen wie Nahinfrarot erfassen, die mit dem Chlorophyllgehalt und der Pflanzengesundheit korrelieren. So konnten sie beispielsweise die Trockenheitstoleranz von Zuckerrohr mit einer Genauigkeit von über 801 TP3T vorhersagen.

  • RGB-Kameras: Rotes, grünes und blaues Licht einfangen, um Farbbilder zu erzeugen.
  • Multispektrale Sensoren: Licht jenseits des sichtbaren Spektrums erfassen (z. B. Nahinfrarot).
  • Thermische Sensoren: Messung der von Pflanzen abgegebenen Wärme.
  • LiDAR: Nutzt Laserimpulse zur Erstellung von 3D-Karten von Pflanzen.
  • Hyperspektrale Sensoren: Erfassung von über 200 Lichtwellenlängen für ultra-detaillierte Analysen.

Wärmesensoren erfassen Wärmesignaturen und identifizieren so Pflanzen unter Wasserstress, die wärmer erscheinen als gesunde Pflanzen. Auf Baumwollfeldern haben Wärmebilddrohnen die bodengestützten Temperaturmessungen mit einer Abweichung von weniger als 51 µT³T bestätigt.

LiDAR-Sensoren nutzen Laserimpulse, um 3D-Karten von Nutzpflanzen zu erstellen und Biomasse und Höhe in Versuchen mit Energie-Zuckerrohr mit einer Präzision von 95% zu messen. Die fortschrittlichsten Geräte, hyperspektrale Sensoren, analysieren Hunderte von Lichtwellenlängen, um Nährstoffmängel oder Krankheiten zu erkennen, die mit bloßem Auge nicht sichtbar sind.

Mithilfe dieser Sensoren konnten Forscher 28 neue Gene mit der verzögerten Alterung von Weizen in Verbindung bringen, einer Eigenschaft, die den Ertrag steigert.

Vom Flug zur Erkenntnis: Wie Drohnen Erntedaten analysieren

Die Drohnen-Phänotypisierung beginnt mit einer sorgfältigen Flugplanung. Drohnen fliegen in einer Höhe von 30–100 Metern und erfassen überlappende Bilder, um eine vollständige Abdeckung zu gewährleisten. Ein 10 Hektar großes Feld kann beispielsweise in 15–30 Minuten gescannt werden.

Nach dem Flug fügt Software wie Agisoft Metashape mithilfe von Structure-from-Motion (SfM) – einer Technik, die 2D-Fotos in 3D-Modelle umwandelt – Tausende von Bildern zu detaillierten Karten zusammen. Mithilfe dieser Modelle können Wissenschaftler Merkmale wie Pflanzenhöhe oder Kronenbedeckung per Knopfdruck messen.

Anschließend analysieren KI-Algorithmen die Daten, um Erträge vorherzusagen oder Krankheitsausbrüche zu erkennen. Drohnen scannten beispielsweise 3.132 Zuckerrohrparzellen in nur sieben Stunden – eine Aufgabe, die manuell drei Wochen dauern würde. Diese Geschwindigkeit und Präzision ermöglichen es Pflanzenzüchtern, schnellere Entscheidungen zu treffen, etwa leistungsschwache Pflanzen frühzeitig in der Saison auszusortieren.

Wichtigste Anwendungsgebiete von Drohnen in der modernen Landwirtschaft

Drohnen werden eingesetzt, um einige der größten Herausforderungen in der Landwirtschaft zu bewältigen. Eine wichtige Anwendung ist die direkte Merkmalsmessung, bei der Drohnen manuelle Arbeit ersetzen. Auf Maisfeldern messen Drohnen die Pflanzenhöhe mit einer Genauigkeit von 90% und reduzieren Fehler von 0,5 Metern auf 0,21 Meter.

Sie erfassen außerdem die Kronenbedeckung, ein Indikator dafür, wie gut die Pflanzen den Boden beschatten und so Unkraut unterdrücken. Züchter von Energierohr nutzten diese Daten, um Sorten zu identifizieren, die das Unkrautwachstum um 401 TP3T reduzieren.

Ein weiterer Durchbruch ist die vorausschauende Züchtung, bei der KI-Modelle Drohnendaten nutzen, um den Pflanzenertrag vorherzusagen. So hat beispielsweise die multispektrale Bildgebung Maiserträge mit einer Genauigkeit von 801 TP3T vorhergesagt und damit herkömmliche Genomtests übertroffen.

Drohnen unterstützen auch die Genforschung, indem sie Wissenschaftlern helfen, DNA-Abschnitte zu lokalisieren, die für erwünschte Eigenschaften verantwortlich sind. Bei Weizen brachten Drohnen die Grünfärbung des Kronendachs mit 22 neuen Genen in Verbindung, was möglicherweise die Trockenheitstoleranz erhöht.

Darüber hinaus erkennen hyperspektrale Sensoren Krankheiten wie Citrus Greening Wochen bevor Symptome auftreten, sodass die Landwirte Zeit zum Handeln haben.

Steigerung genetischer Fortschritte durch Präzisionstechnologie

Der genetische Gewinn – die jährliche Verbesserung der Pflanzeneigenschaften durch Züchtung – wird mit einer einfachen Formel berechnet:

(Selektionsintensität × Heritabilität × Merkmalsvariabilität) ÷ Zuchtzykluszeit.

Der genetische Gewinn (ΔG) wird wie folgt berechnet:
ΔG = (i × h² × σp) / L

Wo:

  • i = Selektionsintensität (wie streng die Züchter sind).
  •  = Vererbbarkeit (wie viel eines Merkmals von den Eltern an die Nachkommen weitergegeben wird).
  • σp = Merkmalsvariabilität in einer Population.
  • L = Zeit pro Brutzyklus.

Warum das wichtig istDrohnen verbessern alle Variablen:

  1. iScannen 10-mal mehr Pflanzen, wodurch eine strengere Selektion ermöglicht wird.
  2. : Reduzierung von Messfehlern, Verbesserung der Heritabilitätsschätzungen.
  3. σp: Subtile Merkmalsvariationen über ganze Felder hinweg erfassen.
  4. L: Zykluszeit verkürzen von 5 Jahre bis 2–3 Jahre durch frühe Prognosen.

Drohnen verbessern jeden Aspekt dieses Prozesses. Durch das Scannen ganzer Felder ermöglichen sie es Pflanzenzüchtern, die besten 11 TP3T anstatt der besten 101 TP3T auszuwählen und so die Selektionsintensität zu erhöhen. Zudem verbessern sie die Schätzungen der Vererbung durch die Reduzierung von Messfehlern.

Die manuelle Erfassung der Pflanzenhöhe führt beispielsweise zu einer Variabilität von 20%, während Drohnen diese auf 5% reduzieren. Darüber hinaus erfassen Drohnen subtile Merkmalsvariationen über Tausende von Pflanzen hinweg und maximieren so die Merkmalsvariabilität.

Am wichtigsten ist jedoch, dass sie die Zuchtzyklen durch frühzeitige Vorhersagen verkürzen. Zuckerrohrzüchter, die Drohnen einsetzen, haben ihre genetischen Fortschritte im Vergleich zu traditionellen Methoden verdreifacht und damit das transformative Potenzial dieser Technologie unter Beweis gestellt.

Herausforderungen meistern und die Zukunft gestalten

Trotz ihres Potenzials steht die drohnenbasierte Phänotypisierung weiterhin vor erheblichen Herausforderungen. Die hohen Kosten fortschrittlicher Sensoren stellen nach wie vor ein großes Hindernis dar – Hyperspektralkameras beispielsweise können über 50.000 Euro kosten und sind damit für die meisten Kleinbauern unerschwinglich.

Die Verarbeitung der enormen Datenmengen erfordert zudem erhebliche Cloud-Computing-Ressourcen, was die Kosten weiter erhöht. KI-Plattformen wie AutoGIS automatisieren die Datenanalyse und machen manuelle Eingaben überflüssig.

Forscher integrieren Drohnen mit Bodensensoren und Wetterstationen und schaffen so ein Echtzeit-Überwachungssystem, das Landwirte vor Schädlingen oder Dürre warnt. Diese Innovationen ebnen den Weg für eine neue Ära der Präzisionslandwirtschaft, in der datengestützte Entscheidungen das Rätselraten ersetzen.

Schlussfolgerung

Drohnen und KI revolutionieren nicht nur die Pflanzenzüchtung, sondern definieren nachhaltige Landwirtschaft neu. Durch die schnellere Entwicklung dürreresistenter, ertragreicher Nutzpflanzen könnten diese Technologien die Nahrungsmittelproduktion bis 2050 verdoppeln, ohne die Anbauflächen zu vergrößern.

Dadurch würden über 100 Millionen Hektar Wald, eine Fläche so groß wie Ägypten, gerettet und der CO₂-Fußabdruck der Landwirtschaft verringert. Landwirte, die Drohnendaten nutzen, konnten den Wasser- und Pestizideinsatz bereits um bis zu 301 Tonnen reduzieren und so Ökosysteme schützen und Kosten senken.

Wie ein Forscher feststellte: “Wir müssen nicht länger raten, welche Pflanzen am besten geeignet sind. Die Drohnen liefern uns die Antwort.” Dank kontinuierlicher Innovationen könnte diese Verbindung von Biologie und Technologie die Ernährungssicherheit für Milliarden von Menschen gewährleisten und gleichzeitig unseren Planeten schützen.

ReferenzKhuimphukhieo, I., & da Silva, JA (2025). Unmanned Aerial Systems (UAS)-basierte Hochdurchsatz-Phänotypisierung (HTP) im Feld als Werkzeugkasten für Pflanzenzüchter: ein umfassender Überblick. Smart Agricultural Technology, 100888.

Wie das Internet der Dinge die Präzisionslandwirtschaft verändert und aktuelle Herausforderungen löst

Die Weltbevölkerung wächst rasant; Schätzungen gehen davon aus, dass sie bis 2050 9,7 Milliarden erreichen wird. Um alle zu ernähren, muss die Nahrungsmittelproduktion um 601.300 Tonnen steigen, doch traditionelle Anbaumethoden – die auf Boden, intensive Wassernutzung und Handarbeit angewiesen sind – können mit diesem Wachstum kaum Schritt halten.

Klimawandel, Bodendegradation und Wasserknappheit verschärfen die Lage. So kostet beispielsweise allein die Bodenerosion die Landwirte jährlich 1,4 Billionen Pfund an Produktivitätsverlusten, während durch veraltete Bewässerungsmethoden 601,3 Billionen Pfund Süßwasser verschwendet werden.

In Indien haben unvorhersehbare Monsunregen die Reiserträge im letzten Jahrzehnt um 151.300 Tonnen reduziert. Diese Herausforderungen erfordern dringende Lösungen, und intelligente Landwirtschaft – unterstützt durch das Internet der Dinge (IoT) und Aeroponik – bietet hierfür eine vielversprechende Perspektive.

Das Potenzial des IoT in der modernen Landwirtschaft

Das Herzstück der intelligenten Landwirtschaft ist das Internet der Dinge (IoT), ein Netzwerk miteinander verbundener Geräte, die Daten in Echtzeit erfassen und austauschen. Drahtlose Sensornetzwerke (WSNs) spielen dabei eine zentrale Rolle.

Diese Netzwerke nutzen Sensoren, die auf Feldern platziert werden, um Bodenfeuchtigkeit, Temperatur, Luftfeuchtigkeit und Nährstoffgehalt zu überwachen. Der DHT22-Sensor erfasst beispielsweise die Luftfeuchtigkeit, während TDS-Sensoren die Nährstoffkonzentration im Wasser messen.

Diese Daten werden mithilfe energiesparender Protokolle wie LoRa oder ZigBee an Cloud-Plattformen wie ThingSpeak oder AWS IoT gesendet. Nach der Analyse kann das System Aktionen auslösen, beispielsweise das Einschalten von Bewässerungspumpen oder die Anpassung der Düngermenge.

In Coimbatore, Indien, demonstrierte ein Projekt aus dem Jahr 2022 das Potenzial des Internets der Dinge (IoT). Sensoren erkannten trockene Bodenzonen in Tomatenfeldern und ermöglichten so eine gezielte Bewässerung, wodurch der Wasserverbrauch um 351 Tonnen reduziert wurde.

Ähnlich scannen mit Multispektralkameras ausgestattete Drohnen weite Felder, um Probleme wie Schädlingsbefall oder Nährstoffmangel zu erkennen.

Eine Studie aus dem Jahr 2019 nutzte Drohnen, um die Nordische Blattfleckenkrankheit in Maiskulturen mit einer Genauigkeit von 98% zu erkennen und Landwirten so Verluste von $120 pro Acre zu ersparen. Maschinelles Lernen verbessert diese Systeme zusätzlich.

Forscher trainierten KI-Modelle anhand von Tausenden von Blattbildern, um Krankheiten wie Mehltau mit einer Genauigkeit von 99,53% zu diagnostizieren, sodass Landwirte handeln können, bevor die Ernte vernichtet wird.

Aeroponik: Nahrungsmittelanbau ohne Erde

Während das Internet der Dinge die traditionelle Landwirtschaft optimiert, revolutioniert die Aeroponik die Landwirtschaft grundlegend. Bei dieser Methode werden Pflanzen in der Luft gezüchtet, indem ihre Wurzeln in mit Nebel gefüllten Kammern schweben, die mit Wasser und Nährstoffen besprüht werden.

Im Gegensatz zur Bodenlandwirtschaft benötigt die Aeroponik weniger Wasser und keine Pestizide. Die Wurzeln nehmen Sauerstoff effizienter auf, was das Wachstum beschleunigt.

Laut einer Studie aus dem Jahr 2018 entwickelt beispielsweise aeroponisch angebauter Salat das 65% schneller als im Boden.

Aeroponik ist besonders wertvoll in Städten oder Regionen mit nährstoffarmen Böden. Vertikale Farmen stapeln Pflanzen in Türmen und produzieren so zehnmal mehr Nahrungsmittel pro Quadratmeter als herkömmliche Felder.

In Mexiko-Stadt erzielte eine 2022 auf einem Dach angelegte aeroponische Farm einen Ertrag von 3,8 kg Salat pro Quadratmeter – das Dreifache des Ertrags beim Anbau im Boden – und verbrauchte dabei nur 10 Liter Wasser pro Kilogramm.

Sky Greens in Singapur geht noch einen Schritt weiter und produziert täglich 1 Tonne Gemüse in 30 Fuß hohen Türmen – und das mit 951 TP3T weniger Land als herkömmliche Landwirtschaftsbetriebe.

Das Internet der Dinge (IoT) hebt die Aeroponik auf die nächste Stufe. Sensoren überwachen die Wurzelkammern auf Luftfeuchtigkeit, pH-Wert und Nährstoffgehalt und passen die Besprühungszyklen automatisch an.

In einem Projekt aus dem Jahr 2017 automatisierten Forscher ein aeroponisches System mithilfe von Raspberry Pi und senkten so die Arbeitskosten um 501 TP3T. Landwirte steuern diese Systeme über mobile Apps wie AgroDecisor, die Warnmeldungen bei Problemen wie Nährstoffungleichgewichten versenden.

Herausforderungen, die den Fortschritt verlangsamen

Trotz ihres Potenzials stehen IoT und Aeroponik vor erheblichen Herausforderungen. Hohe Kosten stellen ein großes Hindernis dar. Eine einfache IoT-Lösung kostet 1.500 bis 5.000 Euro, während fortschrittliche Drohnen und Sensoren 10.000 bis 50.000 Euro im Voraus erfordern – weit jenseits der finanziellen Möglichkeiten von Kleinbauern in Entwicklungsländern. Hinzu kommen jährliche Wartungskosten von weiteren 15 bis 201.000 Euro, was die Budgets zusätzlich belastet.

Verbindungslücken verschärfen das Problem. In etwa 401.030 ländlichen Gebieten fehlt ein zuverlässiger Internetzugang, was die Datenübertragung in Echtzeit stark beeinträchtigt.

In Äthiopien scheiterte 2021 ein IoT-Pilotprojekt, als mitten auf dem Feld das 3G-Signal ausfiel und die Bewässerungspläne dadurch gestört wurden. Auch die Sicherheitsrisiken sind erheblich. IoT-Protokolle wie MQTT und CoAP bieten oft keine Verschlüsselung, wodurch die Systeme anfällig für Hackerangriffe sind.

Im Jahr 2021 wurden 62% landwirtschaftliche IoT-Systeme wegen Cyberangriffen gemeldet, darunter Datenlecks, die Sensormesswerte manipulieren oder Geräte außer Gefecht setzen könnten.

Die technische Komplexität stellt eine zusätzliche Schwierigkeitsebene dar. Landwirte benötigen Schulungen, um Daten zu interpretieren und Systeme zu warten.

Ein Aeroponik-Projekt in Kolumbien aus dem Jahr 2017 scheiterte, weil falsche pH-Wert-Einstellungen die Ernte beschädigten und 12.000 Sämlinge vernichteten.

Selbst die Stromversorgung ist ein Problem – Solarsensoren fallen während des Monsuns aus, und Drohnen halten mit einer Ladung nur 20–30 Minuten durch.

Die Zukunft der Landwirtschaft: Innovationen am Horizont

Trotz dieser Herausforderungen sieht die Zukunft vielversprechend aus. 5G-Netze werden die Konnektivität revolutionieren und es Drohnen ermöglichen, riesige landwirtschaftliche Betriebe in Echtzeit zu überwachen.

In Brasilien wurden 2023 im Rahmen eines Pilotprojekts 5G-fähige Drohnen eingesetzt, um über 400 Hektar große Sojabohnenfelder zu scannen und Krankheiten in nur 10 Minuten statt Tagen zu erkennen. Edge-KI, die Daten direkt auf den Geräten verarbeitet, reduziert die Abhängigkeit von der Cloud.

Das MangoYOLO-System zählt beispielsweise Mangos mit einer Genauigkeit von 91% mithilfe von integrierten Kameras und eliminiert so Verzögerungen durch Daten-Uploads.

Die Blockchain-Technologie ist ein weiterer Wendepunkt. Durch die Rückverfolgung von Produkten vom Erzeuger bis zum Verbraucher gewährleistet sie Transparenz und reduziert Betrug.

Die eFarm-App nutzt Crowdsourcing-Daten zur Überprüfung von Bio-Zertifizierungen und reduziert Betrug um 301.030.000 Fälle. Das Blockchain-System von Walmart verringerte Fehler in der Mango-Lieferkette im Jahr 2022 um 901.030.000 Fälle.

Auch KI-gesteuerte Gewächshäuser gewinnen an Bedeutung. Diese Systeme nutzen Modelle wie VGG19, um die Pflanzengesundheit mit einer Genauigkeit von 91,52% zu überwachen.

In Japan ernten Roboter wie AGROBOT rund um die Uhr Erdbeeren und verdreifachen so die Produktivität. Auch in Städten setzt man zunehmend auf Aeroponik – das Berliner Unternehmen Infarm baut Kräuter in Supermärkten an und reduziert damit die Transportemissionen um 951 Tonnen.

Regierungen und Unternehmen verstärken ihre Bemühungen. Indiens Agrartechnologie-Initiative 2023 subventioniert IoT-Geräte für 500.000 Kleinbauern, während Microsofts FarmBeats kenianischen Landwirten kostengünstige Drohnen zur Verfügung stellt.

Ein Erfolgsrezept

IoT und Aeroponik sind nicht nur Werkzeuge – sie sind unerlässlich für eine nachhaltige Zukunft. Bis 2030 könnten diese Technologien Folgendes bewirken:

  • Jährlich 1,5 Billionen Liter Wasser einsparen.
  • Reduzierung der Treibhausgasemissionen um 1,5 Gigatonnen pro Jahr.
  • Zwei Milliarden zusätzliche Menschen ernähren, ohne die landwirtschaftlichen Nutzflächen auszudehnen.

Um dies zu erreichen, müssen Regierungen erschwingliche Werkzeuge subventionieren, den Internetzugang im ländlichen Raum ausbauen und Cybersicherheitsstandards durchsetzen. Landwirte benötigen Schulungen, um diese Technologien effektiv nutzen zu können.

Wie die FAO feststellt: “Die Zukunft der Ernährung hängt von den Innovationen von heute ab.” Durch die Nutzung des Internets der Dinge (IoT) und der Aeroponik können wir eine Welt schaffen, in der niemand Hunger leidet – und in der die Landwirtschaft unseren Planeten nährt, anstatt ihm zu schaden.

ReferenzDhanasekar, S. (2025). Ein umfassender Überblick über aktuelle Probleme und Fortschritte des Internets der Dinge in der Präzisionslandwirtschaft. Computer Science Review, 55, 100694.

Fernerkundung revolutioniert die Nikotinüberwachung in Zigarrenblättern

Eine bahnbrechende Studie nutzt hyperspektrale UAV-Bildgebung und maschinelles Lernen, um den Nikotingehalt in Zigarrenblättern präzise zu bestimmen.

Jüngste Fortschritte in der hyperspektralen Luftbildgebung, kombiniert mit maschinellem Lernen, haben die Nikotinbestimmung in Zigarrenblättern revolutioniert. Dieser innovative Ansatz verbessert die Genauigkeit der Analysen und liefert wertvolle Erkenntnisse für die Tabakindustrie, in der die chemische Zusammensetzung entscheidend für die Qualität ist.

Unter der Leitung von Tian et al. an der Sichuan Agricultural University suchten Forscher nach Möglichkeiten, die Einschränkungen traditioneller manueller Qualitätskontrollen zu überwinden, denen es oft an Präzision und Effizienz mangelt. Ihre am 2. Februar 2025 veröffentlichte Studie identifiziert starke Korrelationen zwischen Stickstoffdüngung, Feuchtigkeitsgehalt und Nikotinkonzentration und unterstreicht damit die Bedeutung zeitnaher und präziser Überwachungsmethoden.

Die Studie wurde von Mai bis September 2022 auf der Modernen Landwirtschaftlichen Forschungsbasis der Universität durchgeführt. Die Forscher nutzten unbemannte Luftfahrzeuge (UAVs), die mit Hyperspektralkameras ausgestattet waren, um Blattreflexionsspektren von 15 verschiedenen Zigarrenblattsorten unter verschiedenen Stickstoffbehandlungen zu erfassen.

Ihre Ergebnisse zeigten einen direkten Zusammenhang zwischen Stickstoffdüngung und Nikotingehalt in Zigarrenblättern. “Mit zunehmender Stickstoffdüngung stieg der Nikotingehalt der Zigarrenblätter”, so die Autoren, die damit den Einfluss landwirtschaftlicher Praktiken auf die Produktqualität unterstrichen.

Zur Verbesserung der Qualität hyperspektraler Bilddaten, die von UAVs erfasst wurden, kamen in der Studie Vorverarbeitungstechniken wie multivariate Streukorrektur, Standardnormaltransformation und Savitzky-Golay-Faltungsglättung zum Einsatz. Anschließend wurden fortgeschrittene Algorithmen des maschinellen Lernens, darunter die partielle Kleinste-Quadrate-Regression (PLSR) und Backpropagation-Neuronale Netze, angewendet, um Vorhersagemodelle zu entwickeln, die den Nikotingehalt präzise bestimmen können.

Das effektivste Modell war das MSC-SNV-SG-CARS-BP-Modell, das eine Testgenauigkeit mit R²-Werten von ca. 0,797 und einem RMSE von 0,078 erreichte. “Das MSC-SNV-SG-CARS-BP-Modell weist die beste Vorhersagegenauigkeit für den Nikotingehalt auf”, stellten die Autoren fest und positionierten es damit als vielversprechendes Werkzeug für zukünftige Forschungsarbeiten und Anwendungen in der Präzisionslandwirtschaft.

Durch die Nutzung von Fernerkundung zur Analyse der spektralen Eigenschaften von Zigarrenblättern können Landwirte und Produzenten die Qualität der Ernte schnell und zerstörungsfrei beurteilen und so fundiertere Entscheidungen in Produktion und Lieferkette treffen. Dieser Ansatz bietet eine umfassende Abdeckung bei geringen Betriebskosten und gewährleistet gleichzeitig Datenkonsistenz durch die Reduzierung menschlicher Fehler.

Die Integration von Hyperspektralbildgebung und maschinellem Lernen birgt das Potenzial, den traditionellen Tabakanbau grundlegend zu verändern. Sie verbessert nicht nur die Nikotinqualität, sondern fördert auch nachhaltige und effiziente Anbaumethoden. Forscher betonen die Notwendigkeit kontinuierlicher Weiterentwicklungen, um diese Technologien zu verfeinern und an verschiedene Tabaksorten sowie andere Nutzpflanzen anzupassen.

Zukünftige Studien werden sich auf die Optimierung der Betriebsbedingungen von UAVs konzentrieren, um spektrale Daten höchster Qualität zu erfassen. Dabei werden Variablen wie Flughöhe, Lichtverhältnisse und Geräuschreduzierung berücksichtigt. Die Berücksichtigung dieser Faktoren ist entscheidend, da sich landwirtschaftliche Praktiken weiterentwickeln, um den Marktanforderungen gerecht zu werden und gleichzeitig die ökologische Nachhaltigkeit zu priorisieren.

Diese Studie unterstreicht die Synergie zwischen Technologie und Agrarwissenschaft und hebt die zunehmende Anwendung innovativer Verfahren zur Verbesserung der Produktqualität hervor. Die Forscher plädieren für einen breiteren Einsatz hyperspektraler Sensorik in der Landwirtschaft und bekräftigen damit die Bedeutung dieser Technologie für höhere Erträge, mehr Effizienz und eine verantwortungsvollere Umweltverträglichkeit.

Quellen: https://www.nature.com/articles/s41598-025-88091-4

Verbesserung der kleinbäuerlichen Landwirtschaft durch unbemannte Luftfahrzeuge zur Überwachung von Nutzpflanzen

Kleinbauern spielen eine entscheidende Rolle in der globalen Nahrungsmittelproduktion, stehen aber vor zahlreichen Herausforderungen, von Ressourcenknappheit bis hin zu unvorhersehbaren Umweltfaktoren. Im Zeitalter des technologischen Fortschritts haben sich unbemannte Luftfahrzeuge (UAVs), allgemein bekannt als Drohnen, als wegweisende Technologie in der kleinbäuerlichen Landwirtschaft etabliert.

Diese Fluggeräte bieten Lösungen, die das Potenzial haben, landwirtschaftliche Praktiken zu revolutionieren und das Leben von Kleinbauern zu verbessern.

Um das Potenzial und die Auswirkungen von Drohnen in der kleinbäuerlichen Landwirtschaft wirklich zu verstehen, haben Forscher bestehende Studien und Trends auf diesem Gebiet eingehend analysiert. Die gewonnenen Erkenntnisse verdeutlichen die faszinierende Rolle, die unbemannte Luftfahrzeuge (UAVs) bei landwirtschaftlichen Innovationen spielen.

Die Forschungsergebnisse zeigen, dass der Einsatz von Drohnen in der kleinbäuerlichen Landwirtschaft zunimmt. In den letzten Jahren ist das Interesse an dieser Technologie und die Investitionen darin deutlich gestiegen. Mit einer durchschnittlichen jährlichen Wachstumsrate von rund 311 TP3T seit 2016 verdeutlicht dieser Trend die wachsende Anerkennung des Wertes von Drohnen in der Landwirtschaft.

Führende Kooperationen und Wirkung

Der Einsatz von Drohnen in der Landwirtschaft rückt zunehmend in den Fokus der Forschung, was sich auch in der akademischen Welt widerspiegelt. Fachzeitschriften wie “Drones” und “Remote Sensing” haben sich als führende Publikationen im Bereich der UAV-Forschung in der Landwirtschaft etabliert und tragen mit rund 351.030 Publikationen maßgeblich zu den Gesamtpublikationen in diesem Feld bei. Unter diesen Zeitschriften sticht “Drones” mit der höchsten Anzahl an Zitationen hervor, was seine Bedeutung unterstreicht.

Im globalen Kontext der UAV-Anwendungen in der kleinbäuerlichen Landwirtschaft haben Forscher 14 Länder als aktive Teilnehmer identifiziert. Insbesondere China, Südafrika, Nigeria, die Schweiz und die USA gehören zu den führenden Akteuren dieser Forschung.

China zählt regelmäßig zu den fünf Ländern mit den meisten Zitationen und unterstreicht damit seine starke Präsenz in diesem Forschungsfeld. Obwohl der Großteil der Forschung innerhalb der Landesgrenzen stattfindet, zeichnen sich bereits erste internationale Kooperationen ab.

Die Studie hebt zudem die Beiträge von 131 Autoren hervor, die mit ihren 23 Veröffentlichungen maßgeblich zu diesem Forschungsgebiet beigetragen haben. Namhafte Autoren wie Vimbayi Chimonyo, Alistair Clulow, Tafadzwanashe Mabhaudhi und Mbulisi Sibanda haben sich aktiv für die Förderung des Drohneneinsatzes in der kleinbäuerlichen Landwirtschaft eingesetzt.

Wenn es um Zitate geht, gehören Ola Hall und Magnus Jirström zu den bekanntesten, was ihren erheblichen Einfluss auf dieses Thema unterstreicht.

Revolutionierung der Pflanzenüberwachung

Die Überwachung der Pflanzenentwicklung und die Ertragsschätzung erweisen sich als Hauptanwendungsgebiete von UAVs in der kleinbäuerlichen Landwirtschaft. Drohnen bieten eine einzigartige Perspektive, um den Gesundheitszustand und die Vitalität der Pflanzen während der gesamten Vegetationsperiode zu beurteilen.

Sie können Probleme wie Wasserstress, Krankheiten und Nährstoffmangel erkennen. Durch die Analyse von Reflexionsdaten der Nutzpflanzen können Kleinbauern frühzeitig eingreifen und erhebliche Ernteausfälle verhindern. Mithilfe von UAVs ermittelte Vegetationsindizes wie NDVI, EVI und SAVI spielen eine zentrale Rolle bei der Beurteilung der Pflanzenentwicklung.

1. Feinabstimmung des Düngemanagements

Die Optimierung des Düngemitteleinsatzes ist ein entscheidender Aspekt der Präzisionslandwirtschaft. Drohnen unterstützen Kleinbauern dabei, indem sie den Chlorophyllgehalt der Blätter messen, der eng mit dem Stickstoffgehalt der Blätter zusammenhängt.

Diese Informationen helfen Landwirten, fundierte Entscheidungen über die Düngung zu treffen. Studien haben gezeigt, dass mithilfe von UAVs gewonnene Daten die Düngemitteleffizienz um etwa 10¹³ Tonnen steigern können.

2. Kartierung von Nutzpflanzen für ein effizientes Management

Präzise Kartierung ist ein weiteres Gebiet, in dem Drohnen ihre Stärken ausspielen. Mithilfe hochauflösender Bilder und maschinellem Lernen unterstützen unbemannte Luftfahrzeuge (UAVs) Kleinbauern bei der genauen Kartierung ihrer Felder. Diese Technologie ist zentral für die Präzisionslandwirtschaft, da sie wichtige Informationen für die Landnutzungs- und Anbauplanung liefert.

In den untersuchten Studien wurden für das Training von Algorithmen typischerweise Geländebegehungen oder hochauflösende Bilddaten verwendet. Algorithmen wie Random Forest, Support Vector Machines und tiefe neuronale Netze werden zur Bildklassifizierung eingesetzt, wodurch die Kartierung von Anbauflächen präziser wird.

Herausforderungen und Chancen

Das Potenzial von Drohnen in der kleinbäuerlichen Landwirtschaft ist zwar offensichtlich, doch ist es unerlässlich, die Herausforderungen zu erkennen, die mit ihrer Einführung einhergehen.

1. Mangel an ausreichenden In-situ-DatenViele Modelle sind für ihre Entwicklung und Validierung auf die Verfügbarkeit qualitativ hochwertiger In-situ-Daten angewiesen. Solche Daten sind nicht immer ohne Weiteres verfügbar und können in ihrem Umfang begrenzt sein.

2. Verschiedene UAV-Typen und Nutzlasten: Drohnen gibt es in verschiedenen Größen und Ausführungen, jede mit spezifischen Fähigkeiten. Ihre Flugzeit und Nutzlastkapazität sind möglicherweise nicht für großflächige landwirtschaftliche Anwendungen geeignet.

3. WetterempfindlichkeitWetterbedingungen können die Datenerfassung durch Drohnen erheblich beeinträchtigen. Starker Wind und Regen können die Datenerfassung erschweren.

4. BezahlbarkeitDer Betrieb von Drohnen und der Kauf von Datenverarbeitungssoftware können kostspielig sein, insbesondere für Kleinbauern mit begrenzten finanziellen Mitteln.

5. Fachliche Expertise: Der Betrieb und die Wartung von Drohnen sowie die Datenverarbeitung erfordern spezielle Kenntnisse, die nicht immer ohne Weiteres verfügbar sind.

6. RegulierungsrahmenStrenge Vorschriften, die durch potenzielle Risiken im Zusammenhang mit dem Betrieb von unbemannten Luftfahrzeugen bedingt sind, können deren Einsatz einschränken oder den Erwerb von Pilotenlizenzen erforderlich machen.

7. RechenressourcenDie Verarbeitung der von Drohnen erzeugten riesigen Datenmengen kann rechenintensiv sein und gegebenenfalls zusätzliche Ressourcen und Schulungen erfordern.

Diesen Herausforderungen gehen jedoch zahlreiche Chancen voraus:

1. Vielfältige Anwendungsmöglichkeiten in der Präzisionslandwirtschaft: Drohnen bieten vielfältige Anwendungsmöglichkeiten in der Präzisionslandwirtschaft, die über die Überwachung und Kartierung von Nutzpflanzen hinausgehen. Dazu gehören integriertes Unkrautmanagement, Schätzung des Wasserverbrauchs, Bewertung der Qualität und Quantität des Bewässerungswassers, Kartierung der Bodeneigenschaften und Erstellung von Karten für die variable Dosierung von Pflanzenschutzmitteln.

2. Vielschichtige Daten zur Entscheidungsunterstützung: Die vielfältigen Daten, die von Drohnen geliefert werden, eröffnen die Möglichkeit, Entscheidungshilfesysteme zu entwickeln, die mehrere Ziele gleichzeitig verfolgen können.

3. Fortschrittliche Cloud-Computing-PlattformenPlattformen wie Google Earth Engine bieten neue Möglichkeiten für die Verarbeitung und Analyse von UAV-Daten.

4. Synergien zwischen Drohnen und SatellitenDrohnen und Satelliten können komplementäre Daten für verschiedene Anwendungen liefern, und es bedarf weiterer Forschung, um ihre potenziellen Synergien zu erschließen.

5. Ansätze für datenarme Umgebungen: Innovationen lassen die Datenknappheit zu einem geringeren Hindernis werden, wie Ansätze zeigen, die nur minimale In-situ-Daten benötigen, sowie Methoden des Transferlernens.

6. Kosten-Nutzen-Analyse: Ein Kostenvergleich von Drohnentechnologien und anderen Fernerkundungstechniken wird Aufschluss über deren Wirtschaftlichkeit und Vorteile geben.

7. Stärkung der Rolle der Frau in der Landwirtschaft: Die Einführung von Präzisionslandwirtschaft mithilfe von Drohnen kann Frauen in der kleinbäuerlichen Landwirtschaft stärken und ihre Fähigkeit verbessern, Herausforderungen und zukünftige Unsicherheiten zu bewältigen.

8. Jugendbeteiligung: Die Modernisierung der Landwirtschaft durch UAV-gestützte Präzisionslandwirtschaft kann das Interesse junger Menschen an der Landwirtschaft wecken und dadurch die Langlebigkeit und Widerstandsfähigkeit des Sektors stärken.

Schlussfolgerung

Zusammenfassend lässt sich sagen, dass der Einsatz von Drohnen in der kleinbäuerlichen Landwirtschaft das Potenzial hat, die Lebensgrundlagen von Millionen Kleinbauern grundlegend zu verändern. Durch innovative Lösungen für die Pflanzenüberwachung, das Düngemanagement und die Kartierung liefern Drohnen wertvolle Erkenntnisse für fundierte Entscheidungen. Trotz bestehender Herausforderungen bietet die Zukunft der kleinbäuerlichen Landwirtschaft mit Drohnen zahlreiche Chancen. Die sich rasant entwickelnde Technologie, kombiniert mit sinkenden Kosten, eröffnet neue Wege für den Agrarsektor und verspricht Ernährungssicherheit, ökologische Nachhaltigkeit und wirtschaftlichen Wohlstand für landwirtschaftliche Gemeinschaften weltweit.

Automatisierte Bereinigung und Kalibrierung von Ertragsdaten

Automatisierte Bereinigung und Kalibrierung von Ertragsdaten (AYDCC) ist ein Prozess, der Algorithmen und Modelle verwendet, um Fehler in Ertragsdaten wie Ausreißer, Lücken oder Verzerrungen zu erkennen und zu korrigieren. AYDCC kann die Qualität und Zuverlässigkeit von Ertragsdaten verbessern, was zu besseren Erkenntnissen und Empfehlungen für Landwirte führen kann.

Einführung in Ertragsdaten

Ertragsdaten sind im 21. Jahrhundert eine der wichtigsten Informationsquellen für Landwirte. Sie beziehen sich auf Daten, die von verschiedenen Landmaschinen wie Mähdreschern, Sämaschinen und Erntemaschinen gesammelt werden und die Menge und Qualität der in einem bestimmten Feld oder Gebiet produzierten Ernte messen.

Es ist aus mehreren Gründen von immenser Bedeutung. Erstens hilft es Landwirten, fundierte Entscheidungen zu treffen. Mit detaillierten Ertragsdaten können Landwirte ihre Praktiken verfeinern, um die Produktivität zu maximieren.

Zum Beispiel, wenn ein bestimmtes Feld konstant niedrigere Erträge liefert, können Landwirte die zugrunde liegenden Ursachen wie Bodengesundheit oder Bewässerungsprobleme untersuchen und Korrekturmaßnahmen ergreifen.

Darüber hinaus ermöglicht sie eine Präzisionslandwirtschaft. Indem sie Unterschiede in der Leistung von Feldfrüchten über ihre Felder hinweg kartieren, können Landwirte ihre Betriebsmittel wie Dünger und Pestizide auf bestimmte Bereiche abstimmen. Dieser gezielte Ansatz optimiert nicht nur den Ressourceneinsatz, sondern reduziert auch die Umweltauswirkungen.

Laut der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) muss die globale Agrarproduktion bis 2050 um 60% steigen, um die wachsende Nachfrage nach Nahrungsmitteln zu decken. Ertragsdaten spielen durch ihre Rolle bei der Steigerung der Kulturpflanzenproduktivität eine entscheidende Rolle bei der Erreichung dieses Ziels.

Darüber hinaus nutzte ein Sojabauern in Brasilien Ertragsdaten zusammen mit Bodenproben, um kartenbasierte, variable Düngerapplikationspläne für seine Felder zu erstellen. Er düngte mit unterschiedlichen Raten, je nach Bodenfruchtbarkeit und Ertragspotenzial jeder Zone.

Er nutzte auch Ertragsdaten, um verschiedene Sojabohnensorten zu vergleichen und die besten für seine Bedingungen auszuwählen. Infolgedessen steigerte er seinen durchschnittlichen Ertrag um 12%und senkte seine Düngemittelkosten um 15% .

Ähnlich nutzte ein Reisfarmer in Indien Ertragsdatensätze zusammen mit Wetterdaten, um seinen Bewässerungsplan für seine Felder anzupassen. Er überwachte die Bodenfeuchtigkeit und Niederschlagsmuster mithilfe von Sensoren und Satellitenbildern.

Verständnis und Nutzung von Ertragsdaten

Er nutzte ihn auch, um verschiedene Reissorten zu vergleichen und die besten für seine Verhältnisse auszuwählen. Dadurch steigerte er seinen durchschnittlichen Ertrag um 10%und reduzierte seinen Wasserverbrauch um 20% .

Trotz seiner Vorteile steht die Ertragsdatenerfassung bei ihrer Entwicklung und Einführung noch vor einigen Herausforderungen. Einige dieser Herausforderungen sind:

  • Qualität der Daten: Seine Genauigkeit und Zuverlässigkeit hängen von der Qualität der Sensoren, der Kalibrierung der Maschinen, den Datenerfassungsmethoden sowie den Datenverarbeitungs- und Analysetechniken ab. Schlechte Datenqualität kann zu Fehlern, Verzerrungen oder Inkonsistenzen führen, die die Gültigkeit und Nützlichkeit der Daten beeinträchtigen können.
  • Datenzugriff Die Verfügbarkeit und Erschwinglichkeit von Ertragsdaten hängen vom Zugang zu und dem Besitz von Landmaschinen, Sensoren, Datenspeichergeräten und Datenplattformen ab. Fehlender Zugang oder Besitz kann die Fähigkeit der Landwirte zur Erfassung, Speicherung, Weitergabe oder Nutzung ihrer eigenen Daten einschränken.
  • Datenschutz: Seine Sicherheit und Vertraulichkeit hängen vom Schutz und der Regulierung der Daten durch die Landwirte, die Maschinenhersteller, die Datenanbieter und die Datennutzer ab. Mangelnder Schutz oder mangelnde Regulierung können die Daten unbefugter oder unethischer Nutzung aussetzen, wie z. B. Diebstahl, Manipulation oder Ausbeutung.
  • Datenkompetenz Das Verständnis und die Nutzung von Ertragsdaten hängen von den Fähigkeiten und dem Wissen der Landwirte, der Berater des landwirtschaftlichen Beratungsdienstes, der Berater und der Forscher ab. Mangelnde Fähigkeiten oder mangelndes Wissen können die Fähigkeit dieser Akteure beeinträchtigen, die Daten effektiv zu interpretieren, zu kommunizieren oder anzuwenden.
Datensätze sammeln mit Landmaschinen wie Erntemaschinen

Daher ist es wichtig, die Ertragsdaten zu bereinigen und zu kalibrieren, um diese Herausforderungen zu überwinden und das volle Potenzial der Ertragsdaten auszuschöpfen.

Einführung in die Datenreinigung und Kalibrierung von Ertragsdaten

Ertragsdaten sind wertvolle Informationsquellen für Landwirte und Forscher, die die Leistung von Feldfrüchten analysieren, Managementzonen identifizieren und Entscheidungen optimieren möchten. Sie erfordern jedoch oft eine Bereinigung und Kalibrierung, um ihre Zuverlässigkeit und Genauigkeit zu gewährleisten.

Die Kalibrierung des “YieldDataset” ist eine Funktionalität, die die Verteilung von Werten mit mathematischen Prinzipien in Einklang bringt und so die Gesamtintegrität der Daten verbessert. Sie stärkt die Qualität der Entscheidungsfindung und macht den Datensatz wertvoll für weitere eingehende Analysen.

GeoPard Yield Clean-Kalibrierungsmodul

GeoPard ermöglichte die Bereinigung und Korrektur von Ertragsdatensätzen mit seinem Yield Clean-Calibration Modul.

Wir haben es einfacher denn je gemacht, die Qualität Ihrer Ertragsdatensätze zu verbessern und Landwirten damit zu ermöglichen, datengesteuerte Entscheidungen zu treffen, auf die Sie sich verlassen können.

GeoPard - Ertragsbereinigung & Kalibrierung, ähnlich wie Feldpotenzialzonen

Nach Kalibrierung und Reinigung wird der resultierende Ertragsdatensatz homogen, ohne Ausreißer oder abrupte Änderungen zwischen benachbarten Geometrien.

Mit unserem neuen Modul können Sie:

Wählen Sie eine Option zum Fortfahren
Wählen Sie eine Option zum Fortfahren
  • Beschädigte, überlappende und subnormale Datenpunkte entfernen
  • Ertragswerte über mehrere Maschinen hinweg kalibrieren
  • Kalibrierung mit nur wenigen Klicks starten (vereinfacht Ihre Benutzererfahrung) oder den zugehörigen GeoPad API-Endpunkt ausführen

Einige der häufigsten Anwendungsfälle für die automatisierte Bereinigung und Kalibrierung von Ertragsdaten sind:

  • Daten synchronisieren, wenn mehrere Erntehelfer entweder gleichzeitig oder über mehrere Tage gearbeitet haben, um Konsistenz zu gewährleisten.
  • Den Datensatz homogener und genauer machen, indem Schwankungen ausgeglichen werden.
  • Datenrauschen und irrelevante Informationen entfernen, die Erkenntnisse trüben können.
  • Die Eliminierung von Wendepunkten oder abnormalen Geometrien, die die tatsächlichen Muster und Trends im Feld verzerren können.

Auf dem Bild unten sehen Sie ein Feld, auf dem 15 Erntemaschinen gleichzeitig gearbeitet haben. Es zeigt, wie sich der ursprüngliche Ertragsdatensatz und der verbesserte Datensatz nach der Kalibrierung mit dem GeoPard-Ertragskalibrierungsmodul deutlich unterscheiden und leicht verständlich sind.

Unterschied zwischen den ursprünglichen und verbesserten Ertragsdatensätzen mit dem Kalibrierungsmodul von GeoPard

Warum ist es wichtig zu reinigen und zu kalibrieren?

Ertragsdaten werden von Ertragsmonitoren und Sensoren gesammelt, die an Mähdreschern angebracht sind. Diese Geräte messen die Massenstromrate und den Feuchtigkeitsgehalt der geernteten Kulturpflanze und verwenden GPS-Koordinaten, um die Daten geografisch zu referenzieren.

Diese Messungen sind jedoch aufgrund verschiedener Faktoren, die die Leistung der Geräte oder die Anbaubedingungen beeinflussen können, nicht immer genau oder konsistent. Einige dieser Faktoren sind:

Gerätevarianten: Landmaschinen, wie zum Beispiel Mähdrescher und Feldhäcksler, weisen oft inhärente Variationen auf, die zu Abweichungen bei der Datenerfassung führen können. Diese Variationen können Unterschiede in der Sensorempfindlichkeit oder der Kalibrierung der Maschinen umfassen.

Beispielsweise können einige Ertragsmonitore eine lineare Beziehung zwischen Spannung und Massenstromrate verwenden, während andere eine nichtlineare verwenden. Einige Sensoren können empfindlicher auf Staub oder Schmutz reagieren als andere. Diese Unterschiede können zu Abweichungen bei den Ertragsdaten zwischen verschiedenen Maschinen oder Feldern führen.

Beispiel 1 Wendemanöver, Stopps, halbe Ausrüstungshälfte belegt
Beispiel 1 Wendemanöver, Stopps, halbe Ausrüstungshälfte belegt
Beispiel 2 Wenden, Anhalten, Halb-Ausrüstungsbreite genutzt
Beispiel 2 Wenden, Anhalten, Halb-Ausrüstungsbreite genutzt

2. Umweltfaktoren: Wetterbedingungen, Bodentypen und Topographie spielen eine bedeutende Rolle für Ernteerträge. Wenn diese Umweltfaktoren nicht berücksichtigt werden, können sie Rauschen und Ungenauigkeiten in die Ertragsdaten einbringen.

Beispielsweise können sandige Böden oder steile Hänge zu geringeren Erträgen führen als lehmige Böden oder flache Geländestrukturen. Ebenso können Gebiete mit höherer Feldstockdichte höhere Erträge aufweisen als Gebiete mit geringerer Dichte.

3. Ungenauigkeiten des Sensors: Sensoren sind trotz ihrer Präzision nicht unfehlbar. Sie können im Laufe der Zeit driften und ungenaue Messwerte liefern, wenn sie nicht regelmäßig kalibriert werden.

Beispiele hierfür sind, dass eine defekte Wägezelle oder eine lockere Verkabelung zu ungenauen Massendurchsatzmessungen führen kann. Ein verschmutzter oder beschädigter Feuchtigkeitssensor kann fehlerhafte Werte für den Feuchtigkeitsgehalt liefern. Ein vom Bediener falsch eingegebener Feldname oder eine falsche Feld-ID kann Ertragsdaten der falschen Felddatei zuweisen.

Diese Faktoren können zu verrauschten, fehlerhaften oder inkonsistenten Ertragsdatensätzen führen. Wenn diese Daten nicht ordnungsgemäß bereinigt und kalibriert werden, können sie zu irreführenden Schlussfolgerungen oder Entscheidungen führen.

Zum Beispiel kann die Verwendung von unbereinigten Ertragsdaten zur Erstellung von Ertragskarten zu einer falschen Identifizierung von hoch- oder niedrigertragenden Flächen innerhalb eines Feldes führen.

Warum ist es wichtig, Ertragsdatensätze zu bereinigen und zu kalibrieren

Die Verwendung nicht kalibrierter Ertragsdatensätze zum Vergleich von Erträgen über verschiedene Felder oder Jahre hinweg kann zu unfairen oder ungenauen Vergleichen führen. Die Verwendung von nicht bereinigten oder nicht kalibrierten Ertragsdaten zur Berechnung von Nährstoffbilanzen oder Betriebsmittelinputs kann zu Über- oder Unterdosierung von Düngemitteln oder Pestiziden führen.

Daher ist es unerlässlich, Ertragsdaten zu bereinigen und zu kalibrieren, bevor sie für Analysen oder Entscheidungsfindungen verwendet werden. Die Bereinigung von Ertragsdatensätzen ist der Prozess der Entfernung oder Korrektur von Fehlern oder Rauschen in den Rohertragsdaten, die von den Ertragsmonitoren und Sensoren gesammelt wurden.

Automatisierte Methoden zur Bereinigung und Kalibrierung von Ertragsdaten

Hier kommen automatisierte Datenbereinigungstechniken ins Spiel. Automatisierte Datenbereinigungstechniken sind Methoden, die Aufgaben der Datenbereinigung mit oder ohne geringfügige menschliche Beteiligung durchführen können.

Kalibrierschritt konfigurieren
Automatisierte Methoden zur Reinigung und Kalibrierung

Automatisierte Datenbereinigungstechniken können Zeit und Ressourcen sparen, menschliche Fehler reduzieren und die Skalierbarkeit und Effizienz der Datenbereinigung verbessern. Einige der gängigen automatisierten Datenbereinigungstechniken für Ertragsdaten sind:

1. Ausreißererkennung: Ausreißer sind Datenpunkte, die signifikant vom Durchschnitt abweichen. Automatisierte Algorithmen können diese Anomalien identifizieren, indem sie Datenpunkte mit statistischen Kennzahlen wie Mittelwert, Median und Standardabweichung vergleichen.

Zum Beispiel kann ein Ausreißererkennungsalgorithmus, wenn ein Ertragsdatensatz für ein bestimmtes Feld einen außergewöhnlich hohen Ernteertrag zeigt, diesen zur weiteren Untersuchung kennzeichnen.

2. Rauschunterdrückung: Rauschen in Ertragsdaten kann aus verschiedenen Quellen stammen, darunter Umweltfaktoren und Sensorungenauigkeiten.

Automatisierte Rauschunterdrückungstechniken, wie Glättungsalgorithmen, filtern sprunghafte Schwankungen heraus und machen die Daten stabiler und zuverlässiger. Dies hilft bei der Identifizierung von echten Trends und Mustern in den Daten.

3. DatenimputationFehlende Daten sind ein häufiges Problem in Ertragsdatensätzen. Datenimputationstechniken schätzen und füllen fehlende Werte automatisch basierend auf Mustern und Beziehungen innerhalb der Daten auf.

Zum Beispiel können Imputationsmethoden fehlende Werte basierend auf benachbarten Datenpunkten schätzen, falls ein Sensor über einen bestimmten Zeitraum keine Daten aufzeichnet.

Daher dienen automatisierte Datenbereinigungstechniken als Torwächter der Datenqualität und stellen sicher, dass Ertragsdatensätze eine zuverlässige und wertvolle Ressource für Landwirte weltweit bleiben.

Darüber hinaus gibt es viele nützliche Werkzeuge und Computerprogramme, die Ertragsdaten automatisch bereinigen und anpassen können, und GeoPard ist eines davon. Das GeoPard Yield Clean-Calibration Module ist zusammen mit ähnlichen Lösungen äußerst wichtig, um die Genauigkeit und Zuverlässigkeit der Daten zu gewährleisten.

GeoPard - Ertragsreinigung & Kalibrierung - 3 Mähdrescher

Schlussfolgerung

Automatisierte Bereinigung und Kalibrierung von Ertragsdaten (AYDCC) ist in der Präzisionslandwirtschaft unerlässlich. Sie stellt die Genauigkeit von Kulturdaten sicher, indem sie Fehler beseitigt und die Qualität verbessert, was es Landwirten ermöglicht, fundierte Entscheidungen zu treffen. AYDCC befasst sich mit Datenherausforderungen und nutzt automatisierte Techniken für vertrauenswürdige Ergebnisse. Werkzeuge wie das Yield Clean-Calibration Module von GeoPard vereinfachen diesen Prozess für Landwirte und tragen zu effizienten und produktiven landwirtschaftlichen Praktiken bei.

Anwendungen der (GIS) Geoinformatik in der Landwirtschaft

Geoinformatik (GIS) schließt die Lücke zwischen räumlichen Daten und landwirtschaftlichen Entscheidungen und ermöglicht Landwirten, Ressourcen optimal zu nutzen und gleichzeitig die Umweltbelastung zu minimieren. Dieser technologieorientierte Ansatz trägt dazu bei, Präzisionslandwirtschaftsmethoden an spezifische Feldbedingungen anzupassen und so Produktivität und Effizienz zu steigern.

Geoinformatik in der Landwirtschaft

Durch die Analyse präziser räumlicher Informationen, wie z. B. Bodenvariabilität, Feuchtigkeitsgehalt und Schädlingsverteilung, können Landwirte fundierte Entscheidungen treffen und so sicherstellen, dass jeder Bereich ihres Landes die exakt benötigte Behandlung erhält.

Aktuelle Daten belegen die weite Verbreitung dieser Technologie: Über 701.000 landwirtschaftliche Betriebe nutzen sie in unterschiedlichem Umfang. Die Integration von Geodaten etabliert sich zunehmend als Standardverfahren in Entscheidungsprozessen verschiedenster Branchen, von der kleinbäuerlichen Subsistenzwirtschaft bis hin zu großen Agrarbetrieben.

Mithilfe von Satellitenbildern und Bodensensoren können Landwirte ihre Pflanzen in Echtzeit überwachen. Durch weniger Abfall und eine geringere Umweltbelastung können sie Wasser, Dünger und Pflanzenschutzmittel präzise dort und dann ausbringen, wo sie benötigt werden.

Das australische CottonMap-Projekt nutzt Geoinformatik zur Überwachung des Wasserverbrauchs, was zu einer Reduzierung des Wasserverbrauchs um 401 Tonnen führte. Verbesserte Ressourcenbewirtschaftung minimiert die Umweltbelastung durch die Verringerung von Chemikalienabflüssen und Überbewässerung.

Geoinformatik in der Landwirtschaft

Eine gesteigerte Produktivität trägt zur globalen Ernährungssicherheit bei. Durch die Optimierung von Anbaumustern mithilfe räumlicher Daten können Landwirte höhere Ernteerträge erzielen, ohne die landwirtschaftliche Nutzfläche zu vergrößern.

Was ist Geoinformatik?

Geoinformatik, auch bekannt als Geoinformationswissenschaft (GIScience), ist ein multidisziplinäres Feld, das Elemente der Geographie, Kartographie, Fernerkundung, Informatik und Informationstechnologie kombiniert, um geographische und räumliche Daten zu sammeln, zu analysieren, zu interpretieren und zu visualisieren.

Es konzentriert sich auf die Erfassung, Speicherung, Verwaltung, Analyse und Präsentation räumlicher Informationen in digitaler Form und trägt so zu einem besseren Verständnis der Erdoberfläche und der Beziehungen zwischen verschiedenen geographischen Merkmalen bei. Es ist ein leistungsstarkes Werkzeug, das für eine Vielzahl von Zwecken eingesetzt werden kann, darunter:

1. Präzisionslandwirtschaft: Es kann zur Erfassung von Daten zu verschiedenen Faktoren wie Bodentyp, Ernteertrag und Schädlingsbefall genutzt werden. Diese Daten lassen sich anschließend analysieren, um Bereiche mit Unterschieden innerhalb eines Feldes zu identifizieren. Sobald diese Bereiche identifiziert sind, können Landwirte mithilfe von GIS individuelle Bewirtschaftungspläne für jeden Bereich entwickeln.

2. Umweltüberwachung: Es kann genutzt werden, um Veränderungen in der Umwelt, wie etwa Entwaldung, Landnutzungsänderungen und Wasserqualität, zu überwachen. Diese Daten können dann verwendet werden, um die Fortschritte von Umweltrichtlinien zu verfolgen und Gebiete zu identifizieren, die zusätzlichen Schutz benötigen.

3. Stadtplanung: Geoinformatik kann zur Planung und Verwaltung städtischer Gebiete eingesetzt werden. Mithilfe dieser Daten lassen sich Gebiete identifizieren, die Entwicklungsbedarf haben, Verkehrsnetze planen und die Infrastruktur verwalten.

4. Katastrophenmanagement: Es kann zur Bewältigung von Katastrophen wie Überschwemmungen, Erdbeben und Waldbränden eingesetzt werden. Mithilfe dieser Daten lässt sich der Verlauf einer Katastrophe verfolgen, betroffene Gebiete identifizieren und Hilfsmaßnahmen koordinieren.

Was ist Geoinformatik? Komponenten der Geoinformatik

Komponenten der Geoinformatik

Diese Komponenten arbeiten zusammen, um Einblicke in verschiedene Aspekte der Erdoberfläche und ihrer Zusammenhänge zu ermöglichen. Hier sind die Hauptkomponenten der Geoinformatik:

  • Geographische Informationssysteme (GIS): GIS umfasst die Verwendung von Software und Hardware zum Erfassen, Speichern, Bearbeiten, Analysieren und Visualisieren geografischer Daten. Diese Daten werden in Ebenen organisiert, sodass Benutzer Karten erstellen, räumliche Analysen durchführen und fundierte Entscheidungen auf der Grundlage räumlicher Beziehungen treffen können.
  • Fernerkundung: Fernerkundung bezeichnet die Erfassung von Informationen über die Erdoberfläche aus der Ferne, typischerweise mithilfe von Satelliten, Flugzeugen oder Drohnen. Fernerkundungsdaten, oft in Form von Bildern, können Aufschluss über Landbedeckung, Vegetationszustand, Klimamuster und vieles mehr geben.
  • Globale Positionierungssysteme (GPS)Die GPS-Technologie ermöglicht präzise Positionsbestimmung und Navigation über ein Netzwerk von Satelliten. In Geoinformationssystemen (GIS) wird GPS zur Erfassung genauer Standortdaten eingesetzt, die für Kartierung, Navigation und räumliche Analysen unerlässlich sind.
  • Räumliche Analyse: Es ermöglicht die Anwendung verschiedener räumlicher Analyseverfahren, um Muster, Beziehungen und Trends in geografischen Daten zu erkennen. Zu diesen Verfahren gehören Proximitätsanalyse, Interpolation, Überlagerungsanalyse und Netzwerkanalyse.
  • KartographieDie Kartografie umfasst die Erstellung von Karten und visuellen Darstellungen geografischer Daten. Sie bietet Werkzeuge und Methoden zur Gestaltung informativer und optisch ansprechender Karten, die räumliche Informationen effektiv vermitteln.
  • GeodatenbankenGeodatenbanken sind strukturierte Datenbanken, die zur Speicherung und Verwaltung geografischer Daten entwickelt wurden. Sie bieten ein Rahmenwerk zur Organisation räumlicher Daten und ermöglichen so deren effiziente Speicherung, Abfrage und Analyse.
  • Webmapping und GeodatenanwendungenDie Geoinformatik hat sich auf webbasierte Kartierung und Anwendungen ausgeweitet, wodurch Nutzer über Online-Plattformen auf geografische Daten zugreifen und mit ihnen interagieren können. Dies hat zur Entwicklung verschiedener standortbezogener Dienste und Werkzeuge geführt.
  • GeodatenmodellierungDie Geodatenmodellierung umfasst die Erstellung von Computermodellen zur Simulation realer geographischer Prozesse. Diese Modelle helfen, Ergebnisse vorherzusagen, Szenarien zu simulieren und Entscheidungen in verschiedenen Bereichen zu unterstützen.

8 Anwendungen und Einsatzmöglichkeiten der Geoinformatik in der Landwirtschaft

Hier einige der wichtigsten Anwendungsgebiete und Einsatzmöglichkeiten von GIS in der Landwirtschaft:

1. Präzisionslandwirtschaft

Die Präzisionslandwirtschaft nutzt die Möglichkeiten von Geographischen Informationssystemen (GIS), um Landwirten detaillierte Einblicke in ihre Felder zu ermöglichen. Diese Einblicke reichen von detaillierten Vegetations- und Produktivitätskarten bis hin zu kulturspezifischen Informationen.

Kern dieses Ansatzes ist die datengestützte Entscheidungsfindung, die Landwirte in die Lage versetzt, ihre Anbaumethoden für maximalen Ertrag und höchste Effizienz zu optimieren.

Einsatzmöglichkeiten der Geoinformatik in der Landwirtschaft

Durch die Erstellung von Produktivitätskarten bietet GeoPard Crop Monitoring eine entscheidende Lösung für die Präzisionslandwirtschaft. Diese Karten nutzen historische Daten aus den Vorjahren und ermöglichen es Landwirten, Produktivitätsmuster auf ihren Betrieben zu erkennen. Mithilfe dieser Informationen können sie ertragreiche und unproduktive Standorte identifizieren.

2. Überwachung der Pflanzengesundheit

Die Bedeutung der Überwachung des Pflanzenzustands kann nicht hoch genug eingeschätzt werden. Das Wohlbefinden der Pflanzen wirkt sich direkt auf Erträge, Ressourcenmanagement und die allgemeine Gesundheit des Agrarökosystems aus.

Traditionell war die manuelle Inspektion von Nutzpflanzen auf weitläufigen Feldern mühsam und zeitaufwendig. Mit dem Aufkommen fortschrittlicher Technologien wie GIS und Fernerkundung hat sich jedoch ein grundlegender Wandel vollzogen, der eine präzise Überwachung in einem bisher unerreichten Umfang ermöglicht.

Geoinformatik hilft bei der Früherkennung potenzieller Probleme, die die Pflanzengesundheit beeinträchtigen. Durch die Analyse von Fernerkundungsdaten und Satellitenbildern können Landwirte Stressfaktoren wie Nährstoffmängel oder Krankheitsausbrüche identifizieren und so gezielte Maßnahmen ergreifen.

3. Ernteertragsprognose

Durch die Integration historischer Daten, der Bodenbeschaffenheit, Wetterdaten und weiterer Variablen ermöglicht es Landwirten, Ernteerträge mit bemerkenswerter Genauigkeit vorherzusagen. Diese Informationen versetzen sie in die Lage, fundierte Entscheidungen hinsichtlich Anbau, Ressourceneinsatz und Vermarktungsstrategien zu treffen.

Ertragsdatenkarte der Zonen 2019

Im Bereich der Ertragsprognose hat sich GeoPard als führender Innovator etabliert. GeoPard hat eine zuverlässige Methode entwickelt, die durch die Kombination historischer und aktueller, satellitengestützter Erntedaten eine exzellente Genauigkeit von über 901.030 Punkten erzielt. Dieser innovative Ansatz beweist, wie Technologie die moderne Landwirtschaft revolutionieren kann.

4. Viehbestandsüberwachung mit Geoinformatik

Räumliche Daten von GPS-Trackern an Nutztieren liefern Einblicke in deren Bewegungen und Verhalten. Diese Instrumente ermöglichen es Landwirten, den genauen Standort ihrer Tiere auf dem Hof zu bestimmen und so eine effiziente Haltung und Pflege zu gewährleisten.

Über die Standortverfolgung hinaus bieten GIS-gestützte Agrarwerkzeuge einen umfassenden Überblick über die Gesundheit der Nutztiere, Wachstumsmuster, Fruchtbarkeitszyklen und Nährstoffbedürfnisse.

Der globale Markt für Präzisionslandwirtschaft, einschließlich der Tierüberwachung, wird in den kommenden Jahren voraussichtlich ein beträchtliches Volumen erreichen. Dieser Trend unterstreicht das transformative Potenzial von GIS für die Optimierung des Tiermanagements.

5. Insekten- und Schädlingsbekämpfung

Herkömmliche Methoden, wie die manuelle Inspektion großer Felder, haben sich als zeitaufwendig und ineffizient erwiesen. Die Konvergenz von Technologien, insbesondere von Deep-Learning-Algorithmen und Satellitendaten, hat jedoch eine Revolution in der Schädlingserkennung und -bekämpfung ausgelöst.

Geoinformatik hilft bei der Erstellung von Schädlingsverbreitungskarten und ermöglicht so den gezielten Einsatz von Pflanzenschutzmitteln. Durch die Anwendung in bestimmten Gebieten können Landwirte den Chemikalieneinsatz minimieren, die Umweltbelastung reduzieren und Nützlinge schützen.

GeoPard Crop Monitoring ist eine effektive Methode, um verschiedene Bedrohungen wie Unkrautbefall und Pflanzenkrankheiten frühzeitig zu erkennen. Potenzielle Problemzonen werden durch die Auswertung von im Feld erhobenen Vegetationsindizes identifiziert.

Ein niedriger Vegetationsindexwert an einem bestimmten Standort kann beispielsweise auf potenzielle Schädlinge oder Krankheiten hinweisen. Diese Erkenntnis vereinfacht das Verfahren und macht die zeitaufwändige manuelle Erkundung großer Felder überflüssig.

6. Bewässerungssteuerung

GIS-gestützte Daten liefern wertvolle Erkenntnisse über den Bodenfeuchtigkeitsgehalt und helfen Landwirten, fundierte Entscheidungen hinsichtlich der Bewässerungsplanung zu treffen. Dies gewährleistet eine effiziente Wassernutzung und beugt Überwässerung oder Trockenstress vor.

Die Bedeutung der variablen Ausbringung von Bewässerung

GIS-Technologie für die Landwirtschaft bietet ein leistungsstarkes Werkzeug zur Erkennung von Pflanzen, die unter Wasserstress leiden. Landwirte können mithilfe von Indizes wie dem Normalized Difference Water Index (NDWI) oder dem Normalized Difference Moisture Index (NDMI) mehr über den Wasserstatus ihrer Pflanzen erfahren.

Die Standardkomponente von GeoPard Crop Monitoring, der NDMI-Index, bietet eine Skala von -1 bis 1. Wasserknappheit wird durch negative Werte um -1 angezeigt, während Staunässe durch positive Werte nahe 1 angezeigt werden kann.

7. Hochwasser-, Erosions- und Dürrebekämpfung

Überschwemmungen, Erosion und Dürre stellen gewaltige Herausforderungen dar, die Agrarlandschaften erheblich schädigen können. Neben der physischen Zerstörung beeinträchtigen diese Faktoren die Wasserverfügbarkeit, die Bodengesundheit und die gesamte Ernteproduktivität. Ein wirksames Management dieser Bedrohungen ist entscheidend für die Ernährungssicherheit, den Erhalt natürlicher Ressourcen und die Förderung nachhaltiger Anbaumethoden.

Geoinformatik hilft bei der Beurteilung der Anfälligkeit von Landschaften gegenüber Überschwemmungen, Erosion und Dürre. Durch die Analyse topografischer Daten, Niederschlagsmuster und Bodeneigenschaften können Landwirte Strategien zur Minderung dieser Risiken umsetzen.

8. GIS in der landwirtschaftlichen Automatisierung

Geographische Informationssysteme (GIS) haben ihre traditionelle Rolle als Kartierungswerkzeuge längst hinter sich gelassen und sich zu unverzichtbaren Steuerungsinstrumenten für automatisierte Maschinen entwickelt. Diese Technologie stattet verschiedene landwirtschaftliche Geräte wie Traktoren und Drohnen mit Geodaten und präzisen Navigationssystemen aus.

Dadurch können Aufgaben, die vom Pflanzen über das Spritzen bis hin zur Ernte reichen, mit beispielloser Genauigkeit und minimalem menschlichen Eingriff ausgeführt werden.

GIS in der Landwirtschaftsautomatisierung

Stellen Sie sich vor, ein Traktor soll ein riesiges Feld bepflanzen. Ausgestattet mit GPS und GIS-Technologie nutzt er Geodaten, um vorgegebene Routen abzufahren und so eine gleichmäßige Saatgutablage und optimale Pflanzabstände zu gewährleisten. Diese Präzision steigert nicht nur den Ernteertrag, sondern minimiert auch den Ressourcenverbrauch.

Die Rolle der Geoinformatik in der Präzisionslandwirtschaft

Es spielt eine entscheidende Rolle in der Präzisionslandwirtschaft, indem es Landwirten die Daten und Werkzeuge liefert, die sie für fundierte Entscheidungen im Pflanzenbau benötigen. Es kann zur Erfassung von Daten zu einer Vielzahl von Faktoren eingesetzt werden, wie beispielsweise Bodentyp, Ernteertrag und Schädlingsbefall.

Diese Daten können anschließend analysiert werden, um Bereiche mit Unterschieden innerhalb eines Feldes zu identifizieren. Sobald diese Bereiche identifiziert sind, können Landwirte mithilfe von GIS individuelle Bewirtschaftungspläne für jeden Bereich entwickeln.

Der Einsatz von Geoinformatik in der Präzisionslandwirtschaft nimmt weltweit rasant zu. In den Vereinigten Staaten beispielsweise hat die Nutzung von Präzisionslandwirtschaft in den letzten fünf Jahren um mehr als 501 Tonnen pro Jahr zugenommen. Und in China wird für die kommenden Jahre ein jährliches Wachstum von mehr als 201 Tonnen pro Jahr erwartet.

Studien haben gezeigt, dass durch die präzise Anwendung von Inputs mithilfe von Geoinformatik-Techniken Ertragssteigerungen von bis zu 151 TP3T erzielt und gleichzeitig die Inputkosten um 10-301 TP3T gesenkt werden können.

Eine 2020 in der Fachzeitschrift Nature veröffentlichte Studie ergab, dass der Einsatz von GIS zur Bewässerungssteuerung auf einem Weizenfeld zu einer Ertragssteigerung von 201 Tonnen führte. Eine weitere, 2021 in der Fachzeitschrift Science veröffentlichte Studie zeigte, dass die präzisere Düngung auf einem Maisfeld mithilfe von GIS eine Ertragssteigerung von 151 Tonnen bewirkte.

Es kann auch zur Erstellung von Ertragskarten verwendet werden. Mithilfe dieser Karten lassen sich ertragsschwache Gebiete identifizieren, die anschließend untersucht werden können, um die Ursache des Problems zu ermitteln. Sobald die Ursache identifiziert ist, können Landwirte Korrekturmaßnahmen ergreifen, um die Erträge in diesen Gebieten zu verbessern.

Die Rolle der Geoinformatik in der Präzisionslandwirtschaft

Landwirte können es beispielsweise nutzen, um Karten der Bodenart und -fruchtbarkeit zu erstellen. Mithilfe dieser Karten lassen sich Düngemittel gezielter ausbringen, was zu höheren Ernteerträgen und einer Reduzierung unnötiger Düngemittelmengen beitragen kann.

Neben der Datenerfassung und -analyse kann es auch zur Visualisierung räumlicher Daten eingesetzt werden. Dies kann Landwirten helfen, die Verteilung verschiedener Faktoren wie Bodentyp und Ernteertrag auf einem Feld zu erkennen. Visualisierungswerkzeuge unterstützen Landwirte zudem dabei, ihre Ergebnisse anderen, beispielsweise Agrarberatern oder Regierungsbeamten, zu vermitteln.

Die praktischen Anwendungsmöglichkeiten der Geoinformatik in der Präzisionslandwirtschaft sind vielfältig. Beispielsweise nutzt die variable Ausbringungstechnik (VRT) räumliche Daten, um unterschiedliche Mengen an Betriebsmitteln wie Wasser, Dünger und Pflanzenschutzmittel auf einem Feld auszubringen.

Dieser Ansatz stellt sicher, dass die Pflanzen genau die Nährstoffe erhalten, die sie benötigen, und optimiert so Wachstum und Ertrag. Satellitenbilder und Drohnen liefern zudem wertvolle Erkenntnisse über den Gesundheitszustand der Pflanzen und die Krankheitserkennung, was ein schnelles Eingreifen ermöglicht.

GeoPard Pflanzenüberwachung als Beispiel für landwirtschaftliche GIS-Software

Es ist wichtig zu beachten, dass sich die in der Landwirtschaft eingesetzte GIS-Software je nach Verwendungszweck unterscheiden kann. Während einige Tools den Bodenfeuchtigkeitsgrad anzeigen, um die Pflanzenauswahl zu erleichtern, visualisieren andere Pflanzensorten, Erträge und Verbreitungsgebiete.

Selbst der Vergleich der Wirtschaftlichkeit von Holzeinschlag und Forstwirtschaft kann mithilfe verschiedener Anwendungen erfolgen. Jeder Landwirt oder Agrarmanager muss daher die optimale GIS-Lösung finden, die ihm die benötigten Informationen für fundierte Entscheidungen über sein Land liefert.

Im Hinblick auf Felddaten bietet die Crop Monitoring-Plattform von GeoPard zahlreiche Vorteile. Sie liefert Zusammenfassungen zur Vegetations- und Bodenfeuchtedynamik, historische Vegetations- und Wetterdaten sowie präzise 14-Tage-Wettervorhersagen.

GeoPard ermöglicht die automatisierte Synchronisierung der Pflanzenüberwachung

Diese Plattform bietet Funktionen wie Scouting zur Organisation von Aktivitäten und zum Austausch von Echtzeitinformationen sowie ein Feldaktivitätsprotokoll zur Planung und Überwachung von Einsätzen und bietet somit mehr als nur GIS-basierte Daten.

GeoPards Pflanzenüberwachungssystem integriert auch Daten aus weiteren Quellen. Das Datenverwaltungstool beispielsweise bindet Maschinendaten in die Plattform ein. Es unterstützt gängige Dateiformate wie SHP und ISO-XML.

Sie können Ernteerträge mithilfe von Daten aus Feldmaschinen messen, diese mit Düngekarten vergleichen, Düngestrategien analysieren und Pläne zur Ertragssteigerung erstellen. Organisationen, mit denen Agrarunternehmen zusammenarbeiten, und die Unternehmen selbst profitieren erheblich von dieser Komplettlösung.

Herausforderungen in der Präzisionslandwirtschaft und Geoinformatik

Die Integration von Präzisionslandwirtschaft und Geoinformatik wirft eine Vielzahl von politischen und regulatorischen Fragen auf. Regierungen weltweit ringen mit der Entwicklung von Rahmenbedingungen, die Innovationen fördern und gleichzeitig Datenschutz, Landnutzung und ökologische Nachhaltigkeit gewährleisten.

Beispielsweise können Vorschriften die Erhebung und Weitergabe räumlicher Daten, die Rechte an geistigem Eigentum für Präzisionslandwirtschaftstechnologien und den ethischen Einsatz von KI in der Landwirtschaft regeln.

In der Europäischen Union erkennt die Gemeinsame Agrarpolitik (GAP) die Rolle digitaler Technologien, einschließlich der Geoinformatik, bei der Steigerung der landwirtschaftlichen Produktivität an.

Finanzielle Anreize sollen Landwirte dazu bewegen, Präzisionslandwirtschaftsmethoden anzuwenden, die mit Umwelt- und Nachhaltigkeitszielen im Einklang stehen. Dieses Beispiel verdeutlicht, wie politische Maßnahmen die Technologieeinführung zum Wohle aller fördern können.

Die Einführung von Geoinformatik-Technologien in der Landwirtschaft bietet zwar erhebliche Vorteile, ist aber auch mit Herausforderungen verbunden, insbesondere für Landwirte unterschiedlicher Betriebsgrößen. Kleinbauern haben oft mit finanziellen Engpässen zu kämpfen und verfügen nicht über die nötigen Ressourcen für die Anschaffung der Technologien und Schulungen.

Größere Betriebe stoßen aufgrund ihres Umfangs auf komplexe Datenmanagement-Probleme. Häufig bestehen Wissenslücken im technischen Bereich, sodass sowohl kleine als auch große Landwirte Schulungen benötigen, um Geoinformatik-Werkzeuge effektiv nutzen zu können.

Mangelnde Infrastruktur und unzureichende Konnektivität erschweren den Zugang, insbesondere in abgelegenen Gebieten. Anpassungsschwierigkeiten treten auf, da Lösungen möglicherweise nicht für kleine Betriebe geeignet sind oder sich nicht nahtlos in größere Unternehmen integrieren lassen.

Kulturelle Widerstände gegen Veränderungen und Bedenken hinsichtlich des Datenschutzes beeinträchtigen die allgemeine Akzeptanz. Staatliche Maßnahmen, Unsicherheiten bezüglich des Return on Investment und Interoperabilitätsprobleme behindern den Fortschritt zusätzlich.

Die Bewältigung dieser Herausforderungen erfordert maßgeschneiderte Strategien, um sicherzustellen, dass die Geoinformatik allen Landwirten zugutekommt, unabhängig von der Betriebsgröße.

Schlussfolgerung

Die nahtlose Integration der Geoinformatik in die moderne Landwirtschaft birgt ein enormes Transformationspotenzial. Durch die Nutzung raumbezogener Daten können Landwirte und Akteure der Agrarbranche fundierte Entscheidungen treffen, die Ressourcennutzung optimieren und nachhaltige Praktiken fördern. Ob es um die Vorhersage von Ernteerträgen, das Wassermanagement oder die Verbesserung der Präzisionslandwirtschaft geht – GIS erweist sich als wegweisendes Instrument, das eine effizientere, widerstandsfähigere und produktivere Zukunft für die Landwirtschaft weltweit gestaltet.

wpChatIcon
wpChatIcon

    Kostenlose GeoPard Demo / Beratung anfordern








    Mit Klick auf den Button stimmen Sie unseren Datenschutzbestimmungen. Wir brauchen es für die Beantwortung Ihrer Anfrage.

      Abonnieren


      Mit Klick auf den Button stimmen Sie unseren Datenschutzbestimmungen

        Schicken Sie uns Informationen


        Mit Klick auf den Button stimmen Sie unseren Datenschutzbestimmungen