Erklärung künstlicher Intelligenz für die Analyse von Feldversuchen

ein Supper & Supper Use Case

Künstliche Intelligenz ist heute in der Landwirtschaft weit verbreitet. Die größten Kritikpunkte an KI-Anwendungen sind jedoch häufig, dass die Modelle wie eine Black-Box funktionieren und nicht für neue Daten verallgemeinert werden können. Ziel des Projekts war die Entwicklung eines allgemeinen, transparenten Frameworks für die analytische und grafische Interpretation der Ergebnisse von Machine Learning Modellen. Dieses Framework kann wertvollere Einblicke in den Analyseprozess liefern als traditionelle statistische Methoden und kann Muster erkennen, welche die landwirtschaftliche Praxis potenziell verbessern.

Wir konzentrierten uns auf die Interpretierbarkeit der Feature Importance, den Effekt der einzelnen Features und die Interaktionseffekte zwischen verschiedenen Features. Um dies umzusetzen, wurden die R-Pakete iml, lime und DALEX eingesetzt.

  • Feature importance: Die erste Frage eines Produktmanagers lautet: “Welcher Faktor hat den stärksten Einfluss auf das Produkt?” Um diese Frage zu beantworten, messen wir die Feature Importance des Modells. Dies geschieht durch die Berechnung der Zunahme des Vorhersagefehlers ohne das jeweilige Feature.
  • Marginaler Effekt: Accumulated Local Effects (ALE) werden zur Beschreibung des marginalen Effekts verwendet, der das Verhältnis zwischen der Zielvariablen und dem Feature darstellt.
  • Interaktionseffekt: Die linke Heatmap zeigt den Interaktionseffekt (Effekt zweiter Ordnung) zweier Variablen. Er zeigt wie der Effekt eines Features auf die Zielvariable durch ein anderes Feature beeinflusst wird. Die rechte Heatmap zeigt den Gesamteffekt (Interaktionseffekt + individueller Haupteffekt) von zwei Variablen, was Aufschluss darüber gibt, welche Kombination von Faktorstufen zu einer guten oder schlechten landwirtschaftlichen Leistung führt. Wenn diese beiden Heatmaps zusammengesetzt werden, kann der Benutzer stark interagierende Regionen und die Wirkungsskala zwischen Interaktions- und Haupteffekt identifizieren.

Es wurde erfolgreich ein Analyseprozess für die Erklärung künstlicher Intelligenz entwickelt. Dieser Prozess kann in verschiedenen Machine Learning Modellen wie XGBoosting, Random Forests, linearen Modellen und logistischen Regressionen angewandt werden. Die Erklärung ist intuitiv und leicht verständlich, und die Grafiken können weitere Erkenntnisse aus dem Modell liefern. Der Produktmanager kann nun auf Grundlage der gewonnenen Erkenntnisse Entscheidungen treffen und sie in die Geschäftsstrategien einfließen lassen.

Kategorie

Technologien

R

Download

Social Sharing

Weitere Use Cases dieser Kategorie

2023-06-20T14:01:18+02:00

Automatisierte und nutzerfreundliche Pipeline zur Analyse landwirtschaftlicher Feldversuche ein Use Case lesen