„KI-Modelle für die Bioökonomie müssen transparent sein“

„KI-Modelle für die Bioökonomie müssen transparent sein“

Marina Höhne

Beruf:
promovierte Informatikerin

Position:
Leiterin der Abteilung „Data Science in Bioeconomy“ am Leibniz-Institut für Agrartechnik in Potsdam und Professorin an der Universität Potsdam für digitale Bioökonomie

Marina Höhne
Vorname
Marina
Nachname
Höhne

Beruf:
promovierte Informatikerin

Position:
Leiterin der Abteilung „Data Science in Bioeconomy“ am Leibniz-Institut für Agrartechnik in Potsdam und Professorin an der Universität Potsdam für digitale Bioökonomie

Marina Höhne

Marina Höhne will Entscheidungen von KI-Modellen nachvollziehbar machen, um das komplexe System der Bioökonomie besser zu verstehen, und so Ursache und Wirkung verschiedener Prozesse entschlüsseln.

Digitale Technologie wie erdnahe Satelliten, Flugdrohnen oder Feldroboter liefern schon heute kontinuierlich hochaufgelöste Bilder. Die Menge an Daten, die dabei entsteht, ist jedoch viel zu groß, als dass sie manuell ausgewertet werden kann. KI-Systeme hingegen können diese Datenmengen mit Leichtigkeit bewältigen. Die Entscheidungen, die KI-Modelle treffen, sind jedoch kaum nachvollziehbar. Marina Höhne, KI-Expertin und Professorin für digitale Bioökonomie, will das ändern. Sie ist überzeugt, dass eine bessere Transparenz von KI-Systemen nicht nur das Vertrauen in die Methoden des maschinellen Lernerns verbessern würde, sondern auch den Einsatz solcher Systeme in Landwirtschaft und Bioökonomie fördern und damit zu einer nachhaltigeren Nutzung von Ressourcen beitragen kann.

Frage

Ist KI in der heutigen Form nicht verständlich genug? Wo liegen die Schwachstellen?

Antwort

Die KI hat sich in den letzten Jahren rasant weiterentwickelt – durch die wachsende Rechenleistung der Supercomputer konnten immer größere Modelle (insbesondere tiefe neuronale Netze) trainiert werden. Diese meist sehr komplexen KI-Modelle werden oft auch als Black-Box bezeichnet, da wir ihre Entscheidungen nicht direkt nachvollziehen können. Ein anschauliches Beispiel: Wir 'füttern' ein KI-Modell mit einem Bild von einem Pferd und nach einem erfolgreichen Trainingsprozess erkennt die KI Pferde auf diesem und auch auf anderen Bildern. Wir erfahren aber nicht, warum sich das Modell für die Klasse Pferd entscheidet. Somit ist eine der Schwachstellen der heutigen sehr komplexen KI-Modelle die fehlende Transparenz, also das Fehlen einer Darstellung davon, warum und wie eine bestimmte Entscheidung getroffen wurde.

Frage

Warum ist es so wichtig, dass KI-Modelle transparent sind?

Antwort

Transparenz ist zum einen entscheidend dafür, sicherzustellen, dass die Maschine vertrauenswürdig funktioniert. Indem wir die Entscheidungsprozesse nachvollziehbar machen, können wir das Vertrauen in die Technologie fördern und die Anwendung in sensiblen Bereichen vorantreiben. Zum anderen ist Transparenz wichtig, um fehlerhaftes Verhalten vom Modell aufzudecken. Beispielsweise wurde bei der Klassifikation von Pferdebildern auf einem sehr großen Datensatz herausgefunden, dass die Maschine zwar die richtige Entscheidung in den meisten Fällen trifft, aber aufgrund von falschen Merkmalen. Nicht das Pferd auf dem Bild war für die Entscheidung des KI-Modells ausschlaggebend, sondern der Name und die Webadresse des Fotografen in der linken unteren Ecke. Damit möchte ich verdeutlichen, dass wir den Entscheidungen von KI-Modellen nicht blind vertrauen dürfen – gerade in sicherheitskritischen Bereichen ist es wichtig, dass die Entscheidungen der KI-Modelle nachvollziehbar sind, um auch ethische und rechtliche Bedenken besser adressieren zu können.

Frage

Wie kann man Transparenz bei KI-Systemen schaffen?

Antwort

Es gibt verschiedene Ansätze, Transparenz von KI-Systemen zu verbessern, und verschiedene Methoden wurden in den letzten Jahren im Forschungsgebiet Explainable AI vorgeschlagen. Grob kann man zwischen lokaler und globaler Erklärbarkeit unterscheiden. Bei der lokalen Erklärbarkeit möchte man für einen einzelnen Datenpunkt, beispielsweise für ein Pferdebild, eine Erklärung generieren – und erhält eine Heatmap: eine Darstellung, auf der für das Modell wichtige Bereiche im Bild farblich gekennzeichnet sind. Bei der globalen Erklärbarkeit geht man weg von einzelnen Datenpunkten und möchte das Modell allgemeiner verstehen. Man ergründet, welche generellen Konzepte für die Klasse Pferd gelernt worden sind – hier würden wir zum Beispiel Fellfarbe, die Form von Ohren oder Ähnliches erwarten. In unserem speziellen Beispiel könnte man auch Konzepte innerhalb des KI-Modells finden, die Buchstaben und Textbausteine als relevante Komponenten für die Klasse Pferd gelernt haben. Zusammen mit Kirill Bykov, einem Doktoranden in meinem Team, haben wir eine Methode entwickelt, die es uns ermöglicht, automatisiert solche vom Modell gelernten Konzepte von Artefakten, wie den Text, zu finden und für den Menschen sichtbar zu machen. Weiterhin gibt es noch die sogenannten selbsterklärenden Netzwerke, wo die Erklärung direkt in das Netzwerk in Form von Prototypen integriert wird.

Frage

Wie könnten landwirtschaftliche und bioökonomische Prozesse von transparenten KI-Modellen profitieren?

Antwort

Heutzutage gibt es schon diverse landwirtschaftliche Bereiche und Prozesse, in denen KI-Modelle unterstützen – beispielsweise die schnellere Erkennung von Krankheiten bei Pflanzen oder die Vorhersage des Erntezeitpunktes.  Durch transparente KI-Modelle könnten die Farmerinnen und Farmer verstehen, warum das Modell einen bestimmten Erntezeitpunkt vorschlägt oder warum das Feld an verschiedenen Stellen unterschiedlich gedüngt werden sollte. Nachvollziehbare Modell-Entscheidungen könnten das Vertrauen in die KI unterstützen und somit zur vermehrten Anwendung in der Landwirtschaft und Bioökonomie beitragen, um letztlich eine nachhaltigere Praxis und effizientere Ressourcennutzung zu erzielen.

Frage

Was begeistert Sie an Ihrer Forschungsarbeit?

Antwort

An meiner Forschungsarbeit zu erklärbarer KI hat mich schon immer fasziniert, dass ich neues Wissen generieren kann – herausfinden, was sich hinter der Black-Box verbirgt – es hat schon fast etwas von Detektivarbeit, vor allem, wenn man fehlerhaftes Verhalten in Modellen aufdecken kann, die bereits in diversen sicherheitskritischen Bereichen angewendet werden. In meiner neuen Position als Professorin für digitale Bioökonomie begeistert mich, dass ich das Wissen aus der Grundlagenforschung und die entwickelten Technologien direkt in konkrete Anwendungen in der Landwirtschaft und Bioökonomie überführen kann und damit einen Mehrwert für die Gesellschaft schaffe.

Frage

Was wollen Sie erreichen?

Antwort

Mein Ziel ist es, KI dafür zu nutzen, um das komplexe System der Bioökonomie besser zu verstehen und somit die Ursache und Wirkung von verschiedenen Prozessen zu entschlüsseln. Natürlich ist es essentiell, Symptome wie Krankheiten oder Trockenstress von Pflanzen zu erkennen, jedoch ist es umso wichtiger, die zugrundeliegenden Ursachen zu verstehen, um sozusagen an der Wurzel des Problems ansetzen zu können. Hier müssen wir aus meiner Sicht das Mikrobiom verstehen, das sowohl im Boden als auch in den Pflanzen von zentraler Bedeutung ist. Ein besseres Verständnis vom Mikrobiom und seinen komplexen Wechselwirkungen mit der Umwelt kann uns helfen, auch die Qualität unserer konsumierten Lebensmittel zu optimieren. Und damit letztlich die Gesundheit von Mensch, Tier und Umwelt zu verbessern und zu einer nachhaltigen Landwirtschaft und Bioökonomie beitragen.

Interview: Beatrix Boldt