PEAT – Deep Learning und Pflanzenkrankheiten

Data Science ist in der Landwirtschaft angekommen und ein junges Start-up aus Hannover sorgt in der Szene aktuell für Furore: PEAT nutzt Deep Learning zur Erkennung von Pflanzenkrankheiten. Robert Strey, CTO und Co-Founder, erklärt im Interview die Technologie und Vision des Unternehmens.

idalab: Robert, ihr seid ein vielfach ausgezeichnetes Unternehmen. Wie kam es dazu, dass ihr in der Landwirtschaft aktiv seid?

Strey: Unser Gründerteam hat eine lange Vorgeschichte im Landwirtschaftssektor. Einige haben schon während des Studiums eine NGO mit Fokus auf Gambia und Senegal gegründet, einige haben für Forschungsprojekte in Brasilien gearbeitet. Die Landwirtschaft ist sozusagen unser gemeinsamer Nenner.Ein Problem, das uns allen während verschiedener Stationen aufgefallen ist, ist, dass es für jede Pflanzenkrankheit bzw. jeden Schädling immer lokal unterschiedliche Namen und Beschreibungen gibt. Dies führte dazu, dass weiterführende Informationen über die Pflanzenkrankheit oft nicht verfügbar waren. Denn dazu braucht man den englischen Begriff, bzw. die wissenschaftliche Bezeichnung.

In Brasilien hatten wir beispielsweise einmal die Situation, dass wir aufgrund der Beschreibung der Einheimischen von einem Insektenschädling ausgegangen sind – in Wahrheit war es aber ein Pilz, der zur Verrottung der Wurzeln führt. Hätten wir damals eine Möglichkeit gehabt, früher zu erkennen, um welchen Schädling es sich handelt, hätten wir auch adäquater handeln können. Das ist genau das Problem, welches wir mit PEAT lösen wollen.

idalab: Vom Problem zur Lösung – was gab es damals für Ansätze auf dem Markt?

Strey: Es gab es relativ wenig Ansätze im Markt, deshalb haben wir recherchiert, welche technologischen Lösungen es grundsätzlich geben könnte – insbesondere im Bereich der Bildverarbeitung gab es zu dem Zeitpunkt viel Dynamik. Gleichzeitig kam ja auch Deep Learning auf. Diesen Ansatz fanden wir als Wissenschaftler sehr spannend und haben mit einer EXIST-Förderung als Ausgründung der Universität Hannover die erste Entwicklungsarbeiten in die Technologie stecken können.

idalab: Was waren in der Anfangsphase die Schwerpunkte der Entwicklungsarbeiten?

Strey: Im Prinzip sind wir da dreigleisig gefahren. Wir haben unsere App aufgebaut und programmiert, darüber hinaus an der Universität weiterhin Versuche gemacht, um Daten zu generieren, wie sich zum Beispiel das optische Muster von Pflanzen bei gewissen Beeinflussungen ändert. Ebenso sind wir aber auch immer besser darin geworden, die Deep Learning Algorithmen zu beherrschen. Mittlerweile haben wir über 300 Pflanzenkrankheiten in die App aufgenommen, von denen 60 automatisch erkannt werden.

idalab: Wie genau funktioniert denn die App? Was kann ich als Nutzer dort machen?

Strey: Die Bedienung der App ist sehr einfach. Der Nutzer macht ein Foto der kranken Pflanze, welches auf unserem Server analysiert wird. Falls das System die Krankheit erkennt, bekommt der Nutzer die entsprechende Rückmeldung. Falls nicht, gehen wir zurück und zeigen dem Nutzer die häufigsten Krankheiten in seiner Region zur entsprechenden Jahreszeit.

idalab: Damit Deep Learning Algorithmen funktionieren, braucht man ja einen hinreichend großen Datensatz. Wie habt ihr Euren initialen Datensatz generiert?

Strey: Wir haben mit vielen Organisationen zusammengearbeitet, zum Beispiel mit dem Pflanzenschutzamt Hannover. Da wir ohnehin über die Universität eine Kooperation mit dem Pflanzenschutzamt haben, durften wir auch auf die Versuchsfelder. Gleichzeitig spielt für die Datengewinnung – nach der Startphase – natürlich unsere App eine große Rolle – dadurch, dass unsere Nutzer stets Fotos von erkrankten Pflanzen hochladen, haben wir mittlerweile mehr als 100.000 Fotos im Datensatz.

idalab: Macht ihr denn das Labelling der Bilder immer noch von Hand?

Strey: Ja, das meiste labeln wir vorab per Hand. Auch die automatisch klassifizierten Bildern kontrollieren wir aktuell noch nach, um sicherzustellen, dass das neuronale Netz richtig lernt und die Qualität liefert, die wir uns wünschen.

idalab: Wenn ich mir jetzt ein Pflanzenfoto vorstelle, wie drückt sich so eine Krankheit aus? Ist das an der ganzen Pflanze sichtbar, oder sind es mehr kleine Verfärbungen an Blättern?

Strey: Pflanzenkrankheiten sind auf jeden Fall mannigfaltig und oft ähneln sich die Symptome ähnlicher Schädigungen sehr. Es ist zum Beispiel sehr schwierig, zwei verschiedene Arten von Gurkenviren zu unterscheiden. Aber das hat für die meisten Nutzer wenig Relevanz, denn Viren stecken im Saatgut und lassen sich nicht bekämpfen.

Wichtig ist primär, zu erkennen, welche Art von Erkrankung (Virus, Pilz, Bakterium) vorliegt. Denn zum einen gleichen diese sich in der Entstehung und zum anderen muss man für die Auswahl wirksamer Maßnahmen nicht den genauen Typ kennen. Zum Beispiel weiß man auch nicht, welchen spezifischen Grippeerreger man hat, wenn man dafür Medikamente verschrieben bekommt. Wir wollen verhindern, dass Landwirte zum Beispiel Fungizide gegen Viren einsetzen. Wir können also nicht jede Pflanzenkrankheit anhand eines Fotos bis in die Subspezies bestimmen, aber das ist für unseren Service so auch nicht nötig.

idalab: Wie viele Pflanzenkrankheiten könnt ihr denn aktuell erkennen?

Strey: Aktuell können wir auf 60 Schädigungen- und dieses Jahr wollen wir auf jeden Fall noch die 100 knacken. Insgesamt gibt es vielleicht 500, die von großer Relevanz sind. Wenn wir die Schädigung nicht direkt identifizieren können, suchen wir auf der Metaebene weiter: Gibt es eine flächige/punktförmige Verfärbung des Blattes? Sind die Blätter ausgetrocknet? So lässt sich die Schädlingsklasse zumindest eingrenzen.

idalab: Um nochmal den Bogen zur App zu spannen: Bekomme ich als Nutzer dann auch direkt Hinweise dazu, wie ich die Krankheit bekämpfen/vermeiden kann?

Strey: Wir haben für über 300 Krankheiten die Behandlungsweisen gespeichert. Also: Was ist der Auslöser? Womit wird das chemisch behandelt? Was ist die biologische Alternative? Wie ist der Übertragungsweg etc? Diese Fragen beantworten wir zu jeder gespeicherten Krankheit.

idalab: Ihr habt bereits 50.000 Downloads mit der App erreicht. Wo ist Euer Zielmarkt?

Strey: Wir haben zwar mit der App in Deutschland angefangen, aber besonders interessant sind für uns eigentlich die Schwellenländer, also Brasilien und Indien. Dort besitzen nicht nur viele Menschen ein Smartphone, sondern es gibt auch noch viele Menschen, die Landwirtschaft betreiben. Es gibt also eine englische und eine portugiesische Übersetzung unserer App und wir arbeiten auch an der spanischen und französischen Version. Wenn wir uns also das Nutzerfeedback anschauen, ist das ein wichtiger Punkt. Wir wollen weiterhin unabhängig sein, die App ist werbefrei. Wir sagen also nicht: “Kauf’ jetzt dieses Produkt, um deine Pflanze zu retten.”

idalab: Die App ist werbefrei, und ihr gebt keine Produktempfehlungen. Was ist dann euer Geschäftsmodell?

Strey: Wir haben eine API. Wenn andere Firmen unsere Technologien bei sich integrieren wollen, zahlen sie dafür Lizenzgebühren, da haben wir jetzt auch erste Kunden.

idalab: Ihr habt gerade eine Finanzierungsrunde abgeschlossen. Was ist die große Vision?

Strey: Unsere Vision fokussiert sich auf die Bilderkennungssoftware und die Flexibilität, die damit einhergeht. Unsere Technologie lässt sich im Prinzip in jedes System mit einer Kamera integrieren. Da erwarten wir in den nächsten Jahren massive Entwicklungen, beispielsweise selbstfahrende Traktoren – und für solche Anwendungen wollen wir die Bilderkennungssoftware stellen.

idalab: Abschließende Frage: Wie schätzt Du die deutscher Landwirte bezüglich technologischer Innovationen ein?

Strey: Es gibt auf der einen Seite sehr konservative Player, auf der anderen Seite sind vor allem die großen Agrarkonzerne neuen Methoden sehr aufgeschlossen. Grundsätzlich glaube ich schon, dass es viele “early adopter” gibt, also die Landwirte unserer Generation, die jetzt beispielsweise den Hof der Eltern übernehmen. Von denen werden neue Methoden und Innovationen gut angenommen, um Kosten für Dünger und Pestizide zu sparen. Ich sehe die Situation also nicht so negativ, wie sie vielleicht manchmal skizziert wird.

idalab: Robert, danke für das Interview.


Rob Strey ist Dipl. Geograph mit einem ausgeprägten Faible für Digitales. Bei PEAT ist er die Schnittstelle zwischen Ökologie und Machine Learning. Er bereitet das didaktische Material für die selbstlernenden Algorithmen auf und drückt anschließend den Knopf.

Contact the author
Niels Reinhard
+49 (30) 814 513-13
Subscribe
Share

Leave a Comment

Your email address will not be published. Required fields are marked *