Video

zum Video Handy-App macht Unsichtbares sichtbar

Ist der Apfel Bio oder mit Pestiziden belastet, sind Medikamente gefährliche Fälschungen oder sind Lackschäden am Auto überlackiert worden? Eine neuartige App des Fraunhofer Instituts in Magdeburg kann all das schon bald verraten.

Hätte Schneewittchen die App HawkSpex Mobile (Hawk Englisch für: Falke) auf ihrem Handy gehabt, sie hätte nie in den vergiftete Apfel gebissen. Denn stellen Sie sich vor, Sie hätten eine Handy-App, die Ihnen sagt, ob der Apfel vor Ihnen ein Braeburn, ein Boskop oder ein Elstar ist. Ob ihre Tabletten echt sind oder gefährliche Fälschungen. Ob ihre Haut etwas mehr oder weniger Creme braucht. All das mit nur mit einem einzigen Klick.

Forscher am Fraunhofer Institut IFF für Fabrikbetrieb und -automatisierung in Magdeburg haben genau so eine App entwickelt. Und die dürfte schon bald für Furore sorgen. Professor Udo Seiffert beschreibt sie so: "Sie kann im täglichen Leben bestimmte Situationen erfassen, die mit dem bloßen Auge nicht mehr erfassbar sind."

Die Idee hinter HawkSpex Mobile

Tatsächlich ist die Erfindung revolutionär. Das Besondere daran: Jeder kann mit seinem Smartphone selbst Oberflächen und Stoffe analysieren. Ganz ohne Spezialwissen und teures Analysegerät. Bisher war das nur mit einer Hyperspektralkamera möglich, die so viel kostet wie ein Einfamilienhaus. Solche Spezialkameras mit Hyperspektralsensoren sehen viel mehr als unser menschliches Auge.

Wo wir eine grüne Paprika sehen, kann die Hyperspektralkamera rund 130 verschiedene Grüntöne erkennen. Dadurch kann sie Materialien eindeutig identifizieren und voneinander unterscheiden. Denn jedes Material schluckt oder reflektiert unterschiedliche Anteile aus dem Licht. Die Spektralkamera fängt diese verschiedenen Farbanteile auf. Daraus entsteht ein detaillierter spektraler Fingerabdruck, der für die chemische Zusammensetzung jedes Stoffes einzigartig ist.

Für den Entwickler ist das Besondere daran: "Wir haben das physikalische Messprinzip umgekehrt haben. Damit ist es für jeden Nutzer möglich, diese Art der Technologie auf seinem Smartphone zu verwenden."

Wie die App funktioniert

Prof. Udo Seiffert demonstriert die Funktionsweise der App am Beispiel von Kaffeebohnen. Für den Versuch haben wir zwei gängige Sorten mitgebracht: Robusta und Arabica. Für das ungeschulte menschliche Auge sehen die Bohnen gleich aus. Doch wie unterscheidet sie die App?

Prof. Seifert erklärt es so: "Wir nutzen das Display als Beleuchtung und die Frontkamera als Sensor. Dann schalten wir das Handy an, starten die App und beginnen die Messung, in dem wir das Smartphone herumdrehen und etwa zwei bis drei Zentimeter über der zu messenden Oberfläche positionieren."

Jetzt beleuchtet das Display in kurzen Abständen die Kaffeebohnen zuerst mit weißem Licht, dann mit Schwarz und schließlich mit den drei Grundfarben: Rot, Grün und Blau. Dabei macht die Frontkamera drei Bilder von jeder Lichtstimmung und errechnet aus den insgesamt 15 Fotos den spezifischen Fingerabdruck. Und tatsächlich: Mit einer Wahrscheinlichkeit von 98,5 Prozent erkennt die App die Bohnen als solche der Sorte Arabica. Und was sagt die App zu den anderen Kaffeebohnen? Auch die erkennt sie, wenn zwar nur mit einer Trefferquote von etwas über 90 Prozent.

Diese Methode lässt sich auf so ziemlich alles anwenden. Etwa, ob Pflanzen mit genügend Nährstoffen versorgt sind. Oder welcher Apfel Bio und welcher mit Pestiziden belastet ist.

Wie die App lernt

Das alles muss die App aber zuvor lernen: Bild für Bild und Pixel für Pixel müssen ihr die Forscher beibringen, was sie später erkennen soll. Dr. Andreas Herzog ist der geduldige Lehrmeister und zuständig für das Anlernen der App. "Wir brauchen immer Beispiele zum Anlernen, heute zum Beispiel gespritze oder ungespritze Äpfel."

Zunächst kommen die behandelten Äpfel unter eine schwarze Haube. Kein Lichteinfall verfälscht jetzt die Fotos. Schwarz, Weiß, Rot, Grün und Blau: Fertig ist der spektrale Fingerabdruck. Danach kommen die Bio-Äpfel an die Reihe. Auch von denen werden Bilder mit der App aus den unterschiedlichsten Positionen gemacht. Danach wird ein speziell entwickelter Algorithmus mit den Fotos und den dazu gemessenen Spektralfarben gefüttert.

"Maschinenlearning" heißt das. Klingt kompliziert ist es aber nicht. Der Elektroingenieur Dr. Andreas Herzog erklärt es so: "Die Fotos, die werden in Pixel zerlegt, jeder Pixel hat den spektralen Fingerabdruck und diesem spektralen Fingerabdruck wird dann zugewiesen 'gespritzt' oder 'ungespritzt' und das nutzen wir dann zum Trainieren der App."

1024 Pixel pro Quadrat und das hoch zwölf. Viele Milliarden von Pixeln werden jedem Apfelbild zugewiesen. Durch die Pflanzenschutzmittel ändert sich der spektrale Fingerabdruck des gespritzten Apfels, der Giftstoff kann also enttarnt werden. Es gibt bereits viele Interessenten, die diese App des Fraunhofer Instituts auf den Markt bringen wollen.

Die Forscher zeigen uns, dass sie selbst beim Autokauf hilfreich sein kann. Prof. Udo Seiffert: "Stellen sie sich vor, sie kaufen einen Gebrauchtwagen und wollen wissen, ob er vielleicht einmal nachlackiert worden ist." An den unterschiedlichsten Stellen fotografieren die Ingenieure mit ihrer App den Zustand des Autolacks und die errechnet blitzschnell den jeweiligen spektralen Fingerabdruck. Und tatsächlich stellen die Wissenschaftler fest: "Diese Tür hier weicht am meisten von den anderen Messpositionen ab, das würde bedeuten, dass die Tür farblich ein kleines bisschen anders ist, ich weiß nicht was mit dem Fahrzeug passiert ist, aber es könnte nachlackiert sein." Stimmt, wieder liegt die App richtig. Die Tür wurde erst vor einer Woche nachlackiert.

Im Herbst soll die App dann marktreif sein. Dann wird sich zeigen, ob HawkSpex Mobile auch außerhalb des Labors Spürnase, Einkaufshilfe, Apotheker und viele, vieles mehr sein kann.

Sendung: hr-fernsehen, "Alles Wissen", 02.11.17, 20:15 Uhr