22.02.2017

Neue Smartphone-App entlarvt Inhaltstoffe

Vielleicht schon Ende 2017 könnten mit einer durch das Fraunhofer Institut entwickelten App Inhaltsstoffe von Äpfeln, Beerenfrüchten, Salat u.a. ermittelt werden.
Foto: Kühlwetter

 

Mit einer neuen App von Fraunhofer-Forschern kann man direkt in Objekte hineinschauen und sich spezielle Inhaltstoffe anzeigen lassen. Anwendungsmöglichkeiten gibt es zahlreiche: So kann man beispielsweise einen Apfel auf seine Pestizid-Rückstände untersuchen. Entsprechend dem Wikipedia-Prinzip sollen die Anwendungen sukzessive erweitert werden.

Die Äpfel sind mit „Bio“ etikettiert – doch ob sie wirklich ungespritzt sind, weiß der Kunde nicht. In vielen Situationen muss man sich auf Aussagen verlassen, ohne diese überprüfen zu können. Mit der App „HawkSpex (R) mobile“ des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF in Magdeburg sollen Verbraucher künftig die Möglichkeit bekommen, solche Angaben zu überprüfen. Das Prinzip: Sie zücken ihr Smartphone, öffnen die App, richten sie auf das zu prüfende Objekt – etwa den Apfel – und erhalten die gewünschte Information: Beispielsweise, ob der Apfel Rückstände von Pestiziden enthält.

„Das Besondere an unserer App: Der Anwender braucht für die Messung nichts weiter als die Kamera, die ohnehin in seinem Smartphone integriert ist“, sagt Prof. Udo Seiffert, Kompetenzfeldleiter am IFF.

Die erste Laborversion der auch zum Patent angemeldeten App ist fertig. Bevor sie jedoch für den privaten Nutzer veröffentlicht werden kann, entwickeln die Forscher verschiedene erste Anwendungen. Denn um analysieren zu können, ob sich Pestizide im Apfel befinden, muss das System zunächst über Vergleichsmessungen angelernt werden. Etwa Ende 2017, hofft Seiffert, könnte die App „HawkSpex (R) mobile“ auf den Markt kommen.

Nutzer erweitern das Anwendungsspektrum – ähnlich Wikipedia

„Es sind so zahlreiche Einsatzbereiche denkbar, dass der Markt uns sicherlich überrennen wird“, ist sich Seiffert sicher. Daher setzen die Forscher auf einen Ansatz, der dem Online-Lexikon Wikipedia nachempfunden ist. „Wenn die App Ende 2017 auf den Markt kommt, können engagierte Nutzer zum großen Ganzen beitragen und neue Anwendungen, zum Beispiel die Beurteilung der Belastung von Salatköpfen mit Pflanzenschutzmitteln, kreieren, indem sie das System für eine solche Fragestellung anlernen“, sagt Seiffert. Das heißt: Sie vermessen etwa behandelte und unbehandelte Salatköpfe verschiedener Sorten mit der App und schicken die Daten zum IFF. Forscher prüfen die Messungen und schalten die Anwendung für alle Nutzer frei.

Auch im kommerziellen Bereich ist die App von großem Interesse. So lassen sich mit ihr Bereiche erschließen, bei denen sich ein Präzisionsmessgerät nicht lohnen würde. Beispiele sind die Qualitätskontrolle von Lebensmitteln, die Wirksamkeit von Kosmetikprodukten oder auch die Landwirtschaft: Der Landwirt kann so beispielsweise auf einfachem Weg Aussagen dazu erhalten, ob seine Pflanzen ausreichend mit Nährstoffen versorgt sind oder ob er zum Dünger greifen sollte. 

Keine Hyperspektralkamera notwendig

Wie haben die Forscher um Projektleiter Dr. Andreas Herzog es geschafft, ohne ein Prisma auszukommen? Üblicherweise braucht man für solche Messungen eine spezielle Hyperspektralkamera: Sie justiert jeweils auf verschiedenfarbiges Licht und ermittelt, wie viel Licht dieser Farbe das Objekt zurückwirft. So erstellt sie einen gesamten spektralen Fingerabdruck des Gegenstands. Aus diesem können die Forscher über ein mathematisches Modell beinahe beliebige Informationen über das Objekt extrahieren, etwa die Inhaltstoffe. »Da im Smartphone keine Hyperspektralkamera integriert ist, haben wir dieses Prinzip einfach umgedreht«, erläutert Seiffert. „Wir haben mit der Kamera einen breitbandigen dreikanaligen Sensor – also einen, der alle Wellenlängen misst – und beleuchten den Gegenstand mit Licht unterschiedlicher Farbe.“ Das heißt: Nicht die Kamera misst die Lichtintensität in den verschiedenen Farben, sondern das Display beleuchtet das Objekt nacheinander in Sekundenbruchteilen in einer Reihe von unterschiedlichen Farben. Wirft das Display also nur rotes Licht auf das Objekt, kann das Objekt auch nur rotes Licht reflektieren – und die Kamera nur rotes Licht messen. Intelligente Auswertealgorithmen sorgen dafür, dass die App mit der begrenzten Rechenleistung eines Smartphones auskommt und die eingeschränkten Leistungen von Kamera und Display kompensiert.

Quelle: Fraunhofer Institut