Die Fähigkeit, über die Fähigkeiten des menschlichen Auges hinaus zu sehen

Die verschiedenen Farben, die wir sehen können, basieren auf unterschiedlichen Wellenlängen des Lichts. Das menschliche Auge kann Wellenlängen in drei Bändern (rot, grün und blau) erkennen und unterscheiden, die den Bereich von 450 bis 650 Nanometer abdecken, aber wir können kein Licht von Hunderten anderer Lichtbänder sehen, die außerhalb dieses Bereichs existieren. Es gibt eine Technologie namens Hyperspectral Imaging, die einen besseren Überblick darüber geben kann, was in der Welt um uns herum vor sich geht. Es gibt spezialisierte Kameras, die bis zu 300 Lichtbänder mit Prismen trennen und dann die erfasste Energie wellenlängenspezifisch digitalisieren. Diese Kameras haben ein riesiges Anwendungsspektrum. Sie können beispielsweise zur Überwachung von Treibhausgasemissionen, zur Unterscheidung zwischen gemischten durchsichtigen Kunststoffen oder zur Messung der Fruchtreife auf einer Verpackungslinie verwendet werden.

Es gibt mehrere Hersteller dieser Hyperspektralkameras, aber zumindest im Moment sind sie ziemlich teuer – beginnend bei etwa 20,000 US-Dollar. Die von ihnen verwendete kameraspezifische Software lässt sich nicht so einfach in andere Systeme integrieren. Die andere Herausforderung, die mit diesem erweiterten Weltbild einhergeht, hat mit der Datenmenge zu tun – diese Kameras erzeugen etwa ein Gigabit Daten pro Sekunde!

Es gibt ein Unternehmen namens Metaspectral, das versucht, das Potenzial der hyperspektralen Bildgebung zu erweitern, indem es eine Kombination aus Hardware und Software anbietet, um diese Datenquelle benutzerfreundlicher zu machen. Sie verwenden „geräteunabhängige“ Edge-Geräte, auf denen Komprimierungsalgorithmen ausgeführt werden, die mit jeder Hyperspektralkamera verbunden werden können und ihre Datenausgabe in einen überschaubaren Fluss verwandeln. Ihre proprietäre Fusion-KI-Plattform kann verwendet werden, um eine Schnittstelle mit vertrauter Benutzersoftware herzustellen, Robotik zu steuern oder künstliche Intelligenz und Deep-Learning-Systeme zu füttern.

Metaspectral hat kürzlich 4.7 Millionen US-Dollar in einer Seed-Finanzierungsrunde von SOMA Capital, Acequia Capital, der kanadischen Regierung und Angel-Investoren wie Jude Gomila und Alan Rutledge erhalten. Das Unternehmen wurde von Francis Doumet (CEO) und Migel Tissera (CTO) mitbegründet. Tissera beschreibt ihr Angebot wie folgt: „Wir haben neuartige Datenkomprimierungsalgorithmen entwickelt, die es uns ermöglichen, hyperspektrale Daten besser und schneller zu transportieren, sei es vom Orbit zum Boden oder innerhalb terrestrischer Netzwerke. Wir kombinieren dies mit unseren Fortschritten im Deep Learning, um Analysen auf Subpixelebene durchzuführen, wodurch wir mehr Erkenntnisse gewinnen können als mit herkömmlicher Computervision, da unsere Daten mehr Informationen über die spektrale Dimension enthalten.“

Tatsächlich kann die hyperspektrale Bildgebung in sehr unterschiedlichen Maßstäben eingesetzt werden. Eine der am weitesten entwickelten Anwendungen des Metaspectral-Systems sind beispielsweise Nahkameras an Sortierlinien für gemischtes Recyclingmaterial, wo durchsichtige Kunststoffe nach chemischer Zusammensetzung unterschieden werden können, sodass sie in die für die Wiederverarbeitung erforderlichen extrem reinen Ströme sortiert werden können .

Der größte kanadische Abfallrecycler setzt dieses System jetzt ein. Weitere Nahanwendungen gibt es bei der Qualitätssicherung in Montagelinien oder der Obstsortierung.

Auf der anderen Seite kann die Kamera Daten von einem Satelliten generieren, wobei jedes Pixel des Bildes 30 x 30 m² (900 m²) darstellt. Die Canadian Space Agency verwendet diesen Ansatz, um Treibhausgasemissionen zu verfolgen und sogar die Kohlenstoffspeicherung im Boden in bewirtschafteten oder bewaldeten Flächen abzuschätzen, indem sie die Flussraten im Laufe der Zeit vergleicht. Die Technologie soll auch künftig auf der Internationalen Raumstation eingesetzt werden. Risikobewertungen von Waldbränden sind eine weitere potenzielle Anwendung, um Maßnahmen wie vorgeschriebene Verbrennungen zu lenken.

Eine weitere Option, die insbesondere für die Landwirtschaft von Nutzen wäre, besteht darin, die Kameras mit Drohnen einzusetzen, die in einer Höhe von 50 bis 100 Metern fliegen. In diesem Fall kann jedes Datenpixel eine Fläche von 2 cm x 2 cm darstellen, und die Fähigkeit, so viele verschiedene Wellenlängen zu überwachen, könnte die frühzeitige Erkennung von invasiven Unkräutern, Insektenaktivitäten, Pilzinfektionen in Stadien, bevor sie für Menschen sichtbar sind, und frühen Anzeichen von Wasser ermöglichen oder Nährstoffmängel oder Erntereifeparameter, um den Erntezeitpunkt zu steuern. Es könnte möglich sein, Treibhausgas- oder Ammoniakemissionen aus bewirtschafteten Böden zu verfolgen, um besser zu verstehen, wie diese durch bestimmte landwirtschaftliche Praktiken wie reduzierte Bodenbearbeitung, Deckfruchtanbau, variable Düngung oder „kontrollierten Radverkehr“ beeinflusst werden. Derzeit ist viel „Ground-Truthing“-Forschung erforderlich, um die Bilddaten mit Messungen der fraglichen Variablen zu verbinden, aber dies wird mit der Datenkomprimierung und den Schnittstellenfunktionen von Metaspectral viel einfacher sein.

Eine Hoffnung besteht darin, dass die vielfältigen Anwendungen der hyperspektralen Bildgebung, die durch die Metaspectral-Plattform erleichtert werden, eine ausreichende Nachfrage nach den Kameras schaffen werden, um die Fertigung weiter nach unten zu bringen.

Quelle: https://www.forbes.com/sites/stevensavage/2022/12/14/the-power-of-seeing-beyond-the-capabilities-of-the-human-eye/