Was für Menschen auf Bildern logisch und klar erscheint, kann für die Künstliche Intelligenz eine riesige Herausforderung darstellen.
Bildrauschen und Wissenslogik erfordern neue Lösungswege
Grundsätzlich stellen zwei Themenbereiche die Künstliche Intelligenz bei der Bildauswertung vor mehr oder weniger große Probleme. Dies ist einmal die Aleatorik (zufälliges Rauschen an Gegenständen) und das epistemische Modell.
Epistemische Logik ist zum Beispiel, wenn die Künstliche Intelligenz eine Straße und den danebenliegenden Bürgersteig nicht unterscheiden kann, da beide Elemente aus Asphalt sind.
In 3D-Aufnahmen kann man dies vielleicht durch die dritte Dimension lösen. Stehen jedoch immer solche Bildquellen zur Verfügung? Wohl nur in den wenigsten Fällen.
Auch ist die Live-Auswertung beim autonomen Fahren wegen fehlender Rechenleistung und einer gewissen Unschärfe bis heute nicht in der Lage, die 3. Dimension in dieser Feinheit auszuwerten.
Im Allgemeinen kann man dieses Problem in der Lernphase lösen, wenn man dem System weitere Daten zur Verfügung stellt und sich der Algorithmus mit Wahrscheinlichkeiten nähert, dass in unserem Beispiel neben der Fahrbahn ein Bürgersteig befindet.
Wenn es letztlich um die Sicherheit von Mensch, Objekten und Maschinen geht, sind Wahrscheinlichkeiten allein nur ein schlechter Lösungsansatz.
In solch einem heiklen Umfeld sind weitere Sicherheiten einzubauen. Ob es Radarelektronik ist oder in den Bereich von Abstandssensoren geht, muss im Zweifelsfall getestet werden.
Bei der reinen Bilderkennung wie Röntgenaufnahmen oder ähnliches, kann nur durch eine erweiterte Lernphase der Algorithmus im Zaum gehalten werden.
Aleatorik einfacher lösbar
Das zufällige Rauschen in Bildern (Aleatorik) lässt sich in vielen Fällen mit höheren Auflösungen eindämmen. Da ist aber auch zu beachten, dass auch dies wieder andere Fehlerquellen auslösen kann. Mit einer zu hohen Genauigkeit kann man sich auch wieder neue Problemfelder schaffen – abhängig vom vorliegenden Bildmaterial.
Zur Erklärung: In der Aleatorik ist mit Unschärfe nicht das komplette Bild gemeint, sondern die Abgrenzung von Gegenständen zueinander. So kann eine Ampelanlage oder ein Baumstamm von der Software zackig oder stufig wahrgenommen werden. Für einen Menschen kein Problem, jedoch für die Programmlogik ein nicht zu unterschätzender Störfaktor.
Wenn genügend Rechenleistung zur Verfügung steht, ist häufig die eleganteste Lösung die Aleatorik softwaremäßig zu lösen. Mit Hilfe der Künstlichen Intelligenz und einer umfangreichen Lernphase lässt sich das Bildrauschen minimieren.
Instiktive Handlungen nur unter Laborbedingungen
Beide Themenbereiche sind gerade in der Mobilitätsbranche von großer Bedeutung. Starkregen oder gar Schneefall sind für die Bilderkennung im Bereich der Künstlichen Intelligenz bisher kaum lösbare Probleme. Für den Menschen ist es instiktiv klar, dass eine Schneeflocke auf der Scheibe oder auf einem Sensor kein Dilemma darstellt – was wie kann man die Künstliche Intelligenz in einem autonomen Fahrzeug daran hindern, in diesem Fall eine Notbremsung einzuleiten.
Nach meinem heutigen Kenntnisstand werden letztlich nur die Kombination aus mehreren Systemen eine sichere Fortbewegung sicherstellen. Bis die Künstliche Intelligenz soweit ist und menschliche Instinkte im Straßenverkehr zuverlässig deuten kann, werden noch Jahre vergehen.
Wenn Aleatorik und die Probleme der epistemischen Wissenslogik gelöst sind, ist ein riesiger Schritt in Richtung zum komplett autonom fahrenden Regional- und Fernzug getan. Im Gegensatz zum Straßenverkehr sind die Regeln und Fehlerquellen im Schienenverkehr überschaubarer.
Komplexität nicht zu unterschätzen
Mir ist bewusst, dass die Thematik viel komplexer ist. Um Laien in das Thema einzuführen, habe ich mir erlaubt, nur die gröbsten Baustellen zu erwähnen.