Täglich werden Tausende Fahrten aufgezeichnet. GPS-Daten, Reifendruck, Kraftstoffverbrauch, Motordrehzahl – jede Fahrt hinterlässt einen digitalen Fingerabdruck. Das meiste davon ist normal. Aber manchmal steckt im Datenstrom etwas, das nicht stimmt – eine Fahrt, die sich anders verhält als alle anderen. Nicht auffällig genug für eine rote Warnleuchte. Nicht auffällig genug, um aufzufallen. Und genau das ist das Problem.
Ein erfahrener Automechaniker hört ein Fahrzeug in die Einfahrt fahren und sagt, noch bevor er aufgeschaut hat: „Da klingt was komisch.“ Kein Alarm, kein Fehlercode – nur ein Bauchgefühl, das über Jahre trainiert wurde. Dieses Gesprür für das Ungewöhnliche ist schwer zu beschreiben, aber sofort erkennbar, wenn man es hat.
Anomalieerkennung versucht, genau dieses Gesprür in ein System zu übersetzen – für Tausende von Fahrten gleichzeitig, auf Basis von Dutzenden von Messwerten, die kein Mensch je vollständig im Blick haben könnte.
Gesucht werden keine offensichtlichen Fehler. Sondern nicht-offensichtliche Unregelmäßigkeiten, Auffälligkeiten, Besonderheiten – Dinge, die erst im Vergleich mit dem Gesamtbild sichtbar werden.
Die naheliegende Idee: Man zeigt dem System, wie eine auffällige Fahrt aussieht, und lässt es dann danach suchen. Klingt vernünftig – scheitert in der Praxis aber daran, dass keine gelabelten Beispiele vorlagen: keine Sammlung von Fahrten, die jemand bereits als „auffällig“ eingestuft hatte. Und selbst wenn: Wüsste man im Voraus genau, wonach man sucht, bräuchte man kein Modell.
Deshalb kommt unsupervised machine learning zum Einsatz – maschinelles Lernen ohne vorgegebene Beispiele. Das Modell bekommt keine Einordnung von „gut“ oder „schlecht“. Stattdessen versucht es selbstständig, Muster in den Daten zu erkennen, leitet daraus ab, was als normal gilt – und markiert alles, was deutlich davon abweicht.
Eine Analogie: Jemand zieht in eine neue Stadt. Nach ein paar Wochen hat er ein Gesprür dafür, was zur Gegend gehört – welche Gesichter man kennt, welche Autos vor welchen Häusern stehen. Wenn plötzlich jeden Morgen zur gleichen Zeit ein fremdes Fahrzeug auftaucht, fällt es auf. Nicht weil jemand gesagt hat: „Pass auf dieses Auto auf.“ Sondern weil es nicht ins Bild passt.
Ein Telematik-System zeichnet pro Fahrt Hunderte von Messwerten auf – aber nicht alle davon sind gleich aussagekräftig. Die Kunst liegt in der Feature-Auswahl: Welche Kennzahlen beschreiben das Fahrverhalten so präzise und vergleichbar, dass ein Modell daraus wirklich etwas lernen kann? Als Feature bezeichnet man in der Fachsprache eine einzelne messbare Variable oder einen Faktor – also zum Beispiel den Reifendruck, die Bremsintensität oder die Motordrehzahl.
Drei Prinzipien leiten die Auswahl:
Vergleichbarkeit: statt absoluter Zahlen (Kraftstoff insgesamt verbraucht) werden relative Werte verwendet (Kraftstoff pro 100 km). Nur so lassen sich unterschiedlich lange Fahrten sinnvoll gegenüberstellen.
Kundenfokus: die Auswahl der Features orientiert sich an den konkreten Anforderungen und Schwerpunkten des Kunden – nicht jede technisch verfügbare Messgröße ist für die jeweilige Fragestellung relevant.
Statistische Robustheit: pro Fahrt werden nicht einfach Mittelwerte berechnet, sondern auch Perzentile – etwa der Median (der typische Wert der Fahrt) und das 90. Perzentil (was bei starker Belastung gilt). Einzelne Ausreißer innerhalb einer Fahrt verzerren das Bild so nicht.
Einige konkrete Beispiele:
|
Feature |
Was es verrät |
|
Reifendruck (alle vier Reifen, je Median/P10/P90) |
Langfristig leicht zu niedriger Druck – kein Alarm, aber auffällig |
|
Kraftstoffverbrauch (Liter/100 km) |
Deutlich mehr als vergleichbare Fahrzeuge kann auf Motorprobleme, Beladung oder Fahrstil hinweisen |
|
Bremsintensität (Bremsungen pro km oder pro Minute) |
Häufiges Bremsen kann auf Fahrstil oder Streckenbedingungen hinweisen |
|
Beschleunigung (vorwärts, seitwärts, vertikal) |
Charakterisiert den Fahrstil und mögliche Fahrbahnbeschädigungen |
|
Motordrehzahl und Motoröldruck |
Werte dauerhaft außerhalb des typischen Bereichs können auf Verschleiß hindeuten |
|
Zeit in bestimmten Gangstellungen |
Wie lange wird z. B. im Leerlauf oder im Rückwärtsgang gefahren? |
|
Leerlaufkraftstoffverbrauch |
Wird der Motor häufig unnötig laufen gelassen? |
Wer einen LKW mit einem PKW vergleicht, misst nichts – er erzeugt Rauschen. Ein erhöhter Kraftstoffverbrauch bei einem schwer beladenen LKW ist Alltag. Beim Kleinwagen wäre er ein Warnsignal. Häufiges Bremsen im Stadtverkehr ist unvermeidlich – auf der Autobahn wäre es besorgniserregend.
Deshalb werden alle Fahrten zunächst in Populationen aufgeteilt – vergleichbare Gruppen:
Feature-Generierung: Aus den rohen Sensordaten wird pro Fahrt ein strukturierter Datensatz erstellt – mit allen relevanten Kennzahlen.
Aufteilung in Populationen: Die Fahrten werden nach Fahrzeugtyp und Streckenlänge gruppiert. Innerhalb jeder Population werden die Features anschließend neu bewertet: Features, die in allen Fahrten dieser Gruppe fehlen oder überall denselben Wert aufweisen, werden entfernt – sie tragen keine Information und würden das Modell nur verwirren.
Training pro Population: Für jede Gruppe wird ein eigenes Modell trainiert, das lernt, was in dieser Gruppe „normal“ ist.
Anomalie-Score: Jede Fahrt erhält einen Score, der angibt, wie stark sie vom Normalzustand abweicht. Die auffälligsten Fahrten – deren Anteil konfigurierbar ist – werden als Anomalien markiert.
Nachgelagerte Analyse: Die Ergebnisse werden visualisiert und erklärt.
Eine Fahrt hat Dutzende von Features. Das lässt sich nicht in einer einzigen Grafik darstellen – zumindest nicht direkt. Ein spezielles Visualisierungsverfahren löst dieses Problem: Es nimmt alle Feature-Werte und verdichtet sie auf zwei Koordinaten. Dabei gehen zwangsläufig Details verloren – das ist der Preis der Vereinfachung. Was erhalten bleibt, sind die lokalen Ähnlichkeiten: Fahrten, die sich ähneln, landen nah beieinander. Das reicht für das, worum es hier geht: ein erstes, intuitives Bild der Datenstruktur.
Punkte, die weit abseits der Hauptwolke erscheinen, sind häufig genau die Fahrten, die das Modell als Anomalien markiert hat – eine Übereinstimmung, die sich in der Praxis oft zeigt, aber nicht garantiert ist.
Was diese Darstellung so wertvoll macht: Man sieht auf einen Blick, ob es vereinzelte Ausreißer gibt oder ob sich eine ganze Gruppe von Fahrten auffällig anders verhält. Und man sieht es, ohne eine einzige Zahl zu kennen.
Ein Modell, das nur sagt „diese Fahrt ist auffällig“, ist nur halb nützlich. Die eigentlich interessante Frage ist: Warum?
Ein Erklärbarkeitsverfahren schlüsselt auf, welche Features zu einer Entscheidung beigetragen haben – und in welchem Ausmaß. Es gibt zwei Betrachtungsebenen:
Auf der Ebene aller Fahrten einer Population zeigt das Verfahren, welche Features insgesamt am stärksten die Anomalieerkennung beeinflussen. Bei LKW auf Langstrecken sind das zum Beispiel Kraftstoffverbrauch, Reifendruck und Motoröldruck.
Das ist nicht nur für das Verständnis des Modells nützlich – es ist auch eine Möglichkeit zu prüfen, ob das Modell auf die richtigen Dinge reagiert. Reagiert es auf etwas Unerwartetes, ist das ein Hinweis, dass etwas im Prozess angepasst werden muss.
Für eine einzelne auffällige Fahrt zeigt das Verfahren konkret, welche Features genau bei dieser Fahrt ungewöhnlich waren. Ein sogenanntes Wasserfalldiagramm macht das sichtbar: Der Reifendruck hinten rechts lag deutlich unter dem Median der Gruppe. Die Bremsintensität war ungewöhnlich hoch. Der Kraftstoffverbrauch hingegen lag im normalen Bereich.
Das ermöglicht gezielte Maßnahmen – Reifendruckprüfung, Fahrercoaching, Werkstatttermin –, statt ratlosem Blick auf einen Anomalie-Score.
Modelle lernen aus Daten. Aber Daten erklären sich nicht selbst.
Fachexperten – Fuhrparkleiter, Flottenverantwortliche, erfahrene Disponenten – wissen Dinge, die in keinem Datensatz stehen: warum ein bestimmtes Fahrzeug strukturell einen höheren Reifendruck braucht, warum eine kurze Fahrt mit hohem Kraftstoffverbrauch auf einer bestimmten Strecke völlig normal ist, welche Messwerte situationsbedingt verzerrt sind. Ohne dieses Wissen bleibt das Modell blind für Zusammenhänge, die jeder im Betrieb kennt.
Konkret spielen Fachexperten an drei Stellen eine entscheidende Rolle:
Besonders aufschlussreich war das Zusammenspiel aus Visualisierung und Erklärbarkeit: Fachexperten konnten sich einzelne auffällige Fahrten ansehen und nachvollziehen, warum das Modell sie markiert hatte. Manchmal die Bestätigung: „Ja, das ist tatsächlich auffällig.“ Mindestens genauso häufig aber auch: „Nein, das ist für dieses Fahrzeug völlig normal – das Modell liegt hier falsch.“
Letzteres klingt nach einem Rückschlag. Es ist keiner. Genau diese Rückmeldungen flossen in die nächste Iteration ein – durch angepasste Feature-Auswahl, veränderte Populationsgrenzen, neu kalibrierte Schwellwerte. Mit jeder Runde wurden die Modelle treffsicherer. Nicht durch mehr Daten. Durch mehr Verständnis.
Anomalieerkennung ist kein Allheilmittel – und auch kein Abschluss. Sie ist ein Werkzeug, das sichtbar macht, was sonst verborgen bleibt: nicht-offensichtliche Unregelmäßigkeiten, Auffälligkeiten, Besonderheiten – im Strom von Tausenden unauffälliger Fahrten.
Wichtig dabei: Eine Anomalie ist weder „gut“ noch „schlecht“. Sie ist ungewöhnlich. Was das im Einzelfall bedeutet, entscheidet der Mensch – nicht das Modell.
Und meist ist die Anomalieerkennung erst der Anfang. Die markierten Fahrten werden zur Grundlage für den nächsten Schritt: überwachtes maschinelles Lernen (supervised machine learning), bei dem das Modell lernt, nicht nur das Ungewöhnliche zu erkennen, sondern es in konkrete Kategorien einzuordnen und daraus Handlungsempfehlungen abzuleiten. Die Anomalieerkennung – einschließlich ihrer eigenen Erklärbarkeit – ist dabei nur ein Baustein in einem größeren Entwicklungsvorhaben.
Das Unsichtbare wird sichtbar – und der Weg geht weiter.