Blog & Insights | prodot

KI-gestützte Absatzprognose im Handel: Planabweichungen systematisch reduzieren

Geschrieben von Michael Damatov | 24.04.2026

Jede Handelskette steht ständig vor derselben Frage: Welche Artikel sollen in welcher Menge an welche Filiale geliefert werden? Das Problem ist nicht neu – in der einen oder anderen Form wird es seit Jahrzehnten gelöst, auch mit dem Bewusstsein, dass eine absolut präzise Planung unmöglich ist. Das Ziel ist deshalb nicht die perfekte Prognose, sondern die systematische Reduktion von Planabweichungen.

Ein kurzer Hinweis vorweg: Wenn in diesem Beitrag von „KI" die Rede ist, geht es nicht um generative Modelle wie Chatbots oder Bildgeneratoren, sondern um klassisches, prädiktives Machine Learning – konkret um Demand Forecasting auf Filial- und Artikelebene.

Die Ausgangslage: Warum exakte Filialplanung im Handel so schwer ist

Verkaufsmengen schwanken nach Saison, Standort, Wetter, Aktionen, Feiertagen, Events – und natürlich nach dem Sortiment selbst. Eine manuelle Planung stößt hier schnell an Grenzen, weil zu viele Variablen gleichzeitig auf den Absatz einwirken. Klassische Planungsregeln („letztes Jahr plus 5 %") erfassen diese Komplexität nicht. Genau hier setzt Machine Learning an.

Der Lösungsansatz: Supervised Machine Learning für die Absatzprognose

Mit modernen Verfahren wird daraus ein typisches Problem, das sich mit Supervised Machine Learning lösen lässt. Eine KI kann anhand historischer Daten trainiert werden. Wir haben dafür die Verkaufszahlen der letzten drei Jahre genutzt – genug Datenmenge, um saisonale Schwankungen abzubilden, ohne dass noch ältere Daten nennenswerte Zusatzvorteile gebracht hätten.

Die Verkaufsmengen wurden zu unseren Labels – sie repräsentieren die Antworten auf die Frage: „Wie viele einzelne Artikel wurden tatsächlich verkauft?"

Die Features: Welche Faktoren den Absatz wirklich erklären

Welche Faktoren führen zu diesen Antworten? Unsere Experimente zeigten, welche Variablen (in der Fachsprache Features) einen positiven Einfluss auf die Prognosegüte hatten. Ein Ausschnitt aus dem finalen Feature-Set:

  • Artikeldaten wie Preis oder Verpackungsgröße
  • Ortsbezogene Daten wie PLZ, Ort und Regionszugehörigkeit
  • Demografische Daten wie Bevölkerungsdichte und Durchschnittsalter der jeweiligen Region
  • Zeitbezogene Daten wie Tageszeit, Wochentag, KW, Monat, Nähe zu Feiertagen sowie Nähe zu Großereignissen (z. B. einer Fußball-WM)

Einige Faktoren haben wir bewusst ausgeschlossen. Ein Beispiel: Obwohl das Wetter einen erkennbar positiven Einfluss auf die Verkaufsmengen hatte, haben wir damals darauf verzichtet – nach dem seinerzeitigen Stand der Technik ließen sich Wetterprognosen nur sehr grob in die Zukunft projizieren.

Training und Validierung: Wie das Modell lernt – und wie wir es messen

Im nächsten Schritt wird die KI trainiert. Die Daten werden zunächst in fünf Gruppen aufgeteilt. Vier Gruppen (ca. 80 % der Daten) werden für das Training verwendet; an der fünften prüfen wir, wie stark die errechneten Labels von den tatsächlichen abweichen. Dieser Prozess wird viermal wiederholt (5-fache Kreuzvalidierung), jeweils mit anderen Kombinationen von Trainings- und Validierungsdaten. Am Ende erhalten wir Metriken, die zeigen, wie treffgenau das KI-Modell tatsächlich ist.

Die Daten-Pipeline: Von Rohdaten bis zur Filial-Prognose

Aus technischer Sicht haben wir eine durchgängige Daten-Pipeline aufgebaut. Vollständig automatisiert laufen:

  • Einsammeln der Daten – aus mehreren Quellen, unter Einhaltung sämtlicher Sicherheitskriterien, in eine Analytik-Plattform auf Microsoft Azure.
  • Generierung der Features – die Rohdaten werden für das Training aufbereitet.
  • Erstellung der Labels – ebenfalls als Teil der Trainingsvorbereitung.
  • Inferenz – die prognostizierten Verkaufsmengen werden anhand des KI-Modells berechnet.
  • Bereitstellung – die Ergebnisse werden in interne Datenbanken geschrieben, wo nachgelagerte Systeme sie abholen und weiterverwenden.

Automatisiert, aber nicht unüberwacht: MLOps in der Praxis

Einige Prozesse lassen sich zwar automatisieren, sollten aber nicht unbeaufsichtigt laufen. Das fällt heute unter den Begriff MLOps und umfasst unter anderem Model Monitoring, Drift Detection und kontrolliertes Retraining:

  • Training – jede Modell-Version ist einzigartig. Wir stellen über gezielte Metriken sicher, dass sich das Modell bei jedem Retraining nicht verschlechtert. Sollte es doch passieren, muss die Ursache dokumentiert und begründet werden.
  • Hyperparameter-Tuning – früher aufwendig manuell, heute weitgehend automatisiert über Tools.

Experimentieren statt raten: Was das Modell wirklich besser macht

Ein zentraler Bestandteil unseres Vorgehens sind Experimente. Mit ihnen prüfen wir systematisch Hypothesen wie:

  • ob ein zusätzliches Feature einen messbaren Beitrag leistet
  • ob ein bestehendes Feature noch „gut genug" ist
  • ob sich Trainingskonfigurationen verbessern lassen
  • und viele weitere

Nicht jedes Experiment führt zu einer Modellverbesserung. Im Gegenteil: Häufig haben wir festgestellt, dass eine vermeintlich „gute" Idee im Test keinen positiven Effekt hatte. Genau das ist der Wert disziplinierten Experimentierens – statt Bauchgefühl gibt es messbare Ergebnisse.

Herausforderungen: Datenqualität, Integration und Domänenwissen

Wie so oft in der IT gilt: Die vorhandenen Kundendaten wurden nicht für den Zweck gesammelt, für den wir sie später verwendet haben. In unserem Fall bedeutete das, dass die Verkaufsdaten noch angepasst und transformiert werden mussten. Die Datenqualität war nicht perfekt – in einigen Fällen ließen sich Daten korrigieren, in anderen mussten wir bewusst auf einzelne Datenpunkte verzichten.

Hinzu kommt die Integration externer Datenquellen: Demografische Daten etwa stammen nicht aus den Kundendatenbanken und müssen mit den internen Daten zusammengeführt werden.

Von unschätzbarem Wert war die Domänen-Expertise des Kunden. Im regelmäßigen Austausch wurden kundenspezifische Aspekte erörtert, darunter:

  • Interpretation der Daten – nicht alle Daten sind gleichwertig. Sie unterscheiden sich nach Wichtigkeit, Zuverlässigkeit, Vollständigkeit und Genauigkeit.
  • Business-Prozesse – wer hat die Daten erfasst, wann, für welchen ursprünglichen Zweck?
  • Schwellenwerte – sinnvolle Grenzen und Toleranzen aus Kundenperspektive.
  • Annahmen – kritisches Hinterfragen unserer eigenen Hypothesen.

Fazit: Kleinere Planabweichungen, größere Wirkung

Das KI-Modell ist nicht perfekt – aber es hat die Planabweichungen gegenüber der bisherigen Planung deutlich reduziert. Genauso wichtig: Es wurde eine Basis geschaffen, auf der weitere Experimente aufsetzen können. Außerdem denken wir bei prodot von Anfang an AI Governance mit. Dies regelt die Nachvollziehbarkeit, Dokumentation und Verantwortlichkeiten in solchen Projekten.

Für Handelsketten, die über eine eigene KI-gestützte Absatzprognose nachdenken, sind erfahrungsgemäß drei Faktoren entscheidend: saubere Daten, enge Zusammenarbeit mit Fachbereichen und die Bereitschaft zu kontinuierlichem Experimentieren. Alles andere ist Handwerk.

Sie möchten wissen, wie eine KI-gestützte Absatzprognose für Ihre Handelskette konkret aussehen könnte? Sprechen Sie uns an.