1 Min. Lesezeit
KI im Einzelhandel: Mehr als ein Pilotprojekt
Neun von zehn Einzelhändlern weltweit testen oder nutzen bereits KI — doch nur fünf Prozent erzielen einen klar messbaren ROI. Die Lücke zwischen...
3 Min. Lesezeit
Michael Damatov
:
April 24, 2026
Inhaltsverzeichnis
Jede Handelskette steht ständig vor derselben Frage: Welche Artikel sollen in welcher Menge an welche Filiale geliefert werden? Das Problem ist nicht neu – in der einen oder anderen Form wird es seit Jahrzehnten gelöst, auch mit dem Bewusstsein, dass eine absolut präzise Planung unmöglich ist. Das Ziel ist deshalb nicht die perfekte Prognose, sondern die systematische Reduktion von Planabweichungen.
Ein kurzer Hinweis vorweg: Wenn in diesem Beitrag von „KI" die Rede ist, geht es nicht um generative Modelle wie Chatbots oder Bildgeneratoren, sondern um klassisches, prädiktives Machine Learning – konkret um Demand Forecasting auf Filial- und Artikelebene.
Verkaufsmengen schwanken nach Saison, Standort, Wetter, Aktionen, Feiertagen, Events – und natürlich nach dem Sortiment selbst. Eine manuelle Planung stößt hier schnell an Grenzen, weil zu viele Variablen gleichzeitig auf den Absatz einwirken. Klassische Planungsregeln („letztes Jahr plus 5 %") erfassen diese Komplexität nicht. Genau hier setzt Machine Learning an.
Mit modernen Verfahren wird daraus ein typisches Problem, das sich mit Supervised Machine Learning lösen lässt. Eine KI kann anhand historischer Daten trainiert werden. Wir haben dafür die Verkaufszahlen der letzten drei Jahre genutzt – genug Datenmenge, um saisonale Schwankungen abzubilden, ohne dass noch ältere Daten nennenswerte Zusatzvorteile gebracht hätten.
Die Verkaufsmengen wurden zu unseren Labels – sie repräsentieren die Antworten auf die Frage: „Wie viele einzelne Artikel wurden tatsächlich verkauft?"
Welche Faktoren führen zu diesen Antworten? Unsere Experimente zeigten, welche Variablen (in der Fachsprache Features) einen positiven Einfluss auf die Prognosegüte hatten. Ein Ausschnitt aus dem finalen Feature-Set:
Einige Faktoren haben wir bewusst ausgeschlossen. Ein Beispiel: Obwohl das Wetter einen erkennbar positiven Einfluss auf die Verkaufsmengen hatte, haben wir damals darauf verzichtet – nach dem seinerzeitigen Stand der Technik ließen sich Wetterprognosen nur sehr grob in die Zukunft projizieren.
Im nächsten Schritt wird die KI trainiert. Die Daten werden zunächst in fünf Gruppen aufgeteilt. Vier Gruppen (ca. 80 % der Daten) werden für das Training verwendet; an der fünften prüfen wir, wie stark die errechneten Labels von den tatsächlichen abweichen. Dieser Prozess wird viermal wiederholt (5-fache Kreuzvalidierung), jeweils mit anderen Kombinationen von Trainings- und Validierungsdaten. Am Ende erhalten wir Metriken, die zeigen, wie treffgenau das KI-Modell tatsächlich ist.
Aus technischer Sicht haben wir eine durchgängige Daten-Pipeline aufgebaut. Vollständig automatisiert laufen:
Einige Prozesse lassen sich zwar automatisieren, sollten aber nicht unbeaufsichtigt laufen. Das fällt heute unter den Begriff MLOps und umfasst unter anderem Model Monitoring, Drift Detection und kontrolliertes Retraining:
Ein zentraler Bestandteil unseres Vorgehens sind Experimente. Mit ihnen prüfen wir systematisch Hypothesen wie:
Nicht jedes Experiment führt zu einer Modellverbesserung. Im Gegenteil: Häufig haben wir festgestellt, dass eine vermeintlich „gute" Idee im Test keinen positiven Effekt hatte. Genau das ist der Wert disziplinierten Experimentierens – statt Bauchgefühl gibt es messbare Ergebnisse.
Wie so oft in der IT gilt: Die vorhandenen Kundendaten wurden nicht für den Zweck gesammelt, für den wir sie später verwendet haben. In unserem Fall bedeutete das, dass die Verkaufsdaten noch angepasst und transformiert werden mussten. Die Datenqualität war nicht perfekt – in einigen Fällen ließen sich Daten korrigieren, in anderen mussten wir bewusst auf einzelne Datenpunkte verzichten.
Hinzu kommt die Integration externer Datenquellen: Demografische Daten etwa stammen nicht aus den Kundendatenbanken und müssen mit den internen Daten zusammengeführt werden.
Von unschätzbarem Wert war die Domänen-Expertise des Kunden. Im regelmäßigen Austausch wurden kundenspezifische Aspekte erörtert, darunter:
Das KI-Modell ist nicht perfekt – aber es hat die Planabweichungen gegenüber der bisherigen Planung deutlich reduziert. Genauso wichtig: Es wurde eine Basis geschaffen, auf der weitere Experimente aufsetzen können. Außerdem denken wir bei prodot von Anfang an AI Governance mit. Dies regelt die Nachvollziehbarkeit, Dokumentation und Verantwortlichkeiten in solchen Projekten.
Für Handelsketten, die über eine eigene KI-gestützte Absatzprognose nachdenken, sind erfahrungsgemäß drei Faktoren entscheidend: saubere Daten, enge Zusammenarbeit mit Fachbereichen und die Bereitschaft zu kontinuierlichem Experimentieren. Alles andere ist Handwerk.
Sie möchten wissen, wie eine KI-gestützte Absatzprognose für Ihre Handelskette konkret aussehen könnte? Sprechen Sie uns an.
1 Min. Lesezeit
Neun von zehn Einzelhändlern weltweit testen oder nutzen bereits KI — doch nur fünf Prozent erzielen einen klar messbaren ROI. Die Lücke zwischen...
1 Min. Lesezeit
KI-Agenten sind kein Zukunftsversprechen mehr. Sie laufen heute in Produktion und in Unternehmen aller Branchen und Größen. Die Frage ist nicht mehr,...
1 Min. Lesezeit
2026 ist das Jahr, in dem KI-Agenten aufhören, ein Experiment zu sein. Die Technologie ist reif, die Anwendungsfälle sind klar und der Abstand...