Optimierte Nachfrageprognose mit Hilfe von
Predictive Analytics
Zu den Bildern, die man unwillkürlich mit der COVID-19 Krise verbindet, gehören sicherlich leere Supermarktregale. Über Wochen gab es kaum mehr haltbare Lebensmittel, Mehl, Nudeln, Reis zu kaufen. Darüber hinaus weder Desinfektionsmittel noch medizinische Masken und ja, kein Toilettenpapier. Alltagsartikel mit einem üblichen Verkaufswert von wenigen Cent- oder Euro-Beträgen wurden plötzlich für den x-fachen Preis gehandelt – wenn es sie denn überhaupt gab. Die meisten Westeuropäer der Nachkriegsgenerationen hatten über Jahrzehnte das Glück und Privileg, Mangel bestenfalls aus Geschichtsbüchern zu kennen: Und plötzlich war er da.
Hand aufs Herz: Wer hätte zum Beginn der Pandemie in Deutschland ernsthaft prophezeit, dass ein Virus, welches hauptsächlich die Lunge befällt, ausgerechnet Einfluss auf den Absatz von Toilettenpapier haben könnte? Wahrscheinlich niemand. Und warum? Weil der Zusammenhang zwischen einer drohenden Gefahr und dem menschlichen Antrieb sich und seine Familie abzusichern, in keinem Modell zur Nachfrageprognose vorkam.
Grenzen der klassischen Nachfrageprognose
Bei Schreiben eines solchen Artikels schwingt immer auch die Gefahr einer Wertung mit. Begriffe wie „klassisch“ oder „traditionell“ werden vorschnell mit „altmodisch“ oder „rückständig“ assoziiert. Eine solche Betrachtung ist so falsch wie sie nur sein kann. Denn klassische Methoden, wie die Zeitreihenprognose, haben über Jahre ihre Güte und Zuverlässigkeit bewiesen und sind vergleichsweise einfach in Unternehmen zu implementieren. Sie funktionieren umso präziser, je weniger sich am generellen Setting ändert. Aber genau an dieser Stelle sind die Grenzen bereits zu erkennen: Das Setting ändert sich – immer schneller und immer unvorhersehbarer. Aber was sind die treibenden Faktoren?
Konsumenten können ihr Verhalten schnell und unerwartet ändern
Das Beispiel mit dem Toilettenpapier zeigt recht deutlich, dass Konsumenten sich nicht immer rational verhalten. Während das Bevorraten von Lebensmitteln in Krisenzeiten noch am ehesten nachvollziehbar erscheint, mutet der Run auf eben jenes Toilettenpapier abstrus an. Allein das Gerücht, der Artikel würde knapp werden wurde zur selbsterfüllenden Prophezeiung.
Querabhängigkeiten bleiben unerkannt
Vielleicht hätte man diese Entwicklung eben doch prognostizieren können? Nehmen wir für einen Moment an, ein Algorithmus hätte das Kaufverhalten von Menschen in existenzbedrohenden Krisensituationen analysieren können. Er hätte unter Umständen herausgefunden, dass sich ein solcher Nachfrageschub über eine Veränderung bestimmter Indikatoren ankündigt. Produktion und Logistik hätten rechtzeitig mit einer Erweiterung der Kapazitäten reagieren können.
Zu viele Einflussfaktoren
Dass die Kauflaune von Konsumenten auch von äußeren Faktoren abhängt, ist seit langem bekannt. Messegesellschaften können ein Lied davon singen, dass gutes Wetter Gift für den Verkauf von Messetickets ist. Heutzutage kommen aber immer mehr Einflussfaktoren hinzu, wie beispielsweise der Einfluss von Social Media Influencern. Schon vor Corona konnten Fluggesellschaften einen Rückgang des Passagieraufkommens aufgrund des „Flight Shame Movements“ beobachten.
Kein Forecast ohne ausreichende Datenlage
Klassische Forecasts folgen dem Grundsatz, dass Geschichte dazu neigt, sich zu wiederholen. Was aber, wenn es keine Geschichte gibt, weil Produkt und Markt neu sind? Zugegeben, auch neue Prognosemethoden benötigen Daten. Jedoch wären sie in der Lage, beispielsweise Daten aus verschiedenen ähnlichen Märkten oder von Wettbewerbern zu aggregieren und nach Mustern zu durchsuchen, die sich auf den neuen Markt übertragen lassen.
Interessieren Sie sich für unser Factsheet?
Was bringt mathematische Optimierung?
Machine Learning und Predictive Analytics als Chance
Insbesondere bei der Einbindung einer großen Menge von Datenquellen und dem Aufspüren von Mustern und Querabhängigkeiten, können Machine Learning und Predictive Analytics ihre volle Stärke ausspielen. Eine engmaschige und wiederkehrende Analyse aller Einflussfaktoren ermöglicht das frühzeitige Aufspüren von Veränderungen, aus denen sich Anpassungen der Bedarfsplanung rechtzeitig ableiten lassen. Dabei lernen die Modelle kontinuierlich und verbessern die Voraussagequalität mit jeder Iteration. Aber wie bereits erwähnt, hängt vieles von der Art und Verfügbarkeit der zu analysierenden Daten ab. Daher möchten wir uns diese im Folgenden einmal genauer anschauen.
Strukturierte interne Daten
Interne Quellen sind aufgrund ihrer Zugänglichkeit und kontinuierlichen Verfügbarkeit die ergiebigste Quelle für Daten – in der Theorie. In der Praxis ist es oft so, dass sie zunächst aus unterschiedlichen Systemen zusammengetragen und aufbereitet werden müssen. Idealerweise wird dieser Prozess für den operativen Gebrauch automatisiert und der Datenaustausch findet über Schnittstellen statt. Ein Aufwand, der viele Unternehmen zunächst schreckt, der sich aber in Form einer gesteigerten Prognosequalität mehr als rentiert.
Beispiele für strukturierte interne Daten
- Bestellungen (Erstbestellung / wiederkehrende Bestellung)
- Verkäufe (im Zeitverlauf)
- CRM-Informationen (Marketing- und Sales-Aktivitäten)
- Customer Service
Strukturierte externe Daten
Interne Daten lassen sich durch externe Datenquellen erweitern. Mit der Einbeziehung von Wetterdaten wäre man beispielsweise in der Lage, den Bedarf in Abhängigkeit vom Wetter zu analysieren und diese Erkenntnis in künftigen Nachfrageprognosen zu berücksichtigen.
Beispiele für strukturierte interne Daten
- Wetterdaten
- Sozio-demografische Daten und Typologien
- Statistikdaten
- Panels
Unstrukturierte interne Daten
Bei unstrukturierten Daten ist es nicht immer ganz einfach die relevanten von den unrelevanten Daten zu unterscheiden. Während standardisierte Reviews und Bewertungen auf der eigenen Website noch recht einfach auszuwerten sind, fällt dies bei Kommentaren schon schwerer. Diese müssten entweder manuell geprüft und kategorisiert werden, oder man benötigt hierfür einen semantischen Algorithmus, der in der Lage ist, die Bedeutung des Kommentars zu verstehen und zu bewerten. Je nach Wichtigkeit dieser Daten für das Modell, bzw. der anfallenden Datenmenge kann das eine oder das andere sinnvoller sein.
Beispiele für unstrukturierte interne Daten
- Kommentare auf der Website
- Bewertungen aus der Website
- Website KPI / Klickpfade
- Auswertung von Marketing Kampagnen
Unstrukturierte externe Daten
Was bei internen Daten bereits schwer fällt, wird bei externen Quellen noch ein wenig komplexer. Dennoch kann es nützlich und hilfreich sein, bspw. soziale Medien nach Meinungen, Kommentaren oder Videos über die eigene Marke oder das eigene Produkt zu durchsuchen. Zeichnen sich Nachfragetrends ab, oder lässt sich ein Bestellrückgang antizipieren?
Beispiele für unstrukturierte interne Daten
- Social Media
- Geolocations
Wie arbeiten Machine Learning und Predictive Analytics zusammen?
Wir haben im vorangegangen Abschnitt gesehen, dass Daten der Schlüssel für eine erfolgreiche Nachfrageprognose sind. Genauer könnte man beinahe sagen: Die Lösung liegt irgendwo unter einer Flut an Daten begraben. Hier kann Machine Learning seine volle Kapazität ausspielen. Nicht nur, dass sich maschinell eine Unmenge von Daten in kurzer Zeit verarbeiten lässt, der Algorithmus erkennt auch Muster und Querabhängigkeiten wesentlich besser als der Mensch – gerade bei der Einbindung unstrukturierter externer Daten, die aber für Prognosen immer wichtiger werden. Aber wie funktioniert Machine Learning eigentlich? Wir zeigen es einmal Schritt für Schritt.
1. Daten sammeln
Relevante Datenquellen werden identifiziert. Hierbei kommt es insbesondere auf die Datenqualität und deren Vollständigkeit an.
2. Daten aufbereiten
Das Ergebnis fällt umso besser aus, je besser die Datenaufbereitet sind. Nach Möglichkeit werden Datensätze vervollständigt und in eine einheitliche Form zur Weiterverarbeitung gebracht. Auf diesen Schritt entfällt ein großer Teil der initialen Arbeit beim Aufsetzen eines Machine Learning Algorithmus.
3. Algorithmus trainieren
Liegen die aufbereiteten Daten vor, werden sie in Sets aufgeteilt. Der größere Teil entfällt auf das Trainings-Set, mit welche der Algorithmus schließlich trainiert wird. Die restlichen Daten teilen sich auf die Bereiche „Test“ und „Validierung“ auf. Validierungsdaten sind wichtig, um zu prüfen, ob der Algorithmus wirklich mit ihm unbekannten Daten arbeiten kann und valide Ergebnisse liefert. Die genutzten Daten sind natürlich repräsentativ und die Aufteilung in die Datengruppen ist randomisiert”.
4. Algorithmus testen
Der Test erfolgt anhand der Auswertungsdaten. Wenn diese noch kein befriedigendes Ergebnis liefern, wird der Algorithmus weiter verbessert (siehe 5.).
5. Algorithmus verbessern
Der Algorithmus wird kontinuierlich verbessert, um die erforderliche Genauigkeit zu erreichen. Vielleicht müssen weitere Daten zur Verfügung gestellt werden, vielleicht der Algorithmus selbst verändert oder sogar gänzlich gewechselt werden. OPTANO hat hierfür mit dem Algorithm Tuner ein eigenes, kostenfreies Tool entwickelt, dass den Prozess deutlich beschleunigt.
Ist der optimale Machine Learning Algorithmus gefunden, steht der Nachfrageprognose mit Hilfe von Predictive Analytics nichts mehr im Wege. Durch konstantes Monitoring aller relevanten Einflussfaktoren, lassen sich präzise Prognosen erstellen und entsprechend reagieren. Zusammenfassend ließe sich sagen: Je volatiler die Nachfrage, je mehr identifizierte und vermutete Querabhängigkeiten, je kurzfristiger die Planungszyklen in Ihren Märkten, desto eher sollten Sie über Machine Learning und Predictive Analytics zur Nachfrageprognose nachdenken.
Weitere interessante Beiträge
Hätten Predictive Analytics Modelle die Knappheit an Toilettenpapier prognostizieren können?
Retrospektiv betrachtet, ist so eine Frage natürlich kaum statthaft, aber spielen wir es trotzdem einmal durch: Hätte man einen Algorithmus im Vorfeld mit entsprechenden Daten von Konsumentenverhalten in Krisensituationen trainieren können und wären die relevanten Daten angeschlossen: Unter Umständen, ja. Insbesondere wenn es gelungen wäre, externe Quellen wie eine systematische Auswertung von Social Media Aktivitäten einzubinden.
Vielleicht hätte der Anstieg von Verkäufen bestimmter Lebensmittelgattungen den Algorithmus alarmiert. Aus Erfahrung hätte er gewusst, dass sich daraus mit hinreichender Wahrscheinlichkeit ableiten ließe, dass sich die Menschen krisenfest mit Gütern eindecken und auch Toilettenpapier in diese Ausstattungskategorie fällt. Erste reale Kaufdaten hätten vielleicht darüber hinaus ergeben, dass der Anteil Toilettenpapier pro Einkauf sukzessive steigt. Eine systematische Auswertung von Social Media Aktivitäten schließlich hätte aufgezeigt, dass in der Bevölkerung ein Versorgungsengpass befürchtet wird. Wenn sich nun durch ein konstantes Monitoring dieser Faktoren gezeigt hätte, dass die Tendenz aller Indikatoren zunimmt, hätte das Modell den Nachfrageanstieg vorhersagen und unter Berücksichtigung der aktuellen Kapazitäten, die Knappheit prognostizieren können.
Wären Machine Learning und Predictive Analytics auch in der Lage gewesen, vorzuschlagen, welche Kapazitätsanpassungen hätten vorgenommen müssen, um dem Mangel zu begegnen?
Nein. Aber mit Hilfe der „großen Schwester“ Prescriptive Analytics wäre das möglich gewesen. Wie Predictive und Prescriptive Analytics Hand in Hand arbeiten, können Sie in unserer Kurzpräsentation zu unserem Predictive Blueprint nachlesen: Siehe unten.
Kennen Sie schon unser Factsheet zum Thema?
In unserem Factsheet Was bringt mathematische Optimierung? finden Sie Details zu den 5 obengenannten Fragen und können so Ihre persönlichen Anliegen und Probleme noch besser einordnen.
Um dieses Factsheet zu erhalten, müssen Sie nur Ihre Kontaktdaten in das untenstehende Formular eintragen. Es öffnet sich dann ein Pop-up-Fenster zum Downloaden des Whitepapers. Bitte beachten Sie, dass Sie mit der Angabe Ihrer E-Mail-Adresse zustimmen, dass wir Sie zu diesem Thema kontaktieren dürfen. Sie können diese Zustimmung jederzeit widerrufen, indem Sie sich an [email protected] wenden.