Lagerkennziffern - Logistik

Verlässliche Daten für das Logistik-Management der Supply Chain & Logistik 4.0

Ob klassische Logistik 4.0 oder Supply-Chain Management der Zukunft – in vielen Betriebsbereichen sind verlässliche Daten für Prognosen und Predictive Business Analytics der Schlüssel für Ihren zukünftigen Unternehmenserfolg. Entwicklungen des Betriebs zu prognostizieren, setzt eine intelligente Datenerhebung mit anschließender, datengestützter und durchdachter Analyse voraus. Dies gilt umso mehr, wenn unerwartete Entwicklungen im Unternehmen eintreten und eine schnelle Entscheidung zu treffen ist. Hier können sich Firmen glücklich schätzen, die frühzeitig in die Erfassung und Verarbeitung verlässlicher Daten investiert haben, eben wie jene, die ihre Entscheider rechtzeitig eine agile Managementstrategie haben integrieren lassen.

Sinnvolle Datenerfassung – mehr als nur Verkaufszahlen

Jeder Vertrieb und jedes Management wird über einen grundlegenden Datenstamm verfügen, beispielsweise über die Verkaufszahlen der letzten Monate und Jahre, über Rückläufer, Conversion, durchschnittliche Warenkörbe usw. – alles dreht sich um den Absatz. Werden ausschließlich diese Daten isoliert für zukünftige Entscheidungen verwendet, gehen wichtige Entwicklungen und Prozesse bei der Einschätzung des Kundenstamms verloren. Nicht alleine Art und Anzahl der verkauften und versendeten Produkte sind relevant. Genauso sollte erfasst werden, zu welchem Zeitpunkt welche Entwicklungen genau eintraten. Würde sich der Alltag nur um den Umsatz drehen und auch nichts anderes geschehen als der Verkauf, wäre das ok. Aber im unternehmerischen Alltag passiert so viel mehr. Alle(!) Situationen, die regelmäßig auftreten und wiederkehren, sollten präventiv getrackt werden. Zumindest sollte dies das Ziel für die nächsten 5 Jahre Logistikmanagement-Optimierung sein – Stichwort: Regressionsanalysen.

  • Disposition – Verkaufshistorie auswerten, um zukünftigen Bedarf genau einzuschätzen. Welche Lagerflächen sollten am besten genutzt werden, welche Ware wann wohin gebracht werden. Natürlich gibt es auch Heute schon viele Strategien und Meinungen zu diesen Themen in jedem Unternehmen. Es ist nicht der Unterschied zu früher, dass diese Kennzahlen irgendwie getrackt werden. Der Unterschied ist, dass die Verbesserungen in diesen Bereichen nicht mehr auf Basis der Intuition eines einzelnen Managers erreicht werden, sondern dass zukünftig 100% objektive Daten diese Verbesserungsmöglichkeiten vollautonom aufzeigen. Je mehr Daten also gesammelt werden, desto präziser die Optimierungsmöglichkeiten der Zukunft.
  • Logistikmanagement – Durch die Auswertung der Verkaufshistorie und weiterer Kundendaten können auch Beschaffungsprozesse und Mitarbeitereinsätze optimiert werden. Durch die Auswertung von Erfahrungswerten können außerdem bessere Routen geplant werden – auch intern, durch eine detaillierte Auswertung der Pickup-Times einzelner Waren und Mitarbeiter. Viele dieser Daten existieren schon jetzt, aber die logische und vollautomatisierte Korrelation steht meistens noch aus. Natürlich trackt selbst Aldi schon seit den 70ern, wie viel Artikel pro Stunde jeder Mitarbeiter abkassiert. Aber eine Software, die dem Unternehmen Morgens anzeigt, wie die Geschwindigkeit vllt. erhöht werden könnte, basierend auf Predictive und Descriptive Analytics, die fehlt noch(!).
  • FehleranalysenWann fallen die Regalbediengeräte im Hochregallager häufig aus? Könnte es temperaturbedingt sein? Fallen sie eher an verkaufsstarken oder verkaufsschwachen Tagen aus? Welche vorhandenen Daten zeigen eventuell einen bevorstehenden Ausfall an? (Descriptive Analytics – Vergangenheit auswerten)
  • Supply-Chain-Management – saisonabhängige Kennzahlen für Lieferanten auswerten (Lieferquote, Lieferzeit usw.), um den perfekten Lieferanten für jeden Anlass zu finden. Welches Verpackungsmaterial brauche ich eigentlich auf Vorrat, abhängig von den verkauften Warentypen aus dem Vorjahr oder Vormonat? Habe ich letztes Jahr zur selben Zeit eher viele Waren aus Glas verschickt, die z.B. Luftpolsterfolie als Füllmaterial benötigen und Warnklebeband zur Absicherung, oder eher robuste, kantige Waren, bei denen normales Packband ausreicht?
  • Business-Process-Management (BPM) – eine systematische Methode, um Geschäftsprozesse in Unternehmen effektiver zu gestalten und die IT besser mit allen Abteilungen zu synchronisieren. BPM ist Grundvoraussetzung für eine Digitale Transformation und das verbesserte Logistikmanagement mithilfe von Predictive Analytics. Business Process Execution Language (BPEL) und Business Process Management Notation (BPMN) wurden beide geschaffen, um die Kommunikation zwischen der IT und den anderen Abteilungen zu erleichtern. Diese Sprachen sind für Geschäftsleute schnell zu erlernen und erleichtern die abteilungsübergreifende interne Unternehmenskommunikation. Sowohl BPEL und BPMN orientieren sich an den Grundregeln der Programmierung. So können Beobachten des Verkäufers in harten Programm-Code für bspw. das CRM oder weitere Systeme übersetzt werden.

Das sind nur einige wenige Beispiele von Dingen, Prozessen und Situationen im Unternehmensalltag, die man tracken könnte, um das Logistikmanagement zu verbessern. Natürlich gibt es hier große Unterschiede von Branche zu Branche. Doch jedes Unternehmen muss sich zukünftig intensiv mit diesen Themen auseinandersetzen und eben genau die Daten definieren, die für das eigene Logistik- und Supplychain-Management wichtig sind.

Der Unterschied ist nicht, dass diese Daten nicht auch früher schon irgendwie getrackt hätten werden können oder getrackt wurden – es geht darum, dass modernes datengestütztes und automatisiertes Logistikmanagement diese Daten selbst auswertet und automatisch Konsequenzen zieht, ohne dass ein Mitarbeiter noch darauf achten müsste. Die Mitarbeiter werden zu Datensammlern, die Software zum Manager.

Infografik zur Übersicht über die BPM-Studie von BearingPoint

Mit einer größeren Datenmenge ist es einfacher möglich, logische Zusammenhänge zu erkennen und aus diesen aussagekräftige Prognosen zu erzeugen. Das blinde Ansammeln von Daten und die wilde Verwaltung von Datenbanken helfen hierbei nicht weiter. Benötigt wird ein intelligentes Datenmanagement und Anwendung, die eine exakte Darstellung individuell interessanter Korrelationen ermöglichen.

Zuverlässigkeit der Datengrundlage – Zufall, Korrelation oder Kausalität?

Das Leben ist komplex, gleiches gilt für die Kaufentscheidung von Kunden für Artikel aller Branchen. Die Kauflust lässt sich nicht einfach durch einen Rabatt wecken, wenn dieser zum falschen Zeitpunkt gewährt wird. Beispielsweise werden manche Artikel bevorzugt vor oder in der Urlaubszeit erworben und laden zu einer rechtzeitigen Rabattierung ein. Wann genau Sommerurlaub in wie vielen Bundesländern herrscht und ob ein Hochsommer oder Regenwetter vorausgesagt wird, fließt in die Rabattaktion selten ein. Gerade solche Außenfaktoren nehmen jedoch erheblichen Einfluss auf Erfolg oder Misserfolg. Und einmal eingerichtet, kann ein entsprechender Analyse- und Optimierungsprozess all‘ diese Dinge berücksichtigen, ohne spürbaren Mehraufwand für Sie und Ihre Mitarbeiter & Kollegen.

Die Fülle an externen Faktoren richtig analysierendas ist die Kunst. Noch bevor eine Prognose auf Basis von Daten aus der Vergangenheit erstellt werden kann, muss auch die Datengrundlage korrekt sein. Es muss nicht nur die Verkaufszahl vorliegen, sondern auch die Frage beantwortet werden, warum ein Produkt in dieser Menge zu diesem Zeitpunkt gekauft wurde und was das für die Anpassung des Logistikmanagements und der Supply-Chain in der nahen Zukunft bedeutet. Logische Korrelation ist das Stichwort. 

Bei der Auswertung von Daten als Vergangenheitswerte sind solche Zusatzinformationen Gold wert. Nur weil eine bestimmte Marketingaktion in einem Sommer nicht funktioniert hat, bedeutet dies nicht, dass sie grundsätzlich in jedem Sommer scheitern wird. Die richtigen Daten rund um Vertriebsaktionen und sonstige Firmenprozesse zu erfassen, kann vor solch einem Irrglauben bewahren.

Was eine schwarze Katze mit dem Logistikmanagement der Zukunft zu tun hat, das lesen Sie im folgenden Absatz. Bild: Adobe Stock / dicktraven

Beispiel: Eine schwarze Katze läuft über die Straße, kurz darauf stolpert man darüber und bricht sich das Bein. Dumm gelaufen? Ursache & Wirkung (Stolpern über die Katze oder durch die Ablenkung) oder der Beweis für Aberglauben? Und was davon ist nun Zufall, was Korrelation und was Kausalität?

  • „Dumm gelaufen!“ steht selbstredend für den Zufall / Koinzidenz 
  • „Die schwarze Katze hat mich abgelenkt, deshalb bin ich gestolpert. Es hätte auch eine Weisse sein können.“ steht für Korrelation. Ich bin gestolpert, weil die Katze mich abgelenkt hat. Ob das immer passiert, auch bei weissen Katzen passieren würde usw. spielt hierbei keine Rolle – eine Korrelation bezeichnet lediglich das einmalig aufgetretene Verhältnis zwischen A und B, ohne eine allgemeine Ursache & Wirkung davon abzuleiten. Das Wassereis lief letzten Sommer schlecht. Vielleicht, weil die Kühltruhe kaputt war und nicht, weil Wassereis im Sommer generell schlecht läuft.
  • „Schwarze Katzen bringen immer Unglück, deshalb bin ich gestolpert.“ wäre nun eine Aussage, die eine Kausalität (einen Kausalzusammenhang also Ursache & Wirkung) vermutet, weil auf Basis großer Datenmengen festgestellt werden konnte, dass Menschen sehr oft stolpern, nachdem sie eine schwarze Katze gesehen haben. Eigentlich wäre so eine Feststellung aber nur eine statistisch signifikante Korrelation, noch kein bewiesener Kausalzusammenhang von Ursache & Wirkung, also kein Beweis dafür, dass schwarze Katzen Unglück bringen oder Wassereis im Sommer nicht gut läuft, nur weil wir das mehrmals festgestellt haben. Vielleicht gehen unsere Kühltruhen auch einfach nur oft im Sommer kaputt und wir müssen da ansetzen, statt das Eis aus dem Sortiment zu nehmen. All‘ diese Daten kann ein Mensch gar nicht manuell auswerten und daraus auch noch Schlussfolgerungen ziehen. Predictive Analytics und modernes Logistikmanagement schon.

Gibt es eine Korrelation zwischen A und B, dann könnte A also Ursache von B sein, oder B kann Ursache von A sein. Es könnte aber auch sein, dass keines von beidem Ursache von irgendwas ist, sondern es eine dritte Variable gibt, die A und B beeinflusst hat. Die kaputte Kühltruhe, oder das Stolpern über die Katze aus Ablenkung und nicht, weil man Unglück aufgrund der schwarzen Katze hat, wäre diese C-Variable. Oder es handelt sich einfach um Zufall – dann spricht man von Koinzidenz.

Ein weiteres Beispiel wäre die Schlagzeile „Verheiratete Männer leben länger“. Hier wäre die Korrelation, dass Männer länger leben und das irgendwie was mit Heirat zu tun hat. Der reininterpretierte Kausalzusammenhang wäre, dass Männer länger leben, weil sie geheiratet haben. Was noch nicht beachtet wurde, das ist die Hintergrundvariable – Variable C, die genetische Veranlagung. Vielleicht ist es nämlich genau andersherum. Werden genetisch gut veranlagte Männer vielleicht einfach öfter geheiratet, weil sie eben gute Gene haben? Entsteht so der Eindruck, dass verheiratete Männer länger leben, obwohl es eben genau andersherum ist. Männer, die wegen ihrer guten Gene länger leben, finden öfter eine Frau.

Aber was hat das alles nun mit Logistik zu tun?

Beschaffung von Lebensmitteln im Einzelhandel – mal angenommen, der Filialleiter hat festgestellt, dass bei 20% Rabatt die doppelte Menge an Capri Sonne verkauft wurde. Klingt logisch, oder? Könnte auch sein. Aber vielleicht herrschten zum Zeitpunkt der Verkaufsaktion hochsommerliche Temperaturen und die Capri-Sonne war für viele Verbraucher die nötige Erfrischung und passend vorne im Kühlregal an der Kasse platziert worden. Wenn diese Information in der Statistik keine Beachtung findet, könnte die nächste Rabatt-Aktion im Herbst eine große Abschrift von Capri Sonne bedeuten. Oder anders: vielleicht wäre der Rabatt gar nicht nötig gewesen, sondern allein‘ die Platzierung an der Kasse hätte für die doppelten Abverkaufszahlen gereicht. Durch den Rabatt ist dem Unternehmen also noch Umsatz „durch die Lappen gegangen“. Eine Software kann all‘ dies berücksichtigen und sekundengenau tracken – und auf unbestimmte Zeit abspeichern, so wie in Sekunden abrufen und auf dieser Basis Empfehlungen geben. Ein Mensch nicht. Zumindest nicht so genau, sondern nur intuitiv. So, wie bei der schwarzen Katze.

Für genaue Prognosen über den Absatz eines Produkts ist es daher enorm wichtig, die richtigen Zusammenhänge und Hintergrundvariablen als Faktor für den Verkaufsanstieg zu identifizieren. Die Stärke einer Prognose-Software ist ihre Fähigkeit, Korrelationen aufzudecken, ohne der menschlichen Neigung nachzugehen, daraus sofort Kausalitäten zu schaffen. Doch ebenso muss die Fachkraft im Hintergrund beurteilen können, ob es sich auch um die logische Korrelation handelt. Nur stehen nun viel mehr Daten als das eigene Gedächtnis als Entscheidungsgrundlage zur Verfügung.

Das bedeutet, dass ein Unternehmen fortan nicht mehr nur Standard-KPIs tracken sollte, sondern alles, was geht, um Korrelationen und Kausalitäten aufzudecken:

  • Wetter
  • Feiertage / Jubliläum
  • Regionale Events in der Gegend
  • Verkehrslage
  • Produktähnlichkeiten
  • Trends
  • Werbemaßnahmen, die zum jeweiligen Zeitpunkt liefen
  • Anwesende Mitarbeiter
  • Lohnsituationen & Mitspiegel
  • u.v.m.

Eine interessante Kooperation zwischen INFORM und der ZHAW (Züricher Hochschule für angewandte Wissenschaften), im Rahmen eines Forschungsprojekts, stellt genau diesen Sachverhalt und die Wichtigkeit eines möglichst großen Datenpools dar. Zwar beschränkt sich die Arbeit auf die Lebensmittelbranche, aber viele Erkenntnisse sind durchaus übertragbar. Es wurde der Einfluss diverser externer Faktoren wie Wetter, Feiertage oder Produktähnlichkeiten auf die Absätze insbesondere frischer Lebensmittel untersucht, um diesen in Form von mathematischen Algorithmen abzubilden. Eine neue Generation von Machine-Learning-Algorithmen war dabei von oberster Priorität.

Fazit: Wenn man wirklich alle vorliegende Vergangenheitsdaten durch eine korrekte Descriptive Analyse der logischen Zusammenhänge berücksichtigt, dann bildet sich mit der Zeit eine sehr dynamische und zugleich präzise filterbare Datengrundlage, mit der man intelligente Prognosealgorithmen füttern kann, um zukünftige Entwicklungen zu prognostizieren, ebenso wie deren Wahrscheinlichkeiten. Aber was ist nun eigentlich mit unvorhersehbaren, noch nie eingetroffenen Situationen? Hier kommt der Mensch ins Spiel, ebenso wie sein agiles Management. 

Die Aussagekraft Ihrer Prognosen steigern

Nicht nur für die Logistikbranche gilt: Prognosen auf Basis vergangener Datenwerte sind umso verlässlicher, wenn potenzielle Störfaktoren und Besonderheiten in die Datenerfassung eingeflossen sind. Was als Störfaktor gewirkt hat, ist im Moment der Datenerfassung nicht immer deutlich zu erkennen und setzt eine intelligente Analyse vor der Erstellung von Datenbanken voraus:

  • Lieferantenausfälle
  • Krankheitsfälle
  • Ein Ladenüberfall
  • Rückrufaktionen
  • Streiks
  • Naturkatastrophen
  • weitere Katastrophen (Beispiel: Fischrückruf-Aktionen nach Fukushima, von Fischen, die schon lange in der Truhe lagen, als die Radioaktivität austrat)

Hier hilft in vielen Fällen die Zusammenarbeit mit einem erfahrenen Branchenpartner, der aus der Erfahrung heraus mit Außeneinflüssen der unerwarteten Art vertraut ist.

Bei diesen sog. „Disruptions“, also bei Störungen der Organisation, welche Ihre etablierten Unternehmensprozesse stark behindern, sollte das Ziel beim Logistikmanagement also nicht darin bestehen, schlichtweg unvorhersehbare Störungen in der dennoch „irgendwie“ mittels Prognosen vorhersehen zu wollen, sondern auf Strategien und Prozesse zu setzen, die Sie im richtigen Moment die richtige Entscheidung treffen lassen. Übrigens: warum activaTec die richtige Entscheidung ist, das verrät unsere Firmengeschichte

Bildnachweise

Titelbild: Adobe Stock / zapp2photo