Neues aus der Handelswelt
Mit Forschung und Beratung erfolgreich im Handeln
B2C- & B2B-Händler
Hersteller
Kommunen & Ministerien
Dienstleister
Expertise für Handel im digitalen Zeitalter
Hier findet ihr unsere Studien 
Themen
Branchen
Spannende Projekte aus der IFH Welt
DIe EVENTS DES IFH KÖLN
8. Oktober 2025
Portraitfoto von Uli Häfele

Krisen, Unsicherheiten und neue Technologien, sind etwas, das uns seit jeher zu Innovationen bewegt hat und sollten daher nicht per se negativ gesehen werden.
Das Tempo der Krisenbildung und Veränderung, das den Handel trifft dürfte mit Corona, dem Überfall von Russland auf die Ukraine, der Demontage des regelbasierten Welthandels durch die USA und schlussendlich dem Reifegrad von KI einen Höchststand erreicht haben.

Uli Häfele, Director Process Consulting bei unserem ECC CLUB Mitglied NETFORMIC erläutert im Interview wie man diesen Krisen gegenübertreten kann, warum Daten Stabilität schaffen und wie Unternehmen den Spagat zwischen robustem Datenmanagement und agilen Prozessen meistern können.

Welche Handelsprozesse sind durch Krisen und KI am stärksten im Wandel – und warum?

Einfacher wäre die Frage in der Umkehrung gestellt - was ändert sich gerade nicht und warum bleibt dies stabil? Wenn wir Handel sehr vereinfacht in drei Metaprozesse unterteilen - Einkauf, Veredelung und Verkauf -  dann ist das relativ einfach aufzuzeigen. Der Einkauf von Produkten wird gerade massiv durch gestörte Handelsketten beeinflusst. Zölle sind dabei das wohl akuteste Thema.
Die Veredelung im Handel kann auf unterschiedlichen Wegen erfolgen. Es kann sich um Montagevorgänge handeln, was weniger Handel, sondern eher Produktion betrifft, es kann aber auch die einfache Umverpackung sein, d. h. das typische Modell eines Großhändlers - "kaufe in Mengen, verkaufe in Stück". Hier trifft viele Händler der technologische Wandel durch KI und grundlegende Digitalisierungsentwicklungen stark. Sei es, dass Veredlungsschritte mit KI entfallen oder beschleunigt werden - z. B. Veredelung mit Texten und Bildern.Im Verkauf trifft der Handel auf sinkende Nachfrage durch die wirtschaftliche Lage, steigende Markttransparenz z. B. durch Ultra Low Cost Marktplätze wie TEMU, was auch steigende Konkurrenz bedeutet. Aber letztendlich auch eine Neuausrichtung des Marktzugangs durch Agentic Commerce.

Warum stellen Daten trotz disruptiver Veränderungen einen stabilen Faktor dar?

Daten sind unabhängig von kurzfristigen Krisen oder technologischen Trends die Basis für fundierte Entscheidungen. Technologien wie KI oder auch Krisenmanagement-Tools bauen letztlich alle auf Daten auf. Wer seine Datenbasis sauber pflegt, hat auch in turbulenten Zeiten einen klaren Blick auf Nachfrage, Kundenverhalten und operative Prozesse.Entscheidend dabei ist, dass Daten nicht mehr als Mittel zu EINEM Zweck gesehen werden. Dazu ist es heute zu wenig abzusehen, wozu ich meine Daten morgen noch brauche.

Einfaches Beispiel: Die ersten Produkt Information Management Systeme (PIM) kamen mit dem Ziel auf den Markt, einen Katalog optimal drucken zu können. Dieser Zweck wurde innerhalb kurzer Zeit vom Zweck überholt, Produkte auch online darstellen zu können. Diese Reihe setzt sich fort über Ecommerce zu Product Experience Management (Kontextabhängige Produktdarstellung) hin zur Digital-Shelf Analyse (In welchem Kontext verkaufe ich am besten). Als Kern bleibt aber immer der gut gepflegte Produktdatensatz.

„Daten“ sind eine sehr vage Angabe – von welchen Daten sprechen wir und welche Rolle spielt dabei die Datenqualität?

Im Handel sprechen wir von einer Vielzahl an Daten: Kundendaten (z. B. Kaufverhalten, Präferenzen, Feedback), Produkt- und Stammdaten (z. B. technische Daten, Sortiment, Medien, Verfügbarkeiten, Preise), Transaktionsdaten (Angebote, Bestellungen),  sowie Logistik- und Supply-Chain-Daten (Bestand, Lieferdauer, Versandweg).
Die größte Herausforderung liegt oft nicht in der Menge, sondern in der Qualität und insbesondere in der Verknüpfung und nicht zuletzt in der Interpretation von Daten. Fehlerhafte, doppelte oder unvollständige Daten führen zu falschen Analysen – und machen auch modernste KI-Modelle wertlos. „Garbage in, garbage out“ gilt hier mehr denn je. KI-Modelle können den Garbage Effekt sogar noch verstärken, denn KI ist in der Lage Lücken zu füllen. Wir kennen den Effekt, wenn ChatGPT vermeintliche Fakten "erfindet".
Genauso wichtig wie die Datenqualität ist die Vernetzung von Daten. Es wurde bereits die Digital-Shelf Analyse erwähnt, also die Verknüpfung, welches Produkt sich in welcher Ausprägung in welchem Kanal (Shop, Marktplatz, Filialhandel, …) besonders gut verkaufen lässt. Die Zusammenführung von Produkt - Marketing - und Abverkaufsdaten. Erst mit dieser Verbindung bin ich in der Lage, eine Prognose in die Zukunft zu treffen. "Wir wissen, dass die Zielgruppe in einem bestimmten Marktplatz auf ein Darstellungsformat in Kombination mit einem besonderen Preis besonders reagiert hat, wir wagen also die Behauptung, dass dies bei einer vergleichbaren Zielgruppe in einem neuen Markt auch funktionieren kann."

Was heißt das konkret für ein Unternehmen?

Unternehmen müssen Daten als strategischen Rohstoff verstehen – nicht nur als IT-Thema.
Die drei zentralen Säulen für Daten sind in vielen Unternehmen bereits vorhanden: ERP, CRM und PIM/DAM. Was sehr oft noch fehlt, ist die Möglichkeit zur Verknüpfung und der Zugang zu den Daten im Unternehmen.

Das bedeutet: Die Verantwortlichkeit für Daten wird auf ein strategisches Niveau gehoben, mit klaren Datenstrategien, Verantwortlichkeiten, Governance-Strukturen und Investitionen in Datenmanagement.

  • Zentrale Pflege von Produkt- und Kundendaten
  • Klare Verantwortlichkeiten für Datenqualität
  • Keine Datensilos in IT und Fachabteilungen
  • Aufbau von Tools und Prozessen, die Daten unternehmensweit nutzbar machen
  • Frühzeitig die Möglichkeit von neuen Verknüpfungen zwischen Daten bedenken.

So wird Datenmanagement vom Kostenfaktor zum Enabler für Innovation und Stabilität.

Wie können Unternehmen Stabilität in ihren Daten sichern und gleichzeitig agile Prozesse entwickeln?

Das klingt zunächst wie ein Widerspruch, ist es aber nicht. Stabilität entsteht durch klare Standards, Governance und zentrale Datenbereitstellung. Agilität entsteht durch flexible Nutzung dieser Daten in Prozessen und durch neue Technologien.

Praktisch heißt das:

  • Zentrale Zugriffe auf Daten (Single Source of Truth) schaffen
  • Schnittstellen & APIs bereitstellen, um Daten flexibel in unterschiedliche Systeme zu bringen
  • KI-gestützte Analysen einsetzen, um Szenarien schnell durchspielen zu können
  • Kulturwandel fördern: Datenkompetenz in allen Bereichen stärken, nicht nur in der IT
    So entsteht ein „stabiles Fundament“, das gleichzeitig Spielraum für schnelle Anpassungen lässt.
cartmagnifiermenu