In den letzten zwei Jahrzehnten sind Daten zu einem unschätzbaren Gut für Unternehmen geworden und konkurrieren mit traditionellen Vermögenswerten wie physischer Infrastruktur, Technologie, geistigem Eigentum und Humankapital. Für einige der wertvollsten Unternehmen der Welt bilden Daten den Kern ihres Geschäftsmodells.
Der Umfang der Datenproduktion und -übertragung ist exponentiell gewachsen. Forbes berichtet, dass die weltweite Datenproduktion von 2 Zettabyte im Jahr 2010 auf 44 ZB im Jahr 2020 gestiegen ist, wobei die Prognosen bis 2025 bei über 180 ZB liegen – ein unglaubliches Wachstum von 9.000 % in nur 15 Jahren, teilweise angetrieben durch künstliche Intelligenz.
Allerdings sind Rohdaten allein noch nicht gleichbedeutend mit umsetzbaren Erkenntnissen. Unverarbeitete Daten können Benutzer überfordern und möglicherweise das Verständnis beeinträchtigen. Informationen – verarbeitete, organisierte und nutzbare Daten – liefern Erkenntnisse, die zu Maßnahmen und zur Wertgenerierung führen.
In diesem Artikel teile ich meine Erfahrungen in der Datenanalyse und der Implementierung digitaler Tools und konzentriere mich auf die Nutzung von „Big Data“, um umsetzbare Erkenntnisse zu gewinnen. Diese Erkenntnisse haben es Benutzern ermöglicht, kommerzielle Chancen zu nutzen, Kosteneinsparungsbereiche zu identifizieren und auf nützliche Benchmarking-Informationen zuzugreifen. Unsere Projekte beinhalteten häufig Automatisierung, was zu Zeiteinsparungen und Effizienzsteigerungen führte. Ich werde die wichtigsten Herausforderungen, mit denen wir konfrontiert waren, und unsere Lösungen hervorheben und dabei den Schwerpunkt auf die frühen Projektphasen legen, in denen Entscheidungen die größten Auswirkungen haben.
Zu den Schwerpunkten gehören:
- Quantifizierung des Nutzens
- Es besteht die Gefahr einer Scope Creep
- Herausforderungen mit PDF-Daten meistern
- Überlegungen zur Entwurfsphase und zur Leistung
In großen Organisationen stellen die Datenverfügbarkeit und -zugänglichkeit oft erhebliche Herausforderungen dar, insbesondere wenn Daten aus mehreren Systemen kombiniert werden. Die meisten meiner Projekte zielten darauf ab, einen einheitlichen, harmonisierten Datensatz für Self-Service-Analysen und aufschlussreiche Dashboards zu erstellen. Wir haben agile Methoden eingesetzt, um einen klaren Überblick über Fortschritte und Engpässe zu behalten und die Verantwortlichkeit jedes Teammitglieds sicherzustellen.
Der typische Lebenszyklus von Datenprojekten umfasst die Phasen Scoping, Design, Entwicklung, Implementierung und Aufrechterhaltung. Beim Scoping arbeitet der Product Owner eng mit der Kunden-/Endbenutzerorganisation zusammen, um die Gesamtbedürfnisse, gewünschten Datentypen und Erkenntnisse, Anforderungen und Funktionalität zu erfassen.
Quantifizierung des Nutzens
Ein entscheidendes Element der Scoping-Phase ist der Nutzenfall, bei dem wir den potenziellen Wert der Lösung quantifizieren. Meiner Erfahrung nach erweist sich dieser Schritt oft als Herausforderung, insbesondere wenn es darum geht, den Wert analytischer Erkenntnisse einzuschätzen. Ich habe festgestellt, dass die Berechnung von Automatisierungsvorteilen wie Zeiteinsparungen zwar relativ einfach ist, Benutzer jedoch Schwierigkeiten haben, den Wert von Erkenntnissen einzuschätzen, insbesondere wenn sie mit zuvor nicht verfügbaren Daten arbeiten.
In einem entscheidenden Projekt haben wir uns dieser Herausforderung direkt gestellt. Wir haben ein Datenmodell entwickelt, um tiefere Einblicke in Logistikverträge zu ermöglichen. Während der Scoping-Phase hatten wir Mühe, die potenziellen Vorteile zu quantifizieren. Erst als wir einen aktuellen Vorfall aufdeckten, fanden wir unsere Antwort.
Einige Monate zuvor hatte der Kunde festgestellt, dass er für eine bestimmte Pipeline zu viel bezahlt hatte. Die Vertragsstruktur mit unterschiedlichen Volumenströmen, die unterschiedliche Tarife auslösten, hatte zu einer suboptimalen Nutzung und überhöhten Kosten geführt. Durch die Anpassung der Volumenströme sei es gelungen, die Stückkosten deutlich zu senken. Dieses Beispiel aus der Praxis erwies sich für unseren Nutzenquantifizierungsprozess als unschätzbar wertvoll.
Wir haben diesen Vorfall genutzt, um zu demonstrieren, wie unser Datenmodell Folgendes bewirken könnte:
- Das Problem wurde früher erkannt, wodurch möglicherweise monatelange Überzahlungen eingespart wurden
- Bereitstellung einer kontinuierlichen Überwachung, um ähnliche Probleme in der Zukunft zu verhindern
- Bietet Einblicke zur Optimierung der Flussraten über alle Verträge hinweg
Dieses konkrete Beispiel hat uns nicht nur geholfen, die Vorteile zu quantifizieren, sondern auch die Priorität des Projekts bei der Geschäftsleitung erhöht und die benötigte Finanzierung gesichert. Es war eine entscheidende Lektion darüber, wie wirkungsvoll es ist, greifbare, aktuelle Ereignisse zu nutzen, um potenziellen Wert zu veranschaulichen.
Allerdings gibt es nicht für alle Projekte so eindeutige Beispiele. Für diese Fälle habe ich alternative Ansätze entwickelt:
- Benchmarking: Wir vergleichen die Leistung einer Abteilung mit der anderer Abteilungen oder Mitbewerbern, identifizieren die beste Leistung ihrer Klasse und quantifizieren den Wert des Erreichens dieses Niveaus.
- Prozentuale Verbesserung: Wir schätzen eine konservative prozentuale Verbesserung der gesamten Einnahmen oder Kosten der Abteilung, die sich aus dem Modell ergibt. Selbst ein kleiner Prozentsatz kann in großen Organisationen einen erheblichen Mehrwert bedeuten.
Unabhängig von der Methode habe ich gelernt, wie wichtig es ist, klare, messbare Erfolgskriterien zu definieren. Wir legen jetzt immer fest, wie der Nutzen nach der Implementierung gemessen wird. Diese Vorgehensweise erleichtert nicht nur eine einfachere Neubewertung, sondern stellt auch die Verantwortlichkeit für die Entscheidung zur Implementierung digitaler Lösungen sicher.
Eine weitere wertvolle Lektion kam von einer unerwarteten Quelle. In mehreren Projekten haben wir „Nebenkunden“ entdeckt – Abteilungen oder Teams, die von unserem Datenmodell profitieren konnten, aber nicht zum ursprünglichen Leistungsumfang gehörten. In einem Fall erwies sich ein für das Logistikteam entwickeltes Modell für die Finanzabteilung bei der Budgetierung und Prognose als unschätzbar wertvoll.
Diese Erfahrung hat mich gelehrt, bei der Definition des Kundenstamms einen breiteren Blickwinkel zu werfen. In der Scoping-Phase blicken wir mittlerweile routinemäßig über die anfragende Abteilung hinaus. Dieser Ansatz hat häufig den Gesamtnutzen und die Priorität des Projekts erhöht und manchmal ein Randprojekt in eine unverzichtbare Initiative verwandelt.
Diese Erfahrungen unterstreichen eine wichtige Erkenntnis: In großen Organisationen kämpfen mehrere Benutzer aus verschiedenen Bereichen oft mit ähnlichen Problemen, ohne sich dessen bewusst zu sein. Indem wir diese Synergien frühzeitig erkennen, können wir umfassendere, wertvollere Lösungen schaffen und überzeugendere Argumente für die Umsetzung entwickeln.
Es besteht die Gefahr einer Scope Creep
Eine Verbreiterung des Kundenstamms erhöht zwar die Wirkung des Modells, erhöht aber auch das Risiko einer Ausweitung des Anwendungsbereichs. Dies geschieht, wenn ein Projekt versucht, zu viele Stakeholder zu berücksichtigen, was übermäßige oder übermäßig komplexe Funktionen verspricht und möglicherweise das Budget und den Zeitplan beeinträchtigt. Der Produkteigentümer und das Team müssen ihre Ressourcen und realistischen Lieferfähigkeiten innerhalb des vereinbarten Zeitrahmens klar verstehen.
Um dieses Risiko zu mindern:
- Rechnen Sie mit einigen Entwurfsarbeiten während der Scoping-Phase.
- Bewerten Sie, ob neue Anforderungen mit vorhandenen Datenquellen erfüllt werden können oder die Anschaffung neuer Datenquellen erforderlich macht.
- Stellen Sie mit dem Kundenmanagement klare, realistische Erwartungen hinsichtlich Umfang und Machbarkeit.
- Erstellen Sie beim Scoping ein manuelles Modell des Endprodukts, um die Anforderungen an die Datenquelle zu klären und Endbenutzern eine konkrete Vorschau des Ergebnisses zu geben.
- Verwenden Sie in Modellen tatsächliche Datenteilmengen anstelle von Dummy-Daten, da Benutzer sich besser auf vertraute Informationen beziehen können.
Die Herausforderungen im Zusammenhang mit PDF-Daten
In mehreren Projekten wurden die Herausforderungen bei der Erfassung von PDF-Daten hervorgehoben. Benutzer forderten häufig Details aus Rechnungen und Kontoauszügen von Drittanbietern an, die in unseren Finanzsystemen nicht verfügbar sind. Während Buchhaltungsteams in der Regel zusammengefasste Versionen buchen, benötigten Benutzer Einzelpostendetails für Analysen.
Das Extrahieren von Daten aus PDFs erfordert die Festlegung von Regeln und Logik für jedes Datenelement, ein erheblicher Aufwand, der sich nur für mehrere PDFs mit ähnlichen Strukturen lohnt. Wenn es jedoch um Dokumente von Tausenden von Anbietern mit unterschiedlichen Formaten geht, die sich im Laufe der Zeit ändern können, wird die Entwicklung von Zuordnungsregeln zu einer immensen Aufgabe.
Bevor ich die PDF-Extraktion in einen Projektumfang einbeziehe, benötige ich nun ein gründliches Verständnis der beteiligten Dokumente und stelle sicher, dass die Endbenutzerorganisation die damit verbundenen Herausforderungen vollständig versteht. Dieser Ansatz hat häufig zu einer Neudefinition des Projektumfangs geführt, da der Nutzen die Kosten möglicherweise nicht rechtfertigt und es möglicherweise alternative Mittel gibt, um die gewünschten Erkenntnisse zu erzielen.
Überlegungen zur Entwurfsphase und zur Leistung
Die Entwurfsphase umfasst die Analyse bereichsbezogener Elemente, die Identifizierung von Datenquellen, die Bewertung optimaler Datenschnittstellenmethoden, die Definition von Kurations- und Berechnungsschritten und die Dokumentation des gesamten Datenmodells. Es umfasst auch Entscheidungen über das Hosting von Datenmodellen, Softwareanwendungen für die Datenübertragung und -visualisierung, Sicherheitsmodelle und die Häufigkeit des Datenflusses. Zu den wichtigsten Designanforderungen gehören typischerweise Datengranularität, Zuverlässigkeit, Flexibilität, Zugänglichkeit, Automatisierung und Leistung/Geschwindigkeit.
Die Leistung ist entscheidend, da Benutzer Antworten nahezu in Echtzeit erwarten. Langsame Modelle sind, unabhängig von ihren Erkenntnissen, oft nur von begrenztem Nutzen. Zu den gängigen Methoden zur Leistungsverbesserung gehört die Materialisierung des endgültigen Datensatzes, um Cache-basierte Berechnungen zu vermeiden. Auch die Wahl des Visualisierungstools wirkt sich erheblich auf die Leistung aus. Das Testen verschiedener Werkzeuge während der Entwurfsphase und die zeitliche Planung jedes Modellschritts helfen bei der Werkzeugauswahl. Die Wahl des Werkzeugs kann das Design beeinflussen, da jedes Werkzeug über bevorzugte Datenstrukturen verfügt. Letztendlich können jedoch Unternehmensstrategie- und Kostenüberlegungen die Entscheidung beeinflussen.
Zukünftige Trends
Neue Trends verändern die Datenanalyselandschaft. Tools zur Datenaufbereitung und -analyse ermöglichen jetzt auch Nicht-Entwicklern die Erstellung von Datenmodellen mithilfe intuitiver grafischer Schnittstellen mit Drag-and-Drop-Funktionalität. Benutzer können jeden Schritt simulieren und visualisieren und so eine Fehlerbehebung im laufenden Betrieb ermöglichen. Diese Demokratisierung der Datenmodellierung erweitert den Trend zur Self-Service-Analyse und ermöglicht es Benutzern, ihre eigenen Datenmodelle zu erstellen.
Auch wenn die Komplexität der von Endbenutzern erstellten Datenprodukte begrenzt ist und Unternehmen möglicherweise immer noch zentral verwaltete Unternehmensdatensätze für weit verbreitete Daten bevorzugen, erweitern diese Tools die Datenmodellierungsfunktionen über IT-Experten hinaus.
Eine persönliche Erfahrung verdeutlicht die Auswirkungen dieses Trends: Während der Scoping-Phase eines Projekts, als wir mit dem möglichen Verlust eines Entwicklers konfrontiert waren, wechselten wir von einem SQL-programmierten Modell zu Alteryx. Der Product Owner hat das Datenmodell erfolgreich mit minimaler IT-Unterstützung erstellt und so sowohl seine technischen Fähigkeiten als auch seine Arbeitszufriedenheit verbessert.
Die Sozialisierung der Erstellung komplexer Analysetools bietet erhebliche Vorteile. Unternehmen sollten die Bereitstellung von Schulungsprogrammen in Betracht ziehen, um den Wert dieser Anwendungen zu maximieren. Darüber hinaus können KI-Assistenten Code vorschlagen oder debuggen, was die Einführung dieser Tools weiter beschleunigt. Dieser Wandel kann jeden Mitarbeiter in einen Datenprofi verwandeln, der ohne umfangreiche IT-Unterstützung den größtmöglichen Nutzen aus Unternehmensdaten schöpft.
Erschließen Sie den Wert Ihrer Daten
Die datengesteuerte Entscheidungsfindung erlebt branchenübergreifend ein rasantes Wachstum. Um den Wert der Daten zu erschließen, müssen sie in strukturierte, umsetzbare Informationen umgewandelt werden. Datenanalyseprojekte zielen darauf ab, Daten aus verschiedenen Quellen in einem zentralen, harmonisierten Datensatz zu konsolidieren, der für den Endbenutzerverbrauch bereit ist.
Diese Projekte umfassen mehrere Phasen – Scoping, Design, Bau, Implementierung und Wartung – jede mit einzigartigen Herausforderungen und Chancen. Die Scoping-Phase ist besonders kritisch, da die hier getroffenen Entscheidungen tiefgreifende Auswirkungen auf den gesamten Projektlebenszyklus haben.
Das traditionelle Modell, sich auf engagierte IT-Entwickler zu verlassen, entwickelt sich mit dem Aufkommen benutzerfreundlicher Datenaufbereitungs- und Analysetools, ergänzt durch KI-Assistenten, weiter. Diese Entwicklung senkt die Hürde für die Erstellung analytischer Modelle und ermöglicht es einem breiteren Spektrum von Endbenutzern, an dem Prozess teilzunehmen. Letztendlich wird diese Demokratisierung der Datenanalyse ihre Auswirkungen auf die Entscheidungsfindung von Unternehmen weiter verstärken und Innovation und Effizienz in allen Organisationen vorantreiben.