Datengestützte Unternehmensentscheidungen brauchen eine solide Grundlage – und damit wird effektive Data Governance zum Schlüsselthema für jedes Unternehmen, das seine Business Performance erhöhen will.
Doch wie sollte man vorgehen, um die Data Governance zu verbessern, wo liegen die Verantwortlichkeiten, und welche Technologien braucht es? Warum ist gerade die Nachverfolgbarkeit der Datenherkunft von besonderer Bedeutung – und wie ist diese Funktion bei Qlik Sense umgesetzt?
Ob Kundendaten, Trend- und Marktforschungsdaten, Produktions- oder Finanzdaten – Unternehmensdaten sind wichtige Ressourcen für Entscheider. Damit diese Daten optimal zur Verbesserung von Produkten, Dienstleistungen und Geschäftsprozessen genutzt werden können, müssen sie nicht nur verfügbar, sondern auch verlässlich sein – und natürlich vor unberechtigtem Zugriff geschützt werden.
Um das zu gewährleisten, braucht es effektive Data Governance – also einen Rahmen, der festlegt, welche Prozesse und Methoden bei der Erfassung, Verwaltung und Verwendung der Daten zum Einsatz kommen.
Die wohl häufigste Herausforderungen für die Datenqualität in Unternehmen ist die Existenz dezentraler Datensilos, d.h. von Systemen, in denen die vermeintlich gleichen Daten mehrfach und durch unterschiedliche Teams bzw. Bereiche getrennt gepflegt werden. Ein klassisches Beispiel wären auf verschiedene Systeme verteilte Kundeninformationen, die durch Duplikate bzw. Inkonsistenzen eine effektive Datenanalyse behindern.
Mit der Schaffung eines SPoT entfällt auch die ressourcenintensive Mehrfachpflege von Duplikaten. Stattdessen kann sich die IT auf die kontinuierliche, verantwortungsvolle Pflege der Master Data fokussieren. Dabei gilt es, fehlerhafte Daten zu bereinigen und Datenverluste bestmöglich zu reduzieren.
Auch der Umgang mit den Daten aufseiten der Endnutzer muss sorgfältig geregelt werden. Hier ist die Data Governance eine menschliche Dimension in hochautomatisierte, datenorientierte Umgebungen zu bringen und in den aufgestellten Regeln auch Bedenken und Anforderungen, die über traditionelle Daten- und Technologiebereiche hinausgehen – wie etwa Recht, Sicherheit und Compliance – konsequent zu berücksichtigen. Es genügt jedoch nicht, ein komplexes Regelwerk aufzustellen – die Regeln müssen auch verstanden und durchgesetzt werden.
Daher ist Effective Data Stewardship die dritte Schlüsselkomponente der Data Governance. Jedes Unternehmen bzw. jeder Unternehmensbereich braucht Data Stewards, die sicherstellen, dass die Datennutzer die Nutzungsregeln einhalten. Wichtig ist, nicht nur zu kommunizieren, WAS zu tun ist, sondern auch WARUM das wichtig ist, um das Commitment der Nutzer zur Regeleinhaltung zu stärken.
Data Governance lässt sich nicht einfach «von oben verordnen», sondern muss systematisch, schrittweise und unter «Mitnahme» aller Beteiligten eingeführt werden. Wie die obig angeführten Schlüsselkomponenten zeigen, gilt es dabei nicht nur technologische, sondern vor allem auch personelle und organisatorische Fragen zu klären.
Verantwortlichkeiten
Auf höchster Ebene fällt Data Governance natürlich in den Aufgabenbereich des Chief Data Officer (CDO): Er ist verantwortlich für eine angemessene Finanzierung des Data-Governance-Programms, für die begleitende Durchführung akzeptanzschaffender Massnahmen sowie für die Fortschritts-/ Erfolgskontrolle.
Die operative Verantwortung hingegen liegt beim Data Governance Manager, der in kleineren Unternehmen oft identisch mit dem CDO ist: Er ist für die Leitung des DG-Teams, die Durchführung von Trainings und die Kommunikation zu DG-Themen innerhalb des Unternehmens zuständig ist.
Diese beiden Personen bilden zusammen mit dem IT-Chef und Vertretern aller Unternehmensbereiche, u. U. auch Jura- oder Compliance-Experten, das Data Governance Committee, dem die Definition von DG-Strategien und Richtlinien, Nutzungsregeln und Berechtigungskonzepten obliegt.
Für die Einhaltung und Durchsetzung der Strategie und Richtlinien ist, wie oben schon erwähnt, der Data Steward verantwortlich.
Weitere Schlüsselrollen haben die Datenarchitekten (verantwortlich für die Zentralisierung und den Unterhalt von Datenbeständen), Datenqualitätsanalysten (zuständig für die Überprüfung der Daten auf Auffälligkeiten/Probleme und die Optimierung von Datenhaltung/Datenbankdesign) und Data Engineers (verantwortlich für die Aufbereitung und Bereinigung von Daten, welche von Datenscientisten für (BI-)Auswertungen verwendet werden).
Technologie
Technologie spielt eine wichtige Rolle, um bspw. repetitive Tasks zu automatisieren oder die Durchführung der Tätigkeiten zu unterstützen, die zur Erreichung der festgelegten Ziele erforderlich sind. Zu den wichtigsten Werkzeugen im Data-Governance-Kontext zählen:
Best Practices
Die erfolgreiche Einführung von Data Governance im Unternehmen erfordert proaktive Kommunikation, um die Ziele des Programms und die daraus resultierenden Vorteile für das Unternehmen in der Belegschaft bekannt zu machen. Dabei geht es nicht nur um Fakten, sondern vor allem auch darum, Akzeptanz und aktive Mitarbeit in der Belegschaft zu erreichen.
IT-seitig erfordert Data Governance einen verstärkten Fokus auf Datensicherheit und Risikomanagement. Dazu müssen neu eingeführte Technologien und Prozesse durch ein robustes Data Governance Training für alle involvierten Personen, einschliesslich der Endnutzer, begleitet werden. Last but not least braucht es eine klare Dokumentation der Verantwortlichkeiten – sowohl für die Daten selbst als auch die Verteilung der Berechtigungen.
In der Praxis hat sich folgendes Vorgehen bewährt:
Der Begriff Data Lineage beschreibt den Prozess der Herkunftsanalyse der Daten wie auch dessen Ergebnis – nämlich die Darstellung des Datenflusses von der Quelle bis zu einem spezifischen Ort im ETL-Prozess bzw. der Endapplikation.
Dabei unterscheidet man verschiedene Blickrichtungen:
Die Nachverfolgung und Dokumentation des Datenflusses ist ein wichtiges Werkzeug, um die selbst gesetzten Data-Governance-Ziele zu erreichen. Data Lineage:
Die Umsetzung von Data-Lineage-Funktionen in BI-Plattformen variiert von Anbieter zu Anbieter, und bei Qlik auch innerhalb des Produktportfolios:
Bei Qlik Sense Cloud lässt sich die Datenherkunft bis auf Feldebene verfolgen.
Als Alternative dazu haben unsere Experten eine hauseigene Lösung entwickelt: Die Heyde-Lösung für Qlik Sense On-Premise-Nutzer ermöglicht die Nachverfolgung der Datenherkunft bis auf Tabellenebene: