blog_Hero.jpg
Veröffentlicht von       Michael Gehrig

Data Governance: Best Practices mit Data-Lineage bei Qlik Sense

Datengestützte Unternehmensentscheidungen brauchen eine solide Grundlage – und damit wird effektive Data Governance zum Schlüsselthema für jedes Unternehmen, das seine Business Performance erhöhen will.

Doch wie sollte man vorgehen, um die Data Governance zu verbessern, wo liegen die Verantwortlichkeiten, und welche Technologien braucht es? Warum ist gerade die Nachverfolgbarkeit der Datenherkunft von besonderer Bedeutung – und wie ist diese Funktion bei Qlik Sense umgesetzt? 

Data Governance: für Daten, auf die Sie sich verlassen können

Ob Kundendaten, Trend- und Marktforschungsdaten, Produktions- oder Finanzdaten – Unternehmensdaten sind wichtige Ressourcen für Entscheider. Damit diese Daten optimal zur Verbesserung von Produkten, Dienstleistungen und Geschäftsprozessen genutzt werden können, müssen sie nicht nur verfügbar, sondern auch verlässlich sein – und natürlich vor unberechtigtem Zugriff geschützt werden

 

Um das zu gewährleisten, braucht es effektive Data Governance – also einen Rahmen, der festlegt, welche Prozesse und Methoden bei der Erfassung, Verwaltung und Verwendung der Daten zum Einsatz kommen. 

Data Governance in der Praxis: SPoT, Datenqualität und Nutzungsregeln

Die wohl häufigste Herausforderungen für die Datenqualität in Unternehmen ist die Existenz dezentraler Datensilos, d.h. von Systemen, in denen die vermeintlich gleichen Daten mehrfach und durch unterschiedliche Teams bzw. Bereiche getrennt gepflegt werden. Ein klassisches Beispiel wären auf verschiedene Systeme verteilte Kundeninformationen, die durch Duplikate bzw. Inkonsistenzen eine effektive Datenanalyse behindern.

 

  • Die erste der drei Schlüsselkomponenten der Data Governance ist daher ein systematisches Master Data Management: Ziel ist es, ein zentralisiertes System zu schaffen, in dem alle Master Data an nur einem Ort abgelegt werden – dem sog. Single Point of Truth (SPoT), auf den alle Datennutzer zugreifen. Der SPoT gewährleistet die unternehmensweite Konsistenz der Daten und unterstützt zudem die Einführung unternehmensweit einheitlicher «Begrifflichkeiten» (Business Glossar). Damit wird eine einheitliche Sicht auf die Daten ermöglicht und die Kommunikation mit Daten vereinfacht.

 

qlik single spot

Mit der Schaffung eines SPoT entfällt auch die ressourcenintensive Mehrfachpflege von Duplikaten. Stattdessen kann sich die IT auf die kontinuierliche, verantwortungsvolle Pflege der Master Data fokussieren. Dabei gilt es, fehlerhafte Daten zu bereinigen und Datenverluste bestmöglich zu reduzieren. 

 

  • Diese Massnahmen zielen darauf ab, die zweite Schlüsselkomponente der Data Governance zu realisieren: High Quality Data durch stete Verbesserung der Datenqualität im Unternehmen. Nur genaue, vollständige und konsistente Daten sind eine verlässliche Grundlage für erfolgsrelevante Geschäftsentscheidungen!

 

Auch der Umgang mit den Daten aufseiten der Endnutzer muss sorgfältig geregelt werden. Hier ist die Data Governance eine menschliche Dimension in hochautomatisierte, datenorientierte Umgebungen zu bringen und in den aufgestellten Regeln auch Bedenken und Anforderungen, die über traditionelle Daten- und Technologiebereiche hinausgehen – wie etwa Recht, Sicherheit und Compliance – konsequent zu berücksichtigen. Es genügt jedoch nicht, ein komplexes Regelwerk aufzustellen – die Regeln müssen auch verstanden und durchgesetzt werden.

 

Daher ist Effective Data Stewardship die dritte Schlüsselkomponente der Data Governance. Jedes Unternehmen bzw. jeder Unternehmensbereich braucht Data Stewards, die sicherstellen, dass die Datennutzer die Nutzungsregeln einhalten. Wichtig ist, nicht nur zu kommunizieren, WAS zu tun ist, sondern auch WARUM das wichtig ist, um das Commitment der Nutzer zur Regeleinhaltung zu stärken.

Best Practices für die Einführung von Data Governance

Data Governance lässt sich nicht einfach «von oben verordnen», sondern muss systematisch, schrittweise und unter «Mitnahme» aller Beteiligten eingeführt werden. Wie die obig angeführten Schlüsselkomponenten zeigen, gilt es dabei nicht nur technologische, sondern vor allem auch personelle und organisatorische Fragen zu klären.

 

Data Linage Qlik

 

Verantwortlichkeiten
Auf höchster Ebene fällt Data Governance natürlich in den Aufgabenbereich des Chief Data Officer (CDO): Er ist verantwortlich für eine angemessene Finanzierung des Data-Governance-Programms, für die begleitende Durchführung akzeptanzschaffender Massnahmen sowie für die Fortschritts-/ Erfolgskontrolle.

Die operative Verantwortung hingegen liegt beim Data Governance Manager, der in kleineren Unternehmen oft identisch mit dem CDO ist: Er ist für die Leitung des DG-Teams, die Durchführung von Trainings und die Kommunikation zu DG-Themen innerhalb des Unternehmens zuständig ist.

 

Diese beiden Personen bilden zusammen mit dem IT-Chef und Vertretern aller Unternehmensbereiche, u. U. auch Jura- oder Compliance-Experten, das Data Governance Committee, dem die Definition von DG-Strategien und Richtlinien, Nutzungsregeln und Berechtigungskonzepten obliegt.

Für die Einhaltung und Durchsetzung der Strategie und Richtlinien ist, wie oben schon erwähnt, der Data Steward verantwortlich.


Weitere Schlüsselrollen haben die Datenarchitekten (verantwortlich für die Zentralisierung und den Unterhalt von Datenbeständen), Datenqualitätsanalysten (zuständig für die Überprüfung der Daten auf Auffälligkeiten/Probleme und die Optimierung von Datenhaltung/Datenbankdesign) und Data Engineers (verantwortlich für die Aufbereitung und Bereinigung von Daten, welche von Datenscientisten für (BI-)Auswertungen verwendet werden).


Technologie
Technologie spielt eine wichtige Rolle, um bspw. repetitive Tasks zu automatisieren oder die Durchführung der Tätigkeiten zu unterstützen, die zur Erreichung der festgelegten Ziele erforderlich sind. Zu den wichtigsten Werkzeugen im Data-Governance-Kontext zählen: 

  • Workflow-Tools
  • DataIntegration-Tools
  • Katalogisierungstools
  • Data Analytics und/oder DataLineage-Tools

 

Best Practices
Die erfolgreiche Einführung von Data Governance im Unternehmen erfordert proaktive Kommunikation, um die Ziele des Programms und die daraus resultierenden Vorteile für das Unternehmen in der Belegschaft bekannt zu machen. Dabei geht es nicht nur um Fakten, sondern vor allem auch darum, Akzeptanz und aktive Mitarbeit in der Belegschaft zu erreichen. 

 

IT-seitig erfordert Data Governance einen verstärkten Fokus auf Datensicherheit und Risikomanagement. Dazu müssen neu eingeführte Technologien und Prozesse durch ein robustes Data Governance Training für alle involvierten Personen, einschliesslich der Endnutzer, begleitet werden. Last but not least braucht es eine klare Dokumentation der Verantwortlichkeiten – sowohl für die Daten selbst als auch die Verteilung der Berechtigungen. 

 

In der Praxis hat sich folgendes Vorgehen bewährt:

  1. Benennung der Verantwortlichen, die die bestehenden Datensilos innerhalb des Unternehmens betreuen
  2. Erarbeitung des Data Governance Programms durch den CDO bzw. Data Governance Manager, Formierung des Data Governance Committees mit den Verantwortlichen aus Schritt 1 sowie Benennung der Data Stewards
  3. Erarbeitung von Strategie und Regeln für das Handling der Daten und Datenauthorisierungen (Personen berechtigen), inkl. regelmässiger Audits
  4. Erarbeitung eines Business Glossars – die Kategorisierung und Dokumentation der Daten sorgt für besseren Überblick und vereinfachten Zugriff

Data Lineage: der Herkunftsnachweis für Ihre Geschäftskennzahlen

Der Begriff Data Lineage beschreibt den Prozess der Herkunftsanalyse der Daten wie auch dessen Ergebnis – nämlich die Darstellung des Datenflusses von der Quelle bis zu einem spezifischen Ort im ETL-Prozess bzw. der Endapplikation.

Dabei unterscheidet man verschiedene Blickrichtungen:

  • Backward Data Lineage: Hier geht es um die Rückverfolgung der Datenherkunft von der Endapplikation zurück bis zur Quelle. So kann bspw. der Kostenstellenverantwortliche nicht nur den Umsatz pro Mitarbeiter einsehen, sondern sich auch anzeigen lassen, welche Ausgangswerte darin einfliessen beziehungsweise woher diese stammen.
  • Forward data lineage (aka Impact Analysis): Hier geht es um die Verfolgung des Datenflusses von der Quelle bis zur Endapplikation inkl. aller Transformationen. So kann beispielsweise bei einer ausgebliebenen Datenaktualisierung ausfindig gemacht werden, welche Reportings keine aktuellen Daten enthalten.
  • End-to-end data lineage: Kombination aus Forward und Backward Data Lineage, also eine in beide Richtungen erkundbare Visualisierung des Datenflusses von der Quelle bis zur Endapplikation.

 

Die Nachverfolgung und Dokumentation des Datenflusses ist ein wichtiges Werkzeug, um die selbst gesetzten Data-Governance-Ziele zu erreichen. Data Lineage:

  • ermöglicht es Data Engineer, Anomalitäten im ETL-Datenfluss schnell aufzudecken, einzugrenzen und zu korrigieren
  • erleichtert die sichere Migration von Systemen durch die Identifikation verwendeter Tabellen / Felder aus dem Quellsystem
  • verbessert die Qualität der Datenanalyse, steigert damit das Vertrauen der Entscheider in die Daten und führt letztendlich zu einer besseren Unternehmensperformance


DataLineage in Qlik Sense: die elegante Heyde-Lösung für On-Premise-Nutzer

Die Umsetzung von Data-Lineage-Funktionen in BI-Plattformen variiert von Anbieter zu Anbieter, und bei Qlik auch innerhalb des Produktportfolios:

 

Bei Qlik Sense Cloud lässt sich die Datenherkunft bis auf Feldebene verfolgen.

 

DatengovernanceBei Qlik Sense on Premise hingegen ist diese Funktion nur als zusätzliches, kostenpflichtiges Package verfügbar (Qlik Lineage Connector, ein Nachfolgeprodukt von Nodegraph).

 

Als Alternative dazu haben unsere Experten eine hauseigene Lösung entwickelt: Die Heyde-Lösung für Qlik Sense On-Premise-Nutzer ermöglicht die Nachverfolgung der Datenherkunft bis auf Tabellenebene:

  • Input- und Output-Tabellen pro (ETL-)Applikation
  • manuelles «Markieren» der In-/Output-Tabellen, welche für DataLineage-Analyse berücksichtigt werden sollen/müssen
  • Forward & Backward Data Lineage visualisiert als FlowChart
    - Forward: Selektion der ETL-Applikation bzw. Source-Tabellen zeigt beeinflusste Apps/Tabellen in nachgelagerten ETL-Stufen
    - Backward: Selektion der ETL-Applikation bzw. End-Applikation/ -Tabellen zeigt vorgelagerte ETL-Apps und Source-Tabellen
  • keine Analyse bis auf Feldebene möglich
 
Sie möchten mehr erfahren? Vereinbaren Sie gern eine persönliche Demo und beraten Sie sich mit unseren Qlik-Experten, um die beste Lösung für Ihr Unternehmen zu finden! Wir freuen uns auf Ihre Nachricht!
Michael Gehrig

Michael Gehrig

In die ETH marschierte Michael Gehrig frohen Mutes, ein sinnvoll Handwerk zu erlernen - und trat als Maschineningenieurwissenschaftler schliesslich wieder heraus. Er wurde Experte für Prozessmanagement und Industrial Engineering und weiss also nicht nur, was der Kunde gerne hätte, sondern auch warum und wie er es bekommt.

VERWANDTE BEITRAGE