Enterprise Information Governance: Das Ende der Flexibilität?

Data Warehousing ist wahrlich nicht neu. Schließlich gibt es Analysesysteme seit es Datenverarbeitung gibt. Doch mit der Verwendung etablierter BI Werk­zeuge wächst die Bedeutung der Datenqualität, da keine programmierte Schicht die Inhalte „richtig“ rücken kann.

Mit den relationalen Datenbanken erreichte Anfang der 80er Jahre eine wahre Innovation den Markt, war doch mit einem SQL-Select-Befehl bereits ein Gross­teil der Arbeit für eine Auswertung erledigt. Und mit rDBMS kamen auch Werk­zeuge, die eine formatierte Ausgabe der gelesenen Daten ermöglichten. Damit waren Auswertungen einfacher und schneller zu erzeugen, und zwar ohne Programmierkenntnisse. Die Demokratisierung von Un­ter­neh­mens­in­for­ma­ti­onen konnte beginnen. Ein weiterer, wichtiger Schritt war der Siegeszug des PCs, und mit ihm die rasche Verbreitung von Office-Produkten. Fachanwender konnten gänzlich unabhängig von der zentralen IT Daten auswerten und grafisch darstellen, seien es Daten, die aus OLTP Systemen abgezogen wurden, oder manuell erfasste Daten – Anwendungen wie MS Excel oder MS Access machten es möglich. Alles ging schnell und erhöhte die dringend er­for­der­liche Flexibilität in den Entscheidungsprozessen. Was wollte man mehr?

Anzeige

Image

Wettbewerbsvorsprung dank Datenintegration

Aber schon lange hat sich in den meisten Unternehmen Ernüchterung breit ge­macht. Denn zur Demokratisierung von Information reicht eben nicht nur eine technische Infrastruktur aus, die den Zugriff auf und die hübsche Auf­be­rei­tung von Unternehmensdaten ermöglicht. Welches Unternehmen kennt nicht das Problem, dass vermeintlich gleiche Kennzahlen in verschiedenen Aus­wer­tung­en voneinander abweichen? Nicht nur, dass Entscheidungen auf Basis von unterschiedlichen oder gar falschen Informationen getroffen werden und damit der Unternehmenserfolg potenziell gefährdet wird. Die Kosten, die mit der viel­fach im gesamten Unternehmen verteilten Integration und Aufbereitung von unzähligen Kopien der Unternehmensdaten entstehen, sind immens. Re­gu­la­to­rische Anforderungen machen es zudem erforderlich, die Aufbereitung und Verwendung von Unternehmensdaten nachvollziehbar zu gestalten. Einer Accenture-Studie aus dem Jahr 2007 zufolge planen 75 Prozent aller Teil­neh­mer in den nächsten drei Jahren eine übergreifende Information Ma­nage­ment (IM) Strategie zu entwickeln. 62 Prozent versprechen sich von der In­te­gra­tion ihrer Unternehmensdaten vor allem einen Wettbewerbs­vor­sprung.

Information Management

Was aber gehört zu einer solchen IM Strategie dazu und welche Vor­aus­set­zungen muss man im Unternehmen schaffen, um sie zu erreichen? Eine ver­meintlich einfache Grundvoraussetzung, die jedoch erfahrungsgemäß sehr schwierig zu erreichen ist, ist eine inhaltlich fundierte und verbindliche Kom­muni­kation zwischen Business und IT sicherzustellen. Das Data Ware­house als Basis der analytischen Systeme kann nur dann einen wahren Mehrwert liefern, wenn es die Geschäftswelt des Unternehmens entsprechend den analytischen Anforderungen korrekt und nutzungsfreundlich abbildet. Hier spricht man häufig von der einen zentralen Quelle der Wahrheit (Single Point of Truth). Schließlich greifen BI Systeme direkt und ohne individuell programmierte Schicht direkt auf diese „Wahrheit“ zu. Die Qualität ihrer Aussagen steht und fällt also mit der Qualität der Datenbasis, sowohl inhaltlich als auch bezüglich ihrer Darstellung in Formder Datenmodelle. Das kann in der Konsequenz nur heißen, dass analytische Datenmodelle von Fachanwendern und IT gemeinsam erstellt werden müssen. Das betrifft ebenso die Definition der Regeln zur Zusammenführung der Daten aus den operativen und sonstigen Datenquellen in eine integrierte, analytische Datenbasis. Zur Unterstützung bei der Da­ten­ana­lyse hat sich die Verfügbarkeit dieser Informationen im Sinne eines Glossars bewährt. Eine nutzungsfreundliche Abbildung der Daten wird jedoch nicht nur durch die fachlichen Fragestellungen bestimmt. Auch die BI Werk­zeuge, zur Unterstützung verschiedener analytischer Anforderungen häufig in vielfacher Ausprägung im Einsatz, müssen an diesen Prozessen aus­ge­richtet und entsprechend konfiguriert werden. Manche Auf­ga­ben­stel­lungen erfordern zusätzliche Workflow-Unterstützung. Um konsistente Informationsverteilung im Unternehmen sicherzustellen, haben sich zudem Standardauswertungen be­währt, für die es eine entsprechende Verteilungsinfrastruktur bedarf. Ins­ge­samt also auch auf technischer und methodischer Ebene eine In­te­gra­tions­auf­gabe.

Image

Business Intelligence Competence Center

Die Lösung dieser Anforderungen wird derzeit gerne mit dem Begriff „Business Intelligence Competence Center“ (BI CC) zusammengefasst. Ein BI CC hat zur Aufgabe, Strategien und Prioritäten rund um Business Intelligence zu ent­wickeln und deren Umsetzung sicherzustellen. Dazu zählt auch die zentrale Steue­rung der konkreten Datennutzung im Sinne eines Enterprise Information Governance. Kniffelig kann es sich gestalten, wie ein BI CC in die Unter­neh­mens­or­ga­ni­sa­tion eingegliedert wird. Die notwendige In­sti­tu­tionali­sie­rung der Zusammenarbeit zwischen Fachbereichen und IT bringt es mit sich, dass das BI CC sowohl mit fachlichem als auch technischem Expertenwissen bestückt sein muss. Hier gilt Praxisbezug als Erfolgsfaktor, weshalb das BI CC nicht zum „Elfenbeinturm“ verfallen darf. Gleichzeitig sollte die Wahl der Auf­bau­or­ga­ni­sa­tion für das BI CC die strategische Datenmanagement- und BI- Strategie des Unternehmens widerspiegeln. Die Themen, die ein BI CC zu stemmen hat, sind inhaltlich und technologisch komplex, die Ab­stim­mungs­pro­zesse im Unternehmen können langwierig sein. Regulatorische Vorgaben erfordern in vielen Fällen ein formales Change Management. Bei der Gestaltung der Ablauforganisation ist daher Sorge zu tragen, dass die im analytischen Bereich so dringend erforderliche Flexibilität nicht auf der Strecke bleibt. Ansonsten werden die Business Analysten weiterhin auf ihre Office-Suite zurückgreifen und Information Governance Bemühungen werden im Keim erstickt. Dazu gehört vor allem die Unterstützung der Poweruser, die im Rahmen ihrer ex­plo­ra­tiven Analysen und der Unterstützung des Topmanagements regel­mäßig eine kurzfristige Integration neuer oder veränderter Daten benötigen. Diese Anforderungen mit den herkömmlichen Veränderungs- und Freigabe-Prozessen der IT- Entwicklung zu adressieren wäre unglücklich. Vielmehr muss es Lösungen geben, die beispielsweise die Pflege von analytischen Stammdaten in einem flexiblen aber gleichzeitig auditierbaren Prozess ermöglichen. Ein entsprechender Wandel ist bei den BI Lösungsherstellern bereits zu beo­bach­ten. Hatten viele der Vendoren lange Zeit für die Abschottung des Data Warehouse plädiert, stellen sie sich zunehmend den Forderungen der Fach­an­wen­der nach mehr Flexibilität in der Business Intelligence Umgebung. So wird man in der nächsten Hauptversion der IBM Cognos BI Plattform, die in diesem Herbst erscheinen soll, die Pflege der analytischen Stammdatenmit einer neuen Lösung adressiert sehen.

Image

Leistungsfähigeres Framework

Technologiemuss aber auch in weiteren Bereichen mit den veränderten An­for­de­rungen an globale und kurzfristig zu bedienende Geschäftsprozesse Schritt halten. Hierfür ist das Data Governance Services Framework zu erweitern. Fachanwender wollen sich nichtmehrmit Fragestellungen einer schlechten Antwortzeit, laut BI Survey (http://www.bisurvey.com/) seit vielen Jahren das von Fachanwendern am häufigsten genannte Problem bei analytischen An­wen­dungen, auseinandersetzen müssen. Das Framework muss leis­tungs­fähige Datenspeicher transparent für Konsumenten integrieren können. Dabei sollte es möglichst verborgen bleiben, wenn zur Unterstützung verschiedener Aus­wer­tungs­an­for­de­rungen heterogene Technologien zum Einsatz kommen und die Daten dadurch in verschiedenen Kopien vorliegen – das Framework sollte den Zugriff steuern. Zu den erweiterten Anforderungen gehört aber auch eine Integration unstrukturierter Daten. Während lediglich 38 Prozent der Befragten aktuell angeben, unstrukturierte Daten in ihre Analysen zu integrieren, planen das der Accenture-Studie zufolge 75 Prozent für die nahe Zukunft. Das betrifft nicht nur das Information Management. Gerade auch Suchfunktionenmüssen zukünftig stärker eine integrierte Sicht auf alle verfügbaren Unter­neh­mens­in­for­ma­tionen bieten und nicht auf die BI Umgebung beschränkt sein. Zur Unterstützung des Performance Management Prozesses im Unternehmen be­darf es darüber hinaus kollaborativer Fähigkeiten, die den In­for­ma­tions­aus­tausch zwischen den am Prozess involvierten Menschen sicher­stellt, wie auch deren Dokumentation.

Image

Fazit

So wird das Data Governance Services Framework komplexer, und die Auf­ga­ben, die ein BI Competence Center zu stemmen hat ebenso. Das In­for­ma­tion Governance wird sich zukünftig auf unstrukturierte Daten er­strecken müssen, und die Grenzen zwischen den analytischen und operativen Welten werden zunehmend verwässern, womit auch das Governance in Zukunft zur System­un­ab­hän­gi­gen Aufgabe werden muss. Business Intelligence im Un­ter­neh­men abzuschotten wäre aber die falsche Antwort. Immer mehr Un­ter­neh­men sehen Enterprise Information Governance als eine Not­wen­dig­keit; ohne Flexibilität wird aber in der globalisierten Geschäftswelt kein Unternehmen überleben können. Die richtige Ausgewogenheit zu erreichen ist der Schlüssel zum Erfolg.

JACQUELINE BLOEMEN

Diesen Artikel finden Sie auch in der Ausgabe Oktober 2008 des it management.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.