Zu Hauptinhalt springen
Gewählte Sprache ist Deutsch Select language
Startseite UR

Datenqualitätsmanagement insbesondere im Big Data

Logo Datenqualit _t Klein

Aufgrund schnell wachsender Mengen an strukturierten aber vor allem auch unstrukturierten Daten (bspw. Stichwort Big Data) ist Datenqualität heute ein hoch relevantes Thema. So werden bspw. große Mengen an unstrukturierten Daten aus unterschiedlichen, verteilten Quellen in diversen Formaten gesammelt und analysiert (oft in Echtzeit), um geschäftsrelevante Erkenntnisse abzuleiten und unternehmerische Entscheidungen zu unterstützen. Damit die abgeleiteten Ergebnisse valide und wertstiftend sind, ist die Sicherstellung der Qualität der zugrundeliegenden Daten unabdingbar. Dies unterstreichen aktuelle Studien und Analysen ausdrücklich (Economist Intelligence Unit 2011, IBM Institute for Business Value 2012, SAS Institute Inc. 2013).


Obwohl der Sicherstellung der Qualität von Daten im Informationszeitalter eine so zentrale Bedeutung beizumessen ist, sehen 60% der in einer Untersuchung befragten Unternehmen enormen Nachholbedarf bei der Messung, Steuerung und Verbesserung der Datenqualität (Packowski und Gall 2013). Aktuelle Studien (z. B. IBM Institute for Business Value 2012) betonen, dass dem Thema Datenqualität speziell im Kontext unstrukturierter und verteilter Datenmengen eine äußerst hohe Priorität zukommt. Ist keine ausreichende Datenqualität gegeben, resultieren fehlerhafte Erkenntnisse, die zu falschen Entscheidungen führen und mehr Schaden anrichten als Nutzen generieren. Insofern sind der Mehrwert und der resultierende Wettbewerbsvorteil einer fundierten und adäquaten Messung, Steuerung und Verbesserung der Datenqualität als sehr groß zu bewerten.


Konkret werden im Rahmen der Forschungsarbeiten quantitative Methoden und Modelle zur Messung, Steuerung und Verbesserung der Datenqualität entwickelt und evaluiert. Konkret werden folgende Ziele verfolgt:

 

  1. Entwicklung von Ansätzen zur Messung der Datenqualität strukturierter und unstrukturierter Daten: Es werden effiziente quantitative Ansätze zur Messung der Datenqualität für datenwertorientierte Qualitätsdimensionen (bspw. Korrektheit, Konsistenz, Aktualität, Vollständigkeit, Eindeutigkeit) entwickelt. Diese sollen aufgrund der z. T. enormen Datenmengen automatisiert anwendbar und für unterschiedliche Datenformate (z. B. strukturierte und unstrukturierte Daten) sowie verteilte Daten (z. B. unternehmensinterne und -externe Daten) geeignet sein.
  2. Entwicklung von Methoden des Data- und Text Mining zur Berücksichtigung der Datenqualität: Zur Analyse strukturierter und unstrukturierter Daten werden Methoden des Data- und Text Mining (wei-ter)entwickelt, um das gemessene Datenqualitätsniveau (vgl. 1.) direkt zu berücksichtigen. Diese Einbeziehung der Datenqualität führt nicht nur dazu, dass sich die ermittelten Ergebnisse (z. B. Dokumentenklassifikation oder Clusterzuordnung) sehr stark ändern, was verdeutlicht, dass keine Berücksichtigung der Datenqualität zu Fehlentscheidungen führt. Vielmehr wird auch die Güte der Ergebnisse abhängig von der Qualität der Inputdaten ermittelt und ausgewiesen, um Entscheidungen wesentlich besser als bisher unterstützen zu können.
  3. Ökonomische Planung und Bewertung von Datenqualitätsmaßnahmen: Es wird an Entscheidungskalkülen gearbeitet, die eine Kosten-Nutzen-Bewertung von Datenqualitätsmaßnahmen gerade auch im Kontext von Big Data erlauben. Dabei gilt es sowohl die Kosten als auch den Nutzen unter Berücksichtigung der Charakteristika von Big Data möglichst automatisiert zu ermitteln. Der Nutzen von Datenqualitätsmaßnahmen resultiert primär aus der besseren Entscheidungsqualität, die mit höherer Datenqualität einhergeht, wobei insbesondere der konkrete Anwendungsfall sowie die verwendete BI-Methode zu berücksichtigen sind.
  4. Sicherstellung der Datenqualität im Big Data unter besonderer Berücksichtigung der IT-Sicherheit: Im Kontext von Big Data werden Daten aus den vielfältigsten Anwendungsgebieten und Datenquellen (z. B. Internetplattformen, Soziale Medien sowie Mobile Devices und Services) einbezogen, verknüpft und analysiert. Neben klassischen Datenqualitätsdimensionen, wie bspw. Vollständigkeit, Korrektheit, Konsistenz und Aktualität, wird daher insbesondere auch analysiert, wie die Verfügbarkeit, Reputation und Integrität im Kontext von Big Data sicherzustellen und Aspekte der IT-Sicherheit sowie des Datenschutzes entsprechend zu berücksichtigen sind.

 

 


Publikationen zu diesem Forschungsthema

Die Publikationsliste konnte nicht geladen werden. Klicken Sie hier, um die Publikationsliste am ePub-Server zu öffnen.
  1. STARTSEITE UR
  2. Fakultät für Wirtschaftswissenschaften

Lehrstuhl für Wirtschaftsinformatik II

 

Prof. Dr. Bernd Heinrich

 

 

 

 

Team Rechts
Sekretariat

Tel.: +49 (0)941 943-6101
Fax:  +49 (0)941 943-6120
E-Mail
Universitätsstraße 31
93053 Regensburg