Warum so viele Datenprojekte scheitern

by Jannik
2 Monaten ago
309 Views

Warum so viele Datenprojekte scheitern

Das Thema Datenanalyse steht bei Unternehmensführern und Managern hoch im Kurs. Zum einen, weil es im eigenen Unternehmen bereits viele Datenquellen gibt und zum anderen, weil sie die Bedeutung des darin liegenden Mehrwerts erkannt haben. Viele Unternehmen haben verstanden, dass angewandte Data Science ein Schlüsselfaktor für Innovationen ist. Aber nur wenige Unternehmen wissen auch in der Praxis, wie man die Ergebnisse und Erkenntnisse aus Daten konsequent in konkrete Geschäftswerte umwandelt. Warum also scheitern einer aktuellen Gartner-Studie zu Folge 85% aller Data Science Projekte?

Während es natürlich verschiedene Gründe für die hohe Ausfallrate von Datenprojekten gibt, ist einer häufigsten, dass Unternehmen Analytics-Projekte immer noch als ein weiteres IT-Projekt betrachten. Zuallererst muss die Datenanalyse aber als eine sich ständig weiterentwickelnde Strategie, Vision und Architektur betrachtet werden. Eine Strategie die kontinuierlich danach strebt, die Abläufe und die Ausrichtung eines Unternehmens entlang dessen strategischen Geschäftszielen sowie taktischen und operativen Entscheidungen zu optimieren.

Jedoch kommt es auch nach der Bewusstmachung dieses Tatsache oftmals zum Scheitern von Datenprojekten. Im Folgenden untersuchen wir einige Gründe, die für dieses Scheitern verantwortlich sind.

Falsche Herangehensweise

Ein erstes großes Problem ist die generelle Herangehensweise an Datenprojekte. Big Data wurde in den letzten Jahren zu einem stark aufgeladenen Buzzword. Genau aus diesem Grund wird es jedoch von vielen Unternehmen als etwas wahrgenommen, dass nur getan werden muss, um relevant zu bleiben. Projekte auf dieser Grundlage werden deswegen nur als nötig angesehen, ohne definierte Geschäftsziele oder Kennzahlen zu verfolgen. Wenn entsprechendes Know-How und Kapazitäten fehlen, um mit diesen großen Datenmengen korrekt umzugehen, gibt es nur geringe Chancen diese Datenprojekte erfolgreich durchzuführen.

Fehlende Kommunikation bei der Datenanalyse

Der häufigste Grund für das Scheitern von Datenprojekten ist schlichtweg eine schlechte oder gänzlich fehlende Kommunikation zwischen Teammitgliedern oder Fachbereichen und Unternehmensführung. Dies beginnt mit den Zielen und Anforderungen des Datenprojekts. Diese sollten in ihrem Kern die Ziele des gesamten Unternehmens widerspiegeln. Sind die Erwartungshaltungen zwischen der Unternehmensführung und den Projektbeteiligten nicht miteinander vereinbart ist es nur sehr schwer möglich, das Projekt erfolgreich durchzuführen.

Ein immer wiederkehrendes Problem ist, dass Data Scientists, die innerhalb eines Unternehmens in unterschiedlichen Umgebungen arbeiten, oft Doppelarbeit leisten. Sie haben keine Einblicke in die Arbeit der Anderen von der sie profitieren könnten. In Unternehmen die mehrere Data Scientists beschäftigen, die unkoordiniert an denselben Anforderungen arbeiten, führt diese Arbeitsweise oftmals zu Investitionsverlusten und verpassten Chancen. Es gibt einen bedeutenden Unterschied zwischen einer Sammlung von Individuen, die Datenmodelle erstellen, und einem dynamischen Team, das in der Lage ist, sein kollektives Wissen, seine Fähigkeiten und seine bisherige Arbeit zu nutzen, um gemeinsam immer bessere Modelle mit weniger Zeitaufwänden bis zur Wertschöpfung aufzubauen.

CRISP-DM-Modell
Typischer Ablauf eines Datenprojekts (CRISP-DM Modell)

Technologische Hürden

Jedes Datenprojekt, ob Visualisierung, Data Science, Machine Learning oder jeglicher andere Bereich, wird ohne Zugang zu relevanten Daten scheitern. Haben Datenteams also keinen vollen Zugriff auf die entsprechenden Unternehmensdaten, wird jedes Datenprojekt direkt zu Beginn zum Erliegen kommen.

Ein weiterer wesentlicher Grund für das Scheitern von Datenprojekten ist die falsche Nutzung der zu Verfügung stehenden Technologie für das jeweilige Projekt. Nur weil bestimmte Tools für ein Problem verwendet werden können, bedeutet das nicht, dass es immer die beste Option ist. Beispielsweise ist Hadoop nur unter bestimmten Umständen sinnvoll, abhängig von der Menge der zu speichernden Daten, der vorliegenden Datenstruktur und dem Verwendungszweck der Daten. Data Science Teams würden es sich also unnötig schwer machen wenn sie Hadoop in einer Situation einsetzen würden, in der ein SQL BI-Tool oder etwas vergleichbares effektiver wäre. Dasselbe gilt für Programmiersprachen und andere Entscheidungen zur Dateninfrastruktur.

Fehlerhafte Datenmodellierung

Ein großer Fehler, den viele Datenteams im Verlauf eines Datenprojekts begehen, ist die Verwendung unsauberer Daten. In einer kürzlich durchgeführten Umfrage des Unternehmens Kaggle gaben beinahe die Hälfte der Befragten an, dass unsaubere Datenlagen eine erhebliche Barriere bei der Arbeit seien. Modelle, die auf der Grundlage von unsauberen Daten erstellt wurden, sind nicht in der Lage aussagekräftigen Erkenntnisse zu liefern. Dadurch führt eine schlechte Bereinigung von Daten mit einer enormen Wahrscheinlichkeit zu einem Scheitern des Datenprojekts.

Tipp: Der taod Data Quality Audit!

Ist bereits ein Datenmodell in den Unternehmensprozess eingepflegt, kommt es auf ein korrektes Management dieses Modells an. Ohne ein ordnungsgemäßes Management kann ein Datenmodell in der Produktion mehr Schaden als Nutzen anrichten. Ein Modell, das nicht überwacht oder aktiv kontrolliert wird, kann dem Unternehmen schweren Schaden zufügen, sei es in Form von Compliance-Fehlern, Umsatzeinbußen, Branding- oder Imageschäden.

Erfolgreich umsetzen heißt genau planen!

Um mit der Generierung von Mehrwert aus Data Science zu beginnen, müssen Unternehmen ein konsistentes und sinnvolles Framework für Menschen, Prozesse und Technologien entwickeln und implementieren. Unternehmen, die Zeit und Energie in dieses Framework investieren und die Data Science als Kernkompetenz erfolgreich einsetzen, profitieren auch langfristig davon.

Erfolge mit Datenprojekten zu erzielen, ist nicht einfach. Oftmals gibt es große Hindernisse, die es zu überwinden gilt. Letztendlich sind Unternehmen, die sich den Fallstricken bei der Skalierung von Modellen bewusst sind und die ihre Fachbereiche mit ausreichenden Zugängen zu Datenquellen ausstatten, besser gerüstet, um diese langfristig für Wettbewerbsvorteile zu nutzen.

Wir begleiten Sie bei Ihrem Datenprojekt!

Die erfolgreiche Umsetzung von IoT-Projekten

Das Internet of Things bietet sowohl für Privatpersonen, aber auch für Unternehmen enorme Vorteile und ist ein wichtiger Schritt der digitalen Transformation.

Agile BI: Agilität in der Datenanalyse

Unternehmensdaten sind deutlich komplexer, als es die schiefe Analogie vom neuen Gold oder Öl vermitteln. Wir erklären, warum Datenanalyse agiles Denken & Handeln benötigt.

Big Data im Marketing – Chancen und Strategien

Die effektive Verwendung von Big Data Analytics ist für viele führende Unternehmen der entscheidende Faktor, auch bei volatilen Marktentwicklungen erfolgreich zu wirtschaften und der Konkurrenz voraus zu sein.