Organisationen investieren zunehmend in Daten.
Dashboards werden detaillierter, Kennzahlen präziser, Modelle komplexer. Entscheidungen sollen datenbasiert getroffen werden, Unsicherheit reduziert, Prozesse optimiert werden. Die zugrunde liegende Annahme ist klar: Mehr und bessere Daten führen zu besseren Entscheidungen.
In der Praxis zeigt sich ein anderes Bild.
Entscheidungen verbessern sich nicht proportional zur Datenmenge. Häufig entstehen sogar neue Probleme: falsche Prioritäten, verzerrte Wahrnehmung von Risiken, systematische Fehlsteuerung. Die Ursache liegt selten in den Daten selbst.
Sie liegt in der Art, wie Organisationen diese Daten interpretieren.
Daten werden nicht neutral gelesen. Sie werden immer im Kontext eines Modells interpretiert – auch dann, wenn dieses Modell nicht explizit formuliert ist. In Organisationen sind solche Modelle häufig implizit: Annahmen darüber, was relevant ist, wie Zusammenhänge funktionieren und welche Ziele verfolgt werden.
Diese impliziten Modelle strukturieren die Wahrnehmung.
Kennzahlen erscheinen objektiv, sind jedoch das Ergebnis von Auswahlprozessen. Was gemessen wird, bestimmt, was sichtbar wird. Was nicht gemessen wird, verschwindet aus dem Entscheidungsraum. Dadurch entsteht eine reduzierte Sicht auf das System, die häufig mit der Realität verwechselt wird.
Ein typisches Beispiel sind KPI-Systeme.
Kennzahlen werden definiert, um Leistung messbar zu machen. Sie verdichten komplexe Zusammenhänge zu wenigen Größen und ermöglichen Vergleichbarkeit. Gleichzeitig verändern sie das Verhalten im System. Akteure orientieren sich an den Kennzahlen, optimieren ihre Entscheidungen entlang dieser Größen und passen ihre Strategien entsprechend an.
Das System beginnt, sich am Modell auszurichten.
Was als Messinstrument gedacht war, wird zur Steuerungsgröße. Lokale Optimierung tritt in den Vordergrund, während globale Zusammenhänge in den Hintergrund treten. Entscheidungen werden nicht mehr danach getroffen, was für das System insgesamt sinnvoll ist, sondern danach, was innerhalb des Kennzahlensystems gut aussieht.
Diese Dynamik erzeugt systematische Verzerrungen.
Ergebnisse erscheinen positiv, obwohl sich die zugrunde liegende Struktur verschlechtert. Risiken bleiben unsichtbar, weil sie nicht in den gewählten Kennzahlen abgebildet sind. Gleichzeitig verstärken sich bestimmte Verhaltensmuster, weil sie im System belohnt werden.
Das Problem ist nicht, dass Daten falsch sind.
Das Problem ist, dass sie innerhalb eines unzureichenden Modells interpretiert werden.
In stabilen Umgebungen kann diese Art der Interpretation funktionieren. Wenn Zusammenhänge konstant bleiben und externe Einflüsse gering sind, liefern auch vereinfachte Modelle brauchbare Ergebnisse. In dynamischen Systemen hingegen führt diese Reduktion zu Fehlsteuerung.
Veränderungen werden zu spät erkannt.
Systeme reagieren nicht mehr linear, sondern reorganisieren sich. Zusammenhänge verschieben sich, Rückkopplungen verstärken sich, und das Verhalten des Systems entkoppelt sich von den bisherigen Annahmen. In solchen Situationen liefern Daten weiterhin konsistente Signale – sie beziehen sich jedoch auf ein Modell, das nicht mehr gültig ist.
Das erzeugt eine trügerische Sicherheit.
Organisationen sehen stabile Kennzahlen und gehen von Kontrolle aus, während sich die strukturellen Bedingungen bereits verändert haben. Entscheidungen basieren dann auf einer Beschreibung der Vergangenheit, nicht auf einem Verständnis der aktuellen Dynamik.
Diese Problematik verstärkt sich durch die zunehmende Standardisierung von Modellen.
Viele Organisationen nutzen ähnliche Methoden, vergleichbare Kennzahlen und standardisierte Analysen. Dadurch entstehen homogene Sichtweisen auf komplexe Systeme. Unterschiede in der Interpretation nehmen ab, während die Kopplung zwischen den Akteuren zunimmt.
Das System verliert an Diversität.
Wie in anderen komplexen Systemen wirkt Diversität stabilisierend. Unterschiedliche Perspektiven, Modelle und Entscheidungslogiken dämpfen extreme Entwicklungen. Wenn diese Vielfalt reduziert wird, können sich Fehlannahmen ungehindert ausbreiten.
Daten werden so Teil des Problems.
Nicht, weil sie falsch sind, sondern weil sie innerhalb eines strukturell unzureichenden Interpretationsrahmens verwendet werden. Ohne ein explizites Verständnis der zugrunde liegenden Modelle bleibt unklar, welche Annahmen getroffen werden und wo deren Grenzen liegen.
Damit verschiebt sich die zentrale Frage.
Nicht: Welche Daten liegen vor?
Sondern: Welches Modell bestimmt, wie diese Daten gelesen werden?
Organisationen, die diese Frage nicht stellen, laufen Gefahr, ihre Entscheidungen systematisch an einem unvollständigen Bild der Realität auszurichten.
Daten sind in diesem Kontext kein neutraler Input.
Sie sind Teil eines Systems, das Wahrnehmung, Interpretation und Entscheidung miteinander verbindet.