In der Data Science und der Modellierung komplexer Systeme wird häufig davon ausgegangen, dass bessere Daten zu besseren Modellen führen. Entsprechend liegt der Fokus vieler Ansätze auf Datenqualität, Datenmenge und Feature Engineering.
Doch in vielen realen Systemen liegt das zentrale Problem nicht in den Daten, sondern in der Struktur der Modelle selbst.
Modelle scheitern nicht an Daten. Sie scheitern an sich selbst.
Wir sprechen ständig über Datenqualität.
Zu wenig Daten.
Zu viele Daten.
Falsche Daten.
Das ist bequem.
Denn es verschiebt das Problem.
Nicht die Daten sind falsch.
Das Modell ist falsch.
Ein Modell ist nie neutral.
Es ist eine Entscheidung darüber,
was relevant ist
was ignoriert wird
was als stabil angenommen wird
Das Problem beginnt, wenn diese Annahmen implizit bleiben.
Dann entsteht ein gefährlicher Zustand:
Das System wird korrekt gemessen –
aber falsch verstanden.
In stabilen Systemen funktioniert das.
Die Realität bewegt sich innerhalb der Modellgrenzen.
Fehler bleiben klein.
In instabilen Systemen passiert etwas anderes:
Das System verlässt den Modellraum.
Nicht langsam.
Sondern abrupt.
Dann entsteht das typische Muster:
Prognosen werden systematisch falsch
Modelle werden nachjustiert
Fehler bleiben bestehen
Das ist kein Datenproblem.
Das ist ein Regimewechsel.
Ein Modell kann nur das sehen, was es zulässt.
Alles andere erscheint als „Rauschen“.
Bis es dominant wird.
Der eigentliche Bruch ist epistemisch:
Das Modell verliert seine Beziehung zur Realität.
Und genau dann beginnen Systeme zu kippen.