Warum Organisationen wissenschaftliche Erkenntnisse ignorieren
Es gibt zahlreiche empirische Befunde zu:
- Prognoseverzerrung (Planning Fallacy)
- Varianz in komplexen Systemen (Queueing Theory)
- Anreizverzerrung (Goodhart’s Law)
- Instabilität bei hoher Auslastung
- motivationalen Effekten von Fortschritt
Dennoch hört man in Organisationen häufig:
„Daran glaube ich nicht.“
„In unserer Realität funktioniert das anders.“
„Wir wissen es besser.“
Diese Reaktion ist selten Ausdruck von Ignoranz.
Sie ist Ausdruck unterschiedlicher Rationalitäten.
1. Wissenschaftliche Rationalität
Wissenschaft beschreibt:
- Wahrscheinlichkeiten
- Varianz
- systemische Effekte
- statistische Tendenzen
Sie formuliert Aussagen wie:
- Prognosen sind systematisch verzerrt.
- Hohe Auslastung erzeugt Instabilität.
- Messgrößen als Zielgrößen verändern Verhalten.
Wissenschaft liefert keine Garantien.
Sie liefert Wahrscheinlichkeitsaussagen.
2. Organisationale Rationalität
Organisationen müssen:
- Budgets planen
- Investitionen rechtfertigen
- Forecasts liefern
- Verbindlichkeit erzeugen
- Verantwortung zuweisen
Sie können nicht sagen:
„Wir wissen es nicht.“
Kapitalmärkte, Controlling, Governance-Strukturen erzeugen einen starken Planungsdruck.
Prognose ist nicht epistemisch motiviert, sondern strukturell notwendig.
3. Der Konflikt
Hier entsteht eine systemische Spannung:
Wissenschaft sagt:
Prognosen in komplexen Systemen sind instabil.
Organisation sagt:
Wir benötigen Prognosen, um handlungsfähig zu sein.
Beide Aussagen können gleichzeitig wahr sein.
4. Warum „Ich glaube das nicht“ entsteht
Wenn Führungskräfte wissenschaftliche Befunde ablehnen, ist das häufig kein Erkenntnisproblem.
Es ist ein Steuerungsproblem.
Die implizite Frage lautet:
Wie soll ich steuern, wenn diese Annahmen stimmen?
Die Ablehnung stabilisiert das bestehende Steuerungsmodell.
5. Anreizsysteme überstimmen Erkenntnis
Goodhart’s Law beschreibt:
Wird eine Messgröße zur Zielgröße, verändert sich das Verhalten im System.
Auch Führungskräfte unterliegen Anreizstrukturen:
- Bonusmodelle
- Budgetverantwortung
- Quartalsziele
- Berichtspflichten
Erkenntnisse, die diese Logik infrage stellen, gefährden kurzfristige Stabilität.
Organisationen priorisieren operative Stabilität über epistemische Korrektheit.
6. Anekdotische Evidenz vs. Statistik
Ein häufiges Argument lautet:
„Ich habe Projekte erlebt, die funktioniert haben.“
Einzelbeispiele widerlegen keine Systemdynamik.
Sie können:
- geringe Komplexität gehabt haben
- außergewöhnlich starke Teams
- günstige Kontextbedingungen
Organisationen orientieren sich jedoch stark an erlebter Einzelfallerfahrung.
Das ist menschlich – aber statistisch verzerrt.
7. Systemische Selbststabilisierung
Organisationen sind selbststabilisierende Systeme.
Wenn ein Steuerungsmodell intern konsistent ist, wird es verteidigt.
Auch gegen empirische Evidenz.
Das geschieht nicht aus Bosheit, sondern aus Strukturerhalt.
8. Die nüchterne Beobachtung
Naturgesetze können ignoriert werden.
Sie können nicht aufgehoben werden.
- Hohe Auslastung bleibt instabil.
- Hohe Varianz bleibt schwer prognostizierbar.
- Messung als Zielgröße bleibt verzerrend.
Organisationen können diese Effekte überdecken, verschieben oder externalisieren.
Langfristig wirken sie dennoch.
9. Konsequenz
Die Frage ist nicht:
„Sind Organisationen irrational?“
Sondern:
„Welche Rationalität folgt das System?“
Veränderung beginnt nicht mit Belehrung, sondern mit dem Sichtbarmachen dieser Spannung.
Erkenntnis allein ändert keine Organisation.
Aber sie erklärt, warum Widerstand entsteht.