Zum Hauptinhalt springen

Warum Organisationen wissenschaftliche Erkenntnisse ignorieren

Es gibt zahlreiche empirische Befunde zu:

  • Prognoseverzerrung (Planning Fallacy)
  • Varianz in komplexen Systemen (Queueing Theory)
  • Anreizverzerrung (Goodhart’s Law)
  • Instabilität bei hoher Auslastung
  • motivationalen Effekten von Fortschritt

Dennoch hört man in Organisationen häufig:

„Daran glaube ich nicht.“

„In unserer Realität funktioniert das anders.“

„Wir wissen es besser.“

Diese Reaktion ist selten Ausdruck von Ignoranz.

Sie ist Ausdruck unterschiedlicher Rationalitäten.


1. Wissenschaftliche Rationalität

Wissenschaft beschreibt:

  • Wahrscheinlichkeiten
  • Varianz
  • systemische Effekte
  • statistische Tendenzen

Sie formuliert Aussagen wie:

  • Prognosen sind systematisch verzerrt.
  • Hohe Auslastung erzeugt Instabilität.
  • Messgrößen als Zielgrößen verändern Verhalten.

Wissenschaft liefert keine Garantien.

Sie liefert Wahrscheinlichkeitsaussagen.


2. Organisationale Rationalität

Organisationen müssen:

  • Budgets planen
  • Investitionen rechtfertigen
  • Forecasts liefern
  • Verbindlichkeit erzeugen
  • Verantwortung zuweisen

Sie können nicht sagen:

„Wir wissen es nicht.“

Kapitalmärkte, Controlling, Governance-Strukturen erzeugen einen starken Planungsdruck.

Prognose ist nicht epistemisch motiviert, sondern strukturell notwendig.


3. Der Konflikt

Hier entsteht eine systemische Spannung:

Wissenschaft sagt:

Prognosen in komplexen Systemen sind instabil.

Organisation sagt:

Wir benötigen Prognosen, um handlungsfähig zu sein.

Beide Aussagen können gleichzeitig wahr sein.


4. Warum „Ich glaube das nicht“ entsteht

Wenn Führungskräfte wissenschaftliche Befunde ablehnen, ist das häufig kein Erkenntnisproblem.

Es ist ein Steuerungsproblem.

Die implizite Frage lautet:

Wie soll ich steuern, wenn diese Annahmen stimmen?

Die Ablehnung stabilisiert das bestehende Steuerungsmodell.


5. Anreizsysteme überstimmen Erkenntnis

Goodhart’s Law beschreibt:

Wird eine Messgröße zur Zielgröße, verändert sich das Verhalten im System.

Auch Führungskräfte unterliegen Anreizstrukturen:

  • Bonusmodelle
  • Budgetverantwortung
  • Quartalsziele
  • Berichtspflichten

Erkenntnisse, die diese Logik infrage stellen, gefährden kurzfristige Stabilität.

Organisationen priorisieren operative Stabilität über epistemische Korrektheit.


6. Anekdotische Evidenz vs. Statistik

Ein häufiges Argument lautet:

„Ich habe Projekte erlebt, die funktioniert haben.“

Einzelbeispiele widerlegen keine Systemdynamik.

Sie können:

  • geringe Komplexität gehabt haben
  • außergewöhnlich starke Teams
  • günstige Kontextbedingungen

Organisationen orientieren sich jedoch stark an erlebter Einzelfallerfahrung.

Das ist menschlich – aber statistisch verzerrt.


7. Systemische Selbststabilisierung

Organisationen sind selbststabilisierende Systeme.

Wenn ein Steuerungsmodell intern konsistent ist, wird es verteidigt.

Auch gegen empirische Evidenz.

Das geschieht nicht aus Bosheit, sondern aus Strukturerhalt.


8. Die nüchterne Beobachtung

Naturgesetze können ignoriert werden.

Sie können nicht aufgehoben werden.

  • Hohe Auslastung bleibt instabil.
  • Hohe Varianz bleibt schwer prognostizierbar.
  • Messung als Zielgröße bleibt verzerrend.

Organisationen können diese Effekte überdecken, verschieben oder externalisieren.

Langfristig wirken sie dennoch.


9. Konsequenz

Die Frage ist nicht:

„Sind Organisationen irrational?“

Sondern:

„Welche Rationalität folgt das System?“

Veränderung beginnt nicht mit Belehrung, sondern mit dem Sichtbarmachen dieser Spannung.

Erkenntnis allein ändert keine Organisation.

Aber sie erklärt, warum Widerstand entsteht.