· 

Bürokratie, Excel und die trügerische Macht der Statistik

Ich erinnere mich an eine Zeit, als Politiker sich im Bundestag noch über Papierstapel mit fein säuberlich aufgelistete Zahlen beugten.

  

Als Balkendiagramme noch mit X-Gleichungen auf Karopapier gezeichnet wurden, und nur dann, wenn es unbedingt sein musste. Soweit ich mich erinnere, musste es nicht oft sein. Zu viel Arbeit für zu wenig Nutzen.

  

Und dann kam Excel. Und mit ihm – der Fehler. Es fiel mir nur zufällig auf und da ich als Anfänger auf diesem Gebiet die Tragweite noch nicht erfasste, fand ich es lustig.

  

Ein kleiner Fehler mit großer Wirkung

  

Der Taschenrechner von Win11 konnte 1 und 1 nicht richtig berechnen. Statt „2“ gab er den Wert 1.989 aus. Ich erzählte es und niemand hielt es für wichtig oder glaubte mir, bis ich selbst es nicht mehr für wichtig hielt.

  

Das Problem, dass erst 1999 behoben wurde, im Zug mit dem befürchteten Jahr 2000 Bugs, wurde verschwiegen ... und kostete Milliarden. Diese winzige Fehler schlich sich in jede Berechnung für die man ein Windowsprogramm verwendete. (Quellnachweis: Windows-Taschenrechner (Calc) Rundungsfehler – Raymond Chen, Microsoft-Entwickler 🔗 Quelle: The Old New Thing – Microsoft Developer Blog (2021)

  

Schnelles Denken - langsames Denken (Nobelpreisträger und Autor David Kahneman und sein Forschungspartner Amos Tversky)

  

legten bei Ihren Forschungen starken Fokus auf die Problematik der Stichprobengröße und deren Interpretation in Statistiken und Diagrammen.

  

Der zentrale Begriff, den sie hier einführen, ist das "Gesetz der kleinen Zahlen" (Law of Small Numbers).

  

Kahneman erklärt es folgendermaßen: Er sagt, dass das Gehirn im Prinzip faul ist. Es möchte Energie sparen. Darum greift es auf zwei verschiedene Denksysteme zurück. Das schnelle "Schubladendenken" oder wie er es nennt, das "Gesetz der kleinen Zahlen" und nur im Notfall auf das aufwändige, langsame und sorgfältige prüfende Denken.

  

Es besagt, dass Menschen intuitiv glauben, dass auch kleine Stichproben "repräsentativ" für die Gesamtpopulation sind, obwohl dies statistisch gesehen nicht der Fall ist.

  

(Z. B. Glaubt die ganze Welt, Bayern würden alle Lederhosen tragen und Bier trinken. Ich will nicht behaupten das gäbe es nicht. Aber es ist gemessen an der Gesamtbevölkerung selten, dass man einen Mann in Bayern mit einer Lederhose laufen sieht. Außer zum Oktoberfest. Und dann spricht er wahrscheinlich nicht bayrisch, sondern chinesisch.)

  

Aber dieses Phänomen bezieht sich nicht nur auf die Beobachtung von Minderheiten.

  

Es funktioniert auch bei der Interpretation von Statistiken und Diagrammen.

  

Allerdings sind hier die Hauptpunkte Erhebungszeitraum und Erhebungsmenge. Also wie lange ist der Zeitraum auf den sich die Statistik bezieht und wie viele Werte werden miteinbezogen.

  

Wertigkeit in kleinen Stichproben:

 

Kahneman erklärt, dass extreme Ergebnisse (sowohl sehr hohe als auch sehr niedrige Werte) in kleinen Stichproben viel wahrscheinlicher sind, als in großen.

 

Aber unser schnelles Schubladendenken neigt dazu, diese extremen Ergebnisse in kleinen Stichproben als bedeutsamer oder repräsentativer zu interpretieren, als sie tatsächlich sind.

  

Unerwartetes Beispiel

  

Als ich eine paar Jahre in einer staatlichen Realschule IT unterrichten durfte, (vorgesehen war nur Aushilfe für 14 Tage - daraus wurden dann 4 Jahre mit großartigen Kindern in den Klassen 7 -10), wollte ich meinen Schülern in der neunten Klasse eine Lektion erteilen.

  

Ich ließ sie ein Diagramm erstellen. Auf der X-Achse die Fächer, auf der Y-Achse die Noten von 1 bis 6. Eine ganz einfache Aufgabe.

  

"Tragt eure Noten in die Tabelle ein und zeigt es euren Eltern."

  

Doch als sie zur nächsten Unterrichtsstunde kamen, stellte ich fest, dass sie für mich unerwartet reagierten.

 

Die Kinder mit den guten Noten, den Einsen und Zweien, waren traurig, während die mit den schlechten Noten, drei und höher, höchst zufrieden waren. Ich gebe zu, ich selbst war höchst irritiert.

  

"Wie kann das sein, fragte ich mich?"

  

Die Kinder haten eine einfache Antwort für mich. Die Eltern hatten die Diagramme auf vollkommen unerwartete Weise interpretiert.

  

"Was? Du hast so niedrige Balken? So schlecht bist Du?" (Logisch bei 1 und 2en sind die Säulen nicht hoch.)

  

Aber ich bekam auch zu hören, "meine Eltern haben sich gefreut, weil die Säulen so hoch sind!"

  

Da habe ich verstanden! Kein Elternteil hatte gefragt, sind das Halbjahres- oder Jahresnoten? Sind die Exen da schon erfasst?

  

Sie beurteilten die Qualität der Diagramme durchwegs nach Höhe der Balken! Weder Beträge, Zahlen, welche Zeiträume, ja noch nicht einmal die Quellen und der Wahrheitsgehalt wurden hinterfragt.

  

Erst da wurde mir klar, was für ein mächtiges Werkzeug Diagramme sind. Wie leicht man mit Diagrammen Menschen beeinflussen kann - weil eigentlich eh nur die wenigsten Menschen sie wirklich interpretieren können. Die meisten glauben was sie sehen! Ohne zu hinterfragen oder zu wirklich zu verstehen.

  

Erst da machte für mich der Satz den ich bereits während meiner Ausbildung lernte, Sinn!

  

Glaube keiner Statistik, die Du nicht selbst gefälscht hast!

  

Auch hierfür bietet Kahneman ein Beispiel:

  

Er beschrieb zwei Krankenhäuser, ein großes und ein kleines. In beiden werden im Durchschnitt 50% Jungen geboren.

  

An welchem Krankenhaus ist es wahrscheinlicher, dass an einem bestimmten Tag mehr als 60% der Babys Jungen sind?

  

Die meisten Menschen tendieren dazu zu denken, dass es in beiden Krankenhäusern gleich wahrscheinlich ist, oder sie wissen es nicht.

  

Die korrekte Antwort ist jedoch das kleine Krankenhaus.

  

Warum? Weil die Variabilität in kleineren Stichproben viel größer ist. Die Abweichung vom Mittelwert (50%) ist in einer kleinen Stichprobe wahrscheinlicher zu beobachten als in einer großen.

 

Ein Diagramm, das die täglichen Geburtenraten in beiden Krankenhäusern über ein Jahr zeigen würde, würde viel größere "Ausschläge" im kleinen Krankenhaus aufweisen.

  

Mögliche Ursachen für diese Interpretationsfehler

  

Vernachlässigung der Stichprobengröße (Sample Size Neglect / Insensitivity to Sample Size):

 

Dies ist die Tendenz, die Bedeutung der Stichprobengröße zu ignorieren, wenn man statistische Informationen bewertet.

  

Menschen schenken dem Inhalt der Information oft mehr Beachtung als ihrer Zuverlässigkeit (die stark von der Stichprobengröße abhängt). Und da sind wir beim nächsten Punkt!

  

Der Wahrheitswert von Meinungsumfragen: Wo und wer wird gefragt?

  

Ob sie es glauben oder nicht, gibt man eine Umfrage in Auftrag, ist eine der ersten Fragen: „Welches Ergebnis erwarten sie?“

  

Wollen Sie wissen, ob Eierlegen Spaß macht, werden sie im Hühnerstall ein anderes Ergebnis bekommen als im Kuhstall.

 

Wähler, die im Altenheim leben, oder zumindest ein bestimmtes Alter erreichen, werden konservativere Meinungen vertreten, als Jugendliche vor einer Disko.

  

Nehme ich bei einer Meinungsumfrage von z. B. entscheiderclub.de teil, werde ich erst einmal befragt.

 

  • Wie alt sind sie?
  • Männlich oder weiblich?
  • Wie viel verdienen sie uvm. ...

Erst anhand der Antworten wird entschieden, ob und an welcher Studie ich teilnehmen darf.

  

Bei politischen Meinungsumfragen kann es ähnlich laufen.

  

Und dann heißt es plötzlich in den Medien, soundso viele Wähler würden diese Partei wählen. Wie viele Menschen wirklich fragt wurden erfährt man oft gar nicht! Waren es 10? 100? 10000? 80 Millionen? Welche Personengruppe zur Befragung ausgewählt wurde, bleibt ebenso im Dunklen.

  

Der wohlbekannte Herdentrieb

  

Der Leser der Statistik denkt sich: „70% aller Leute finden das gut! Da muss ich es auch gut finden.“

  

Das nennt Kahnemann schnelles Denken. Ich nenne es Schubladendenken. Geht schnell, kostet wenig Energie, wird schon passen.

  

Fehlerquellen, von denen niemand je etwas erfährt:

  

Wenn Du nun glaubst, das wäre schon Grund, Statistiken und Excel mit Vorsicht zu begegnen, dann muss ich Dich enttäuschen. Dass das kann ich noch toppen!

  

Vor vielen Jahren kam eine Delegation eines örtlichen Stromanbieters zu mir in den Unterricht. Sie alle konnten Excel...arbeiteten schon seit Jahren damit.

  

Aber wie so oft, hatten sie sich nicht zu einem fünftägigem Lehrgang angemeldet um zu lernen, sondern um ein Problem zu lösen.

  

Ihre Bilanz wieß eine Diskrepanz von 0,01 € auf. Sie konnten den Fehler einfach nicht finden. 5 Tage schwitzten und suchten wir. Bis wir es fanden!

  

Ein Rundungsfehler! Statt Zahlenformat Buchhaltung hatten sie das Format Währung verwendet. Nach Korrektur ergaben sich neue Beträge mit einer Fehlertoleranz im vierstelligem Bereich.

  

Ich habe nie erfahren ob dem Unternehmen oder dem Kunden ein Vorteil daraus erwachsen war. Die Angelegenheit wurde einfach unter den Tisch gekehrt.

  

Anderes Beispiel - andere Reichweite

  

Erst vor ein paar Jahren begab es sich, dass eine Ärztin die im Bereich Seuchenbekämpfung tätig war, an einem meiner Lehrgänge teilnahm. Irgendwer hatte ihr beigebracht Zahlen mit der Funktion Summenprodukt zusammenzuzählen. Sie war stolz als sie es mir zeigte.

 

Bis ich ihr zeigte, welchen Unterschied es macht, die Funktion Summe zu verwenden, die auch Kommastellen anzeigt und nicht automatisch auf ganze Zahlen rundet. (Wichtig zum Weiterrechnen für die Genauigkeit bei langen Zahlenketten.)

 

Sie war entsetzt. "Aber das ist ja schrecklich ungenau!" Ja! Stimmt!

 

Besonders wenn es um hohe Zahlen geht. Wenn viele Krankheitsfälle aus vielen Ortschaften zusammengezählt werden müssen und dann ein Diagramm daraus erstellt wird. Du erkennst was ich meine?

  

Darfs noch eine Nummer grösser sein?

  

Eine Statistik die führende Politiker dazu veranlasst, Bürgergeldbezieher zu sanktionieren, weil sie zu viel kosten.

  

Hier die Vergleichszahlen:

 

(Ich berufe mich hier auf Zahlen der Bundeshaushaltspläne von 2005 - 2024, dem statistischem Bundesamt und dem Ifo-Institut.)

  

Politikerkosten pro Jahr (inkl. Verwaltung, Reisen, Personal etc.):

  

  • 2005: 746.000 €
  • 2024: 1.646.000 €
  •  Entspricht einer Steigerung von +120,6 %

  Als Gegenpart:

  

Sozialausgaben pro Kopf (für jeden einzelnen Bürger):  

  • 2005: 28.288 €
  • 2015: 19.370 €31,5 % → Danach leichter Anstieg, aber:
  • 2024: 25.542 €immer noch unter dem Wert von 2005  

Was heißt das?

  

Während Politiker heute deutlich mehr öffentliche Mittel pro Kopf erhalten, erhält der durchschnittliche Bürger heute real weniger Unterstützung als noch 2005 (-31,5%)

  

Das bedeutet:

  

Was unsere Politiker zu diesen Themen regelmäßig verkünden brauche ich Euch nicht zu erzählen. (Allerdings weiß ich nicht, auf welche Diagramme und Zahlen sie ihre Aussagen stützen. Im Gegensatz zu mir legen sie Ihre Datenquellen nicht offen.)

  

Die Umverteilung läuft – nur nicht in die Richtung, von der immer gesprochen wird.

  

Wie kann so was passieren?  

  •  Zu großes Vertrauen in frühe Trends und Muster:
  •  Insbesondere Forscher und Analysten neigen dazu, zu früh auf Ergebnisse aus kleinen Vorstudien oder frühen Datenerhebungen zu vertrauen. 

Kahneman kritisierte, dass Wissenschaftler manchmal Hypothesen auf kleine Stichproben ziehen, ohne zu erkennen, wie hoch die Wahrscheinlichkeit ist, dass diese Ergebnisse reiner Zufall sind oder nicht reproduzierbar.

  

Fazit für Diagramme und Erhebungen:

  

Wenn du Diagramme siehst, oder Statistiken liest, ist es für die Aussagekraft Entscheidend, aus welche Erhebungszeiträume und -mengen sich die Zahlen herleiten.

  

Stets ist es entscheidend, diese Fragen zu stellen:

  

Wie groß war die Stichprobe (Erhebungsmenge)?

 

Je kleiner die Stichprobe, desto vorsichtiger musst du mit Schlussfolgerungen sein. Große Stichproben sind in der Regel zuverlässiger.

  

Wie wurde die Stichprobe ausgewählt?

 

War sie wirklich zufällig und repräsentativ für die Bevölkerung, über die eine Aussage getroffen werden soll?

  

Wurde der Erhebungszeitraum ausreichend gewählt?

 

Ein sehr kurzer Zeitraum kann zu zufälligen Ausschlägen führen, die nicht repräsentativ für einen längeren Trend sind.

  

Extrem gute (oder auch extrem schlechte) Ergebnisse sind oft Zufall aufgrund von geringen Fallzahlen.

  

Wir neigen dazu, aus wenigen Datenpunkten sofort kausale Zusammenhänge abzuleiten,

 

anstatt die Stichprobengröße (Erhebungsmengen) zu berücksichtigen.

  

Einzelne Beobachtung oder Anekdoten

 

sind statistisch nicht aussagekräftig und können niemals einen umfassenden Datensatz ersetzen.

  

Die Auswirkungen in der Bürokratie

  

 Fehlentscheidungen:

 

Basierend auf irreführenden Statistiken werden falsche Strategien entwickelt, Ressourcen fehlgeleitet oder Mitarbeiter ungerecht beurteilt.

  

Verlorenes Vertrauen:

 

Wenn "Erfolge" aus Pilotprojekten später nicht nachvollziehbar sind, oder ein seltsames Bauchgefühl des Misstrauens verursachen, sinkt das Vertrauen in Daten und Management.

  

Effizienzbremse:

 

Das Verfolgen von Scheineffekten bindet Kapazitäten, die an anderer Stelle dringend gebraucht würden.

  

Doch was können wir tun? Was wollen wir tun?

  

Stichprobengröße hinterfragen:

 

Immer fragen: "Auf wie vielen Datenpunkten basiert diese Aussage/dieses Diagramm?"

  

Kontext ist König:

 

Statistiken immer im Kontext der Gesamtmenge und des Erhebungszeitraums betrachten. Sind diese Daten repräsentativ?

  

Variabilität akzeptieren:

 

Verstehen, dass kleine Mengen immer größere Schwankungen aufweisen. Extreme sind normal.

  

Sich selbst hinterfragen:

 

Die eigene intuitive Reaktion auf Zahlen überprüfen. Denken sie nicht in Schubladen, sondern prüfen sie Fakten genau, auch wenn es Zeit kostet! (Sry, aber zu was haben wir KIs? Die helfen!)

  

Datenvisualisierung kritisch betrachten:

 

Diagramme können manipulativ sein, wenn Achsen gezielt skaliert oder Stichprobengrößen nicht erwähnt werden.

  

Warum wird nicht mehr dagegen unternommen? Wie kann das alles passieren?

  

Du siehst es.

 

Du spürst es.

 

Die meisten Menschen ahnen, dass „etwas nicht stimmt“.

  

Aber sie sehen es nicht klar:  

  • Weil sie nie gelernt haben, Zahlen zu lesen.
  • Weil sie Diagrammen trauen.
  • Weil ihnen gesagt wird, dass „es halt kompliziert ist.“

 Wem nützt es?

  • Beratungsfirmen, die mit Verwaltung und Umstrukturierung Milliarden verdienen
  •  Lobbygruppen, die über Subventionen und Gesetzesgestaltung Einfluss nehmen
  •  Politiker selbst, die ihre Apparate, Diäten, Zuschläge und Netzwerke absichern
  •  Vermögende Kreise, die von einem schwachen Sozialstaat und geringen Umverteilungen profitieren
  •  Medienhäuser, die eher Nähe zur Macht pflegen als tiefe Systemkritik üben

 Über all dem:

  

Ein System, das sich selbst erhält – nicht durch Böswilligkeit, sondern durch Struktur, Gewöhnung, Trägheit ... und einem stillen Konsens, dass „die da oben schon wissen, was sie tun.“

  

Wer plant das?

  

Vielleicht niemand im klassischen Sinn. Kein finsterer Mastermind mit Katze auf dem Schoß. Sondern:

  

ein Netzwerk aus Interessen, das sich selbst stabilisiert.

  

Ein paar Beispiele:

  Posten schaffen Posten: Wer einmal Verwaltung aufbaut, schafft Folge-Verwaltung.

  • Gesetze schützen Privilegien – nicht nur absichtlich, sondern weil die Privilegierten die Gesetze machen.
  • Statistiken werden so gestaltet, dass sie beruhigen statt aufrütteln.
  • Es ist kein Plan – sondern ein Prozess, der davon lebt, dass niemand laut fragt:

Es wird nicht geplant – aber es wird bewusst nicht gestoppt.

  

Fazit für eine intelligentere Bürokratie

  

Ein besseres Verständnis von Statistik ist nicht nur für Wissenschaftler, sondern für jeden im Verwaltungsalltag wichtig.

  

Das Ziel ist nicht, Statistiken zu misstrauen, sondern sie intelligent zu lesen. (Na ja! Vielleicht ein bisschen! Hinterfragen sie die Quelle und die Erhebungsdaten. Wer gabs in Auftrag, wer hats gemacht? Wer profitiert vom Ergebnis?)

  

Was denkst Du? Werden wir gemeinsam etwas ändern können?

  

Wie immer freue ich mich auf Deine Reaktion oder auf einen Kommentar!

Kommentar schreiben

Kommentare: 0