»Fakt oder Fake?«: Statistische Kompetenz erlernen
»Statistical Literacy«: Das wollen Werner G. Müller und Andreas Quatember, beide Professoren am Institut für Angewandte Statistik der Universität in Linz, in ihrem Buch vermitteln. Sie kennen diesen Begriff noch nicht? Er beschreibt die Fähigkeit, statistische Daten, Grafiken und Tabellen zu verstehen sowie Texte, die diese interpretieren, auf ihre Richtigkeit zu überprüfen und einfache statistische Berechnungen durchzuführen. Der Bildungssektor propagiert diese Kompetenz als ein wichtiges Ziel für Schule und Universität.
Unsere Medien verbreiten zunehmend statistische Informationen aller Art. Gerade die Corona-Pandemie verlangte von der Öffentlichkeit »die Akzeptanz und das Verständnis zahlreicher statistischer Konzepte«. Wie die Verfasser zeigen, enthalten diese leider häufig Fehler oder Fakes – mit letzterem Begriff bezeichnen die Autoren bewusste Fälschungen. Aber auch Irrtümer oder die falsche Verwendung statistischer Begriffe und Verfahren führen zu Fehlinformationen. Müller und Quatember wollen zeigen, »dass sich eine Basismethodenkompetenz der Statistik (…) auch mit durchschnittlichen Mathematikkenntnissen erreichen lässt«. Um diesem Anspruch gerecht zu werden, führen sie an vielen Beispielen Themen mit unterschiedlichem mathematischem Schwierigkeitsgrad vor.
Wie erkennt man ein gefälschtes Diagramm?
Fehlerhafte grafische Darstellungen bei Kreis- oder Balkendiagrammen (ob unbewusst oder absichtlich) lassen sich beispielsweise erkennen, wenn falsche Achseneinteilungen verwendet werden. Auch die beliebten Piktogramme verfälschen den Sachverhalt, wenn die Höhe der dargestellten Figuren zwar den wahren Proportionen entspricht, nicht aber deren Flächeninhalt – und so der optische Eindruck die Wahrnehmung verzerrt.
Auch wenn Meldungen prozentuale Angaben enthalten, sollte man aufpassen: Prozentsätze und Prozentpunkte werden leicht verwechselt. Ob eine Partei bei einer Wahl um 10 Prozent weniger Stimmen erhalten hat (etwa 18 statt zuvor 20 Prozent), ist etwas anderes, als wenn sie 10 Prozentpunkte verloren hat (dann hätte sie nur noch 10 Prozent). Was als »Mittelwert« beschrieben wird, kann eine falsche Information sein, wenn die Begriffe »Durchschnitt« (arithmetischer Mittelwert) und »Median« verwechselt werden. Die Bedeutung von Korrelation und Regressionsgerade erläutern die Autoren an Beispielen und grenzen sie gegen »Scheinkorrelationen« ab.
Bei der Gesundheitsvorsorge haben Tests eine wichtige Funktion, um Krankheiten zu erkennen, wie wir in diesen Zeiten der Corona-Pandemie erlebt haben. Das Buch stellt am Beispiel von HIV statistische Verfahren mit dem Hilfsmittel »Baumdiagramm« vor (die Fachleute als bedingte Wahrscheinlichkeiten mit dem Namen Bayes verbinden). Anhand der Begriffe Sensitivität und Spezifität verweisen die Verfasser auf die Problematik, dass Tests zum Beispiel bei unsachgemäßer Verwendung zu hohen falsch positiven oder falsch negativen Ergebnissen führen können. Sie beklagen in diesem Zusammenhang die »mangelhafte Qualität der Ausbildung in medizinischer Statistik«, was der namhafte Experte Gerd Gigerenzer als »statistischen Analphabetismus« bezeichnete.
Ein weiteres Kapitel lässt sich auch mit durchschnittlichen Mathematikkenntnissen verfolgen: Sein Inhalt, das benfordsche Gesetz, hat gelegentlich schon den Weg in die Presse gefunden. In empirischen Datensätzen – etwa den Aktienkursen der 100 größten deutschen Unternehmen oder der Einwohnerzahl deutscher Großstädte – erwartet man wahrscheinlich, die Anfangsziffern (von 1 bis 9) gleich häufig anzutreffen. Aber dem ist nicht so! Das Gesetz besagt, dass die Ziffernhäufigkeit von der 1 bis zur 9 abnimmt. Damit kann man gefälschte Steuererklärungen oder Fragebogen in der Meinungsforschung entlarven.
Mit den Kenntnissen, die man in der gymnasialen Oberstufe im Stochastikunterricht erwirbt, kann man hoffentlich einige weitere Abschnitte des Werks mit Gewinn nachvollziehen. Dort geht es um Fragen der beurteilenden Statistik: Wie werden so genannte repräsentative Umfragen ermittelt? Wie testet man Hypothesen, was versteht man unter der Nullhypothese, was unter einem Signifikanzniveau? Welche Aussagen lassen sich bei Kenntnis von Konfidenzintervallen treffen? Die Autoren erklären die Methoden ausführlich und rechnen einige Beispiele eingehend durch.
Weiterhin diskutieren sie die Sinnhaftigkeit von »Signifikanztests«, die von manchen Fachleuten bestritten wird. Müller und Quatember benennen Fehler, die bei der Verwendung solcher Tests gemacht werden, etwa das Fehlen einer (Forschungs-)Hypothese oder das Nutzen von anderweitig erhobenen Daten, deren Zufälligkeit nicht gesichert ist. Weiter bemängeln sie, dass fast ausschließlich signifikante Resultate veröffentlicht werden. Denn: »Auch nichtsignifikante Testergebnisse sind als Erfolg auf dem Weg zur Erkenntnis zu werten und dienen vor allem der umfassenden Einbettung verschiedener Forschungsresultate.«
Zwei Abschnitte des Buchs verlangen allerdings mehr als durchschnittliche Mathematikkenntnisse. Trotzdem lässt sich die behandelte Problematik sehr gut verstehen, und man kann nur staunen, welch raffinierte Verfahren Statistiker entwickelt haben. Wer weiß schon, dass man mit ihrer Hilfe manipulierten Wahlergebnissen auf die Spur kommen kann? Und wie unwahrscheinlich die sich häufenden Rekordzahlen beispielsweise bei Niederschlagsmengen oder Temperaturen wirklich sind?
In allen Kapiteln verzichten die Autoren im Haupttext weitgehend auf Formeln. Im jeweiligen Anhang folgen Ergänzungen in mathematischer Fachsprache. Das Buch folgt wissenschaftlichen Standards: Jedes zitierte Beispiel wird mit Quellen belegt, jedes Kapitel schließt mit Literaturangaben. Insgesamt handelt es sich um ein überaus spannendes und lesenswertes Buch. Die breit gestreuten Themen mit vielen Beispielen helfen sicher dabei, die »Statistical Literacy« zu fördern – auch wenn man nicht jede mathematische Einzelheit im Detail versteht.
Schreiben Sie uns!
Beitrag schreiben