Der große Mathe-Test der ZEIT zeigt, wie schwer es vielen Deutschen fällt, selbst einfache Aufgaben zu lösen.
Sie fahren eine Strecke von 240 Kilometern mit 100 statt mit 120 Kilometern pro Stunde. Wie viel länger brauchen Sie? Können Sie das ausrechnen? Ohne Probleme? Glückwunsch! Sie wissen mehr als zwei Drittel der Deutschen. Und womöglich wissen Sie noch etwas anderes: dass Mathematik wichtig für den Alltag ist. Doch entscheidend ist, was daraus folgt. Und das ist in Deutschland nicht viel.
Mehr zum Thema:
Hier kann man den Test selbst machen!
Interview mit der Mathe-Didaktikerin Anke Lindmeier zu Geschlechterunterschieden bei Mathematikkenntnissen: „Es gibt auch Länder, wo die Mädchen besser sind als die Jungen“
Detailvergleiche Mann-Frau, Ost-West – und zwischen den Generationen von Boomern bis GenZ
Die oben gestellte Frage ist eine von 29 Aufgaben des großen Mathematik-Tests der ZEIT. Einer repräsentativen Studie, die vor zehn Jahren zum ersten Mal durchgeführt wurde. Damals hatten die Deutschen große Schwierigkeiten, relativ einfache mathematische Aufgaben zu lösen. Das Fazit lautete: Versetzung gefährdet!
Nun wollten wir wissen: Haben sich die Rechenfähigkeiten seit 2013 verbessert? Wir haben dieselben Aufgaben noch einmal 1005 repräsentativ ausgewählten Deutschen gestellt. Die Umfrage im Auftrag der ZEIT und der Universität Potsdam wurde vom Meinungsforschungsinstitut Forsa durchgeführt.
Seit dem „Pisa-Schock“ von 2000 war viel über die Leistungen von Schülerinnen und Schülern geredet worden – aber die ZEIT-Studie von 2013 war eine der ersten Untersuchungen zu der Frage, was von all dem Schulstoff bei Erwachsenen hängen geblieben ist. Seitdem ist ein Jahrzehnt vergangen, die Menschheit hat Covid, TikTok und das Gendersternchen kennengelernt. Auch die künstliche Intelligenz (KI) spielt zunehmend eine Rolle. Was aber hat sich seither mit der menschlichen Alltagsintelligenz getan, insbesondere mit der Rechenfähigkeit der Menschen? Der Sinn des Tests ist es nicht, mathematisches Schulwissen abzufragen. Es geht nicht um Sinus und Cosinus, Ableitungen oder Integrale. Bei wenigen Aufgaben muss ausführlich gerechnet werden. Stattdessen formulierte der Mathematikdidaktiker Ulrich Kortenkamp von der Universität Potsdam mit seinem Kollegen Anselm Lambert von der Universität des Saarlandes Alltagsprobleme: Wie viel Farbe brauche ich, um ein Zimmer zu streichen? Welcher Kühlschrank ist auf die Dauer kostengünstiger? Welche Information enthält eine Infografik?
Vor zehn Jahren waren neun Prozent der Befragten nicht in der Lage, das korrekte Wechselgeld zu berechnen, wenn sie einen Betrag von 14,32 Euro mit einem 20-Euro-Schein bezahlen. Die Aufgabe entspreche „etwa der Frage ›Wie schreibt man Wurstbrot‹ im Fach Deutsch“, sagt Ulrich Kortenkamp. Wenn bei der Rechtschreibung so viele Menschen danebenlägen, wäre man zu Recht schockiert. Aufatmen kann Kortenkamp auch nach der neuen Umfrage nicht – dieses Mal versagten sogar elf Prozent bei der Wechselgeld-Aufgabe. Trotzdem sagt der Forscher: „Ich habe ein bisschen Hoffnung.“
Die gründet sich auf das Gesamtergebnis: Das hat sich leicht verbessert, im Mittel lösten die Teilnehmerinnen und Teilnehmer 20,4 der 29 Aufgaben korrekt, eine mehr als 2013. Das klingt nach nicht viel, da aber etwa 80 Prozent der Stichprobe aus demselben Bevölkerungssegment gezogen wurden wie vor zehn Jahren, war auch nicht zu erwarten, dass sich deren Mathekenntnisse sprunghaft verbessert hätten.
War der Test vor zehn Jahren eine Momentaufnahme, so ermöglicht die neue Umfrage differenziertere Aussagen. Beim ersten Test war zum Beispiel auffällig, dass ältere Teilnehmerinnen und Teilnehmer schlechter abschnitten als jüngere. Aber lag das daran, dass die Rechenfähigkeit mit dem Alter zurückgeht? Die neuen Ergebnisse zeigen: Die Jahrgänge, die schon vor zehn Jahren dabei waren, haben ihr Resultat in etwa gehalten – es gibt keinen großen Alterseffekt. Tatsächlich hat sich die Rechenfähigkeit mit jeder Generation verbessert. Von den Babyboomern über die Generation X und die Millennials bis zur Generation Z steigt die Zahl der korrekt gelösten Aufgaben leicht an.
„Die Menschen werden geprägt durch ihr ganzes Leben“
Es gab einige Aufgaben, bei denen sich das Ergebnis gegenüber 2013 (und 2018, als Kortenkamp den Test ohne Beteiligung der ZEIT durchführen ließ) auffallend verbessert hat: Insbesondere sind die Menschen – vor allem die jüngeren – besser in der Lage, Informationen aus Diagrammen und Grafiken abzuleiten. Darauf weist auch die Mathematikdidaktikerin Anke Lindmeier von der Universität Jena hin, die nicht an der Studie beteiligt war. „Dort sieht man wirklich einen Trend.“ Der habe wohl weniger mit einem veränderten Matheunterricht in der Schule zu tun, sondern vor allem mit der veränderten Lebenswirklichkeit. Allgemein gebe es eine stärkere Datenorientierung in den Medien, auch im Zusammenhang mit der Klimakrise, und das trainiere den Umgang mit solchen Statistiken. Auch Ulrich Kortenkamp will die besseren Resultate nicht veränderten Lehrplänen zugutehalten – an denen er sogar mitgewirkt hat. „Die Menschen werden geprägt durch ihr ganzes Leben“, sagt Kortenkamp.
Tatsächlich aber wurden seit 2000 die Lehrinhalte an den Schulen stark überarbeitet, gerade in Mathematik. Mehr lebensnahe Anwendungsbeispiele, mehr Wahrscheinlichkeitsrechnung und Statistik hielten Einzug. Aber Erkenntnisse aus der Didaktik müssen von diversen Gremien in den Bundesländern umgesetzt werden, dann entwickeln die Schulbuchverlage neue Bücher – und bis die im letzten Bundesland eingeführt sind, vergehen viele Jahre, erklärt Anke Lindmeier: „Was heute in der Mathedidaktik diskutiert wird, kommt nicht morgen in der Schule an, auch nicht übermorgen. Manches kommt auch gar nicht an – das System ist extrem träge.“
Ein Ergebnis hat sich seit 2013 gar nicht verändert: Frauen, auch die der jüngeren Generation, schneiden deutlich schlechter ab als Männer, sie beantworten im Mittel zweieinhalb Fragen weniger korrekt. Bei einigen Fragen ist der Unterschied frappierend: Während immerhin 38 Prozent der Männer die Aufgabe mit der unterschiedlichen Fahrzeit bei unterschiedlichem Tempo richtig lösen, schaffen das nur 24 Prozent der Frauen. Es sind wohl mehrere Faktoren, die zu diesem Resultat beitragen (siehe Interview Seite 33).
Einer könnte das Berufsleben sein. Mathematische Bildung muss nicht mit der Schule aufhören, sagt Lindmeier. So habe eine Studie gezeigt, dass diejenigen, die im Job Mathematik brauchen, bei mathematischen Tests besser abschneiden – unabhängig von der Schulausbildung. Das könne auch erklären, warum die jüngeren Generationen bessere Ergebnisse erzielen. Sie arbeiten öfter in Berufen, die Rechenfähigkeiten erfordern.
Die meisten Aufgaben in unserem Test sind Textaufgaben. Eine lebensnahe Situation muss in eine mathematische Aufgabe übersetzt, gelöst und wieder zurückübersetzt werden. Seit Kurzem hat der Mensch da Konkurrenz bekommen: die KI mit Programmen wie ChatGPT, die Antworten auf umgangssprachlich formulierte Fragen geben können.
Aber kann die KI das auch in unserem Mathematik-Test? Wie gut kommt ChatGPT mit den Fragen zurecht? Sie wurden dem Programm im selben Wortlaut präsentiert wie den Menschen. Das Ergebnis: ChatGPT beantwortete 27 von 29 Fragen korrekt und war damit besser als 92 Prozent der Deutschen.
Diese Leistung wirft Fragen auf. Wir haben komplizierte Rechenprozesse längst an Maschinen delegiert – werden wir das bald auch mit Problemen aus der realen Welt tun? Ulrich Kortenkamp glaubt, dass Schülerinnen und Schüler neue Fähigkeiten brauchen: „Anstatt die Lösung zu generieren, müssen wir die Lösung verifizieren.“ Ähnlich denkt Anke Lindmeier: „Ein bestimmter Kernkanon der Mathematik wird überhaupt nicht überflüssig, sondern vielleicht sogar wichtiger.“
Aber so wie das Sprachgefühl verkümmert, wenn wir Romane nur noch als KI-Zusammenfassung lesen, so könnte auch unsere Abstraktionsfähigkeit leiden, wenn Maschinen alle Matheprobleme für uns lösen. Wird künftig überhaupt noch jemand berechnen können, mit welcher Geschwindigkeit ein Ziel wann erreicht wird? Die Antwort gibt es in zehn Jahren.
Die Umfrage im Auftrag der ZEIT und der Universität Potsdam wurde vom Meinungsforschungsinstitut Forsa durchgeführt und von der Klaus Tschira Stiftung finanziell unterstützt.