Eine neue Studie zeigt, wie Studierende aus den Bereichen Medizin und Jura statistische Informationen besser verstehen können. Expertinnen und Experten beider Fachrichtungen stehen häufig vor der Herausforderung, auf Grundlage probabilistischer Evidenzen – also auf der Basis von Wahrscheinlichkeitsaussagen – Entscheidungen zu treffen. Eine falsche Einschätzung von Fragen wie beispielsweise „Wie wahrscheinlich ist eine tatsächliche Infektion bei positivem HIV-Test?“ oder „Wie zuverlässig weist ein Indiz auf die Schuld eines Angeklagten hin?“ kann dabei zu Fehldiagnosen bzw. -urteilen führen, die für die Betroffenen dramatische Konsequenzen haben können.
 

Ausgefüllter Doppelbaum zum Kontext “Corona-Schnelltest”. Copyright: Nicole Steib

 

Ein Team aus Mathematikdidaktikerinnen und -didaktikern der Universitäten Regensburg, Kassel, Freiburg, der PH Heidelberg und der LMU München hat in einer Studie mit insgesamt 515 Medizin- und Jurastudierenden verschiedene Wahrscheinlichkeitstrainings jeweils für Studierende beider Fachrichtungen verglichen. Die Ergebnisse des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts „TrainBayes“ wurden im Journal „Learning and Instruction“ veröffentlicht.

Wie verlässlich ist das Ergebnis eines Corona-Schnelltests?

Im Fokus der Studie standen insgesamt 14 diagnostische Situationen (sogenannte „Bayesianische Situationen“), wie folgendes medizinisches Beispiel illustriert:
„Stellen Sie sich vor, dass während der Corona-Pandemie zu einem bestimmten Zeitpunkt 1 % der Bevölkerung mit SARS-CoV-2 infiziert war. Eine Person führt nun einen Corona-Schnelltest durch. Bei einem solchen Test erhalten in der Regel 96 % der infizierten Personen auch tatsächlich ein positives Testergebnis. Aber auch 2 % der nicht infizierten Personen erhalten fälschlicherweise ein positives Testergebnis. Die Frage ist: Was bedeutet ein positiver Corona-Schnelltest in dieser Situation? Wie wahrscheinlich ist es nun, dass eine positiv getestete Person tatsächlich erkrankt ist?“

Vier verschiedene Trainingsprogramme

Um diese Situation zu verdeutlichen, haben die Autorinnen und Autoren der Studie mehrere didaktische Kniffe wie zum Beispiel das Übersetzen der Wahrscheinlichkeitsinformationen in ganze Zahlen sowie Visualisierungen angewandt und diese in vier verschiedenen Online-Trainingsprogrammen umgesetzt. Am besten schloss das Trainingsprogramm ab, bei dem mit konkreten Häufigkeiten und mit dem so genannten Doppelbaum zur Visualisierung der statistischen Informationen gearbeitet wurde.
Für das geschilderte Beispiel sah das wie folgt aus:

Zunächst kann man sich beispielsweise 10.000 getestete Personen vorstellen und die angegebenen Wahrscheinlichkeiten auf diese Stichprobe von Personen beziehen. So sieht man bereits: Von diesen 10.000 sind nur etwa 100 Personen infiziert (1 %). Die gegebenen statistischen Informationen bedeuten weiterhin, dass von den 100 infizierten Personen etwa 96 ein positives Ergebnis erhalten (96 %). Von den 9.900 gesunden Personen erhalten allerdings 198 ebenfalls ein positives Ergebnis (2 %). Somit sind von den insgesamt 294 positiv getesteten Personen (im „Doppelbaum“ gelb gefärbt) nur 96 tatsächlich infiziert – und dies entspricht knapp 33 % (≈ 96 dividiert durch 294). Ein positives Testergebnis ist also noch nicht unbedingt ein Grund zur Beunruhigung.
 

Konkrete Häufigkeiten und Doppelbaum eignen sich am besten

Dr. Nicole Steib von der Universität Regensburg, die Erstautorin der Studie, erklärt: „Die Übersetzung von Wahrscheinlichkeiten (2 %) in konkrete Häufigkeiten (198 von 9900), verbunden mit einem Doppelbaum, half den Studierenden am besten, vergleichbare diagnostische Situationen zu bearbeiten.“ Direkt nach dem Doppelbaumtraining liegt die Lösungsrate bei 70 % (im Vergleich zu 13 % vor dem Training). Auch nach ca. 8 Wochen konnte eine Lösungsrate von 56 % erzielt werden. 

Die in der Schule üblichen Wahrscheinlichkeitsbäume hingegen helfen vor allem Studierenden, die bereits über viel mathematisches Vorwissen verfügen. In dieser Gruppe liegt die Lösungsrate direkt nach dem Training bei 57 % und nach etwa 8 Wochen bei 36 %.
Darüber hinaus gibt es einen Unterschied in Bezug auf die beiden Studierendengruppen. Die Medizinstudierenden lösen bereits vor dem Training die Aufgaben besser als die Jurastudierenden. Dies ist ebenso in den weiteren Messzeitpunkten zu beobachten.

In einem ebenfalls von der Deutschen Forschungsgemeinschaft finanzierten Nachfolgeprojekt sollen die neuen Trainingsansätze nun auch in den Schulunterricht integriert werden.
 

Publikation:

Steib, N., Büchter, T., Eichler, A., Binder, K., Krauss, S., Böcherer-Linder, K., Vogel, M. & Hilbert, S. (2025). How to teach Bayesian reasoning: An empirical study comparing four different probability training courses. Learning and Instruction, 95,102032. https://doi.org/10.1016/j.learninstruc.2024.102032

Der Text entstand in Zusammenarbeit mit Frau Dr. Nicole Steib.

 

 

 

Kontakt:

Dr. Nicole Steib
Lehrstuhl für Didaktik der Mathematik
Universität Regensburg
Tel.: +49 (0)941 943 2785
E-Mail: nicole.steib@ur.de

 

Comments

No Comments

Write comment

* These fields are required