Hat Kommunikationstraining keinen Effekt bei Wissenschaftler*innen? Margaret Rubega hat mit einem amerikanisch-kanadischen Forschungsteam Praxis-Seminare an einer Universität konzipiert und evaluiert. Das Ergebnis ihrer Studie legt nahe, dass Studierende Schwierigkeiten haben, Gelerntes in die Praxis umzusetzen.
„Auch Tennis lernt man nicht, indem man darüber redet“
Frau Rubega, was war der Ausgangspunkt Ihrer Studie?
Unser Ausgangspunkt war, dass es viele unterschiedliche Arten von Trainings zum Thema Wissenschaftskommunikation gibt, aber keine anerkannte Methode, diese miteinander zu vergleichen. Ich unterrichte seit mehr als zehn Jahren Doktorand*innen im Bereich der Wissenschaftskommunikation. Als ich damit anfing, war das noch nicht so verbreitet. Inzwischen gibt es sogar Wettbewerbe, bei denen Leute ihre Dissertationen tanzen. Auch mit Improvisationstechniken aus dem Schauspiel wird gearbeitet. Es ist schwer zu beurteilen, was davon tatsächlich funktioniert. Genau das aber möchten wir wissen, wenn wir Menschen unterrichten. Wir dachten, der beste Weg sei, Außenstehende zu befragen, ob sie denken, dass die Studierenden gut kommunizieren. Wenn Menschen das sagen, die keine Spezialist*innen sind, ist das das beste Urteil. Das Publikum hat das letzte Wort.
Um den Erfolg von Kommunikationstrainings zu messen, haben Sie für die University of Connecticut eine Lehrveranstaltung konzipiert, die Sie in den beiden darauffolgenden Jahren wiederholten. Was war Inhalt des Kurses?
Es war ein 15-wöchiger Kurs für Doktorand*innen aus MINT-Disziplinen, also Mathematik, Informatik, Naturwissenschaft und Technik. Diese haben sich zweimal in der Woche für anderthalb Stunden getroffen. Im Kurs selbst haben wir einschlägige Literatur über Wissenschaftskommunikation gelesen, zum Beispiel zur Vertrauenswürdigkeit der kommunizierenden Personen. Wir haben Übungen zum Kommunikationsverhalten von Wissenschaftler*innen und zum Thema Framing gemacht. Zusätzlich haben die Teilnehmer*innen zweimal Probe-Interviews mit Journalismus-Studierenden über ihre Forschung geführt. Die Interviews wurden gefilmt und der Klasse gezeigt. In einem Feedback-Prozess haben wir versucht herauszufinden, was die Journalist*innen verstanden haben und was sie verwirrend fanden.
Wie haben Sie gemessen, was die Studierenden in dem Kurs gelernt haben?
Am Anfang des Kurses haben wir sie gefragt: „Wie würden Sie jemandem, der kein*e Wissenschaftler*in ist, erklären, wie Wissenschaft funktioniert? Sie haben drei Minuten Zeit, sprechen Sie in die Kamera.“ Dieselbe Aufgabe haben die Studierenden am Ende des Semesters bekommen. Wir hatten erwartet, dass sie beim zweiten Mal alles anwenden, was sie im Kurs gelernt haben. Wir hatten auch eine Kontrollgruppe von Doktorand*innen, die nicht im Kurs waren. Die Kontrollgruppe hat am Anfang und am Ende des Semesters die gleiche Aufgabe bekommen. Die Filmaufnahmen der beiden Gruppen haben wir dann Bachelor-Studierenden gezeigt. Zu der Filmaufnahme, die die Kursteilnehmenden machen sollten, gab es keinen Input von uns – abgesehen von dem, was wir im Unterricht gelehrt hatten.
Laut der Bewertungen durch die Studierenden gab es keine großen Unterschiede zwischen den Kursteilnehmenden und der Kontrollgruppe. Was bedeutet das?
Zuerst einmal: Wir glauben nicht, dass die Studierenden nichts in dem Kurs gelernt haben.
Sicherlich wissen sie auf einer intellektuellen Ebene, was wichtig ist, wenn sie mit der Öffentlichkeit kommunizieren. Was die Ergebnisse aber zeigen, ist, dass sich ihr Verhalten zu wenig ändert, wenn das darum geht, aktiv zu kommunizieren. Die Zuschauer*innen bewerten die Videos vom Ende des Kurses nicht viel anders als jene, die am Anfang des Semesters aufgenommen wurden. Das ist so, als wenn ich nach 15 Wochen Tenniskurs den Ball immer noch nicht übers Netz spielen kann. Die Leute, die den Kurs nicht besucht haben, konnten den Ball auch nicht übers Netz schlagen. Aber sie haben auch keine Zeit investiert, um es zu lernen. Was auffällt, ist, dass es nicht gelingt, das Gelernte so in die Praxis umzusetzen, dass das Publikum etwas davon bemerkt.
Wie wurde denn bewertet?
Denken Sie, dass die Ergebnisse anders aussehen würden, wenn es einen stärkeren Zusammenhang zwischen der Aufgabenstellung und den Kursinhalten gegeben hätte?
Das ist eine gute Frage. Es gab einen Zusammenhang zwischen dem Kursinhalt und der Aufgabe, die die Studierenden bekamen. Wir hätten auch Übungen aus dem Kurs nehmen können – Interviews oder schriftliche Aufgaben – und diese dann von den Zuschauer*innen bewerten lassen. Aber zu diesen Aufgaben hatten die Studierenden schon Feedback von uns bekommen. Unsere Expertise steckte dort also schon drin. Der Beweis dafür, dass jemand etwas gelernt hat, ist erbracht, wenn er*sie eine Aufgabe bewältigt, die zwar in Beziehung zum Unterrichtsstoff steht, sich aber davon unterscheidet. Wir haben die Frage nach der Funktionsweise von Wissenschaft gewählt, weil sie sich nicht auf eine bestimmte Disziplin bezieht. Hypothetisch sollte sie jede*r der Kursteilnehmenden mit den Tools aus dem Kurs beantworten können.
Ist es vielleicht ein zu großes Ziel, über Wissenschaft im Allgemeinen sprechen zu können?
Ich glaube, es geht nicht darum, allgemein über Wissenschaft zu reden. Es geht darum, über das Gebiet zu reden, in dem man Expertise hat. Wenn du als Wissenschaftskommunikator*in etwas gefragt wirst, was du nicht weißt, dann solltest du sagen: Das weiß ich nicht. Aber alle Wissenschaftler*innen sollten wissen, wie der wissenschaftliche Prozess funktioniert. Es ist wichtig, dass wir bewerten, ob das, was wir mit Studierenden tun, funktioniert oder nicht. Wenn wir nur annehmen, dass es funktioniert, ist das keine gute Art, Zeit und Ressourcen einzusetzen. Ich denke, die Ergebnisse legen nahe, dass Studierende viel mehr Übung brauchen, als wir denken. Auch Tennis lernt man nicht, indem man darüber redet. Man lernt es, indem man immer und immer wieder versucht, den Ball übers Netz zu bekommen.
Was zeigen Ihre Ergebnisse noch?
Die Ergebnisse Ihrer Studie zeigen auch, dass die Studierenden sich selbst besser bewerteten, als es die Zuschauer*innen taten. Was bedeutet das für die Wissenschaftskommunikation?
Diese Beobachtung kennen wir schon seit Jahrzehnten aus anderen Bereichen. Wenn man am Ende eines Trainings fragt: „Wie war es? Glaubst du, dass du jetzt besser bist?“, kann man davon ausgehen, dass Leute dazu tendieren, sich zu überschätzen. Das ist problematisch, aber weit verbreitet. Solche Befragungen sind ein einfacher Weg, um zu erfahren, wie das Training lief. Leider ist das, was du wirklich wissen willst nicht, was Leute glauben, gelernt zu haben. Es ist zwar auch wichtig, dass Menschen aus dem Training kommen und für das Thema brennen. Aber wenn man wissen will, ob sie danach bessere Kommunikator*innen sind, muss man das Publikum fragen.
In Ihrer Studie untersuchen Sie eine Stichprobe von insgesamt 30 Kursteilnehmer*innen und 30 Personen in der Kontrollgruppe. Ist das genug, um daraus Schlussfolgerungen zu ziehen?
Was wären mögliche Schlussfolgerungen aus den Ergebnissen?
Ich weiß nicht, was die Lösung sein könnte. Ich habe nur die Vermutung, dass Praxis wichtig ist und wir mehr davon brauchen. Für mich ist unklar, ob man in einem so kurzen Zeitraum genug Praxis bekommen kann, um einen großen Effekt zu erzielen. Das müssen wir erforschen. Wir glauben, das wichtigste Ergebnis der Studie ist, dass wir, die wir Wissenschaftskommunikator*innen ausbilden, mehr darüber sprechen müssen, was wir tun, wie wir es tun und wie wir feststellen, ob wir damit Studierende zu besseren Wissenschaftskommunikatikator*innen machen.
Haben Sie weitere konkrete Forschungsfragen?
Rubega, M., Burgio, K. R., MacDonald, A. M., Oeldorf-Hirsch, A., Capers, R. S., Wyss, R. (2021). Assessment by Audiences Shows Little Effect of Science Communication Training. Science Communication. https://doi.org/10.1177/1075547020971639