Laborjournal 2018-11

| 11/2018 20 SERIE „DurchWetten dieWissenschaft retten?“ Die- se Frage stellte der US-ÖkonomRobin Hanson mit einem Artikel des Jahres 1995. Er schlug darin vor, den klassischen Review-Prozess durch eine Markt-basierte Alternative zu er- setzen: Statt Peer Review könntenWetten darü- ber entscheiden, welche Projekte gefördert werden oder welche wissenschaftlichen Fra- gestellungen priorisiert werden. In diesen sogenannten PredictionMarkets (Prognosemärkten) handeln Individuen mit „Wetten“, die auf ein bestimmtes Resultat oder Ergebnis setzen. Je mehr Leute auf einem sol- chenMarktplatz handeln, umso genauer wird die Vorhersage des Ergebnisses, welche letzt- lich auf der aggregierten Information der Teil- nehmer basiert. Der Prognosemarkt bedient sich also der Schwarmintelligenz. Bei Sportwetten und Wahlprognosen kennt man das schon. Aber taugt es für die Wissenschaft? Klingt total verrückt, ist es aber nicht!Tatsächlich finden solche Konzepte gera- de Eingang in einige Sparten derWissenschaft. Wie funktioniert’s also, und was ist dran? Ausgangspunkt von Hansons Überlegun- gen ist die gängige und ernstzunehmende Kri- tik an der Art undWeise, wiewir Forschungsar- beiten beurteilen und Förderentscheidungen treffen – nämlich, dass Peer Review zu Risiko- averser Mainstream-Forschung führe und da- her innovationsfeindlich sei, dass er zum Sto- ry Telling anrege, und dass er Außenseiter dis- kriminiere wie auch bereits Erfolgreiche favo- risiere („Matthäus-Effekt“). Für Hanson stellt sich daher die Frage, wie Konsens über dieWertigkeit oder Innovation von Forschung gefunden werden kann, oh- ne sich auf ein paar Meinungen von „Peers“ mit all deren Bias und persönlichen Interes- sen verlassen zumüssen. Seine Antwort: Ana- log zu Sportwetten könnteman doch eine viel breitere Basis von Experten auf den Erfolg ei- nes geplanten Projektes oder die Richtigkeit eines Befundes wetten lassen. Je nach Fra- gestellung könnte man auch Nicht-Experten mitspielen lassen – und damit für Partizipa- tion und gesellschaftlichen Konsens sorgen. Letztlich schlägt er damit eine Art Crowdsour- cing von Konsensbildung vor – und dies mit einem spielerischen Element! Dass so etwas in derWissenschaft tatsäch- lich funktionieren kann, zeigen einige neu- ere Arbeiten, in denen die erwähnten Predic- tionMarkets (Prognosemärkte) eingesetzt wur- den. Dabei ging es zum Beispiel um die Vor- hersage, ob eine Studie replizierbar sein wer- de oder nicht. Konkret geht das so: Die teilnehmenden Wissenschaftler erhalten hundert Spielmar- ken (manchmal auch echtes Geld), mit denen sie dann auf den Replikationserfolg setzen. Sie würden verstärkt auf Studien setzen (das heißt: Lose kaufen), von denen sie glauben, dass sie erfolgreich wiederholt werden kön- nen. Umgekehrt würden sie diejenigen Stu- dien meiden, denen sie das nicht zutrauen. Durch Kauf und Verkauf von Losen stellt sich auf diesem Markt ein Preis für die Lose ein (in Spielmarken oder echter Währung). Die- ser Preis reflektiert dieWahrscheinlichkeit, mit der die Marktteilnehmer an die Replizierbar- keit der Studie glauben. Dieses Verfahren wurde in einer eben veröffentlichten Publikation eingesetzt. Dar- in wurden 21 Studien aus der Psychologie wiederholt, die zwischen 2010 und 2015 in Nature oder Science erschienen waren. Zuvor konnte ein Gruppe von Studenten und Wis- senschaftlern, die nicht an den Replikations- studien beteiligt und nicht einmal notwendi- gerweise als Experten in den jeweiligen Fel- dern ausgewiesen waren, durch Setzen ihrer Spielmarken Lose kaufen und damit auf die Replizierbarkeit jeder der 21 Studien wetten. Das Ergebnis: Die„Spieler“ sagten nahezu per- fekt voraus, welche Studien nachfolgend er- folgreich repliziert wurden und welche nicht wiederholbar waren. Mit einer Vergleichsgruppe wurde eine klassische Befragung durchgeführt: „Glau- ben Sie, dass Studie X oder Y wiederholbar Mit schlichten Wetten die Wissenschaft retten? Einsichten eines Wissenschaftsnarren (15) Ulrich Dirnagl leitet die Experimentelle Neuro- logie an der Berliner Charité und ist Gründungsdirektor des QUEST Center for Transforming Biome- dical Research am Berlin Institute of Health. Für seine Kolumne schlüpft er in die Rolle eines „Wis- senschaftsnarren“ – um mit Lust und Laune dem Forschungsbe- trieb so manche Nase zu drehen. Foto: BIH/Thomas Rafalzyk »„Exzellenz“ könnte man auch gut durch Wetten selektieren.« Könnte man mit Wetten statt Peer Review entscheiden, welche Projekte gefördert werden sollen? Die Bilanz würde womöglich besser werden.

RkJQdWJsaXNoZXIy Nzk1Nzg=