Unwiederholbare Experimente

BLOG: Gedankenwerkstatt

die Psychologie irrationalen Denkens
Gedankenwerkstatt

In den Naturwissenschaften gilt es als selbstverständlich, dass Experimente wiederholbar sein müssen. Wichtige, unerwartete und bahnbrechende Ergebnisse gelten erst dann als gesichert, wenn sie von wenigstens einer weiteren Forschergruppe bestätigt werden. In der Psychologie ist das anders, wie sich jetzt wieder einmal deutlich erwiesen hat. Was ist geschehen?

Deryl Bem, seines Zeichens emeritierter Psychologieprofessor der Cornell Universität in Ithaca im US-Bundesstaat New York, hat in der Zeitschrift Journal of Personality and Social Psychology eine Studie veröffentlicht, mit der er nachweisen wollte, dass es tatsächlich Präkognition gibt. Unter diesem Begriff versteht das Vorausahnen künftiger Ereignisse. Dies ist ein beliebtes Forschungsthema der Parapsychologie. Bisher gibt es Dutzende von Studien dazu. Interessanterweise finden diejenigen Wissenschaftler, die den Effekt nachweisen wollen, meist eine echte Präkognition an der Grenze zum statistischen Rauschen. Skeptiker hingegen finden ausschließlich Rauschen.

Präkognition kann kein besonders verbreitetes Phänomen sein, sonst würden beispielsweise die richtigen Lottozahlen häufiger getippt als statistisch zu erwarten ist. Dieser Effekt ist aber bisher nirgendwo festgestellt worden. Bei den vielen Millionen Lottospielern würde sich auch ein sehr kleiner Effekt gut nachweisen lassen.

Trotzdem: Deryl Bem ist ein anerkannter Wissenschaftler, und die Zeitschrift hat einen sehr guten Ruf. Sie veröffentlicht nur begutachtete Artikel und von den eingereichten Arbeiten lehnt sie einen Großteil ab. Aus eben diesem Grund erregte Bems Studie einiges Aufsehen. Der Autor muss vorausgesehen haben, dass er auf sumpfigem Gelände stand und schlug selber vor, dass andere Wissenschaftler seine Experimente wiederholen sollten.

Die englischen Psychologen Stuart Ritchie, Richard Wiseman und Chris French entschieden sich, das Angebot anzunehmen. Sie stellten alles gewissenhaft nach und fanden – nichts. Sie vermuteten, dass Bem einer Kombination von laxem Versuchsaufbau, voreingenommener Auswertung, Datenselektion und statistischer Ungenauigkeit aufgesessen war.

So weit, so gut. Irrtümer kommen immer vor, das kann man Bem nicht vorwerfen. Das eigentliche Drama aber begann erst jetzt. Das Journal of Personality und Social Psychology weigerte sich, die Arbeit überhaupt anzusehen. Begründung: Sie veröffentlichten keine Zweitstudien. Mit dem gleichen Argument lehnten die Journale Science und Psychological Science ab. Alle diese Zeitschriften ließen die Arbeit nicht einmal begutachten.

 

Überprüfung unerwünscht

Bei psychologischen Arbeiten, aber auch bei neurowissenschaftlichen Studien ganz allgemein hat sich die Unsitte breitgemacht, einmal veröffentlichte Arbeiten nicht zu wiederholen. Sie sind schließlich durch den Begutachtungsprozess gegangen. Mindestens zwei Kollegen haben als Gutachter bescheinigt, dass die Fragestellung sinnvoll, Methoden korrekt und die Ergebnisse plausibel sind. Außerdem könnte schließlich jeder billig an Veröffentlichungen kommen, indem er einfach nachkocht, was andere vor ihm mühsam ausgetüftelt haben. Und Veröffentlichungen sind die Währung, mit der man seine wissenschaftliche Reputation aufbaut. Also hätte das Verbot durchaus Sinn.

So einfach ist das natürlich nicht. Es gibt genügend neurowissenschaftliche Arbeiten, deren Methoden und Ergebnisse mindestens zweifelhaft sind. Das fängt schon bei der Praxis an, für Studien vorwiegend Psychologiestudentinnen zu rekrutieren und deren Verhalten dann auf das aller Menschen zu übertragen. Die meisten Universitäten verlangen von den Studenten der Psychologie, an psychologischen Studien teilzunehmen. Sie müssen sich die Teilnahme an einer gewissen Anzahl von Studien bescheinigen lassen. Warum Studentinnen? In den meisten westlichen Ländern sind zurzeit die Frauen unter den Psychologiestudenten in der Mehrheit, oft ist das Verhältnis größer als 80:20.

Auch für die Recherchen zu meinem Buch über das magische Denken habe ich sicher dreimal so viele Arbeiten lesen müssen, wie ich hinterher auswerten konnte, weil die übrigen zu wenig aussagekräftig waren, um als Beleg zu dienen.

Der renommierte amerikanische Psychologie Seymour Epstein hat im Jahre 1997 in seiner Rückschau „This I Have Learned from Over 40 Years of Personality Research“ diese Praxis beklagt. Zusammen mit einem Kollegen hatte er als junger Wissenschaftler einen allgemein anerkannten Effekt als Illusion entlarvt. Es erwies sich als extrem schwierig, diesen Befund zu veröffentlichen. Lediglich einen Kurzreport wollte der Herausgeber einer Zeitschrift schließlich gestatten.

Er führte das auf das menschliche Element in der Psychologie zurück. Er schrieb:

„Wissenschaftler, wie andere menschliche Wesen, werden von eigenen Interessen geleitet. Zu den wichtigeren gehören das Vorankommen in ihrem Bereich und damit verbunden die Erhöhung ihrer Selbstachtung und die Erhaltung ihres Selbstbilds.“

Wie ging es nur weiter mit der Arbeit von Ritchie, Wiseman and French? Das British Journal of Psychology schickte die Arbeit ins Gutachterverfahren, und lehnte sie ab, nachdem ausgerechnet Deryl Bem als Gutachter die Arbeit negativ bewertet hatte. Schließlich gelang es ihnen, sie in PloS One unterzubringen, einem Open-Access Journal. In der britischen Tageszeitung The Guardian hat Chris French die Odyssee ausführlich geschildert.

Aber vielleicht hat der ganze Ärger auch eine gute Seite: Die schlechte Praxis, Wiederholungen von Arbeiten auch dann nicht zu veröffentlichen, wenn sie die Ergebnisse wirksam infrage stellen, könnte endlich auf den Prüfstand kommen.

Derzeit werden Hirnforschung und die Psychologie von einem Wust an methodisch zweifelhaften und schlecht ausgewerteten Studien belastet, deren Ergebnisse es trotz allem in die Lehrbücher geschafft haben. Es wäre gut, wenn hier etwas aufgeräumt würde.

Literatur

Bem D (2001) Feeling the Future: Experimental evidence for anomalous retroactive influences on cognition and affect. Journal of Personality and Social Psychology, 100, 407-425.

Epstein S (1997) This have I learned from Over 40 Years of Personality Research. Journal of Personality. 65(1)

Epstein S, Burstein K (1966) A replication of Hovland’s study of generalization to frequencies of tone. Journal of Experimental Psychology 72, 782-784

Ritchie SJ, Wiseman R, French CC (2012) Failing the Future: Three Unsuccessful Attempts to Replicate Bem’s ‘Retroactive Facilitation of Recall’ Effect. PLoS ONE 7(3)

 

Avatar-Foto

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

16 Kommentare

  1. Neues Fach: Scientific psychology

    Die geschilderten Praktiken lassen Zweifel an der Wissenschaftlichkeit des ganzen Fachgebiets “Psychologie” aufkommen.

    Es wäre an der Zeit ein stärker naturwissenschaftlich orientieres Fachgebiet, etwas naiv “wissenschaftliche Pyschologie” genannt aufzubauen. Dieses Fachgebiet würde sich an den Naturwissenschaften orientieren und wäre in enger Beziehung zu Hirnforschung und anderen Biologie-nahen Wissenschaften.

  2. Unwiederholbar

    Es handelt sich dabei beileibe nicht nur um ein Problem der ~Wissenschaft der Psychologie. Man denke nur an die causa Jan Hendrik Schön. Und der ins Groteske anwachsende experimentelle Aufwand und Umstand bei der Suche nach so manchem Phänomen, z.B. dem dem Higgs-Boson, dürfte Nachvollziehbarkeit nahezu ausschließen.

  3. @jörg schütze

    Beim LHC gibt es mehrere Detektoren. Ausserdem arbeiten am CERN hunderte Wissenschaftler an einem Experiment. Die alten Hasen mit jungen Doktoranden. Vergleichen sie es mit einem Blognetzwerk. Auf einem Einzelautor Blog kann der Autor verzapfen was er will, bei einem Multiautor Blognetzwerk wie hier werden die anderen Autoren auch ein Minimum an wiss. Glaubhaftikeit und Methodenstringenz fordern, schon um ihren eigenen Ruf aufrecht erhalten zu können. Oft haben sich die Autoren ja auch schon ohne Kommentatoren von aussen lebhaft gestritten 😉 Thats’s Science. In der Psychologie sammeln ein paar Doktoranden Daten und in eine Einzelautorenpublikation gepresst. Den Fall Marc Hauser gabs ja auch in den Neurowissenschaften. Am CERN sind Gruppenpublikationen eher die Regel. Dass hier bei Daten und Auswertung stark getricktst wurde, so dass man die Daten nichtmal mehr ansatzweise reproduzieren kann, ist eher unwahrscheinlich.

  4. Nasobem

    Noch schwieriger wird es, wenn nicht nur Experimente, sondern auch einfache Beobachtungen nicht wiederholbar sind. Auf einer Südseeinsel lebten zahlreiche Arten der sonst nirgends vorkommenden Gattung der Rhinogradentia (Nasobeme, das Wort ist von Ch. Morgenstern). Sie wurden genau beschrieben; hier

    http://www.springer-spektrum.de/Buch/978-3-8274-1840-1/Bau-und-Leben-der-Rhinogradentia.html

    kann man sehen, wie sie aussahen. Aussahen, nicht aussehen, denn sie wurden durch einen Atombombenversuch der Amerikaner in den 50er Jahren vollständig und ohne Fossilien zu hinterlassen ausgerottet. Zum Glück wurden sie vorher von einem Zoologen entdeckt und genau beschrieben, und zum Glück fand der Forscher einen hochrenommierten wissenschaftlichen Verlag (Springer), der seine Arbeit publizierte.

  5. @Michael Ruttor

    “Dass hier bei Daten und Auswertung stark getricktst wurde, so dass man die Daten nichtmal mehr ansatzweise reproduzieren kann, ist eher unwahrscheinlich.”

    Aber wie häufig und an welchen Orten werden solche Experimente wiederholt, wenn überhaupt durchgeführt? Und wenn die Maschinen, die wir zum Erkenntnisgewinn offenbar zu benötigen meinen, so exorbitant komplex und damit tricky werden, daß selbst v_neutrino>c_vac in einer Vielmänner-Arbeit unter Umständen (objektive Datenlage ~aller Komponenten) möglich erscheint, spricht einiges dafür, über die logischen Umstände und Einschränkungen dieses Viel-hilft-viel (brute force-) Ansatzes zumindest nachzudenken.

  6. Nicht-Reproduzierbarkeit nur Teilproblem

    Viele Kommentatoren haben sich vor allem mit dem Titel dieses Beitrags Unwiederholbare Experimente beschäftigt. Doch im Beitrag selbst werden von Thomas Grüter noch viel schwerere Vorwürfe gegen die Arbeitsweise der (vieler) publizierenden Psychologen und ihrer Reviewer erhoben.

    Hier noch einmal ein paar Passagen von oben, um die weitergehenden Aussagen dieses Beitrags ans Licht zu stellen:

    Thomas Grüter:
    Das eigentliche Drama aber begann erst jetzt. Das Journal of Personality und Social Psychology weigerte sich, die Arbeit [Widerlegung einer Vorgängerarbeit] überhaupt anzusehen.

    Das wäre vergleichbar damit, dass eine Arbeit, die den Fehler bei den supraluminalen Neutrinos aufdeckt, abgelehnt würde, weil sie nur eine Wiederholung der ursrpünglichen Arbeit war.

    Thomas Grüter:
    Es gibt genügend neurowissenschaftliche Arbeiten, deren Methoden und Ergebnisse mindestens zweifelhaft sind. Das fängt schon bei der Praxis an, für Studien vorwiegend Psychologiestudentinnen zu rekrutieren und deren Verhalten dann auf das aller Menschen zu übertragen.

    Das wäre vergleichbar mit Thromboemboliestudien bei Medizinstudenten. Daraus auf Thromboembolien bei der Gesamtbevölkerung zu schliessen würde jedem Mediziner hanebüchen vorkommen.

    Schliesslich noch die Beurteilung Thomas Grüters über das eigentliche Ziel von Publikationen mit psychologischen Themen:
    Zusammen mit einem Kollegen hatte er [Seymour Epstein] als junger Wissenschaftler einen allgemein anerkannten Effekt als Illusion entlarvt. Es erwies sich als extrem schwierig, diesen Befund zu veröffentlichen. Lediglich einen Kurzreport wollte der Herausgeber einer Zeitschrift schließlich gestatten.

    Er führte das auf das menschliche Element in der Psychologie zurück (Aufbau von Reputation unabhängig vom “Wahrheitsgehalt” der Studie)

    Das ist vergleichbar mit dem Akzeptieren von wissenschaftlichen Arbeiten vor allem darum weil sie sich an die im Fachgebiet üblichen Standards halten, obwohl der Inhalt der Arbeit mehr als fragwürdig ist.

    Meine Behauptung: Thomas Grüter stellt den Review-Prozess bei Publikationen von Psychologie-Arbeiten generell in Frage und kommt zum Schluss, dass viele Publikationen, die den Review-Prozess passiert haben, nichts wert sind.

    Nun soll mir mal jemand das gleiche von Publikationen in naturwissenschaftlichen Fachgebieten nachweisen.

  7. Sokal-Affäre und Transparenz

    @Holzherr Zustimmung. Der Naturwissenschaftler Alan Sokal hatte sich darüber ja auch schon mal wirksam lustig gemacht. Aber einen Lerneffekt gabs leider/natürlich nicht.

    http://en.wikipedia.org/wiki/Sokal_affair

    Auch sind in der Physik eben viele Messvorschriften eindeutig definiert und durch Nachbartheorien millionenfach verifiziert. Am CERN wird ja nicht nur die Elementarteilchentheorie getestet, die Detektoren fussen hptsl. auf Festkörperphysik, Elektrodynamik, Quantentheorie. Diese Theorien sind in den Stein gemeisselt im Gegensatz zu den meisten psych. Hypothesensammlungen.

    @Schütz

    Am CERN sind sie wenigstens so transparent zu sagen, öffentlich, das die Messresultate merkwürdig anmuten, während die Psychologen scheinbar einfach nur ihre Deutungen/Interpretationen der Datensätze an den Mann bringen wollen, dass ihre Erkenntnisse industriell in einer Technologie falsifiziert werden weil nicht reproduzierbar, die Gefahr haben sie leider ja sowieso nicht. Und wenn man sich die Mühe macht es zu reproduzieren (ist in der Physik Gang und Gebe das gleiche Systeme von versch. Gruppen untersucht werden und Gruppen gegenseitig ihre Messresultate zitieren und vergleichen), dann nimmt kein Journal die Publikation an. Die Aufgabe des Reviewers ist zu filtern und wiss. Standard der Arbeit festzustellen/garantieren. Datenvergleich findet zwischen den Arbeitsgruppen statt, damit auch Dritte das nachvollziehen können. Aber dazu müssen ähnliche Arbeiten eben publiziert werden können. Sonst wird das nix…

    Zum Fall Hendrik Schön muss man sagen, dass dieser aber auch entlarvt wurde, es ist ja nicht die Aufgabe des Reviewer, denn Versuch nachzubauen, ohne ein Mindestmass an Leumund und Vertrauen funktioniert die Pubklikationslandschaft nicht. Wer einmal lügt, … und wer in der Physik bahnbrechende neue exp. Ergebnisse frisiert, fliegt innerhalb einer Dekade auf, allein weil scon eine Industrie dranhängt die versucht jede Neuerung als funktionierendes Produkt umzusetzen. In der Geisteswissenschaft gibts aber eben keine echte Konkurrenz zw. Forschern, solange man nur den Doktorvater überzeugen muss, hat man eben nicht viel zu befürchten wenn man nicht gerade wie Marc Hauser an forderster Forschungsfront auf dem Drahtseil tanzt.

    Wieso sollte man die Experimente am CERN nochmal aufbauen woanders, in der Physik gibts im Gegensatz zur Psychologie eindeutige Messvorschriften für bestimmte Observable. Der LHC ist eine reduktionierbare Messapparatur die aus tausenden einzelnen, sehr gut verifizierten, kleineren Messapparaturen besteht. Natürlich kann mal ein Kabel kaputtgehen, man hats ja rausgefunden (das sich die Massenmedien darüber lustig machen geschenkt, der LHC hat eben mehr Aufmerksamkeit als die ganze Psychologie zusammen). Wo ist also das Problem, die Komplexität lässt sich durch Zeit und Geduld meist überwinden, aber das ist kein grundsätzlicher Grund die Validität der Ergebnisse in Frage zu stellen. Ein einzelner Mensch ist doch viel komplexer als der LHC, sonst könnten wir wohl alle psych. Krankheiten längst heilen. Das Versuchobjekt Mensch kann man aber leider nicht zerteilen, aber da Psychologiestudenten als Versuchkaninchen überall ähnlich sein sollten scheint bei der Operationalisierung oder der Auswertung der Daten was gründlich schief gelaufen zu sein. Oder das Experiment hat gar nicht stattgefunden ala Hendrik Schön.

  8. @Michael Ruttor

    “Der LHC ist eine reduktionierbare Messapparatur die aus tausenden einzelnen, sehr gut verifizierten, kleineren Messapparaturen besteht.”

    … und man hat alle Daten öffentlicht gemacht und schließlich den Fehler gefunden – Ich gebe Ihnen prinzipiell gern recht. Daß ein wesentlicher systemischer Unterschied zwischen der Physik und der Psychologie besteht, steht wohl außer Frage.

    Andererseits erweist sich, daß jede “kontemporäre Physik” auch stets Spiegel der jeweiligen Kultur, Soziologie war.

    Wer heute der Überzeugung ist, daß es riesiger dynamischer Apparaturen wie CERN, mit tausenden einzelnen, sehr gut verifizierten, kleineren Messapparaturen bedarf, um tiefer in die Wahrheit schauen zu können, läuft Gefahr, seine Ontologie der Fortschritte der Ingenieurwissenschaft zu überlassen und vertraut auf Linearität bei wachsender Komplexität ihrer Maschinen. Das ist dann beinahe wieder Psychologie.

  9. Peer Review

    Mein Artikel richtet sich nicht gegen den Peer Review, sondern gegen die Weigerung von Zeitschriften, Wiederholungen von Experimenten zu veröffentlichen. Der Gutachterprozess (peer review) ist durchaus sinnvoll. Die Gutachter können natürlich nur beurteilen, ob die Fragestellung sinnvoll ist, die Methode brauchbar und das Ergebnis plausibel ist. Sie können in den meisten Fällen keine Fälschungen entlarven. Zu den Nebenwirkungen des Gutachterverfahrens gehört natürlich auch, dass Zitierringe sich gegenseitig sinnvolle Arbeiten bescheinigen können, obwohl der wissenschaftliche Wert zweifelhaft ist. Auch Privatfehden werden natürlich mit Hingabe und Ausdauer gepflegt. Grundsätzlich ist das Verfahren aber durchaus nützlich. Es wäre vielleicht zu überlegen, ob man die Anonymität der Gutachter aufhebt oder die Gutachten über Internet zugänglich macht, wenn der Artikel veröffentlicht wird.
    Weil aber auch ein Gutachterverfahren nicht verhindern kann, das falsche Daten veröffentlicht werden, sollten kritische Überprüfungen einer Arbeit ebenfalls eine Chance auf Veröffentlichung erhalten. Derzeit ist das außerordentlich schwierig.

  10. Peer Review notwendig oder hinreichend

    Ob Peer Review notwendig oder hinreichend ist um wiss. hohe Qualität zu generieren und Betrug zu unterbinden, ist ja gerade im Zuge des Elsevier-Boykotts eine heiss diskutierte Frage unter Wissenschaftlern. Wobei das wohl nach Wissenschaftsdisziplin gesondert betrachten muss. Die Physiker kommen bei arxiv.org auch ohne aus, aber wie ich oben erklärt habe, gibt es da eben noch ganz andere industrielle und fachbedingte Überprüfungsmechanismen (imho weitaus stärker als Peer Review) bei denen jeder Betrug zu einer tickenden Bombe für die eigene Reputation wird.

    Die Geisteswissenschaften, die mit techn. und marktwirtschaftlichen Mechanismen nicht verzahnt sind, können offensichtlich die Geltungssucht einzelner selbsternannter Chorephäen nicht mehr ausgleichen über den Peer Review. Wie die mehreren Plagiate bei deutschen Politikern gezeigt haben scheint hier aber nicht mal ein richtiger Peer-Review Prozess oder Begutachtung seitens der Doktorväter stattzufinden.

    Als ich vor kutzem las, dass aufgrund einer Änderung der Krankheitsdefinitionen viele psychische Störungen als Depression und damit Krankheit eingestuft werden, kam natürlich die Frage nach der Wissenschaftlichkeit dieser Befunde auf (die auch von manchen Experten dieses Faches bezweifelt wird). Dahinter stehen riesige Gesundheitskosten/-gewinne auf einem methodisch-wiss. schwachen Fundament. Ihr Artikel bestärkt mich darin leider nur mehr, hoffen wir, dass in der med. Psychologie/Psychatrie weniger getrickst wird, oder besser gesagt werden kann.

    Es ist ja nicht so, dass die Physiker den höheren wiss. Kodex haben, Gelegenheit schafft Diebe…

  11. Ein allgemeines Problem

    Der Berliner Schlaganfall-Forscher Prof. Dr. Ulrich Dirnagl hat das Problem als Editor des Journal of Cerebral Blood Flow and Metabolism kürzlich angesprochen: http://camarades.info/index_files/Dirnagl.pdf.

    Fehlende Replikation und Replizierbarkeit ist definitiv kein psychologie-internes Problem!

  12. Peer Review ein Qualitätsel.unter andern

    Dieser Beitrag von Thomas Grüter Unwiederholbare Experimente geht in seiner Kritik an Publikationen mit psychologischen Themen weit über den Titel hinaus. Es geht also nicht nur um fehlender Reproduzierbarkeit bezugsweise die Unmöglichkeit ein Korrekturpaper einzureichen, sondern darum, dass viele psychologische Publikationen nur vordergründig wissenschaftlich sind. Nur so erklärt sich folgende Passage von Thomas Grüter: Es gibt genügend neurowissenschaftliche Arbeiten, deren Methoden und Ergebnisse mindestens zweifelhaft sind. Das fängt schon bei der Praxis an, für Studien vorwiegend Psychologiestudentinnen zu rekrutieren und deren Verhalten dann auf das aller Menschen zu übertragen.

    Der zweite Teil meiner in einem früheren Kommentar aufgestellten Behauptung trifft eben zu:
    [Thomas Grüter ]kommt zum Schluss, dass viele Publikationen, die den Review-Prozess passiert haben, nichts wert sind.

    Allerdings kann man dies nicht einfach und nur dem Review-Prozess anlasten. Dagegen hat sich Thomas Grüter ja auch in einem Kommentar verwahrt.

    Dennoch schätzt der Kommentator Michael Ruttor die Situation im wesentlichen korrekt ein und seine Bezugnahme auf die Sokal-Affäre ist gerechtfertigt. Michael Ruttor hat übrigens auch eine gute Erklärung parat für die desolate Situation, was die Publikation von fragwürdigen Studien in der Psychologie angeht:
    Es ist ja nicht so, dass die Physiker den höheren wiss. Kodex haben, Gelegenheit schafft Diebe…

    Und Psychologen haben wirklich fast unendliche Möglichkeiten irgend eine These aufzustellen und daraus ein Paper zu generieren. Der Review-Prozess kann da nicht viel korrigieren. Es liegt wohl am Fach selbst.

  13. @Christian Hoppe

    Vielen Dank für den Link. Nein, das Problem fehlender Überprüfung oder gar Überprüfbarkeit ist sicher kein exklusives Problem der Psychologie und der Gehirnforschung. Eigentlich sollte es Bedingung der Veröffentlichung werden, dass die Forscher den Versuchsaufbau bzw. das Studiendesign und die Rohdaten auf einem geeigneten Server hinterlegen müssen. Aber ehrlich gesagt habe ich meine Zweifel, dass man das durchsetzen kann.

  14. @Grüter Peer-Review Wiederholung

    Wir sind uns ja alle nicht uneining, aber vielleicht werden von den Herausgebern dieser “hochwertigen” Journale, gerade deswegen keine Wiederholungen publiziert/zugelassen, weil man sonst schnell merken würde, dass der ganze Peer-Review-Prozess in diesen Wissenschaftsgebieten reichlich nutzlos ist und durch Open Access im Grunde die gleiche Qualität (oder sogar höhere weil mehr Konkurrenz) erreicht würde? Dann sägt man sich aber selbst den Ast ab. Die Gewinnspannen von Elsevier sind ja bekannt. In einem Open Access System müsste der Autor der ursprünglichen Studie, nämlich dann ganz schnell auf diese widersprechende Wiederholung reagieren (Datensätze ausgeben, etc), da die Wiederholung ganz einfach auf gleichfrequentierten arxiv.org ähnlichen Portalen für geisteswiss. Publikationen verlinkt werden könnte zu dieser Studie.

    Es ist ja im Grunde wirklich unglaublich, da haben wir nun das Internet indem man jede Information jedem zugängig machen könnte, aber selbst widersprechende Daten von anderen Forschern, die sich zeitaufwendig die Mühe machen nur das zu testen, können nur igendwo im Nirvana publiziert werden, wo keiner Notiz nimmt. Zumal die meisten Journale ja eh schon grösstenteils online veröffentlichen. Das Verlinken von solchen Zweit-Studien wäre also ein leichtes und höchstproduktiv für die scientifc community ingesamt.

    Wenn die Wissenschaft selbst sich gegen Fortschritt stellt, kann man nur stutzig werden. Vielleicht wagt sich ein wiss. Blogautor ja mal an die These, dass das Internet Peer-Review (das in vergangenen Dekaden der Print-Publikation sicherlich notwendig war!) obsolet bzw. nahezu nutzlose macht und es fast nur noch zur Besitzstand- und Reputationswahrung älterer Wissenschaftler dient. Das ist mit Sprengstoff beladen, aber scheint mir nicht steiler, als dass der Peer-Review gerade in Geisteswissenschaften (immer) noch einen essentiellen Zweck hat. Wozu nützt Peer-Review noch, oder besser, welche alternativen Systeme verhindert er eventuell? Bei den meisten Elsevier-Boykottieren scheint der Gedanke zu keimen, dass nur durch alternative Systeme/Systemsturtz und Neubau, beim von einigen immer noch gewünschten Peer-Review-System signifikante Modifikationen induziert werden können.

  15. Selbsterfüllende Proph. als Präkognition

    Präkognition auf die Lottothematik angewendet führt in die Irre. Denn die Lottozahlen werden durch einen maschinellen Zufallsprozess ausgewählt, den man niemals auch nur irgend kognitiv oder aus einem Bauchgefühl heraus vorhersagen kann.
    Anders steht es mit bestimmten alltäglichen Begebenheiten, die aus einer Art Erfahrungssystematik heraus schon mal treffsicher prophezeit werden können.

    Es ist also nicht gleich, welcherart Vorhersage man vornimmt. Dann aber entsteht immer die Tendenz, die Ergebnisse nachträglich wissenschaftlich zu erklären (also im Zweifel mit statistischen Rauschen)…vielleicht aber reichen wissenschaftliche Erkenntnisse darin bisher noch nicht aus.

    Interessant aber ist die Aussage, dass diejenigen Wissenschaftler, die den Effekt nachweiden wollen auch einen finden und Skeptiker hingegen nicht. Und auch, wenn das Ergebnis im statistischen Rauschen sich befindet – Wenn es denn so ist, dass die Positiven Ergebnisse überwiegend von Wissenschaftlern stammen, die der Präkognition wohlgesonnen sind, dann müsste sich hierbei schon der Schlüssel zum Ergebnis und zur möglichen Präkognition befinden. Nämlich die selbsterfüllende Prophezeiung. Diese ist dann ja schon eine Art Präkognition – wenngleich nur von bestimmten Personen durchführbar.