@TajnaOh je, da weiss man garnicht, wo man anfangen soll / will / sich genoetigt fuehlt zu tun.
Schauen wir mal auf deine Liste ...
Fuer die Meta-Analyse von 1985 gabs Feuer, daher kam 86 das gemeinsame Essay von Hyman und Honorton. Deine Zusamenfassung ist herzallerliebst. Es liege Einigkeit ueber hochsignifikante Resultate vor. Tatsaechlich lag Einigkeit ueber die Fehleranfaelligkeit vor, Herzchen, die Experimente sollten zukuenftig sauberer ablaufe um Hymans Kritik zu begegnen. Aber das mal am Rande. Deswegen taten die zwei Burschen sich ja auch zusammen. Hyman ist bis heute Kritiker der Sache.
Danach kommt Bem & Honorton 1994. Ich weiss, ich weiss, die Namen stehen tatsaechlich drauf, aber dir ist doch hoffentlich bewusst, dass das in erster Linie Bem war, oder? Honorton war da seit 2 Jahren tot. Honorton war nach der Kritik durch Hyman damals durchaus an einer Aufklaerung interessiert, die witzigen Ergebnise kamen vermutlich durch Bem zustande, der damals schon extrem ... nuja ... "biased" war.
Naja ...
Spannend ist, dass deine Liste 2001 endet. Wo ist der Rest? Hoert die Geschichte da schon auf?
Hattest du mir nicht vorgeworfen, in der Vergangenheit festzuhaengen?
Storm, Trissoldi und Risio kamen vor 6 Jahren mit einer weiteren Meta-Analyse um die Ecke gesch...krochen.
Dafuer gab es direkt wieder Feuer von einem alten Ganzfeld-Fan.
https://www.researchgate.net/publication/44689724_Meta-Analysis_That_Conceals_More_Than_It_Reveals_Comment_on_Storm_et_al_2010Nett geschrieben von Hyman (weisst schon ... der Hyman vom Anfang) - weniger nett fuer die ganzigen Esos jedoch.
Es finden sich ein paar nette Saetze darin:
(nachdem Storm die Ganzfeld-Experimente als konsistent und zuverlaessig bezeichnete)
Some major parapsychologists argue that the
evidence in their field is inconsistent, unreliable, contradictory,
and elusive (Atmanspacher & Jahn, 2003; Bierman, 2001;
Kennedy, 2001, 2003; Lucadou, 2001). If the ganzfeld is, indeed,
“one of the most consistent and reliable experimental paradigms in
parapsychology,” it is unclear whether this should impress the
scientific community.
Das mal nur so zum Spass. Hier im Forum erzaehlt ja auch jeder, dass das ja alles nicht so funktioniert und irgendwelche Hilfsgeister
immer nicht so wollen, wenn sie mal ihre Tage haben. Die Ausreden sind echt in der ganzen Szene gut verbreitet.
Aber mal inhaltlich:
Indeed,
parapsychology’s Achilles’ heel is its persistent inability to come
up with even one example of prospective replicability. Unfortu-
nately for Storm et al. (2010), the outlook for their current solution
to this problem is not promising. The reason I say this is that an
experiment that meets the authors’ requirements has already been
conducted and failed.
Er bezieht sich (geht weiter aus dem PDF hervor) auf AutoGanz2 (Broughton, Alexander), das Bems Autoganz replizieren sollte und klaeglich scheiterte. Das Ergebnis passt zu Zufall. Bloed sowas.
Warum das interessant ist? Weil AutoGanz2 ganz genau das ist, was Storm als Erwartungshaltung an Ganz-Experimente in Storm et al definiert hat! So sollten Ganz-Experimente laufen, die laut ihrer Meta-Analyse (huestel ... Meta-Analyse bei einem Thema mit fraglich vorhandenem Effekt ... dolle Idee) den erwarteten Effekt von 36 Prozent gegenueber 25Prozent via Zufall zeigen sollten. Tja, in der Realitaet - so fern ab von Meta-Analysen - zeigte sich der Effekt aber leider so garnicht. Keiner ging jemals darauf ein, warum nicht.
Natuerlich hat Storm darauf geantwortet (
http://www.deanradin.com/evidence/Storm2010Nothingtohide.pdf (Archiv-Version vom 03.08.2016) - "A-Meta-Analysis with nothing to hide"). Kann man lesen, ist aber im Wesentlichen ein Mimimi aus "also wir finden ja schon, dass das eine schoene Arbeit war".
Auf den zentralen Kritikpunkt von Hyman wird natuerlich mal wieder nicht eingegangen. Meta-Analysen taugen nunmal nicht zum Aufzeigen eines bislang unbewiesenen Effektes - und erst recht nicht, wenn keinerlei Datenkonsistenz vorliegt und man nicht genau weiss, worauf getestet werden soll. Gut, hier hat Storm andere Standards und findet die Ganz-Bruehe "consistent and reliable".
Nunja ... das und dem Umstand mit AutoGanz2.
Weitere Kritik gabs unter anderem hier:
http://www.deanradin.com/evidence/Rouder2013Bayes.pdf (Archiv-Version vom 26.03.2016) von Rouder, Province und Morey.
Darin finden sich solche Schaetze wie
Storm et al. (2010) stated that they included only studies in which
randomization was proper and was performed only by computer
algorithm or with reference to random-number tables. Yet, we
found examples of included studies that either did not mention
how randomization was achieved (e.g., Dalton, 1997) or added an
extra step of discarding “atypical” sequences. Consider, for exam-
ple, Targ and Katra (2000), who stated: “These pictures were
selected randomly, and then filtered to provide a representative
mixture of possible targets to avoid any accidental stacking that
could occur if, for example, we had an overrepresentation . . . of [a
particular picture]” (p. 110). Clearly, such shaping can only have
negative consequences, as it disrupts the randomization that lies at
the heart of the experimental method (Hyman & Honorton, 1986).
Ist das nicht prima? Genau das erwartet man doch von sauberen Meta-Analysen, die Hokuspokus endlich mal beweisen sollen ... oder vielleicht auch nicht.
Jetzt mag es eher meine eher persoenliche Vorliebe sein, Meta-Analysen auf Grundlage von nicht verlaesslichen Daten - und zwar voellig unabhaengig vom Thema - fuer absolut schwachsinnig zu halten. Wie will man hier wirklich
sauber analysieren? Man vermutet einen Effekt, den man aber eigentlich nicht wirklich beschreiben kann, hat als Grundlage einen Haufen Studien, die das ebenfalls nicht konnten, daher
den Effekt gegen wie auch immer geartete andere Einfluesse nicht abschirmen konnten und als Ergebnis kommmt ein Wuerfelwurf heraus.
Meta-Analysen sind super, wenn man fest definierte und definitive Effekte hat und grossflaechig nach hoeheren Mustern sucht, aber ohne etwas festes in der Hand zu halten? Laecherlich, aber gut, das kann meine Vorliebe sein - wenn auch offenbar nicht nur meine allein.
Dass die Daten aber miserabel bereinigt sind, ist absolut unentschuldbar und Schlamperei auf absoluten Anfaenger-Niveau. Gerade bei Daten, aus denen sich eine Abweichung von purem
Zufall herauskristalisieren soll, wird quasi ein Dreck auf die Zufallsgeneratoren gegeben. Pardon, das ist unterirdisch. Der Absatz allein entzieht der gesamten Metaanalyse jegliche Glaubwuerdigkeit, jedoch siehe PDF - es gab noch mehr zu bemaengeln.
Aber das ist auch irgendwie alles bloed. Was schreib ich hier so viel ueber Storm. Ein Urgestein waere doch viel wichtiger. Bem? Weisst schon, da von 1994. Der arbeitet doch sicher sauber.
Der hatte eine nette "Unterhaltung" mit Alcock, der sein "Feeling the Future" nicht ganz so toll fand.
Drei Artikel, die jeweils Antworten aufeiander darstellen:
http://www.csicop.org/specialarticles/show/back_from_the_future (von Alcock an Bem)
http://www.csicop.org/specialarticles/show/response_to_alcocks_back_from_the_future_comments_on_bem (von Bem zurueck an Alcock)
http://www.csicop.org/specialarticles/show/response_to_bems_comments (von Alcock - die Geduld verlierend)
Sollte man als ganz-vernarrter evtl. mal durchlesen, wenn man selbst nicht die Qualifikation hat, die Versuchsaufbauten zu bewerten.
Alcock stellt sich z.B. die Frage, warum Bem einfach mal mittendrin das Experiment abaendert und ob einige Einzelversuche nicht vielleicht als seperate Versuche geplant und nachtraeglich zusammengeworfen wurden, als sie einzeln keine signifikaten Effekte zeigten. Gut, ist ein Vorwurf, aber er klingt plausibler als Bems Versuchsaufbau, der mit seinen Aenderungen zwischendurch absolut allem widerspricht, wie man Dinge testet.
Warum zum Geier aendert man den Versuch mittendrin? ... *blaetter* ... ah ...
His conclusion about gender differences in erotic response is based on the ratings provided with the IAPS set of pictures that he used, ratings that were available to him before he began his experiments. He apparently had no concern about those gender differences until after he had collected his data, at which time, having found that males did not show what he refers to as “significant psi effects” (actually, just significant deviations from the chance response rate), he decided to modify his stimuli set for males for Experiment 6, and in other subsequent experiments including the strangely-numbered Experiment 1.
Aah, na ... das ist doch ... ehm ... sinnvoll. Ich stelle mitten im Versuch fest, dass Maenner nicht wie erhofft reagieren, also aendere ich mittendrin den Versuch und werfe alles bunt zusammen.
Ernsthaft ... WTF?
Man ignoriert also zu Beginn die Differenzen der Geschlechter, sieht nachtraeglich, dass es welche gibt und aendert dann innerhalb der Versuchsreihe den Aufbau? Und wirft alles zusammen? Das macht man nicht, worauf soll da nun getestet werden? Wie wirken sich die Aenderungen aus?
Man koennte hier Argumentieren, dass die zitierte Aenderung keinen negativen Einfluss auf eine Beweisfuehrung haben sollte, hat sie aber, da der gesamte Aufbau damit unglaubwuerdig wird.
Und siehe Kritik, Bem hat froehlich waehrend der Testreihe an den Aufbauten geschraubt. In jedem anderen Bereich gibts dafuer eine fette Klatsche.
Schoen ist aber hier immerhin der Seitenhieb auf "PSI-Effekte - eigentlich Abweichungen von Zufall", denn bislang geht es tatsaechlich nur um die Abweichung von
Zufall. Wenn diese irgendwann mal festgestellt werden sollte, kann man anfangen sich darueber Gedanken zu machen, ob diese Abweichung auf PSI-Effekte zurueckzufuehren ist. Man ist tatsaechlich noch nichtmal da.
Wir haben aber auch solche Goldkartuschen wie
Now we have learned that the focus of the experiment is on the erotic pictures presented to the participants, but no information is provided regarding how participants with three choices scored on erotic pictures as compared with those who had only two choices; one wonders why this is so.
Na ... was denkt sich Alcock da eigentlich? Bloede Frage! Warum sollte man sowas denn auch wissen wollen? Ist ja nicht so, als haette das irgendeine Relevanz, nicht wahr?
Wir haben zwischendrin mal 50:50-Chancen als Grundlage, dann mal 33:33:33 ... alles ab in einen Topf!
Natuerlich versucht sich Bem mittendrin zu verteidigen. Mit so spaessen, wie dass die Peers doch auch eine wichtige Autoritaet seien und seine Studie ja nicht so bloed sein kann, da sie sie doch durchgewunken haben. *gaehn* ...
Natuerlich geht er genauso wie Storm praktisch nicht auf die eigentliche Kritik ein. Typisch eben. Was die Peers tun, ist da absolut zweitrangig.
Das gesamte Paper ein wuestes Chaos. Experimente von 1 bis 9, aber 5 kam vor 1 und 9 hat eine vorblende zu 6. Alle sind schwammig beschrieben und zwischendurch wird kraeftig rumgeschraubt. Erinnert mich daran, wie wir als Kinder Fussball gespielt haben - wenn wir gegen das andere Team keine echte Chance hatten, haben wir versucht sie im Chaos zu versenken um dann durch puren Zufall ein paar Tore reinzukriegen. Die Strategie scheint Bem auch zu fahren.
Hand aufs Herz, was du hier als harten Fakt darstellen willst,
@Tajna, ist ein gigantischer Haufen Wischiwaschi-Kinderkacke ohne jegliche Konsistenz. Da werden Meta-Studien ohne Plan anhand voellig unklarer und schwammiger Datenlage durchgefuehrt, Experimente mittendrin geaendert, wild heruminterpretiert indem man alternative Erklaerungen von vornherein ausklammert und jeden gemessenen Effekt als Zauberei verzeichnet, ohne alle anderen Effekte bewertet und ausgeschlossen zu haben (mal von dem Umstand abgesehen, dass die Effekte ueberhaupt meist verschwinden). Kleiner Hint: Wenn ich auf Zauberei teste und Null als "keine Zauberei" definiere, dann gehoeren da alle Effekte rein, die auch nur im geringsten eine Abweichung verursachen koennten und etwas anderes als Zauberei sind. Hier stopft man aber alles, was evtl. einen effekt verursachen koennte (und zwar ohne darueber nachzudenken) in den Bereich Zauberei.
Was waere bei den Links-Rechts-Tests z.B. mit Tendenzen zu einer bestimmten Seite? Habe keinen Psy-Doc, aber sowas waere vermutlich realistisch. Wie lagen die Daten innerhalb der "Zufallsmaschine" vor? Zwei Bloecke mit je 50:50-Chance, oder ein Pool? Wenn letzteres, waren die Daten darin sauber 50:50 verteilt? Wie lief der Seed dafuer ab? Das sind Kack-Faktoren, um die man sich keine grossen Gedanken machen will, die hier aber eine verdammt grosse Rolle spielen koennen, da es um minimalste Abweichungen von errechnetem Zufall gehen soll. In den meisten Tests wird nichts zu solchen Details gesagt -> Wertlos.
Es ist absolut nicht so klar, wie du es hier vorgibst. Nach ueber dreissig Jahren wird bei deinem Ganz-Geraffel nicht darueber geredet, wo der Effekt an der Wurzel herkommt, oder wie stark er ist, oder wovon er abhaengt ... nein, man ist immernoch dabei zu klaeren, OB er ueberhaupt da ist. Und die ganze Pro-Ganzfeld-Seite publiziert eine Schrott-Arbeit nach der anderen. Nach der ganzen Zeit haette man doch mal daraus lernen koennen.
Deine Linkliste endet damit, dass Bem (natuerlich ... wer auch sonst) klarstellt, dass die Effekte ja total super zu sehen sind, wenn man sich ja nur an den Original-Aufbau haelt.
Ja super ... und 15 Jahre spaeter sind wir leider immernoch bei "nicht reproduzierbar". Ausser man pfuscht sich die Zahlen in Meta-Analysen zusammen. Prima.
Das ur-urspruengliche Ganzfeld-Experiment ist ist schon zu Honortons Zeiten wegen praktischer Unmoeglichkeit jeglicher Reproduktion voellig am A.... gewesen und das tolle vielversprechende AutoGanz ist ebenfalls abgeraucht, da AutoGanz2 nichts als Werte mit Zufalls-Qualitaet (bzw. den Wahrscheinlichkeiten von reinem Zufall) lieferte. Aber ja ... super Reproduktionen hast du da.
Und bei dem allem hast du noch so kackdreist das Kreuz, mir Verleumdung vorzuwerfen? Sonst noch alles knusper bei dir? Die Versuche sind nunmal nicht sauber, es herscht haufenweise Kritik und nichts davon hat irgendwas mit Verleumdung zutun, sondern einzig und allein mit dem permanenten Pfusch seitens der Ganzfeld-Glaeubigen.
Wenn man insbesondere mal Alcocks Kritiken liesst, sollte auch Esos eigentlich klar werden, dass es keinesfalls um ein "es kann nicht sein, was nicht sein darf" geht, sondern einzig und allein um die absolut unbrauchbare Methodik, mit der die Para-Esos da angebliche Beweise herbeizuzaubern versuchen. Macht es richtig, DANN kann man sich ueberlegen, euch mal ernst zu nehmen. Und je unglaubwuerdiger das Thema, umso mehr Muehe muss man sich damit geben - nicht derartigen Amateur-Schrott abliefern.
Um Studien in der Psychologie gab es in den letzten Jahren recht viel Wind, weil wohl viel stastistischer Unfug verbreitet wurde, aber mangels Doktortitel in dem Bereich wuerde ich mich in den aller wenigsten Faellen sonderlich weit aus dem Fenster lehnen, aber hier ist doch absolut offensichtlicher Pfusch betrieben worden und du versuchst sowas auch noch als Beweis anzufuehren. Pardon, das ist traurig.
Was deinen Verweis auf die Wissenschaftsrubrik angeht: Bitte ... das Thema hat in der Wissenschaftsrubrik nichts verloren, er ist reinster Expressionismus.