So, bin durch.
Zuerst etwas dazu, wie ich vorgegangen bin. Ich habe im Prinzip die Vorgehensweise der Autoren beibehalten. Nur habe ich Studien, der gleichen Kategorie (also bestätigend, neutral, gegensätzlich), der gleichen Arbeitsgruppe und zum gleichen Modell zu einem Beleg zusammen gefasst. Es sind schließlich keine unabhängigen Wiederholungen (und um diese geht es bei der Reproduzierbarkeit schließlich). Multicenterstudien, bei der die ursprünglichen Arbeitsgruppen mitgearbeitet haben, habe ich als in-House Studien gewertet (wieder fehlende Unabängigkeit).
Als bestätigt hätte ich Modelle gesehen, die deutlich mehr stützende Belege, als neutrale oder gegensätzliche aufgewiesen hätten. Dabei hätten die stützenden Belege 19/20 der Gesamtpublikationen dazu sein müssen. Faktisch habe ich das aber nicht anwenden müssen, da entweder die Studienlage völlig uneindeutig war oder aber sämtliche Belege das Modell stützten.
Von den 28 aufgeführten Modellen habe ich damit 11 als durch weitere Studien gestützt eingeordnet. Also weniger als die Hälfte.
Von diesen 11 sind weiterhin 9 von mir als in-House ausschließlich in-House bestätigt bewertet wurden. Damit sind diese streng genommen auch nicht bestätigt, da hier wieder die Unabhängigkeit der Wiederholung nicht gegeben ist.
Übrig bleiben 2 von 28 Modelle die (möglicherweise) durch andere bestätigt wurden. Davon ist eine Studie, lediglich eine Diplom- oder Doktorarbeit, welche alleine durch eine weitere solcher Arbeiten belegt wurde. Die andere ist eine Studie aus dem Jahr 2004, auf die ich keinen Zugriff habe. Diese wird durch zwei Diplom oder Doktorarbeiten aus dem selben Jahr, welche beide an der selben Fakultät geschrieben wurden, gestützt. Leider macht es die Zitationspraxis im gelinkten Artikel es mir schwer zu überprüfen, ob möglicherweise alle drei Publikationen aus dem gleichen Institut kommen und daher doch in-House sind.
Warum ist die Unabhängigkeit so wichtig, dass ich sie mehrmals aufführe?
Ganz einfach, weil dadurch systematische Fehler sich durch alle Arbeiten ziehen können. Ein fehlerhaftes Messgerät zum Beispiel oder eine unerkannte Mutation innerhalb eines Testmodells kann so durchgehend zu falschen Aussagen führen.
Das war erst einmal meine "quick and dirty" Einschätzung des gelinkten Papers.
@Heide_witzkaHeide_witzka schrieb:Wahrscheinlich liegt aber auch hier der Fehler bei dir und nicht bei Cortano.^^
Ich habe schließlich auch nicht Medizin studiert
:troll: