Ich glaube der realistischste Gau bei der ganzen Nummer wäre, das man am Ende zu dem Ergebnis kommt, dass man den größten Teilchenbeschleuniger der Welt gebaut aber sonst nichts neues rausgefunden hat.
In einem anderen Artikel hab ich grad gelesen, dass sich die jährlich produzierten Messdatenmengen durch den LHC auf etwa 8 Petabyte (!!! 8 Millionen Gigabyte !!!) belaufen werden.
Dafür wären über 5 Milliarden Floppy-Disks nötig, die einen Turm von 20.000Km Höhe bilden würden.
Die Ergebnisse werden über ein sogenanntes Grid ausgewertet, an dem 200.000 PCs angeschlossen sind.
Um diese Datenmengen zu verwalten, zu speichern und zu bearbeiten, realisierten die Beteiligten ein Mehrebenenkonzept. Die Datensammlung, Schicht 0, übernimmt CERN. Neben CERN stellen acht bis zehn Zentren weltweit Rechenkapazität bereit und speichern die Experimente als Ebene 1. Die Ebene 2 umfasst etwa 100 Universitätsrechenzentren, die nächste etwa 1000 Institutsrechner. Aus der Ebene 4 greifen etwa 8000 Forscher auf die Kapazitäten zu.
Die haben da massiv ihr Netzwerk ausgebaut um die Daten verarbeiten zu können.
http://www.tecchannel.de/server/virtualisierung/402170/