Ausbreitungsrechnung

Kontakt: Delia Arnold

Das vorrangige Ziel dieses Arbeitspakets ist es, Ausbreitungsrechnungen anhand der vordefinierten Freisetzungsszenarien und anhand einer großen Anzahl von Wettersituationen durchzuführen. Dazu wurden bestehende Codes und Scripts adaptiert und optimiert sowie neue erstellt. Die Ergebnisse werden so evaluiert, dass sie in den nachfolgenden Arbeitspaketen weiter bearbeitet werden können. Ein wesentliches praktisches Problem dieses Arbeitspaketes ist, aus der sehr großen Datenmenge, die produziert wird, eine überschaubare Anzahl von Produkten mit den wesentlichen Ergebnisse zu erstellen.

Die Ausbreitungsberechnungen wurden mit dem Lagrangeschen Partikelmodell FLEXPART (Stohl et al. 2005) in der neuesten Version 8 erfolgen. Es wurden zwei Spezies transportiert, die hinsichtlich des Depositionsverhaltens einerseits Edelgase (ohne trockene oder nasse Deposition), andererseits aerosolgebundene Radionuklide repräsentieren. Gasförmiges Iod (I2) wird angenähert wie die aerosolgebundenen Nuklide behandelt. Die Emission einer Standardmenge liefert Quell-Rezeptor-Beziehungen (Seibert und Frank 2004) sowohl für die Deposition (Ablagerung am Boden) als auch für die bodennahe Luftkonzentration. Der radioaktive Zerfall wird aus Gründen der Recheneffizienz erst nachträglich auf die Ergebnisse angewendet.

Die Daten von jedem Lauf wurden mit 3-stündiger Auflösung abgespeichert. Zur Beschleunigung der Berechnungen und zur Verringerung des Datenoutputs wurde FLEXPART dahingehend modifiziert, dass nur die Summe aus trockener und nasser Deposition ausgegeben wird, dass die Deposition so wie die Konzentration inkrementell gespeichert und nicht aufsummiert wird, und dass die Simulation einer „Wolke“ automatisch beendet wird, wenn ihre Masse im Rechengebiet unter einen gegebenen Prozentsatz des Anfangswerts gesunken ist.

Als meteorologische Inputdaten wurden Daten des Europäischen Zentrums für mittelfristige Wettervorhersage (ECMWF) verwendet, und zwar die so genannten ERA-Interim Daten mit einer horizontalen Auflösung von 0,75 Grad (ca. 70 km) und einer zeitlichen Auflösung von 3 h, unter Verwendung aller Modellniveaus. Diese Daten sind die bestverfügbaren für eine europaweite Untersuchung. Kleinräumige Aussagen, wie etwa das Risiko vom Standort Krsko auf Kärnten und die Steiermark, sind jedoch nur in grober Form möglich. Mehr zur Niederschlagsverteilung und dem Rechengebiet siehe Basisinformationen.      

Die Berechnungen wurden für den 10-jährigen Zeitraum 2000-2009 durchgeführt, um eine annähernde klimatologische Repräsentanz sicherzustellen. Zusätzlich wurden die 90 Fälle des Vorprojektes RISKMAP nochmals durchgerechnet. Die Startzeitpunkte der Berechnungen (Freisetzungen) wurden wie in RISKMAP gleichmäßig auf alle Tages- und Jahreszeiten verteilt. Insgesamt ergab sich eine Zahl von etwa 2.800 Fällen. Allerdings war damit, vor allem auch wegen der zusätzlichen Vorgaben für die Dosisberechnung, ein erheblich höherer Rechenaufwand und eine Datenmenge von mehreren Terabytes verbunden. Ein Teil der Vorbereitung für die Berechnungen bestand daher in einer Optimierung des Setups im Hinblick auf einen guten Kompromiss zwischen den verschiedenen Anforderungen. Die mögliche Anzahl der Berechnungen musste sich dabei auch nach den verfügbaren Ressourcen richten, sowohl was die CPU-Zeit als auch was die Menge des Output betrifft. Letztlich wurde die im vorliegenden Projekt ursprünglich angestrebte Verzehnfachung dieser Anzahl noch um einen Faktor 3 übertroffen so dass nun Berechnungen für etwa 30-mal so viele Zeiten vorliegen wie in RISKMAP.

Die Rechnungen wurden auf der VSC-Hochleistungsrechenanlage durchgeführt, die von TU Wien, BOKU Wien und Universität Wien gemeinsam betriebent wird.

Es wurden für 88 Nuklearstandorte Berechnungen durchgeführt, wobei an jedem Standort mehrere Freisetzungsmuster (ein oder zwei Freisetzungsphasen verschiedener Dauer, unterschiedliche Freisetzungshöhen) zu berücksichtigen waren. In Summe wurden rund 500,000 Ausbreitungsfälle gerechnet. Die Ausbreitungsberechnung hat ca. 170.000 core-Stunden auf dem VSC verbraucht Das entspricht fast 20 Jahren Rechenzeit, wenn man alles auf einem single-core Rechner hätte rechnen müssen. Da aber 40 Rechnerknoten mit je 8 Prozessorkernen eingesetzt werden konnten (das entspricht etwa 10% der gesamten VSC-Kapazität), entfallen nur rund 530 Stunden (22 Tage) auf einen Prozessorkern, oder mit anderen Worten, die reine Rechenzeit betrug rund drei Wochen. Dabei wurden ca. 2,5 Terabyte an Daten produziert.

VSC
Ansicht der VSC Hochleistungsrechenanlage