Feierliche Einweihung des HLRN-III
Am 16. Januar 2014 wurde in Hannover der HLRN-III eingeweiht. Nach einer Videobotschaft der Senatorin für Wissenschaft, Technologie und Forschung, Berlin, Frau Cornelia Yzer, übergab Niedersachsens Ministerin für Wissenschaft und Kultur, Frau Dr. Gabriele Heinen-Kljajic in Anwesenheit der brandenburgischen Ministerin für Wissenschaft, Forschung und Kultur, Frau Prof. Dr. Sabine Kunst, den HLRN-III an den Standorten Leibniz Universität Hannover und Konrad-Zuse-Institut Berlin dem offiziellen Betrieb. In ihrem Grußwort bekräftigte Frau Dr. Heinen-Kljajic den Stellenwert des HLRN-III und darüber hinaus die generelle, langfristige Bedeutung des Hoch- und Höchstleistungsrechnens. Das Auditorium war mit 160 Gästen aus Politik und Wissenschaft voll besetzt. Unter dem Motto 'Von Leibniz über Zuse zum HLRN-III' bot das Programm zunächst in verschiedenen Vorträgen einen Überblick über die Entwicklung der HPC-Systeme, wobei insbesondere auch der Wert menschlicher „Brainware“ bei der effektiven Nutzung moderner Hochstleistungsrechner herausgestellt wurde. Am Nachmittag wurden im Rahmen des wissenschaftlichen Programmes Fragen der globalen Erderwärmung präzise und doch allgemeinverständlich erläutert, die kleinsten Elementarteilchen der Physik analysiert, Turbulenzen bei der Wetterbildung simuliert sowie Erfolge in der modernen Katalyseforschung vorgestellt. Alle diese Ergebnisse wurden auf den HLRN-Supercomputern produziert.
HLRS unterzeichnet Hornet-Folgevertrag
Auf der SC’13 in Denver/Colorado gab das HLRS bekannt, dass der Folgevertrag mit Cray, Inc. für den finalen Ausbau des neuen HLRS-Supercomputers Hornet unterzeichnet wurde. Hornet, der im 2. Halbjahr 2014 am HLRS seinen Betrieb aufnehmen wird, wird in Installationsstufe II bis Ende 2015 um 20 Cabinets erweitert um dann im endgültigen Ausbau eine Spitzenleistung von ca. 7 Peta-Flop/s zu erbringen. Weitere Informationen: http://www.hlrs.de/index.php?id=2019
„bwUniCluster“ am KIT gestartet
Der „bwUniCluster“ wurde als zentrales System für eine flächendeckende Grundversorgung der badenwürttembergischen Universitäten und Hochschulen mit Hochleistungsrechnerkapazität am 27. Januar am Steinbuch Centre for Computing (SCC) des KIT in Betrieb genommen. Der Cluster, der vom baden-württembergischen Ministerium für Wissenschaft, Forschung und Kunst sowie den Landesuniversitäten gemeinsam getragen wird, verfügt über eine theoretische Rechenleistung von 176 Tera-Flop/s und ist Teil des Landeskonzepts für das Hoch- und Höchstleistungsrechnen „bwHPC“ in Forschung und Lehre. Das System ersetzt bzw. ergänzt die lokalen Hochleistungsrechner-Ressourcen an den Landesuniversitäten und ermöglicht so ein arbeitsteiliges und effizienteres Vorgehen im Land.
Transatlantikpilot: 100 Gigabit/s für Experimentdaten
Forscher in Nordamerika und Europa werden künftig in den datenintensiven Wissenschaften noch besser zusammen arbeiten können. Das Steinbuch Centre for Computing (SCC) des KIT hat im November bereits die erste transatlantische 100 Gigabit/s-Verbindung für die deutsche Wissenschaft genutzt. Auf der internationalen Supercomputing-Konferenz SC’13 demonstrierte das SCC erfolgreich den Austausch von LHC-Experimentdaten über diese Hochgeschwindigkeitsverbindung zwischen Karlsruhe und Denver. Der DFN-Verein stellte dabei eine 100 Gigabit/s-Strecke vom KIT nach Amsterdam bereit. Neben der Übertragung der LHC-Daten trat das SCC in einem Show Case auch den Beweis an, dass derzeit verfügbare Rechnersysteme die Bandbreite von 100 Gigabit/s tatsächlich füllen und die Daten in Echtzeit verarbeitet werden. Angesichts der Länge der Transatlantik-Verbindung stellte dies eine enorme technische Herausforderung dar. Im November und Dezember liefen erste Bandbreitentests sowie Tests zur Nutzung des Lustre-Dateisystems an der TU Dresden durch die Indiana University (IU). Die Ergebnisse wurden zudem über synthetische Vergleichsmessungen zwischen der TU Dresden und dem KIT verifiziert. Ein weiteres Test-Szenario erfolgte zwischen der RWTH Aachen University und der IU im Januar 2014. Dabei wurde von den deutschen Rechnern auf ein Lustre-Dateisystem an der IU zugegriffen sowie untersucht, wie sich parallele Anwendungen darauf verhalten und wie sich ein weit entferntes Lustre-Dateisystem in ein Produktivsystem einbinden lässt. Die Tests sind wichtige Vorarbeiten, um zukünftig in Deutschland neue Dienste für datenintensive Wissenschaften zur Verfügung zu stellen.
Das Universum auf Exascale-Systemen
Simulationen der kosmischen Strukturentstehung beginnen kurz nach dem Urknall und verfolgen die Entstehung von Galaxien über mehr als 13 Milliarden Jahre. Ihr Ziel sind Voraussagen der Eigenschaften realistischer Sternsysteme wie unserer Milchstraße direkt aus den Anfangsbedingungen des heißen Urknalls sowie Tests des kosmologischen Standardmodells, das die Existenz bisher nicht verstandener Formen von Dunkler Materie und Dunkler Energie annimmt. Die Entstehung von Galaxien ist ein physikalisches Multiskalenproblem von enormen Ausmaßen, das die Entwicklung neuer numerischer Methoden erfordert, die sich durch exzellente Genauigkeit, enorme parallele Skalierbarkeit und eine hohe Treue gegenüber den relevanten physikalischen Prozessen auszeichnen. Das Projekt “EXAMAG: Exascale simulations of the evolution of the universe including magnetic fields” im DFG-Schwerpunktprogramm SPPEXA setzt eine neue, bewegte Gittermethode ein, um die Genauigkeit und Flexibilität der für gewöhnlich in der astrophysikalischen Fluiddynamik angewandten Methoden stark zu steigern. Durch interdisziplinäre Zusammenarbeit zwischen angewandten Mathematikern an der Universität Würzburg und Astrophysikern am Heidelberger Institut für Theoretische Studien (HITS) werden neue leistungsfähige Verfahren zum Lösen von partiellen Differentialgleichungen auf unstrukturierten Gittern entwickelt und im AREPO-Code implementiert. Weitere Informationen: http://www.h-its.org/tap/examag
Laufzeitunterstützung von Programmierstandards
Das im Oktober 2013 gestartete BMBF-Verbundprojekt „Effektive Laufzeitunterstützung von zukünftigen Programmierstandards (ELP)“ zielt darauf ab, die Komplexität der Entwicklung paralleler Programme mittels Compiler- und Laufzeittechnologien zu reduzieren. Dazu werden das Werkzeug zur Korrektheitsanalyse paralleler Programme MUST sowie die Messinfrastruktur Score-P erweitert, um direktiven-basierte Programmiermodelle besser zu unterstützen. Die Basis hierfür liefert eine erweiterte Laufzeitumgebung, die z. B. auch Zusatzinformationen für einen Debugger liefern kann. Ein besonderer Schwerpunkt liegt auf der Unterstützung der aktuellen Standards OpenMP 4.0 und OpenACC, welche die Programmierung von Beschleunigereinheiten moderner Rechnerarchitekturen unterstützen und standardisieren. Die Projektergebnisse sollen zur Weiterentwicklung der entsprechenden Programmierstandards beitragen. Partner sind die RWTH Aachen, die TU Dresden und die science+computing GmbH sowie die Intel GmbH und Allinea als assoziierte Partner.
International HPC Summer School 2014
Die diesjährige „International Summer School on HPC Challenges in Computational Sciences” findet vom 1. bis 6. Juni in Budapest statt. 2010 als US-europäische Sommerschule begonnen, wurde die Veranstaltung letztes Jahr bereits auf Japan und nun – durch die Unterstützung von Compute Canada zusätzlich zu den Trägern PRACE für Europa, RIKEN AICS für Japan, und XSEDE/NSF für die USA – auch auf Kanada ausgedehnt. Exzellente Doktoranden und Post-docs wissenschaftlicher Einrichtungen in Europa, den USA, Kanada und Japan sind eingeladen, sich bis zum 9. März 2014 um einen Platz zu bewerben. Führende Wissenschaftler aus den Computational Sciences sowie dem HPC werden einen weiten Themenbereich abdecken, der sowohl verschiedene Disziplinen, Algorithmen, numerische Bibliotheken, Performance-Analyse, datenintensives Rechnen als auch Visualisierung beinhaltet. Für Studenten werden die Kosten für Teilnahme, Hotelunterbringung, Mahlzeiten sowie die Anreise von Amerika oder Japan übernommen. Weitere Informationen: http://www.prace-ri.eu/International-Summer-School-2014-PR
LRZ startet Partnerschaftinitiative πCS
Das LRZ hat die Partnerschaftsinitiative „Computational Sciences“ (πCS) ins Leben gerufen, um noch enger mit Experten ausgewählter Wissenschaftsbereiche zusammen zu arbeiten. Durch πCS sollen die Anforderungen an moderne HPC-Dienstleistungen gezielter und individueller identifiziert werden. Gemeinsame Workshops, Arbeitsgruppen und Forschungsprojekte bilden die Basis für eine vertrauensvolle Zusammenarbeit und stetige Weiterentwicklung. Die Initiative konzentriert sich zunächst neben der Astrophysik vor allem auf die Umweltwissenschaften, insbesondere auf Bio- und Geowissenschaften, sowie Energieforschung. Das LRZ verspricht sich von dieser intensivierten Kooperation neben wissenschaftlichen Erkenntnissen auch Rückschlüsse auf Anforderungen an die IT-Infrastruktur. Die daraus resultierende Entwicklung neuartiger Dienste wird allen Wissenschaftlern zugutekommen, die Dienstleistungen des LRZ für ihre Forschungen nutzen. Weitere Informationen: http://www5.in.tum.de/quartl/3-13/quartl69_n.pdf