Mai 2012

Gauß-Allianz Infobrief - Ausgabe 8

Speichersystemschnittstellen für Exascale-Rechner

Der Entwurf von Rechnern der Exascale-Generation steht vor allem hinsichtlich der I/O-Subsysteme vor großen Herausforderungen. Aktuell können Schnittstellen wie POSIX, HDF5 oder NetCDF keinen effizienten Zugriff auf ein Exascale-I/O-System gewährleisten, so dass hier radikal neue Lösungsansätze entwickelt werden müssen. Dieser Aufgabe hat sich die „Exascale I/O Workgroup“ (EIOW) der European Open File System Initiative (EOFS) angenommen. Die Arbeitsgruppe vereint Forschungsanstrengungen internationaler Universitäten und weltweit agierender Hersteller von Speichersystemen unter der Führung des Barcelona Supercomputing Center, der Johannes Gutenberg-Universität Mainz und der Firma Xyratex. Weitere deutsche Mitglieder sind unter anderem das GCS, das DKRZ und das ZIH. In der Arbeitsgruppe werden derzeit gemeinsam mit verschiedenen Anwendern mehrere Workshops zur Evaluierung der Anforderungen für zukünftige Dateisystem-Schnittstellen durchgeführt, die noch in diesem Jahr in einem ersten Architekturentwurf resultieren sollen. Die entstehende Middleware soll in verschiedene I/O-Bibliotheken einfließen und kompatibel zu zukünftiger Speicher-Hardware sein. Weitere Informationen: www.eiow.org

LRZ gewinnt Deutschen Rechenzentrumspreis 2012

Der Deutsche Rechenzentrumspreis 2012 in der Kategorie „Energie- und Ressourceneffiziente Rechenzentren“ ging am 29. März an das Leibniz-Rechenzentrum (LRZ). Das LRZ hatte sich mit der weltweit einzigartigen Energieeffizienz seines Höchstleistungsrechners „SuperMUC“ beworben, der gerade installiert wird. Mit CooLMUC, seinem kleinen Vorläufer, hatte das LRZ bewiesen, dass durch den Einsatz von Warmwasserkühlung dramatische Energieeinsparungen möglich sind. Durch die innovative Kühlung des Systems mit warmem Wasser kann der Großteil der Rechnerkomponenten ganzjährig ohne den Einsatz von Kältemaschinen gekühlt werden. Die effiziente Ausnutzung der Energiesparmechanismen neuester Prozessortechnologien erlaubt zudem die gleichzeitige Optimierung der Rechnerperformance für Geschwindigkeit und Energie und damit eine drastische Senkung des Energieverbrauchs. Der 2012 zum zweiten Mal verliehene Deutsche Rechenzentrumspreis möchte neue Ideen und Trends insbesondere zur Energieeffizienz rund um das Rechenzentrum sichtbar machen. Die Verleihung des Preises in acht Kategorien fand im Rahmen der Fachausstellung „future thinking“ in Sinsheim statt. Weitere Informationen: http://www.lrz.de/presse/ereignisse/2012-03-29-dt-rechenzentrumspreis

Simulierte Welten – HPC- und Grid-Themen an Schulen

Um die Chancen und Risiken des Höchstleistungs- und verteilten Rechnens zu vermitteln, fördert das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg das Projekt „Simulierte Welten“. Ziel des Projektes ist es, die Reichweite der Entwicklungen in diesem Bereich besonders künftigen und damit immer stärker davon abhängigen Generationen zugänglich zu machen. Die Auswirkungen von HPC und Grid Computing auf die Gesellschaft sollen dazu an den Schulen in Baden-Württemberg thematisiert werden. Dabei werden verschiedene Ansätze verfolgt, die von der Erörterung des Themas in den Schulen bis zur direkten Mitarbeit der Schüler in einem Rechenzentrum reichen. Projektpartner sind das Steinbuch Centre for Computing (SCC) des KIT, das High Performance Computing Center Stuttgart (HLRS) und das Institut für Sozialwissenschaften der Universität Stuttgart.

Performante Lattice-Boltzmann-Implementierungen

Das BMBF hat in den vergangenen drei Jahren das Projekt „Lattice-Boltzmann-Methoden für skalierbare Multi-Physik-Anwendungen“ (SKALB) im Bereich „HPC-Software für skalierbare Parallelrechner“ gefördert. Ziel war die Weiterentwicklung unterschiedlicher Lattice-Boltzmann-(LB)-Strömungslöser: Das „waLBerla-Framework“ des Lehrstuhls für Systemsimulation der Universität Erlangen-Nürnberg wurde für hochparallele und für heterogene Systeme erweitert und skalierte sowohl auf nahezu 300.000 Prozessoren der IBM BlueGene/P (Jülich) als auch auf über 1.000 GPUs des Tsubame2-Systems (Tokio). Daneben ist „VirtualFluids“ des Instituts für rechnergestützte Modellierung im Bauingenieurwesen der TU-Braunschweig vermutlich der einzige LB-Code weltweit, der lokale Verfeinerung und komplexe Kollisionsmodelle auch auf GPUs implementiert. Der „ILBDC-Code“ des RRZE erreicht trotz der Verwendung listenbasierter Datenstrukturen die höchste Einzelknotenperformance und ist hochskalierbar. Der Lehrstuhl für Angewandte Mathematik & Numerik der TU-Dortmund hat FEM-Mehrgittertechniken für implizite LB-Formulierungen auf unstrukturierten Gittern erarbeitet, die in die Open-Source FEAST-Software einfließen. Das HLRS hat sein Open-Source Computational-Steering-Framework „Steereo“ an ausgewählte LB-Codes angebunden und PGAS-Sprachen untersucht. Die IANUS GmbH stellte schließlich die industrielle Nutzbarkeit der Projektergebnisse sicher. Benchmark-Kernel des Projekts werden in Kürze als Referenzimplementierungen veröffentlicht. Weitere Informationen: SKALB

Auf dem Weg zu einem PGAS-Standard

Die Entwicklung immer komplexerer paralleler Hochleistungsrechner erfordert den Einsatz geeigneter Programmiermodelle sowie eine Anpassung und Optimierung von paralleler Software. Das seit 2011 vom BMBF im Förderprogramm „HPC-Software für skalierbare Parallelrechner“ geförderte Projekt „Global Adress Space Programming Interface“ (GASPI) basiert auf der PGAS Schnittstelle des Fraunhofer ITWM (GPI) und hat das Ziel, diese Schnittstelle zu einem flexiblen, hochskalierbaren und fehlertoleranten Programmierstandard für parallele Höchstleistungsrechner weiterzuentwickeln. Die im Projekt erstellte Software wird als Open-Source-Bibliothek verfügbar sein. GASPI wird von T-Systems koordiniert und hat als weitere Partner die Fraunhofer Institute ITWM und SCAI, JSC, KIT, DLR, ZIH, DWD und die scapos AG. Weitere Informationen: GASPI

EUDAT – Eine paneuropäische Dateninfrastruktur

Viele Wissenschaftszweige sehen sich mit dem Problem konfrontiert, dass die immer größer werdende Datenflut nur noch kooperativ bearbeitet werden kann. Im EU-Projekt EUDAT wird deshalb der Aufbau einer paneuropäischen, auf Zusammenarbeit ausgerichteten Dateninfrastruktur unter maßgeblicher Mitwirkung von Forschergemeinschaften aus unterschiedlichen Wissenschaftsbereichen wie Klimaforschung, Sprachforschung und Forschung zur biologischen Artenvielfalt in Angriff genommen. Dabei geht es beispielsweise um Daten leistungsfähiger Sensoren, wissenschaftlicher Instrumente für Beobachtungs-, Analyse- oder Experimentierzwecke oder um Daten aus der Digitalisierung großer Bibliotheken sowie aus Supercomputersimulationen. Hierfür soll insbesondere auch eine disziplinübergreifende Dateninfrastruktur aufgebaut werden. EUDAT stützt sich auf Partner aus 13 europäischen Ländern, mit dem DKRZ, dem MPI für Meteorologie, dem MPI für Psycholinguistik, dem JSC, dem KIT und dem Rechenzentrum Garching der MPG als deutschen Partnern. Das Projekt begann im Oktober 2011 mit einer Laufzeit von drei Jahren. Weitere Informationen: http://www.eudat.eu

IESP-Meeting in Japan

Zum achten Mal trafen sich am 12./13. April ca. 100 Experten aus aller Welt im Rahmen des „International Exascale Software Project“ (IESP), um über System- und Anwendungssoftware für Exascale-Rechner zu diskutieren und sich über nationale und regionale Anstrengungen dazu auszutauschen. Die Exascale-Systeme sind mit 1 Trillion Rechenschritten pro Sekunde im Vergleich zu heutigen Hochleistungsrechnern fast um das Tausendfache schneller und stellen damit eine enorme Herausforderung für Betreiber und Nutzer dar. Das Treffen fand am RIKEN Forschungsinstitut in Kobe (Japan) statt, das derzeit den leistungsstärksten Rechner der Welt, den K-Computer, beherbergt. Schwerpunkte waren die Forschung im pazifischen Raum insbesondere in China und Japan sowie datenintensives Rechnen. Außerdem wurde in Arbeitsgruppen über Anwendungs-Codesign, revolutionäre Ansätze zur parallelen Programmierung und über System-Software für die Entwicklung wissenschaftlicher Codes für Exascale-Rechner diskutiert.

PRACE: Rechenzeiten in der höchsten Leistungsklasse

Die europäische Forschungsinfrastruktur „Partnership for Advanced Computing in Europe“ (PRACE) hat ihren fünften Aufruf zur Bewerbung um Rechenzeiten gestartet: Bis 30. Mai 2012 können europäische Wissenschaftler Anträge einreichen. Parallel werden sogenannte Tier-0-Ressourcen auf Rechnern der höchsten Leistungsklasse wie auch Rechenkapazitäten auf nationalen Hochleistungsrechnern (Tier-1) unterschiedlichster Architekturen angeboten. Die Laufzeiten für die nach Begutachtung bewilligten Projekte beginnen im November 2012. Von deutscher Seite stehen im Tier-0-Sektor mit den drei PetaFlop/s-Rechnern des GCS hervorragende Ressourcen zur Verfügung: „Hermit“ am HLRS, „JUQUEEN“ am JSC und „SuperMUC“ am LRZ. Weitere Informationen: http://www.prace-ri.eu