Dezember 2011/Januar 2012

Gauß-Allianz newsletter - Issue 4

SPP „Software für Exascale-Computing“ startet

Die Deutsche Forschungsgemeinschaft hat im Oktober das Schwerpunktprogramm 1648 „Software für Exascale-Computing“ (SPPEXA) eingerichtet. Das Programm ist auf sechs Jahre angelegt und fördert Grundlagenforschung im Bereich HPC-Software. Hauptziel ist es, tragfähige Lösungen für die großen Herausforderungen des HPC im Paradigmenwechsel von moderat parallelen (64-1024 Cores) zu massiv parallelen Systemen bis hin zum Top-Segment mit derzeit mehr als 100.000 Cores zu finden. SPPEXA adressiert insbesondere die Verbindung relevanter Anwendungsgebiete aus Mathematik und Informatik mit den Anforderungen aus den Bereichen „Computational Science and Engineering“ (CSE) und HPC. Gefördert werden dabei inter-disziplinäre Konsortien mit methoden- und anwendungswissenschaftlichem Fokus, in mindestens zwei der sechs SPPEXA-Forschungsthemen Berechnungsalgorithmen, System- oder Anwendungssoftware, Datenmanagement und -exploration sowie Programmierung und Software-Tools. Projektskizzen können bis 31.01.2012 eingereicht werden. Weitere Informationen: http://www.sppexa.de

Neue, hoch-skalierbare Eigenwertlöser

Eigenwertlöser für symmetrische Matrizen spielen auf verschiedenen wissenschaftlichen Gebieten eine wichtige Rolle, werden aber bei komplexen Simulationen oft zum entscheidenden Engpass. Diesem Problem haben sich Wissenschaftler der Universität Wuppertal, der TU München, des Fritz-Haber-Instituts, des MPI für Mathematik in den Naturwissenschaften, der IBM Deutschland sowie des Rechenzentrums Garching im BMBF-Projekt ELPA gewidmet. Das interdisziplinäre Team entwickelte neue Verfahren für direkte Löser, die deutlich besser als die entsprechenden – quasi state-of-the-art – ScaLAPACK-Routinen skalieren und eine bessere Leistung pro Prozessor-Core aufweisen. Die neuen Löser wurden auf dem BlueGene/P-System des FZ-Jülich bis zum Einsatz auf der Gesamtmaschine (294.912 Cores) und dem System Cray XE6 des National Energy Research Scientific Computing Center in Berkeley erfolgreich getestet. Im FHI-aims-Paket für ab-initio-MD-Simulationen befinden sie sich bereits im Produktionseinsatz. Auf der ELPA-Internetseite (http://elpa.rzg.mpg.de

Genomanalyse auf modernen HPC-Systemen

Durch das seit Juni diesen Jahres vom BMBF geförderte Forschungsprojekt NGSgoesHPC werden kritische Anwendungen und Kernalgorithmen des Next Generation Sequencings (NGS) auf moderne HPC-Architekturen übertragen. NGS ist eine Schlüsseltechnologie zur Bestimmung genetischer Informationen aus Proben. Durch die Sequenzierung werden riesige Datenmengen generiert und mit Hilfe von Hochleistungsrechnern verarbeitet sowie interpretiert, wobei das Wachstum der auf diese Weise generierten Daten den Fortschritt der rechnergestützten Verarbeitungsmöglichkeiten deutlich übersteigt. Mit NGSgoesHPC sollen deshalb durch Anpassung der Anwendungen zur Assemblierung der NGS-Daten auf moderne Hardwarearchitekturen sowie durch Erarbeitung von Methoden zur Darstellung und Aufbereitung der Ergebnisse neue Möglichkeiten für diesen Forschungsbereich erschlossen werden. Unter der Leitung des RRZK der Universität zu Köln arbeiten in diesem interdisziplinären Forschungsprojekt Wissenschaftler und Anwender der TU Dresden, des MPI für Biologie des Alterns, der ATLAS Biolabs GmbH, der Bull GmbH und des FZ-Jülich zusammen. Weitere Informationen: http://rrzk.uni-koeln.de/hpc.html

38. Top500-Liste in Seattle veröffentlicht

Zum ersten Mal führt ein System mit einer Linpack-Leistung von mehr als 10,5 PFlop/s die Top500-Liste der leistungsfähigsten Supercomputer an. Der japanische K Computer hat diese Leistung mit mehr als 700.000 SPARC64-Prozessorkernen erzielt. Die Systeme auf den Plätzen zwei bis zehn blieben in den vergangenen sechs Monaten unverändert. China hat nun 74 Systeme in der Liste und ist damit nach den USA klar auf Platz Nummer 2. Die Zahl der europäischen Systeme ging von 126 auf 103 Systeme zurück, Frankreich führt in der Summe der Einzelleistungen seiner Systeme mit 3,72 PFlop/s knapp vor Deutschland. Man benötigt nun mehr als 51,2 TFlop/s, um überhaupt in die Liste aufgenommen zu werden, und die Zahl der Hybrid-Systeme – zumeist mit GPUs – hat sich auf 39 Systeme mehr als verdoppelt.

Europas schnellster ziviler Rechner steht in Stuttgart

Auf der Top500-Liste der weltschnellsten Supercomputer hat das Rechensystem HERMIT des Höchstleistungsrechenzentrums Stuttgart (HLRS) den 12. Platz in der Gesamtwertung erreicht. Es ist damit der schnellste Rechner in Deutschland sowie der schnellste zivil genutzte Rechner Europas. Der GCS-Rechner trat seinen Dienst mit einer Linpack-Leistung von 831.4 TFlop/s planmäßig am 31. Oktober an. Mit der neuen Infrastruktur und dem Petaflopsrechner des HLRS auf der einen Seite und den drei neuen Forschungsgebäuden für VISUS, SimTech sowie dem HLRS auf der anderen Seite wird die Universität Stuttgart zu einem der führenden Wissenschaftszentren für Simulationstechnologie in Deutschland. Auch im internationalen Vergleich nimmt Stuttgart damit eine Spitzenstellung ein.

Europäischer Preis für Lehrkonzept des RRZE

Georg Hager, Gerhard Wellein und Jan Treibig vom Regionalen Rechenzentrum Erlangen (RRZE) und dem Department Informatik der FAU Erlangen-Nürnberg wurden auf dem 7. European Computer Science Summit 2011 in Mailand (Italien) mit dem „Informatics Europe Curriculum Best Practices Award: Parallelism and Concurrency” ausgezeichnet. Die Gutachter würdigten die Lehrsystematik der Gruppe, die in ihren Vorlesungen, Kursen und Tutorien zum Thema Hochleistungsrechnen stark auf den sinnvollen Einsatz von Performancemodellen setzt. Den mit 30.000 Euro dotierten Preis, der in diesem Jahr zum ersten Mal vergeben wurde, teilt sich die Gruppe mit Viktor Gergel und Vladimir Voevodin von der Nischni Nowgorod Staatsuniversität und der Lomonossow-Universität Moskau. Weitere Informationen: http://go.fau.de/1abd

bwLSDF – Datenspeicherung für Hochschulen in BW

Am Steinbuch Centre for Computing (SCC) des KIT ist Anfang Oktober das baden-württembergische Landesprojekt „bwLSDF“ gestartet. Kernprojektpartner sind die Universitäten Heidelberg, Mannheim, Stuttgart und Ulm. Das Vorhaben sieht eine Erweiterung der Zugriffsverfahren auf die am SCC angesiedelte Large Scale Data Facility (LSDF) für die baden-württembergischen Hochschulen und Landeseinrichtungen vor. Mit der LSDF hat das SCC ein innovatives Konzept für die Speicherung, Verwaltung, Archivierung und Analyse wissenschaftlicher Daten entwickelt und im Februar 2011 in Betrieb genommen. Die LSDF unterstützt den kompletten Data Life Cycle – von der Generierung der Rohdaten über erste Analysen und Zwischenspeicherung bis zur Langzeitarchivierung – und steht allen Wissenschaftsdisziplinen in Deutschland zur Verfügung.

Helmholtz-Gemeinschaft fördert Data Life Cycle Labs

Die Initiative Large Scale Data Management and Analysis (LSDMA) wird mit insgesamt 13 Millionen Euro von der Helmholtz-Gemeinschaft gefördert. Ziel ist die institutsübergreifende Etablierung von Data Life Cycle Labs: Im Verbund mit generischen Forschungs- und Entwicklungsaktivitäten werden ausgewählte Anwendungswissenschaften im wissenschaftlichen Erkenntnisgewinn und bei der tiefen Integration der Datenschnittstelle in den Scientific Data Life Cycle adäquat unterstützt. Dazu sollen entsprechende Systeme, Werkzeuge und Services zur Vor-, Weiter- und Endverarbeitung der Daten entwickelt werden. Das datenintensive Rechnen mit entsprechenden Algorithmen zur Datenintegration, -analyse und zur semantischen Exploration steht dabei im Mittelpunkt. Beteiligt sind die Gauß-Allianz-Mitglieder SCC-KIT, DESY, JSC, DKRZ, GU und ZIH.

Methodenentwicklung im HLRN

Das aus Fachberatern und lokalen Betreuern gebildete Expertenteam im Kompetenznetzwerk des HLRN unterstützt seit 2002 mehr als 500 Großprojekte bei der Bearbeitung wissenschaftlicher Fragestellungen durch simulationsbasierte Forschung auf Hochleistungsrechnern. Dabei steht neben dem Wissenstransfer zwischen den unterschiedlichen Disziplinen die methoden- und anwendungswissenschaftliche Unterstützung im Vordergrund. Dazu wurde am ZIB mit EU-Unterstützung das Framework MR-Search für die massiv-parallele Graphensuche mit MapReduce entwickelt. MR-Search basiert auf einer mit MPI/OpenMP parallelisierten MapReduce-Implementation und bildet übliche Graphalgorithmen auf MapReduce ab. Damit konnte eine Breitensuche auf Graphen mit 1013 Knoten durchgeführt werden. Für größere Graphen mit bis zu 1024 Knoten konnten außerdem kürzeste Wege für ausgewählte Knoten-Paare auf bis zu 4093 Cores gefunden werden.