September/Oktober 2011

Gauß-Allianz Infobrief - Ausgabe 2

GCS@Garching

Am 14. Oktober feiert das LRZ die Erweiterung des Rechenzentrums Garching, welches 2006 als größtes und modernstes wissenschaftliches Rechenzentrum in Betrieb genommen worden war. Die Erweiterung umfasst die Verdoppelung des Rechnergebäudes, ein neues Visualisierungszentrum und ein weiteres Bürogebäude für zusätzliche Mitarbeiter. Im Rechnergebäude wird u. a. der neue 3-Petaflops-Rechner „SuperMUC“ als Beitrag zur europäischen Höchstleistungsrechner-Infrastruktur PRACE untergebracht. Dieser für den Wissenschaftsstandort Deutschland bedeutende Anlass wird mit einem Festakt im LRZ in Anwesenheit des Bayerischen Staatsministers für Wissenschaft, Forschung und Kunst, Dr. Wolfgang Heubisch, sowie Vertretern des BMBF begangen werden. Die Erweiterung des Rechnergebäudes war eine besondere planerische und technische Herausforderung, weil zum Einen der laufende Betrieb nicht gestört werden durfte und zum Anderen eine völlig neuartige Kühlungsinfrastruktur für die zukünftig mit warmem Wasser gekühlten Systeme geschaffen werden musste, welche die Energieeffizienz signifikant erhöht. Weitere Informationen: http://www.gcfs.eu

EnA-HPC in Hamburg

Die Internationale Konferenz zum Thema „Energy-Aware High Performance Computing“ (EnA-HPC) fand vom 7. bis 9. September 2011 in Hamburg statt und wurde von Prof. Thomas Ludwig, Geschäftsführer des DKRZ und Leiter der Arbeitsgruppe Wissenschaftliches Rechnen der Universität Hamburg, initiiert. Die Konferenz widmete sich einer der größten HPC-Herausforderungen: Energieverbrauch und -versorgung der Rechnersysteme. Über die gesamte Lebensdauer eines Rechners können die Kosten für Energie etwa die-selbe Größenordnung wie für die Anschaffung erreichen. Bisherige „Green IT“-Lösungen lassen sich im Hochleistungsrechnen nicht umfassend anwenden. Hersteller arbeiten aber beispielsweise an der Entwicklung energieeffizienterer Prozessor-Architekturen und Software-Entwickler an Mechanismen, die Komponenten energieeffizienter zu betreiben. Ziel der Konferenz war es, Wissenschaftler, Entwickler, Hersteller und Nutzer zusammen zu bringen, um Energiethemen des HPC und neuartige Lösungen gemeinsam zu diskutieren. Weitere Informationen: http://www.ena-hpc.org/

RRZE startet Open Source Projekt hpc-bench

Die HPC-Gruppe am RRZE bietet ihre schon seit Jahren für Ausschreibungen verwendete interne Benchmark-Umgebung nun als freie Software an. Das Projekt hpc-bench steht damit als Basis für die Entwicklung von Anwendungs-Benchmarks auch anderen Rechenzentren zur Verfügung. Speziell für kleine und mittlere Rechenzentren, die bei Ausschreibungen auch die individuellen Anwendungen ihrer Kunden als Benchmarks verwenden wollen, bietet hpc-bench eine einheitliche Umgebung, um einfach und schnell eine maßgeschneiderte Benchmarksuite zusammenzustellen. Insofern unterscheidet es sich von den bewährten und standardisierten HPC-Benchmarks von DEISA und PRACE. Mit hpc-bench können Benchmark-Fälle anderer Rechenzentren wiederverwendet werden, wodurch langfristig alle gängigen Benchmark-Applikationen als Module verfügbar sein können. Insgesamt vereinfacht hpc-bench Ausschreibungsprozesse im HPC-Bereich, verbessert gleichzeitig deren Qualität und eignet sich für die Evaluierung und den Vergleich neuer Architekturen oder HPC-Systeme. Weitere Informationen: http://code.google.com/p/hpc-bench/ und http://blogs.fau.de/rrze/?p=6576

Norddeutsche Höchstleistungsrechner (HLRN)

Seit 2002 betreiben die Bundesländer Berlin, Bremen, Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein im Norddeutschen Verbund für Hoch- und Höchstleistungsrechner (HLRN) an den beiden Standorten Berlin und Hannover ein verteiltes Supercomputersystem zur Versorgung der Universitäten und Wissenschaftseinrichtungen ihrer Länder mit Rechenleistung der höchsten Leistungsklasse. Wissenschaftler können online beim wissenschaftlichen Ausschuss des HLRN, der die Projekte begutachtet und genehmigt, Rechenzeit beantragen. Projektanträge werden in der Regel für ein Jahr quartalsweise mit der Möglichkeit der Verlängerung genehmigt. Für die Vorbereitung von Projektanträgen stehen „Schnupper-Accounts“ zur Verfügung. Begleitet werden die Projekte von Fachberatern der jeweiligen Anwendungsgebiete im HLRN-Kompetenznetzwerk sowie von den lokalen Betreuern vor Ort. Zusätzlich zur Rechenleistung stellt der HLRN an beiden Standorten auch Speicherkapazität für die lang-fristige Speicherung der Daten und Ergebnisse bereit. Seit 2011 können auch Nutzer der Universitäten und Wissenschaftseinrichtungen in Brandenburg einen„Schnupper-Account“ beantragen (Vgl. GA-Infobrief Nr. 1). Weitere Informationen: http://www.hlrn.de

Training zur Nutzung von Optimierungswerkzeugen

Das Virtual Institute – High Productivity Supercomputing (VI-HPS) ist eine Initiative öffentlicher Forschungseinrichtungen - gefördert von der Helmholtz-Gemeinschaft - mit dem Ziel, die Entwicklung komplexer Programme auf Hochleistungsrechnern zu verbessern und zu beschleunigen. Dabei steht insbesondere die Entwicklung geeigneter Werkzeuge zur Leistungsoptimierung im Zentrum der gemeinsamen Aktivitäten. Um diese Werkzeuge interessierten Nutzern vorzustellen und näher zu bringen, bietet das VI-HPS regelmäßig Trainingsveranstaltungen in Form mehrtägiger Tuning-Workshops und Konferenztutorien an. Bei den Workshops haben die Teilnehmer die Gelegenheit, ihre eigenen Programme unter der Anleitung von Experten auf dem Gebiet der Performance-Analyse, Performance-Optimierung und Skalierbarkeit paralleler Programme zu bearbeiten. Falls Sie über weitere Veranstaltungen dieser Art informiert werden möchten, können Sie unter https://mailman.rwth-aachen.de/mailman/listinfo/vi-hps-news/ einen Newsletter abonnieren. Weitere Informationen zum VI-HPS, zu den angebotenen Programmierwerkzeugen sowie zum Trainingsprogramm finden Sie unter: http://www.vi-hps.org/

Energy Solution Center in Karlsruhe

Das Energy Solution Center e.V. (EnSoC) verfolgt das Ziel, Kompetenzen aus Wissenschaft und Wirtschaft für gemeinsame Herausforderungen in der Energiewirtschaft unter Nutzung des HPC zu bündeln. Dazu wird insbesondere die Entwicklung von Verfahren und Programmen gefördert. Der gemeinnützige Verein wird vom Land Baden-Württemberg unterstützt. Zu den Mitgliedern gehören neben dem Karlsruher Institut für Technologie (KIT) sieben Industrieunternehmen. Bereits 2010 wurden zwei innovative Forschungsprojekte durch EnSoC initiiert. Eines dieser Projekte widmet sich der Entwicklung von Konzepten und Lösungen für den energetisch optimierten Einsatz von HPC-Systemen in einer Cloud, um auf die Energiewirtschaft zugeschnittene HPC-Services zu realisieren. In dem zweiten Projekt steht das zeitabhängige Lastverschiebepotential im Bereich der Elektromobilität im Fokus der Forschungsarbeiten. Dazu wird das komplexe Zusammenspiel Millionen stationärer und mobiler Verbraucher mit Hilfe von HPC-Simulationen evaluiert. Neue, insbesondere mittelständische Mitglieder können durch zusätzliche Impulse zum wichtigen Praxisbezug des EnSoC beitragen, um IT-basierte Verfahren und Lösungen noch enger auf relevante Anwendungsmöglichkeiten abzustimmen. Fragestellungen reichen von der Bewertung der Auswirkungen erneuerbarer Energien in den Energienetzen über HPC-Sicherheitsfragen bis hin zur Möglichkeit der Simulation zukünftiger Energiespeicherung. Das Steinbuch Centre for Computing des KIT beteiligt sich an den Projekten und stellt HPC-Ressourcen zur Verfügung. Weitere Informationen: http://www.ensoc.de

Ein Jahr 100-Gbit/s-Testbed: Dresden/Freiberg

Im Juni 2010 haben Alcatel-Lucent und T-Systems im Rahmen einer Kooperation zur Evaluation der ersten kommerziell verfügbaren 100-Gbit/s-Technik die TU Dresden und die TU Bergakademie Freiberg über eine 60 km lange Strecke miteinander vernetzt. Durch zusätzliche Kabeltrommeln war es zudem möglich, die Entfernung der beiden Endgeräte zwischen 60, 200 und 400 km umzuschalten. Die Daten werden dabei über eine einzige Wellenlänge transportiert. Für die Untersuchung verschiedener anwendungsorientierter Szenarien unter Einsatz dieser Technologie haben die Projektpartner HP, DDN sowie VMware zusätzliche Hardware- und Software-Komponenten zur Verfügung gestellt. Im Hinblick auf das wachsende Potential des Cloud-Computings im universitären Umfeld wurden zunächst Eigenschaften von Clustern virtueller Maschinen untersucht, die über beide Standorte verteilt waren. Bei diesem Teilprojekt wurden insbesondere Möglichkeiten herausgearbeitet, derartige Cluster auch über große Entfernungen hinweg betreiben zu können. Für eine Analyse solcher Umgebungen wurden auf dem Testbed drei parallele Dateisysteme (Lustre, GPFS und FraunhoferFS) installiert und sowohl der Einfluss der Latenz auf die Dateisystem-Performance als auch die maximal erreichbaren Bandbreiten untersucht, die mit dieser Netzwerktechnologie erreichbar sind. Hierbei wurden bidirektionale Bandbreiten von mehr als 22 GByte erreicht. Die Ergebnisse werden auf einem Abschluss-Workshop am 28. September 2011 in Mannheim vorgestellt. http://www.tu-dresden.de/zih/veranstaltungen/workshops