Juli/August 2012

Gauß-Allianz newsletter - Issue 10

Dritter HPC-Call des BMBF veröffentlicht

Das BMBF gab am 25. Mai die Richtlinien zur Förderung von Forschungsvorhaben auf dem Gebiet „Anwendungsorientierte HPC-Software für skalierbare Parallelrechner“ im Rahmen des Förderprogramms „IKT 2020 - Forschung für Innovationen“ bekannt. Nach den bereits 2008 und 2010 erfolgten Ausschreibungen auf diesem Gebiet stellt das BMBF damit zum dritten Mal spezifische Fördermittel für das HPC bereit und würdigt so die entscheidende Bedeutung des Hoch- und Höchstleistungsrechnens für Wirtschaft, Technik und den Erhalt unserer Lebensgrundlagen. Durch die Fördermaßnahme sollen gezielt solche Themen adressiert werden, die eine große Wirkung im Hinblick auf industrielle Anwendungen (z. B. Multiskalensimulationen) bzw. auf die technologische Weiterentwicklung im Zusammenhang mit Rechnern der nächsten Generation (Exascale-Rechnern) entfalten. Da nur eine interdisziplinäre Zusammenarbeit der Experten und Institutionen die Aufgabenstellung lösen kann, werden Verbundprojekte mit Partnern der HPC-Community und Anwendern aus Wissenschaft und Wirtschaft erwartet. Projektskizzen und Anträge für einen Ideenwettbewerb können bis 27. August 2012 beim zuständigen Projektträger eingereicht werden. Weitere Informationen: http://www.bmbf.de/foerderungen/18922.php

SuperMUC am LRZ Nummer 1 in Europa

„SuperMUC“, der neue Höchstleistungsrechner des LRZ mit mehr als 3 Petaflops Spitzen-Rechenleistung, belegt in der aktuellen TOP500-Liste der schnellsten Supercomputer weltweit den vierten und in Europa den ersten Platz. Die Allzweckprozessoren dieses Hochleistungsrechners sind besonders vielseitig einsetzbar. Mit einer PUE von 1,1 setzt die Warmwasserkühlung des Systems neue Maßstäbe in der Energieeffizienz. SuperMUC verfügt über mehr als 155.000 Rechenkerne, mehr als 330 Terabyte Hauptspeicher, ein nicht-blockierendes InfiniBand-Netzwerk mit Fat-Tree-Topologie sowie ein paralleles temporäres GPFS-Dateisystem mit 10 Petabyte. Für die dauerhafte Speicherung der Benutzerdaten stehen 4 Petabyte Plattenspeicher und für die langfristige Archivierung 16,5 Petabyte Archivkapazität auf Bandsystemen zur Verfügung. SuperMUC ist ein wichtiger Beitrag zur europäischen HPC-Infrastrukur PRACE. Weitere Informationen: http://www.lrz.de/SuperMUC

Forschungshochleistungsrechner für das KIT

Der Bund und das Land Baden-Württemberg fördern mit insgesamt knapp 26 Millionen Euro in den Jahren 2013 bis 2015 den Aufbau eines Forschungshochleistungsrechners (ForHLR) am Steinbuch Centre for Computing (SCC) des Karlsruher Instituts für Technologie (KIT). Das gab die Gemeinsame Wissenschaftskonferenz (GWK) Ende Juni in Berlin bekannt. Der geplante ForHLR soll es Wissenschaftlern aus den Bereichen Umwelt, Energie, Nanostrukturen und -technologien sowie den Materialwissenschaften ermöglichen, komplexe Anwendungsprobleme in neuen Größenordnungen zu bearbeiten. Er trägt damit dem gestiegenen Bedarf an Hochleistungsrechnerkapazität in den genannten Forschungsbereichen Rechnung. Das energieeffiziente Petaflop-System mit zugehöriger Visualisierungskomponente soll insbesondere zu einem vertieften Verständnis natur- und ingenieurwissenschaftlicher Fragestellungen sowie zu methodischen Fortschritten bei der Simulation und Visualisierung komplexer Systeme beitragen. Der effiziente Einsatz des Systems soll durch die am KIT etablierte Methodenforschung optimal unterstützt werden.

Auszeichnungen für e-cube-Architektur

Die Frankfurter e-cube-Architektur für HPC-Systeme wurde innerhalb weniger Wochen gleich drei Mal ausgezeichnet. Nach dem GreeenIT Best Practice Award für einen der ersten CO2-neutralen Supercomputer, den LOEWE-CSC-Rechner der Goethe-Universität Frankfurt, wurde der Rechner auch im Rahmen der Initiative „Land der Ideen“ der Bundesregierung geehrt. Zuletzt erhielt das Rechenzentrum „MiniCube“ des Helmholtzzentrums für Schwerionenforschung (GSI) den Deutschen Rechenzentrumspreis 2012 in der Kategorie Klima und Kältetechnik. Das Besondere an der von Prof. Volker Lindenstruth, Goethe-Universität Frankfurt und dem GSI, entwickelten e-cube-Rechnerarchitektur, ist das innovative energie- und kostensparende Kühlkonzept. Die Türen der Rechnerschränke werden mit Wasser gekühlt, so dass praktisch keine Wärme in die Raumluft gelangt. Dies wurde am Center for Scientific Computing (CSC) der Goethe-Universität erprobt. Da keine zusätzlichen Ventilatoren benötigt werden, reichen für die Kühlung fünf bis sieben Prozent des Strombedarfs des Computers zusätzlich aus. Neben der Senkung der Betriebskosten ermöglicht die e-cube-Architektur ein reduziertes Bauvolumen und stellt geringere Anforderungen an die Gebäudeinfrastruktur als herkömmliche Höchstleistungsrechner. In Darmstadt entsteht bis 2014 nach diesem Modell das Rechenzentrum „Green-Cube“ mit einer geplanten Kühlleistung von 16 MW für das internationale Beschleunigerzentrum „FAIR“ mit etwa 800 Rechnerschränken.

Neues Europäisches HPC-Forum gegründet

Verschiedene Anbieter und Forschergruppen aus dem Bereich HPC haben sich zur European Technology Platform for HPC (ETP4HPC) zusammengeschlossen. Ziel dieses Verbunds ist es, die Europäische Kommission (EC) zu beraten, wie künftig wettbewerbsfähige HPC-Lösungen in Europa besser gefördert und ein nachhaltiger europäischer HPC-Sektor aufgebaut werden kann. Zu den Begründern des Forums gehören die Anbieter Allinea, ARM, Bull, Caps Entreprise, Eurotech, IBM, Intel, ParTec, STMicroelectronics und Xyratex sowie die HPC-Forschungszentren BSC, CEA, CINECA, Fraunhofer, das JSC und das LRZ. Die Technologieplattform ETP4HPC arbeitet eng mit der bestehenden HPC-Infrastruktur für die Wissenschaft und Wirtschaft in Europa „Partnership for Advanced Computing in Europe“ (PRACE) zusammen, um wichtige HPC-Nutzeranforderungen und -Aspekte berücksichtigen zu können. Weitere Mitglieder mit europäischem Forschungs- und Entwicklungsstandort sind willkommen. Weitere Informationen: http://www.etp4hpc.eu/

HPC-Software-Projekt TIMaCS erfolgreich abgeschlossen

Das Projekt „Tools for Intelligent System Management of Very Large Computing Systems“ (TIMaCS) wurde bis 2011 vom BMBF innerhalb des 1. HPC-Software-Calls gefördert. Ziel war es, die Komplexität der manuellen Administration von Rechenanlagen deutlich zu reduzieren. Das entwickelte Framework basiert dabei auf Techniken der Virtualisierung, der wissensbasierten Analyse und Bewertung von gesammelten Informationen sowie der Definition von Metriken und Policies. Neben reaktiven Maßnahmen sind z. B. durch Regressionstests auch präventive Eingriffe vor dem Auftreten von Fehlern der überwachten Systeme vorgesehen. Die Komponenten wurden in einer produktionsähnlichen Umgebung bei den beteiligten Rechenzentren getestet und evaluiert. Mit TIMaCS erhält die HPC-Gemeinschaft eine skalierbare Monitoring- und Management-Lösung, die eine einfache Integration existierender Werkzeuge (z. B. Nagios, Ganglia) ermöglicht. Projektpartner waren das HLRS, das ZIH, science+computing, NEC und die Universität Marburg. Die Ergebnisse des Projekts sind öffentlich zugänglich unter: TIMaCS

Die Suche nach der Wissensnadel im Daten-Heuhaufen

Das Projekt „Multimodale Informationsextraktion aus unstrukturierten Daten auf HPC Systemen“ (UIMA-HPC), wird seit vergangenem Jahr vom BMBF innerhalb des zweiten Förderprogramms für HPC-Software für skalierbare Parallelrechner unterstützt. Es beschäftigt sich mit der multimodalen Informationsextraktion aus unstrukturierten Daten auf HPC-Systemen. Hintergrund ist die weltweit ständig wachsende Fülle von Fachartikeln, Patenten und anderen Nachrichtenquellen, die keinen schnellen Überblick mehr zulässt. Ziel des Projekts ist es, Verfahren zu entwickeln, die das bestehende Wissen in unstrukturierten Quellen schnell und effizient für neue Fragestellungen nutzbar machen. Zum einen werden neue Methoden der rechnerunterstützten Informationsextraktion benötigt, um Wissenschaftlern relevante Information in kompakter und strukturierter Form zur Verfügung zu stellen. Zum anderen spielt der Zeitfaktor bei der automatischen Verarbeitung eine wesentliche Rolle und erfordert die Einbeziehung moderner Rechnerarchitekturen. Partner des Projekts sind Fraunhofer SCAI (Koordinator), ISC, Taros Chemicals GmbH & Co KG und scapos AG. Weitere Informationen: UIMA-HPC

PGI-Accelerator-Workshop am ZIB

Am ZIB fand im Juni ein Workhop zum PGI-Accelerator statt. Nach der Darstellung der aktuellen GPU- und Many-Core-Architekturen präsentierte Dr. Michael Wolfe, leitender Compiler-Entwickler bei Portland Group, ausgefeilte Techniken zur Programmierung mit CUDA und vertiefend mit OpenACC. Ihre neu erworbenen Kenntnisse konnten die Teilnehmer mit dem PGI-Accelerator an einem ZIB-Testsystem umsetzen. Durch Überlagerung von Datentransferzeiten und Berechnungen auf der GPU konnte eine Beschleunigung der Programme erzielt werden, allerdings nur bei genügender Lokalität der Daten. Die Hauptspeichergröße der GPU ist dabei der limitierende Faktor.