Feierliche Hermit-Einweihung in Stuttgart
Mit einem Festakt wurde am 24. Februar am Höchstleistungsrechenzentrum Stuttgart (HLRS) vor rund 100 geladenen Gästen aus Industrie und Wissenschaft das Rechnersystem Hermit offiziell für die Nutzer freigegeben. Bundesforschungsministerin Annette Schavan und Winfried Kretschmann, Ministerpräsident Baden-Württemberg, gaben im Beisein des Rektors der Universität Stuttgart, Prof. Wolfram Ressel, den Startschuss für die Inbetriebnahme des derzeit schnellsten Supercomputers Deutschlands und schnellsten zivil genutzten Rechners Europas. Mit einer Leistung von mehr als 1 PetaFlops (1 Billiarde Rechenoperationen pro Sekunde) liegt Hermit in der TOP-500-Liste auf Rang 12 und im Ranking der industriell genutzten Supercomputer weltweit auf Platz Eins. Hermit basiert als erstes System in Europa auf der Cray-XE6-Supercomputer-Technologie und dem AMD-Interlagos-Prozessor. Bei seiner Konfiguration wurden speziell die Anforderungen der Nutzer aus der Industrie bedacht; die real erzielbare Leistung für Anwendungen war höchste Priorität. Hermit soll zudem Forschungszwecken besonders aus den Bereichen Gesundheit, Mobilität, Energie und Umwelt dienen.
CUDA Research & Teaching Center für Erlangen
Um die Kompetenzen im Bereich GPU-Computing zu bündeln, hat sich ein interdisziplinäres Konsortium der Friedrich-Alexander Universität Erlangen-Nürnberg (FAU) erfolgreich um die Einrichtung eines CUDA Research Centers (CRC) sowie eines CUDA Teaching Centers (CTC) bemüht. Mit dem CRC werden die Kontakte zwischen Forschern der FAU und Ingenieuren von NVIDIA gestärkt, um so die Rolle der FAU als treibende Kraft im Bereich Simulationen und wissenschaftliches Rechnen auf Grafikkarten auszubauen und weitere Einsatzmöglichkeiten von CUDA-GPUs zu erkunden. Durch das CTC hat NVIDIA die FAU mit einem Satz leistungsfähiger Grafikkarten ausgestattet, die einer noch engeren Verzahnung von Forschung und Lehre dienen sollen.
Gauß-Allianz konstituiert NGI-DE-Beirat
Die Gauß-Allianz hat einen speziell auf die Belange der Nationalen Grid Initiative (NGI) in Deutschland ausgerichteten Beirat (NGI-DE-Beirat) eingesetzt, mit dem das NGI-DE-Konsortium unter Leitung des KIT in besonderer Weise zusammenarbeitet. Der NGI-DE-Beirat fördert die enge Abstimmung zwischen dem NGI-DE-Konsortium und den Nutzer-Communities. Er bündelt die Anforderungen aus den Communities und erteilt dem Konsortium Empfehlungen in allen Fragen der NGI, insbesondere in Angelegenheiten von strategischer Bedeutung. Der Beirat setzt sich aus je einem Vertreter der Nutzer-Communities zusammen. Vertreter des NGI-DE-Konsortiums sind beratende Mitglieder des NGI-Beirates. Auf der konstituierenden Sitzung am 10. Oktober 2011 wurden Prof. Sabine Roller von der German Research School for Simulation Sciences und RWTH Aachen zur Vorsitzenden und Prof.Dagmar Krefting von der HTW Berlin zur stellvertretenden Vorsitzenden des Beirats gewählt.
HPC-Kompetenznetzwerk KONWIHR fortgesetzt
Der Freistaat Bayern setzt seine lange Tradition bei den HPC-Kompetenznetzwerken fort und startete zum 1. Januar 2012 die dritte Förderperiode des Kompetenznetzwerks für wissenschaftliches Höchstleistungsrechnen in Bayern (KONWIHR-III). Drei Jahre lang stehen nun jeweils 500.000 Euro zur Förderung von Projekten der Optimierung und Parallelisierung numerischer Applikationen zur Verfügung. Um die Breite und Nachhaltigkeit des Netzwerks zu erhöhen, werden Arbeiten auf der gesamten Skala vom Institutsrechner über die Linuxcluster am LRZ und RRZE bis hin zum neuen PetaFlops-System „SuperMUC“ unterstützt. Die anwendungsgetriebenen Projekte werden in enger Kooperation mit dem LRZ und RRZE durchgeführt und von diesen intensiv betreut. Weitere Informationen: http://go.fau.de/1acj
LMAC – Leistungsdynamik massiv-paralleler Codes
Um die zeitliche Entwicklung eines Systems vorherzusagen, vollziehen numerische Simulationen eine Serie diskreter Zeitschritte. Das Leistungsverhalten der einzelnen Zeitschritte ist jedoch oft uneinheitlich und es lassen sich vielfältige Muster identifizieren. Lastverteilung spielt dabei ebenso eine Rolle wie dynamische Gitternetzverfeinerung in adaptiven Codes. Die genaue Kenntnis der Leistungsdynamik ist daher unverzichtbar, um Leistungsengpässe zu minimieren. Um die Entwickler paralleler Simulationscodes dabei wirksam zu unterstützen, werden in LMAC, einem Projekt der zweiten HPC-Ausschreibung des BMBF, die Leistungsanalysewerkzeuge Vampir, Scalasca und Periscope mit automatischer Funktionalität zur Untersuchung der Leistungsdynamik ausgestattet. Partner sind die German Research School for Simulation Sciences in Aachen als Koordinator sowie das Forschungszentrum Jülich, die GNS mbH, die RWTH Aachen, die TU Dresden und die TU München. Die University of Oregon, ein assoziierter Projektpartner, ergänzt das Vorhaben durch entsprechende Erweiterungen von TAU. Gleichzeitig widmet sich das Projekt der Weiterentwicklung und Pflege der Messinfrastruktur Score-P, welche das gemeinsame Fundament der vier Tools bildet. Die geplanten Entwicklungen werden von Trainings- und Supportangeboten im Rahmen des Virtual Institute – High Productivity Supercomputing flankiert. Weitere Informationen: LMAC
CFD-Code-Optimierung für Many-Core-Architekturen
Das BMBF hat das Projekt HICFD in der ersten Förderinitiative „HPC-Software für skalierbare Parallelrechner“ für drei Jahre gefördert. Ziel war die Entwicklung generischer Methoden und Werkzeuge für die Optimierung von CFD-Verfahren für Many-Core-Rechner und deren exemplarische Anwendung auf die Codes TAU und TRACE, um die nationale und europäische Luftfahrtindustrie in die Lage zu versetzen, die komplette Versorgungspyramide vom Abteilungsrechner bis hin zu den nationalen (GCS) oder europäischen (PRACE) Ressourcen optimal zu nutzen. Die angestrebte Leistungssteigerung der Simulationsrechnungen wurde durch Ausnutzung der Parallelitätsebenen MPI / OpenMP / SIMD erzielt. Dazu wurden unter anderem hochskalierende hybride OpenMP/MPI-Verfahren implementiert sowie ein SIMD-Präprozessor entwickelt, der die komfortable Nutzung paralleler SIMD-Einheiten auch für komplexe Anwendungen ermöglicht. Partner im Projekt waren das Deutsche Zentrum für Luft- und Raumfahrt e.V., das Institut für Aerodynamik und Strömungstechnik, das Institut für Antriebstechnik und die Einrichtung Simulations- und Softwaretechnik sowie die T-Systems Solutions for Research GmbH, das ZIH der TU Dresden, die IBM Deutschland GmbH, die Airbus Deutschland GmbH und die MTU Aero Engines AG. Weitere Informationen: HI-CFD
EU-Projekte zur Exaflop-Herausforderung
Das von der EU geförderte Projekt Collaborative Research into Exascale Systemware, Tools & Applications (CRESTA) ist eines der drei aktuellen europäischen Exascale-Projekte. Während die beiden Projekte DEEP und Mont-Blanc einen stark Hardware orientieren Ansatz verfolgen, nutzt CRESTA einen Co-Design-Ansatz. Ziel ist es, Trends für mögliche Exascale-Systeme zu bewerten und abzuschätzen. Basierend auf diesen Trends sollen Entwicklungen der Entwicklungsumgebungen, Algorithmen, Bibliotheken, Anwendungswerkzeuge und Anwendungen vorangetrieben werden. Neben der erhöhten Skalierbarkeit von individuellen Anwendungen aus den Schlüsselgebieten wie Energie, Klima, Nanotechnologie und Medizin werden die Anwendungen auch zum Test und zur Verifizierung der Entwicklungen auf den Schwerpunktgebieten von CRESTA verwendet. Insbesondere durch die Weiterentwicklung von Algorithmen und die Bereitstellung der Gesamtentwicklungsumgebung von CRESTA wird der Übergang zu Exascale-Technologien drastisch vereinfacht. Das Konsortium von CRESTA besteht aus 13 Partnern – allen voran europäische Universitäten. Weitere Informationen: http://cresta-project.eu/
EU-U.S. Summer School im Hochleistungsrechnen
Das dritte Jahr in Folge findet die “European-U.S. Summer School on High Performance Computing (HPC) Challenges in Computational Sciences” statt, diesmal wieder in Europa: in Dublin, vom 24.-28. Juni 2012. Graduierte Studenten, Doktoranden und Post-Docs aus den verschiedenen Gebieten der Computational Sciences mit HPC-Bezug aus US-amerikanischen oder europäischen Einrichtungen sind zur Teilnahme eingeladen. Führende amerikanische und europäische Wissenschaftler werden den Studenten Einblick in die Herausforderungen, Lösungsansätze und Programmiermethoden für Supercomputing-Simulationen in den verschiedenen Bereichen der Computational Sciences geben. Es handelt sich um eine gemeinsame Veranstaltung der Partnership for Advanced Computing in Europe (PRACE), und dem amerikanischen XSEDE-Projekt, gefördert von der National Science Foundation. Die Teilnahme und der Aufenthalt (Hotel und Verpflegung) sind für Studenten kostenlos. Bewerbungsschluss ist am 18. März 2012. Weitere Informationen: https://www.xsede.org/web/summerschool12