September 2012

Gauß-Allianz Infobrief - Ausgabe 11

LRZ startet mit SuperMUC in die nächsten 50 Jahre

Bei einem Festakt mit Bundesministerin Annette Schavan und dem bayerischen Wissenschaftsminister Wolfgang Heubisch ging am 20. Juli 2012 in Garching bei München der neue Höchstleistungsrechner des Leibniz-Rechenzentrums (LRZ) der Bayerischen Akademie der Wissenschaften (BAdW) offiziell in Betrieb. SuperMUC ist mit mehr als 3 Petaflops Rechenleistung der viertschnellste Rechner der Welt und der schnellste Rechner Europas. Zugleich feierte das LRZ mit diesem Festakt seinen 50. Geburtstag. Am 7. März 1962 gründete die BAdW auf Betreiben der Professoren Hans Piloty und Robert Sauer ihre „Kommission für elektronisches Rechnen“, heute „Kommission für Informatik“. Sie beschloss, mit Unterstützung durch den Freistaat Bayern ein Rechenzentrum zu errichten. Dieses Leibniz-Rechenzentrum gehört heute zu den führenden akademischen Rechenzentren Europas. Anlässlich des Jubiläums wurde eine Chronik veröffentlicht, und die BAdW hat die vollständige Ausgabe Nr. 41 ihrer Zeitschrift „Akademie aktuell“ dem Jubiläum und natürlich SuperMUC und dem Hochleistungsrechnen gewidmet. Weitere Informationen: http://www.lrz.de/SuperMUC

Effiziente Spracherweiterungen leicht gemacht

Das BMBF fördert seit 2011 das Projekt „Effiziente und offene Compiler Umgebung für Semantisch annotierte parallele Simulationen“ (ECOUSS) im Rahmen des Programmes „IKT 2020 – Forschung für Innovationen“ für drei Jahre. Um moderne Rechensysteme noch effizienter nutzen zu können, sind erweiterte Programmieransätze notwendig, die es ermöglichen, mit der wachsenden Parallelität und Heterogenität Schritt zu halten. Derzeit sind nur wenige Experten in der Lage, solche Systeme effi-zient auszunutzen. Insbesondere die Anforderungen, die sich durch die Migration auf neue Rechensysteme ergeben, sind eine enorme Hürde. Dabei greifen die meisten Experten auf Kernmechanismen zurück, die für den spezifischen Anwendungstyp und die gewählte Zielplattform am besten geeignet sind. Diese Mechanismen sind aber weder den meisten Anwendern geläufig, noch ist deren Abhängigkeit zur Zielplattform klar, so dass sie nicht auf die Charakteristika anderer Infrastrukturen übertragbar sind. ECOUSS hat das Ziel, die Nutzung solcher Programmiermuster oder Optimierungsmechanismen einfacher zu gestalten und deren Nutzung über Plattformgrenzen hinweg zu ermöglichen. Damit können nicht nur neue Anwendungen schneller und effizienter entwickelt, sondern auch existierende einfacher auf neue Plattformen migriert werden. ECOUSS erlaubt dabei einfache Entwicklungen neuer Plattform- und Optimierungsprofile, und somit einfache Adaptationen an neue Domänen, wie durch die Anforderungen durch die assoziierten Partner RTT und Böhringer Ingelheim demonstriert wird. Partner des Projekts sind das HLRS, die Universität des Saarlandes, das Intel Visual Computing Institut, das Deutsche Forschungszentrum für Künstliche Intelligenz, die Universität Karlsruhe, das KIT sowie die Cray Computer Deutschland GmbH. Weitere Informationen: ECOUSS

HPC-Software zur Leistungsanalyse

Im Projekt „Integrierte System- und Anwendungsanalyse für massivparallele Rechner“ (ISAR) des 1. BMBF-Calls zur Förderung von HPC-Software für skalierbare Parallelrechner wurde eine neuartige Umgebung zur Leistungsanalyse geschaffen, die nun als Open Source zur Verfügung steht. Grundlage dieser Umgebung ist das Leistungsanalysewerkzeug Periscope, das automatisch während der Ausführung von HPC-Programmen online nach Leistungsengpässen sucht. Eine Hierarchie von Analyseagenten macht das Werkzeug skalierbar für größte parallele Systeme. Über die detaillierte Analyse einzelner Anwendungen hinaus wurde in ISAR das Systemwerkzeug Periscope System Monitoring (PerSyst) realisiert. PerSyst überwacht HPC-Systeme und die darauf ausgeführten Anwendungen, um Optimierungspotential und Systemengpässe zu erkennen. Die gewonnenen Daten werden den Systembetreuern über eine Datenbank zur Verfügung gestellt, können aber auch direkt in eine detaillierte Anwendungsanalyse mit Periscope einfließen. Hierbei werden die gefundenen Leistungseigenschaften und deren zeitliches Auftreten zu Beginn der Analyse mit Periscope eingelesen, um einzelne Unterprogramme, Schleifen, parallele Regionen und MPI-Aufrufe mit Optimierungspotential zu identifizieren. Partner des ab 2008 für drei Jahre geförderten Projekts waren die TU München, die Gauss-Zentren LRZ und RZG sowie IBM und ParTec. Die Projektergebnisse fließen auch in Werkezeuge von IBM und ParTec ein. Weitere Informationen: ISAR

GA-Jahresmitgliederversammlung Juli 2012

Am 20. Juli fand die Jahresmitgliederversammlung der Gauß-Allianz (GA) statt, bei der zwei neue assoziierte Mitglieder begrüßt werden konnten: Die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) sowie die Johannes Gutenberg Universität- Mainz gehören nun zu den insgesamt 17 Mitgliedern der deutschen HPC-Allianz. Die Versammlungsteilnehmer unterstrichen die strategische Rolle des Hochleistungsrechnens für Deutschland und vereinbarten eine noch engere Kooperation, um ihr Portfolio dienstleistungsorientiert abbilden und anbieten zu können. Dazu gehört auch die Entwicklung einer neuen Web-Plattform, die die Schwerpunkte der einzelnen Zentren deutlicher aufzeigen und HPC-Nutzern den Überblick und Zugriff auf die entsprechenden Ressourcen erleichtern soll. Dieses „Nationale HPC-Ressourcen-Portal“ wird auf einer derzeit erarbeiteten Ressourcen-Landkarte basieren und forciert eine stärkere Profilbildung innerhalb der GA. Parallel dazu bekräftigten die Teilnehmer der Jahresversammlung die Vernetzungsfunktion des Internetauftritts der Gauß-Allianz. Dieser soll die vom BMBF unterstützten HPC-Projekte nicht nur präsentieren, sondern auch ihre Projektergebnisse dauerhaft archivieren. Wenn als Projektergebnis Open-Source-Software entstanden ist, soll auch diese direkt auf den GA-Seiten verfügbar gemacht werden.

Einfacher Zugang zu geschützten Ressourcen

Der DFN-Verein betreibt eine Authentifikations- und Autorisierungs-Infrastruktur (DFN-AAI), um Nutzern von Einrichtungen aus Wissenschaft und Forschung über das Wissenschaftsnetz einen Zugang zu geschützten Ressourcen (z. B. wissenschaftlichen Veröffentlichungen, lizenzpflichtiger Software, Großrechnern, Grid-Ressourcen) zu ermöglichen. Nutzer, die auf geschützte Ressourcen zugreifen wollen, können sich an ihrer Heimateinrichtung authentifizieren und nach Übertragung der zur Autorisierung notwendigen Daten Zugang zu den Ressourcen erlangen. Weitere Informationen: https://www.aai.dfn.de/der-dienst/

Symposium „The Challenge of Big Data in Science“

In praktisch allen Wissenschaftsdisziplinen steigt die Menge der Daten stetig an. Durch Experimente, Beobachtungen und Messungen werden Tag für Tag gewaltige Datenmengen produziert, die für die Wissenschaftler einerseits neue Möglichkeiten darstellen, andererseits jedoch auch neue Herausforderungen beinhalten. Diesen Herausforderungen im Datenmanagement und in der Datenanalyse widmet sich das internationale LSDMA (Large Scale Data Management and Analysis)-Symposium „The Challenge of Big Data“, das am 25. September 2012 am Steinbuch Centre for Computing (SCC) des KIT stattfindet. Keynote-Sprecher werden Alex Szalay vom Sloan Digital Sky Survey und Bob Sinkovits vom San Diego Supercomputer Center sein. Zu den weiteren Referenten gehört auch Leibniz-Preisträger Peter Sanders vom KIT. Das Symposium soll insbesondere neue Perspektiven eröffnen und Raum für Diskussionen bieten. Weitere Informationen: https://indico.desy.de/event/BigDataSymposium

Start der letzten Ausschreibungsrunde des RP7

Seit Juli läuft die letzte Ausschreibungsrunde des 7. Rahmenprogramms für Forschung und technologische Entwicklung (RP7), mit dem die EU zwischen 2007 und 2013 europäische Forschungsarbeiten mit insgesamt 50,5 Milliarden Euro fördert. Die Verbundforschung in den Informations- und Kommunikationstechnologien (IKT) ist ein wichtiger Bestandteil dieser Förderung. Die europäische Forschungsförderung im Bereich HPC ist dringend nötig, um im weltweiten Wettbewerb Schritt halten zu können, denn die Verfügbarkeit von Rechenkapazität ist längst zum Standortfaktor für Wissenschaft und Forschung sowie für viele Wirtschaftszweige geworden. So wird die Schaffung neuer Formen vernetzter Geschäftsprozesse und Anwendungen gefördert, um z.B. neue technische Ansätze für die Anwendung von IKT in der Fertigung zu entwickeln. Die Ausschreibungen betreffen u.a. Cloud-Computing in der Ausschreibung „Software Engineering, Services and Cloud Computing“ im Umfang von 41,5 Mio. Euro, Datenmanagement auf dem Gebiet Technologien für digitale Inhalte und Sprachen in der Ausschreibung „Scalable data analytics“ mit 31 Mio. Euro, energieeffiziente Rechenzentren im Forschungsbereich Informations- und Kommunikationstechnologien für eine kohlenstoffarme Wirtschaft durch den Call „Data Centres in an energy-efficient and environmentally friendly Internet“ mit 20 Mio. Euro und das Exascale-Computing als besondere Maßnahme unter der Ausschreibung “Exascale computing platforms, software and applications” mit 22 Mio. Euro. Weitere Informationen zu den verschiedenen Ausschreibungen und Fristen: