Strategische Weiterentwicklung des HPC in Deutschland
Die wichtige Rolle von Computational Science and Engineering (CSE) und HPC als Schlüssel für den Erkenntnisgewinn in zahlreichen wissenschaftlichen Disziplinen war für den Wissenschaftsrat Anlass für eine Bestandsaufnahme der Versorgungssituation von Forschenden mit HPC-Kapazitäten sowie der Förderung der notwendigen Methodenkompetenz. Das im Januar verabschiedete Positionspapier „Strategische Weiterentwicklung des Hoch- und Höchstleistungsrechnens in Deutschland“ unterstreicht die Bedeutung von HPC-Kompetenzzentren für die Wettbewerbsfähigkeit. Neben leistungsfähigen Rechnerinfrastrukturen hat hierbei die Integration von Methodenkompetenz, Anwenderberatung sowie Forschung und Lehre einen hohen Stellenwert. Die Organisation der nationalen Rechenzentren in einer sogenannten Leistungspyramide – mit wenigen Zentren an der Spitze und einem breiteren Angebot an Rechensystemen in den unteren Leistungsklassen – bewertet der Wissenschaftsrat als positiv. Im Hinblick auf die Finanzierungsmodalitäten ist nach Meinung der Experten jedoch für Beschaffungen von Rechensys-temen der beiden obersten Leistungsklassen ein nachhaltiges Engagement von Bund und Ländern erforderlich. Die Einrichtung der Gauß-Allianz als Dachorganisation für die HPC-Aktivitäten in Deutschland wird begrüßt. Um die Koordination der Rechenzentren in Zukunft angemessen und transparent zu bewältigen, empfiehlt der Wissenschaftsrat allerdings nachdrücklich, die notwendigen finanziellen Voraussetzungen für die Selbstorganisation der GA zu prüfen. Weitere Informationen: http://www.wissenschaftsrat.de/download/archiv/1838-12.pdf
Föderatives Identitätsmanagement in Baden-Württemberg
Die Hochschulen des Landes Baden-Württemberg stellen ihren Nutzern eine große und stetig steigende Anzahl von IT-Diensten und -Ressourcen zur Verfügung, die maßgeblich zur Qualität und Attraktivität der Hochschulen beitragen. Da die Zugangsverfahren für diese Angebote oftmals auf die Mitglieder der eigenen Hochschule zugeschnitten sind, ist ihre Verwendung für Standortfremde häufig nur mit größerem Aufwand möglich. Ziel des vom Land Baden-Württemberg geförderten Identitätsmanagement-Projekts „bwIDM“ ist daher die Realisierung eines einfachen Zugriffs auf landesweite Ressourcen und Dienste aus einem lokalen Kontext heraus. Die Nutzer sollen mit ihrer gewohnten Kennung aus ihrer gewohnten Umgebung auf die Infrastrukturen und Service-Angebote anderer Hochschulen der Föderation zugreifen können, als wären diese physisch vor Ort. Die Leitung des Projekts, das von allen neun Landesuniversitäten getragen und unterstützt wird, liegt beim Steinbuch Centre for Computing (SCC) des KIT. Weitere Informationen: http://www.bw-grid.de/bwservices/bwidm/
CUDA Center of Excellence in Dresden
Die TU Dresden, das Helmholtz-Zentrum Dresden-Rossendorf und das Max-Planck-Institut für Zellbiologie und Genetik sind unter dem gemeinsamen Dach des DRESDEN-concept e. V. von der Firma NVIDIA als erstes deutsches CUDA Center of Excellence ausgezeichnet worden. Damit würdigte NVIDIA die erfolgreichen Arbeiten der Partner im Bereich GPU-Computing – einer Technologie, die sich im wissenschaftlichen Rechnen in den letzten Jahren etabliert hat. Das Center of Excellence soll den Wissenschaftlern der verschiedenen Forschungsrichtungen sowie dem Industriepartner SimuNova die Möglichkeit bieten, diese moderne Technologie gemeinsam zu nutzen und so den Wissenschaftsstandort Dresden im Wettlauf um wissenschaftliche Durchbrüche zu stärken. Im Rahmen der Kooperation sollen neben der engen Zusammenarbeit in Forschung und Entwicklung weitere Synergien entstehen. So planen die Mitglieder des Centers of Excellence die gemeinsame Ausbildung zu GPU-gestützten Simulationsrechnungen für Studierende, monatliche Vorträge von Experten der unterschiedlichen Einsatzgebiete von GPU-Computing sowie einen jährlich stattfindenden Workshop. Weitere Informationen: http://research.nvidia.com/content/tu-dresden-ccoe-summary
Skalierbare ELPA-Eigenwertlöser als Hybridversion
Die vom ELPA-Konsortium mit Unterstützung des BMBF entwickelte ELPA-Bibliothek mit skalierbaren Eigenwertlösern für symmetrische Matrizen wurde im März 2012 nun auch als Hybridversion – basierend auf OpenMP- und MPI-Kommunikation – veröffentlicht. Von der neuen ELPA-Hybridversion können insbesondere solche parallelen Anwendungen profitieren, die bereits selbst in einer hybriden Form vorliegen. Die ELPA-Bibliothek mit reiner MPI-Kommunikation war bereits für Matrixgrößen bis zu 680.000 sowie bis zu 294.000 Prozessorkernen erfolgreich auf dem BlueGene/P-System in Jülich getestet und erstmals im Mai 2011 unter einer LGPL-Lizenz öffentlich zugänglich gemacht worden. Die ELPA-Bibliothek erweist sich als besonders nützlich, wenn ein substantieller Teil aller Eigenwert/Eigenvektor-Paare berechnet werden muss. Die Lösung von Eigenwertproblemen stellt bei Simulationsrechnungen oftmals einen gravierenden Engpass dar. Betroffen sind davon u. a. Anwendungen aus der Dichtefunktionaltheorie für die Materialforschung, Berechnungen aus der Strukturmechanik, die Analyse von technischen, biologischen und sozialen Netzwerken wie auch Mustererkennung. Weitere Informationen sowie Zugang zur Software: http://elpa.rzg.mpg.de
Interaktive Visualisierung von HPC-Datensätzen
Das Forschungsprojekt „Visualization in Parallel Manycore Environments“ (VisPME) wurde im Rahmen des Programmes „IKT 2020 – Forschung für Innovationen” in den vergangenen drei Jahren vom BMBF gefördert. Im Ergebnis des Projektes entstanden parallele, verteilte Verfahren zur interaktiven Flächenextraktion und zur Berechnung von Partikelbahnen in großen Datensätzen. Zusätzlich wurden Methoden des beschleunigten Darstellens von Volumen- und Polygondaten entwickelt, die es ermöglichen, auch hochvolumige Daten interaktiv zu visualisieren. Dies wird u. a. in der Medizin gebraucht, um neuartige bildgebende Verfahren wie die diffusionsgewichtete Magnetresonanztomographie mit höheren Datenaufkommen abbilden zu können. Bei der Auswertung dieser Datensätze ist die interaktive Visualisierung ein unerlässliches Hilfsmittel für den Erkenntnisgewinn. Durch den hohen Parallelisierungsgrad, derzeit vor allem durch die Verfügbarkeit hochparalleler programmierbarer Graphikkarten, können Probleme für interaktive Visualisierung angegangen werden, die vorher nur mit größerer Wartezeit berechnet werden konnten. Die entstandenen parallelen Visualisierungsmethoden gingen in die Softwarepakete COVISE, ViSTA Flowlib und OpenWalnut ein und wurden an Datensätzen aus mehreren Fachgebieten aus der Medizin und den Ingenieurwissenschaften erfolgreich evaluiert. Beteiligt an VisPME waren das HLRS, das Regionale Rechenzentrum der Universität zu Köln, die RWTH Aachen, das Max-Planck-Institut für Neurologische Forschung und die RECOM Services GmbH. Weitere Informationen: VisPME
Monitoring und Optimierung von E/A-Vorgängen
Das Forschungsvorhaben „Scalable I/O for Extreme Performance“ (SIOX) ist eines der seit dem letzten Jahr vom BMBF geförderten HPC-Software-Projekte. Die Anzahl der von wissenschaftlichen Anwendungen gleichzeitig benutzten Prozesse wächst seit Beginn der Multi-Core-Ära enorm, wodurch die Anforderungen an die Ein-/Ausgabesysteme ebenso rasant steigen. Hauptziel von SIOX ist es, einen Überblick über alle E/A-Aktivitäten in einem HPC-Dateisystem zu gewinnen und diese Informationen für eine Optimierung zu verwenden. Dazu sollen standardisierte Schnittstellen geschaffen werden, um aus allen relevanten Hard- und Software-Schichten Performance-Daten zu sammeln, zu komprimieren und permanent zu speichern. Die kontinuierliche Aufzeichnung dieser Informationen soll neben der Optimierung auch zur Analyse akuter Probleme und zur Planung von Neubeschaffungen dienen. Der Fokus des Projektes liegt zwar speziell auf HPC-Umgebungen, doch die geplante integrierte Analyse von Anwendung, Dateisystem und Infrastruktur wird künftig grundsätzlich auch für die Optimierung in anderen Bereichen wie klassischen Rechenzentren mit Mail- und Dateidiensten verwendet werden können. Weitere Informationen: SIOX
EU investiert in energiesparenden Exascale-Rechner
Als eines der drei durch die Europäische Kommission geförderten Exascale-Projekte startete das Mont-Blanc-Projekt im Oktober 2011 mit der Entwicklung einer Supercomputer-Architektur, auf deren Basis Hochleistungsrechnen zukünftig mit einem 15- bis 30-fach geringeren Energieverbrauch möglich sein wird. Unter der Leitung des Barcelona Supercomputing Centers (BSC) wollen die verschiedenen europäischen Partner aus Industrie und Wissenschaft dafür zunächst einen Prototyp für ein energieeffizientes HPC-System mit stromsparenden Standardkomponenten entwickeln, der schließlich zu einem zukunftsweisenden HPC-System mit allen zugehörigen Komponenten weiterentwickelt werden soll. Darüber hinaus wird ein Portfolio verschiedener Exascale-Anwendungen entwickelt, die auf diesen Systemen eingesetzt werden können. Das europäische Konsortium besteht aus den Industriepartnern Bull, ARM und Gnodal sowie aus den deutschen Supercomputing-Zentren JSC und LRZ und anderen Forschungseinrichtungen aus Frankreich (GENCI, CNRS), Italien (CINECA) und Spanien (BSC). Weitere Informationen: http://www.montblanc-project.eu