Flexibler Hochleistungsrechner für die TU Darmstadt
Die TU Darmstadt hat im Juni den neuen Lichtenberg-Hochleistungsrechner eingeweiht. Der von IBM hergestellte Rechner ersetzt den früheren Hessischen Hochleistungsrechner, dessen Leistung bereits in der ersten Ausbaustufe um das 30-fache übertroffen wird. Mit der zweiten Ausbaustufe Ende 2014 soll der Lichtenberg-Hochleistungsrechner eine geschätzte Rechenleistung von rund 1,2 Petaflop/s erreichen. Der Rechenanteil durch Beschleuniger, wie beispielsweise NVIDIA Kepler oder Intel Xeon Phi, beträgt dabei rund 25 Prozent. Darüber hinaus sind die einzelnen Cluster-Sektionen über FDR-10-Infiniband verbunden. Der Rechencluster ist flexibel und energieeffizient konzipiert: Einerseits enthält er eine große Sektion für „distributed memory“-Anwen-dungen. Andererseits stehen Rechenknoten für Aufgaben zur Verfügung, die „shared memory“ oder viel Hauptspeicher benötigen und schnell darauf zugreifen müssen. Für Anwendungen, die von speziellen Beschleunigern profitieren, steht ebenfalls eine entsprechende Sektion zur Verfügung. So erlaubt das System eine effiziente Ausführung der Programme auf der für sie passenden Architektur und die Entwicklung neuer Programme für zukünftige Parallelrechner. Weitere Informationen: http://www.hrz.tu-darmstadt.de/lichtenberg
SuperMUC: Neue Messmethodik zur Energieeffizienz
Seit über sechs Jahren führt die Green500-Liste die weltweit schnellsten Höchstleistungsrechner nach ihrer Energieeffizienz auf. Als eines von nur drei Höchstleistungsrechenzentren weltweit erfüllt das LRZ derzeit den höchsten Standard für Energiemessungen an Supercomputern. Die neue Messinfrastruktur am SuperMUC ermöglicht es erstmals, Messdaten gemäß Level 3 der Definition der Energy Efficient HPC Working Group (EEHPC-WG) für die Green500-Liste zu liefern. Für das aktuelle Ranking konnten die Teilnehmer erstmals zusätzliche Details über ihre Messungen der elektrischen Leistungsaufnahme einreichen, um im Hinblick auf die neuen EEHPC-WG Richtlinien eingestuft zu werden. Der Leiter des LRZ, Professor Arndt Bode, erklärt, dass für die Maximierung der Energieeffizienz die elektrische Leistungsaufnahme der gesamten technischen Ausrüstung verstanden werden muss, die zum Betrieb des Höchstleistungsrechners notwendig ist. Insofern ist die Messung der Leistungsaufnahme des Rechnersystems selbst nur der erste Schritt. Im Hinblick auf eine maximale Energieeffizienz soll deshalb am LRZ zukünftig die gesamte Infrastruktur optimal abgestimmt werden.
Numerische Methoden in den Ingenieurwissenschaften
Ziel des EU-Projekts NUMEXAS ist die Implementierung der nächsten Generation von numerischen Methoden in den Ingenieurwissenschaften für den Einsatz auf Exa-scale-Systemen. Dazu wird der gesamte Workflow hochparalleler Anwendungen simuliert und analysiert: von der Vorverarbeitung und Erzeugung der Ausgangsdaten über neue numerische Methoden für multidisziplinäre, parallele Feld-Gleichungslöser höherer Ordnung (strukturiert und unstrukturiert) bis hin zur Visualisierung und Aufbereitung der Ergebnisse. Die neuen Algorithmen und Implementationen sollen die Rechenkraft von Exascale-Architekturen optimal zum Einsatz bringen. Unter der Leitung des International Center for Numerical Methods in Engineering werden das Center for Scientific and Academic Services of Catalonia, die Firma Quantech (alle drei Barcelona), das Institut für Kontinuumsmechanik und das RRZN der Gottfried Wilhelm Leibniz Universität Hannover sowie die Technische Universität Athen ab Oktober 2013 diese Fragestellungen gemeinsam erforschen. Das RRZN wird Leistungsmessungen und die hardware-spezifische Optimierung der Anwendungsprogramme auf dem HLRN-III durchführen. Die Vertragsunterzeichnung mit der EU erfolgt in Kürze.
OpenModelica für HPC-Multiskalen-Simulationen
Das Forschungsprojekt „HPC-OpenModelica für Multiskalen-Simulationen technischer Systeme (HPC-OM)“ wird durch das BMBF in der dritten Förderrunde zum Thema „HPC-Software für skalierbare Parallelrechner“ mit einer Laufzeit von drei Jahren gefördert. Ziel des Vorhabens ist es, die Brücke zwischen modernen Modellierungswerkzeugen und Hochleistungsrechnern zu schlagen, um die Beschränkungen heutiger Berechnungssysteme zu überwinden. Basierend auf Graphtransformationen wird per Software ein Gesamtmodell erzeugt, das in hoher paralleler Effizienz simuliert werden kann. Die Herausforderung liegt darin, das Gesamtmodell automatisch, effizient und skalierbar zu parallelisieren. Damit wird die Optimierung von einzelnen Komponenten im Gesamtsystemzusammenhang möglich. Für den Test der Algorithmen, Methoden, Konzepte und Modelle dienen Simulationen kompletter mobiler Arbeitsmaschinen in ihrem Einsatzkontext unter Verwendung hochdetaillierter Teilmodelle des Projektleiters Bosch Rexroth. Weitere Partner im Projekt sind die TU Dresden mit dem ZIH, dem Institut für Verarbeitungsmaschinen und Mobile Arbeitsmaschinen und dem Institut für Wissenschaftliches Rechnen sowie die ITI GmbH Dresden.
Realistische Exascale-Simulationen von Biomolekülen
Molekulardynamiksimulationen ermöglichen die detaillierte Untersuchung des Verhaltens biologischer Nanomaschinen. Für die realistische Beschreibung der simulierten Systeme muss die lange Reichweite elektro-statischer Kräfte explizit berücksichtigt werden, was in zweierlei Hinsicht herausfordernd ist. Zum einen sind die derzeitigen Methoden aufgrund ihrer Kommunikationsanforderungen nicht auf die hohen Prozessorzahlen von Exascale-Computern skalierbar. Zum anderen ist die realistische Beschreibung der Elektrostatik von Biomolekülen sehr komplex, da ihre Ladungsverteilung durch Aufnahme und Abgabe von Protonen oder Elektronen variiert. Das DFG-Projekt im Schwerpunktprogramm SPPEXA „GromEx – Hoch-skalierbare Elektrostatik mit flexibler Ionisierung für realistische Simulationen von Biomolekülen auf Exascale-Computern“ wird beiden Herausforderungen in den nächsten drei Jahren mit der Entwicklung eines vereinheitlichten Algorithmus begegnen, der in enger Zusammenarbeit von Mathematikern, Computerwissenschaftlern und theoretischen Biophysikern entsteht. Dieser Algorithmus wird zunächst für die Simulationssoftware Gromacs implementiert. Die beteiligten Institutionen sind das MPI für biophysikalische Chemie in Göttingen, das FZJ und das Royal Institute of Technology in Stockholm. Weitere Informationen: http://www.mpibpc.mpg.de/grubmueller/sppexa
Euro-Par 2013 Konferenz
Die Euro-Par ist eine jährlich stattfindende internationale Konferenz, die sich der Förderung und Weiterentwicklung aller Aspekte des parallelen und verteilten Rechnens widmet. Sie deckt ein breites thematisches Spektrum ab – von Algorithmen und Theorie bis hin zu Software-Technologie und Hardware-bezogenen Problemen, mit Anwendungsgebieten, die vom wissenschaftlichen Rechnen bis zu Mobile und Cloud Computing reichen. Die Konferenz bietet ein Forum für die Einführung, Präsentation und Diskussion der neuesten wissenschaftlichen und technischen Entwicklungen und bringt somit den Stand der Technik und der Praxis voran. Dieses Jahr findet die Euro-Par vom 26. bis 30. August 2013 in Aachen statt. Sie wird gemeinsam von der German Research School for Simulation Sciences, dem Forschungszentrum Jülich und der RWTH Aachen unter dem Dach der Jülich Aachen Research Alliance organisiert. Der Frühbucherrabatt gilt bis zum 20. Juli. Weitere Informationen: http://www.europar2013.org/conference
Internationale Konferenz EnA-HPC
Vom 2. bis 3. September 2013 findet zum vierten Mal die „International Conference on Energy-Aware High Performance Computing“ (EnA-HPC) statt. Die Konferenz wird vom ZIH der TU Dresden in enger Kooperation mit dem DKRZ, der Universität Hamburg, Fachbereich Informatik, organisiert und widmet sich einer der größten Herausforderungen im Hochleistungsrechnen: dem Energieverbrauch bzw. der Energieversorgung von Rechnersystemen. Das inhaltliche Spektrum der Konferenz umfasst die Analyse und Optimierung der Energie-Effizienz von Hardware und Software, die Modellierung und Simulation des Stromverbrauchs von Anwendungen sowie ökologische und ökonomische Belange des Betriebs von Rechenzentren. Weitere Informationen: http://www.ena-hpc.org
Parallel Tools Workshop
Im Anschluss an die EnA-HPC findet am 3. und 4. September 2013 am ZIH der siebente Parallel Tools Workshop statt. In Vorträgen werden die neuesten Entwicklungen im Bereich von Software-Werkzeugen für die Programmierung und Optimierung paralleler Systeme präsentiert. Anwender aus Wissenschaft und Industrie erhalten hier die Möglichkeit, sich gemeinsam mit den Entwicklern über Einsatz und Nutzung der verschiedenen Werkzeuge auszutauschen, die Stärken einzelner Werkzeuge kennen zu lernen sowie über neue Entwicklungen zu diskutieren. Der jährliche Workshop wird gemeinsam mit dem Höchstleistungsrechenzentrum Stuttgart (HLRS) organisiert. Weitere Informationen: http://tools.zih.tu-dresden.de
2. Symposium „The Challenge of Big Data in Science“
In fast allen Wissenschaftsbereichen steigt das Datenvolumen rasant an. Tag für Tag werden riesige Datenmengen produziert, die für die Forscher sowohl neue Möglichkeiten darstellen als auch neue Herausforderungen beinhalten. Diesen Herausforderungen im Datenmanagement und insbesondere in der Datenanalyse widmet sich das zweite internationale Symposium „The Challenge of Big Data in Science“, das am 24. September 2013 am KIT stattfindet. Keynote-Sprecher werden Beth Plale von der Indiana University und Sayeed Choudhury von der Johns Hopkins University sein. Im Mittelpunkt des Symposiums steht in diesem Jahr das Thema „Big Data Analytics“. Das vollständige Programm und weitere Informationen sind unter http://www.helmholtz-lsdma.de/events erhältlich.