QPACE3 am JSC installiert
Im Juli wurde die Installation der dritten Generation von QPACE-Rechnern am Jülich Supercomputing Centre (JSC) abgeschlossen. Der Rechner QPACE3 wurde im Rahmen des Teilprojekts „QCD Parallel Computing Engine“ beschafft, das 2008 von den Universitäten Regensburg und Wuppertal als Teil des DFG-Sonderforschungsbereichs „Hadron Physics from Lattice QCP“ (SFB TRR 55) gestartet wurde. Er wird hauptsächlich für Simulationen der Theorie der starken Wechselwirkung, d.h. der Quantenchromodynamik, eingesetzt. QPACE3 besteht aus 672 PRIMERGY-CX1640-M1-Servern von Fujitsu, die jeweils mit einem Intel-Xeon-Phi-7210-Prozessor ausgestattet sind. Die theoretische Rechenleistung der mehr als 43.000 Rechenkerne addiert sich auf 1,79 PetaFlop/s. Zur Kühlung der Prozessoren wird direkte Flüssigkühlung verwendet. Das Wasser, das die Racks verlässt, darf über 40 °C warm sein, so dass trockene Freikühler eingesetzt werden können. Diese Art der Kühlung hilft, den Energieverbrauch zu reduzieren. Weitere Informationen: www.fz-juelich.de/ias/jsc/qpace3
Hochleistungsrechnen am DLR künftig in Dresden
Am 3. August wurde in Dresden das Institut für Softwaremethoden zur Produkt-Virtualisierung des Deutschen Zentrums für Luft- und Raumfahrt (DLR SP) gegründet. Das strategische Ziel des Instituts ist die Bündelung der Forschungskompetenzen des DLR im Bereich Softwareentwicklung sowie die Erforschung neuer Möglichkeiten für eine durchgängige Digitalisierung der Flugzeugentwicklung. Bei der Entwicklung neuer Flugzeuge fallen bereits sehr früh Entscheidungen, die bis zu 80 % der Gesamtkosten bestimmen. Umso wichtiger ist es, alle Eigenschaften über den gesamten Lebenszyklus hinweg vorher im Computer zu simulieren: von der Konzeptphase über den Entwurf, die Erprobung, Konstruktion, Fertigung, Zertifizierung sowie den Betrieb bis zur Außerdienststellung. Dadurch können bei der Einführung neuer Luftfahrttechnologien Zeit, Kosten und Risiken signifikant minimiert werden. Dieses „virtuelle Produkt“ ist eines der Leitkonzepte der DLR-Luftfahrtforschung. Als zwingende Voraussetzung dafür ist das Hochleistungsrechnen ein bedeutendes Forschungsgebiet des neuen DLR-Instituts. Hier sind Entwicklungen geeigneter Algorithmen, Programmier- und Datenmodelle notwendig, um die effiziente Nutzung aktueller und zukünftiger paralleler Rechnerarchitekturen in den verschiedenen Fachrichtungen zu gewährleisten. Ziel ist es, das Institut in Dresden als HPC-Kompetenzzentrum für das DLR auszubauen. Weitere Informationen: www.dlr.de/sp
Webportal für kosmologische Simulationen am LRZ
Wissenschaftler des Exzellenzclusters Universe an der Ludwig-Maximilians-Universität München (LMU) haben in enger Zusammenarbeit mit dem Team des AstroLabs am Leibniz-Rechenzentrum (LRZ) ein weltweit herausragendes Datenzentrum für kosmologische Simulationen eingerichtet. Mit dem „Cosmological Web Portal“ stehen die vollständigen Ergebnisse verschiedener großer, kosmologischer, hydro-dynamischer Simulationen wie Magneticum-Pathfinder zur Verfügung, deren Datenvolumen typischerweise hunderte Terabyte übersteigen. Wissenschaftler können über eine Webschnittstelle diese komplexen Simulationen interaktiv erkunden und direkt auf die Ergebnisse zugreifen. So lassen sich beispielsweise Objekte aus den Rohsimulationsdaten auswählen und analysieren, aber auch virtuelle Beobachtungen durch existierende oder zukünftige Weltraumteleskope erstellen. Die vollständigen Simulationen liegen am LRZ in Garching auf einem Datenspeicher für große Datenmengen, der an den Höchstleistungsrechner SuperMUC angeschlossen ist. Ein Video zeigt die Möglichkeiten des Portals: www.youtube.com/watch?v=-4U4y_kwzzw . Zugang zum Portal: http://c2papcosmosim.lrz.de/
Start des Forschungsprojekts DEEP-EST
Um den sich wandelnden wissenschaftlichen Herausforderungen im Bereich Höchstleistungsrechnen (HPC) zu begegnen, startete zum 1. Juli das europäische Forschungsprojekt „DEEP – Extreme Scale Technologies“ (DEEP-EST) mit dem Ziel, einen Supercomputer nach dem Baukastenprinzip zu entwickeln. Dieses neue HPC-System soll verschiedene Module vereinen: ein klassisches Cluster mit Intel-Xeon-Prozessoren, einen Booster mit Intel-Xeon-Phi-Prozessoren sowie ein Data-Analytics-Modul. Mit einem derartigen Supercomputer sollen Rechenzentrumsbetreiber sowohl klassische HPC-Nutzergruppen bedienen als auch Anforderungen aus dem Bereich Big-Data-Analytics besser abdecken können. In enger Zusammenarbeit zwischen Hardware- und Systemsoftwareexperten sowie verschiedenen Anwendergruppen soll in den nächsten drei Jahren ein Prototyp mit passender Softwareumgebung entstehen. Das DEEP-EST-Projekt wird mit knapp 15 Mio. Euro von der EU gefördert und vereint 16 Projektpartner aus ganz Europa unter der Leitung des Jülich Supercomputing Centre am Forschungszentrum Jülich. Weitere Informationen: www.deep-projects.eu
Selbstorganisation in HPC-Systemen
Moderne HPC-Systeme sind neben ihrem hohen Grad an Parallelverarbeitung durch ihre Heterogenität gekennzeichnet. Mit der stetig wachsenden Anzahl von Knoten und der fortschreitenden Miniaturisierung der Bauteile erhöht sich auch die Wahrscheinlichkeit des Ausfalls von Komponenten und damit die Fehleranfälligkeit des Gesamtsystems. Ziel des Projekts „Effizienz und Zuverlässigkeit: Selbstorganisation in HPC-Systemen“ (ENVELOPE) ist es, die Komplexität heterogener HPC-Systeme vor dem Anwendungsprogrammierer zu verbergen und gleichzeitig eine effiziente Nutzung der verfügbaren Ressourcen der Zielplattform zu ermöglichen sowie die Zuverlässigkeit und Ausfallsicherheit zu erhöhen. Hierfür werden Methoden aus dem Bereich der Selbstorganisation erforscht. Das Projekt wird vom BMBF im Rahmen der 5. Förderinitiative „Grundlagenorientierte Forschung für HPC-Software im Hoch- und Höchstleistungsrechnen“ gefördert. Partner sind das Institut für Technische Informatik am KIT, das Zentrum für Datenverarbeitung der JGU Mainz, das E.ON Energy Research Center der RWTH Aachen und der Lehrstuhl für Rechnertechnik und Rechnerorganisation der TU München. Weitere Informationen: http://envelope.itec.kit.edu
Innovationsschub für den Schmiedebetrieb
Die Technologien in der Massivumformung von Stahl und Aluminium wurden über viele Jahrzehnte entwickelt. Lassen sich mit voll digitalisierten und vernetzten Industrieprozessen – „Industrie 4.0“ – dennoch weitere Effizienzverbesserungen erreichen? In dem vom BMWi gefördertem Projekt „Effizienzschub in der Massivumformung durch Entwicklung und Integration digitaler Technologien im Engineering der gesamten Wertschöpfungskette“ (EMuDig 4.0) wird genau dies analysiert. Dazu werden bereits entwickelte Methoden auf die besonderen Herausforderungen der Umformtechnik angepasst. Mit einer übergreifenden Analyse der entstehenden Daten entlang der gesamten Wertschöpfungskette soll weiteres Prozessverständnis erschlossen und in höherer Effizienz umgesetzt werden. Dem Konsortium gehören die OTTO FUCHS KG, Meinerzhagen, die Hirschvogel Automotive Group, Denklingen, die SMS group GmbH, Düsseldorf, die Fachhochschule Südwestfalen, die Universität Stuttgart und das ZIH der TU Dresden an. Weitere Informationen: www.massivumformung.de/forschung/emudig-40/
HiPerCH-Workshop in Marburg
Vom 26. bis 29. September findet in Marburg der achte High Performance Computing Hessen Workshop (HiPerCH) mit drei Modulen statt. So wird neben einer Einführung in den hessenweit verfügbaren Debugger „Totalview“ erstmals eine Einführung in die Programmiersprache „Python“ angeboten sowie das Modul „Linux – Basic use and useful tools“, in dem notwendiges Basiswissen zur Nutzung von Hochleistungsrechnern vermittelt wird. Alle Module können separat gebucht werden. Die Workshop-Serie HiPerCH richtet sich an Studierende und Beschäftigte der Universitäten in Hessen, Mainz und Kaiserslautern. Freie Plätze können auch an weitere interessierte Personen vergeben werden. Weitere Informationen: www.hpc-hessen.de/beratung/hiperch-workshops/
Ideenwettbewerb zum Digital-Gipfel-Prozess
In den verschiedensten Bereichen von Wissenschaft, Industrie und Gesellschaft werden immer größere Datenmengen produziert, deren Auswertung neue, innovative und interdisziplinäre Wege erfordert. Schlagworte wie Big Data, Open Data, Data Market und Data Analytics deuten den tiefgreifenden Wandel an. Es besteht kein Zweifel, dass Daten zu einem immer wichtigeren Bestandteil der Wertschöpfungskette werden. Der Ideenwettbewerb möchte zur Stimulierung innovativer Ideen von deutschen Nachwuchsforscherinnen und -forschern und angehenden Entrepreneuren beitragen, die eventuell auch zu Unternehmensgründungen führen könnten. Bis zum 15. Dezember wird um die Einreichung kreativer Skizzen für neuartige Dienste auf der Basis tatsächlicher oder perspektivisch verfügbarer Daten gebeten. Dabei werden keine ausgereiften Businesspläne erwartet, sondern nachvollziehbare Darstellungen für ein Geschäftsmodell. Präsentation und Prämierung der überzeugendsten Ideen werden im Rahmen der vom 21. bis 23. März 2018 stattfindenden RDA-Plenary-Konferenz in Berlin erfolgen. Weitere Informationen: http://ideenwettbewerb.mpcdf.mpg.de