Start der HLRE-3-Installation am DKRZ
Am Deutschen Klimarechenzentrum ist die Installation des neuen Hochleistungsrechnersystems für die Erdsystemforschung (HLRE-3) in vollem Gange. Schon im Dezember 2014 wurde das Archivsystem mit Intel x86-Hardware, der neuesten HPSS-Software und einem Festplatten-Cache von 5 Petabyte aufgerüstet. Seit Februar wird der neue Bullx B700 DLC-Rechner „Mistral“ installiert, der planmäßig im Juni seinen Betrieb aufnehmen wird. Im ersten Ausbau liefern 36.000 Intel Haswell-Prozessorkerne auf etwa 1.500 Rechenknoten eine Spitzenrechenleistung von 1,4 PetaFlop/s. Der Hauptspeicher verfünffacht sich gegenüber HLRE-II auf 75 Terabyte und das neue, auf Lustre basierende parallele Dateisystem umfasst 20 Petabyte. Zusätzlich enthält die erste Ausbaustufe zwölf integrierte Visualisierungsknoten mit NVIDIA Tesla K40 GPUs sowie etwa fünfzig weitere Knoten für die interaktive Nutzung. Mitte März erhalten Nutzer Zugang zu einem Portierungssystem mit 432 Kernen und einem 300 Terabyte Lustre-Dateisystem, um ihre Klimamodelle anzupassen. Weitere Informationen: https://www.dkrz.de/p/HLRE3-installation/
Leibniz-Rechenzentrum baut Cloud-Dienste aus
Zur IT-Infrastruktur des LRZ zählen seit Jahren verschiedene Cloud-Angebote wie die MWN Storage Cloud. Der Ausbau dieser Dienste ist einer der aktuellen Entwicklungsschwerpunkte des LRZ. In Kürze soll das Serviceportfolio um zwei weitere Cloud-Dienste erweitert werden: Die LRZ Compute Cloud sowie LRZ Sync+Share. Die Compute Cloud nimmt derzeit den Betrieb auf und ist als „Infrastructure-as-a-Service“-Angebot konzipiert. Sie ermöglicht es den Münchner Wissenschaftlern, ihre Rechenressourcen flexibel, einfach und schnell etwaigen Spitzenlasten anzupassen und eigene virtuelle Maschinen mit der benötigten Systemsoftware selbst zu konfigurieren. Die in einigen Forschungsgebieten heute üblichen fertig einsetzbaren Images einschließlich Betriebssystem und Anwendungssoftware können in der LRZ Compute Cloud einfach installiert und benutzt werden. So können sich Forscher auf ihre wissenschaftlichen Fragestellungen konzentrieren, ohne zum IT-Experten mutieren zu müssen. Im Sommer wird das Private-Cloud-Angebot LRZ Sync+Share folgen. Daten, die in diesem Speicher liegen, können zwischen verschiedenen Geräten synchronisiert und mit anderen Personen ausgetauscht werden. Damit wird den Beschäftigten und Studierenden der Münchner Universitäten eine sichere Alternative zu kommerziellen Diensten geboten. Weitere Informationen: http://www.lrz.de/cloud
Neuinstallation des Dresdner HPC-Komplexes
Parallel zur Abnahme des neuen Rechnergebäudes der TU Dresden wird seit Januar die zweite Stufe des Hochleistungsrechner-/Speicherkomplexes II (HRSK-II) installiert. Das System der Firma Bull ist ein Verbund aus etwa 2.000 Rechenknoten mit insgesamt etwa 35.000 CPU-Kernen und einem Speichersystem. Beim Entwurf der Architektur hat das ZIH die beim Vorgängersystem erfolgreiche Gliederung in einen skalierbaren HPC-Rechner und eine kostengünstige Durchsatzkomponente beibehalten. Spezielle Architekturmerkmale wie ein umfangreiches Energie-Monitoring mit adaptiven Steuermöglichkeiten und eine flexible I/O-Infrastruktur grenzen den neuen sächsischen Supercomputer von anderen Hochleistungsrechnern in Deutschland ab und ermöglichen Forschungsfortschritte u. a. in den Bereichen energieeffizientes und datenintensives Rechnen. Die Instrumentierung und Kalibrierung von 1.224 Knoten für hochauflösendes Energie-Monitoring mit 1.000 Messwerten pro Sekunde ermöglicht eine skalierbare und feingranulare Erfassung, Steuerung und Optimierung des Energieverbrauchs. Eine kontinuierliche Analyse der Dateisystemzugriffe wird es erlauben, Anwendern zugeschnittene Speicherbereiche zuzuweisen und die verfügbaren Speichertechnologien (SSD, HDD) besser zu nutzen.
Klinische Datenintelligenz
Die Versorgung von Patienten sowie die medizinische Forschung sind von immer größeren Datenfluten geprägt: Neben üblichen diagnostischen Verfahren wie Labor und Bildgebung spielen hierbei auch genomische Analysen eine immer stärkere Rolle. Um die Vielfalt und Menge der Daten zu bewältigen und dem Anwender intuitive Werkzeuge für deren Nutzung bereitzustellen, haben sich unter Leitung der Siemens AG klinische Partner wie das Universitätsklinikum Erlangen, das Institut für Frauengesundheit und die Charité mit Experten der Informations- und Wissensverarbeitung wie dem Deutschen Forschungszentrum für Künstliche Intelligenz, dem Fraunhofer-Institut für Integrierte Schaltungen, dem Lehrstuhl für Medizinische Informatik aus Erlangen und der Averbis GmbH zusammengetan. Ziel ist es, die heterogenen Datenquellen zu verbinden, um den Mehrwert einer umfassenden Datenbank durch maschinelle Lernverfahren, Suchstrategien und App-Infrastrukturen zu realisieren. Das BMWi fördert das Projekt „KDI – Klinische Datenintelligenz“ im Rahmen des Technologiewettbewerbs „Smart Data – Innovationen aus Daten“. Weitere Informationen: http://www.klinische-datenintelligenz.de/startseite/
Projekt ORPHEUS – Brandschutz in U-Bahnhöfen
Im Februar startete das vom BMBF für drei Jahre geförderte Projekt „Optimierung der Rauchableitung und Personenführung in U-Bahnhöfen: Experimente und Simulationen (ORPHEUS)“. Es soll die Sicherheit bei Bränden in komplexen mehrstöckigen U-Bahnstationen erhöhen. Bereits kleine Brände können große toxische Rauchgasmengen freisetzen. Mit Realbrandversuchen, Modellen im kleinen Maßstab und numerischen Strömungssimulationen werden in ORPHEUS technische Brandschutzkonzepte erarbeitet. Diese ergeben Lösungen für neue und bestehende Stationen sowie Speziallösungen für z. B. Treppenaufgänge. Untersucht werden auch organisationsübergreifende Interaktionen der Rettungskräfte, Anlagenbetreiber und angebundenen Verkaufsstätten. Diese Ergebnisse werden in Begleitung von kontrollierten und ungiftigen Verrauchungsversuchen in einer Großübung der Feuerwehr Berlin vertieft. Projektpartner sind das Forschungszentrum Jülich als Koordinator, die Bundesanstalt für Materialforschung und -prüfung, die Firmen IBIT und Imtech, das Institut für Industrieaerodynamik und die Ruhr-Universität Bochum. Als assozierte Partner sind die Berliner Feuerwehr, die Berliner Verkehrsbetriebe, die Deutsche Bahn, Hekatron, Karstadt, NVIDIA und das Team HF eingebunden. Weitere Informationen: http://www.orpheus-projekt.de
Korrektheits- und Performanceanalyse mit OpenMP
Das OpenMP Tools Interface (OMPT) erweitert OpenMP um Funktionalität zum Abfangen von Laufzeitereignissen, mit Fokus auf der Performance- und Korrektheitsanalyse. Im Rahmen des BMBF-Projekts „Effektive Laufzeitunterstützung für zukünftige Programmierstandards (ELP)“ wurde die Schnittstelle erweitert, um Neuerungen aus OpenMP 4.0 zu unterstützen. Dazu gehören beschleunigerspezifische Ereignisse wie der Datenaustausch hin zum Beschleuniger und zurück zum Host sowie das Auslagern einer Region für Berechnungen. In ELP wird OMPT im Kontext der hybriden (MPI+OpenMP) Korrektheits- und Performanceanalyse eingesetzt. Hierzu wird die bestehende OMPT-Implementierung nebst der vorgeschlagenen Erweiterung in der aktuellen Open-Source-Version der Intel-OpenMP-Laufzeit gepflegt, so dass OMPT mit dem Intel- und dem LLVM-Compiler einsetzbar ist. Es wurden bereits eine erste Version des Korrektheitsanalysewerkzeugs MUST sowie der Performanceanalyseinfrastruktur Score-P entwickelt, die auf OMPT in dieser Laufzeit aufsetzen. Wenn OMPT sich erfolgreich im Hochleistungsrechnen etabliert, soll es in den OpenMP 5.0 Standard aufgenommen werden.
Intel Parallel Computing: Nutzertreffen in Dublin
Am 24. und 25. Februar fand in Dublin ein von Intel organisiertes Nutzertreffen statt, auf dem die in Europa geförderten Intel Parallel Computing Center (IPCC) ihre aktuellen Ergebnisse auf dem Gebiet der Code-Optimierung und -Modernisierung vorgestellt und diskutiert haben. Im Zentrum des IPCC-Programmes steht die Portierung ausgewählter Anwendungen auf die von Intel entwickelte Plattform Many Integrated Core (MIC), die im HPC-Umfeld v.a. durch ihren hohen Grad an lokaler Parallelität von Bedeutung ist. Auch die drei deutschen IPCC – ZIB, LRZ und ZIH, die alle Mitglieder der Gauß-Allianz sind – nutzten das Treffen, um sich mit den internationalen Mitstreitern über die verschiedenen Ansätze und Möglichkeiten zur Verbesserung von Parallelität und Skalierbarkeit durch Code-Optimierungen auszutauschen. Ebenfalls anwesend war bereits ein Vertreter des demnächst in Aachen geförderten, vierten deutschen IPCC, mit dem thematischen Fokus auf Molekulardynamik.
Master-Studiengang CSE in Sachsen
Seit Oktober 2014 gibt es den gemeinsamen Master-Studiengang „Computational Science and Engineering (CSE)“ der TU Dresden und der TU Bergakademie Freiberg. Ziel ist die Verbindung der Informatik-Ausbildung mit dem Schwerpunkt Hochleistungsrechnen und den Ingenieurwissenschaften als Anwendungsgebiet. Der methodenwissenschaftliche Teil zu Informatik und Hochleistungsrechnen wird hierbei vom ZIH und der Fakultät Informatik in Dresden bestritten. Die anwenderwissenschaftliche Seite wird durch die Fakultät für Maschinenbau, Verfahrens- und Energietechnik in Freiberg betreut. Sechs Studierende des ersten Jahrgangs schließen zur Zeit ihr erstes Fachsemester in Dresden ab und bereiten sich auf das zweite Fachsemester und damit auf den Wechsel nach Freiberg vor. Die beiden folgenden Semester finden je nach Vertiefungsrichtung individuell in Dresden oder Freiberg statt. Nach erfolgreichem Studium erhalten die Teilnehmer einen gemeinsamen Abschluss beider Universitäten. Weitere Informationen: http://tu-dresden.de/zih/cse