Dezember 2019 / Januar 2020

Gauß-Allianz Infobrief - Ausgabe 77

Quantencomputing am JSC – Startschuss für JUNIQ

„Wir rechnen mit Quantencomputern“ war das Motto einer Veranstaltung am 25. Oktober am Jülich Supercomputing Centre (JSC), bei der der offizielle Startschuss für JUNIQ, die neue „Jülicher Nutzer-Infrastruktur für Quantencomputing“, fiel. Anlass war die Unterzeichnung eines Nutzungsvertrages für einen Quanten-Annealer des kanadischen Herstellers D-Wave. Das Forschungszentrum wird damit der erste europäische Standort des D-Wave LeapTM Quanten-Cloud-Services. Eröffnet wurde die Veranstaltung mit einem Grußwort von Staatssekretärin Annette Storsberg (Ministerium für Kultur und Wissenschaft des Landes NRW) und einer Videobotschaft von Staatssekretär Thomas Rachel (BMBF). Land und Bund fördern den Aufbau von JUNIQ mit je fünf Millionen Euro. JUNIQ wird das vereinheitlichte Portal zu verschiedenen Quantencomputern sein – zugänglich über die Cloud für deutsche und europäische Nutzer/innen. Damit wird JUNIQ im Bereich Quantencomputing ähnliche Dienste anbieten, wie sie seit langem für die Supercomputer des JSC verfügbar sind: Unter Anleitung von Experten werden Forscher/innen Quantencomputer nutzen können – von experimentellen Systemen über Prototypen bis hin zu ersten Produktionssystemen – und Algorithmen und Anwendungsprogramme dafür entwickeln. Auch Ausbildung und Trainingskurse zum Quantencomputing, insbesondere auch für Spezialist/innen aus der Industrie, sind innerhalb JUNIQ geplant. Weitere Informationen: fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2019/2019-10-25-juniq.html

Erweiterung der HPC-Infrastruktur am ZIH

Die TU Dresden hat zwei Aufträge für die Erweiterung ihrer HPC-DA-Systeme erteilt. Beide werden Anfang 2020 installiert und zur Nutzung bereit stehen. Zum einen handelt es sich um ein Cluster aus Dual-CPU-Knoten mit einem HDR100-Infiniband-Interconnect, das durch die Firma NEC Deutschland GmbH geliefert wird. Die Knoten enthalten je zwei Prozessoren vom Typ AMD EPYC 7702 mit zusammen 128 physischen Kernen. Insgesamt erreicht der neue Cluster über 750 TeraFlop/s. Zum anderen wird eine neue Komponente für besonders Daten- und Hauptspeicher-intensive Anwendungsfälle hinzugefügt. Das „Superdome Flex“-System der Firma HPE ist ein Shared-Memory-Verbund aus 32 Prozessoren Intel Cascade Lake 8276 mit zusammen 896 Rechenkernen und 48 Terabyte Hauptspeicher in einem gemeinsamen Adressraum. Enthalten sind zusätzlich 400 Terabyte PCIe-NVME-Speicherkarten als sehr schneller, lokaler Speicher.

Daten, KI und Wertschöpfung: ScaDS.AI

ScaDS.AI Dresden / Leipzig (Center for Scalable Data Analytics and Artificial Intelligence) ist eines der sechs Zentren für Künstliche Intelligenz (KI), die im Rahmen der KI-Strategie des Bundes gefördert werden. Am 27. November leitete das von den Professoren Wolfgang E. Nagel (TU Dresden / ZIH) und Erhard Rahm (Universität Leipzig) koordinierte Kompetenzzentrum mit einem Kick-off-Meeting aller beteiligten Partner an der Universität Leipzig seine Arbeit ein. ScaDS.AI baut auf dem seit 2014 erfolgreich bestehenden Big-Data-Kompetenzzentrum ScaDS Dresden / Leipzig auf (vgl. GA-IB Nr. 31 und 67 ). Um KI und Big Data eng zusammenzubringen und den Transfer dieser Methoden für die breite wissenschaftliche und gesellschaftliche Anwendung weiter zu befördern, sollen nun auch die notwendigen methodischen Grundlagen für den Einsatz von „Artifical Intelligence“ (KI) weiterentwickelt, ausgebaut und verstetigt werden. Der Besuch der sächsischen Staatsministerin für Wissenschaft und Kunst, Dr. Eva-Maria Stange, sowie der Universitätsleitungen von Leipzig und TU Dresden zum Kick-off-Meeting unterstreichen das gemeinsame Interesse der Forschung und des Landes Sachsen an diesem Schwerpunktthema. Bereits im Frühjahr hatte die sächsische Staatsregierung angekündigt, den Schwerpunkt zusätzlich zur Bundesförderung zu unterstützen. Neben dem Ausbau des Service-Zentrums und der Einbindung neuer Partner ist u. a. die Einrichtung spezialisierter KI-Professuren an der TU Dresden und an der Universität Leipzig geplant. Informationen: tu-dresden.de/zih/news/scads-ai-kickoff

NEXTGenIO: EU-Projekt erfolgreich beendet

Im Rahmen des NEXTGenIO-Projekts (Horizon 2020, EU) wurde in den vergangenen vier Jahren eine HPC-Systemarchitektur entwickelt, die für zukünftige Exascale-Systeme geeignet ist (vgl. GA-IB Nr. 57 ). Ein besonderer Fokus lag auf skalierbarer Ein-/Ausgabe-Leistung. Die Architektur integriert deshalb neueste persistente Speichertechnologie (Intel® OptaneTM DC Speicher), die eine Vielzahl von Speicher- und I/O-Konfigurationen für Software-Anwendungen ermöglicht. Das Projekt wurde am 14. November erfolgreich vor der Europäischen Kommission verteidigt und abgeschlossen. Der vom Projektpartner Fujitsu gebaute Prototyp mit 6,6 Terabyte DRAM und 100 Terabyte NVRAM ist beim Koordinator des Projekts (EPCC, Edinburgh) installiert. Er ist für die nächsten drei Jahre grundsätzlich öffentlich verfügbar. Bei Interesse an der Nutzung von neuestem persistentem DC-Speicher auf diesem System vermittelt das ZIH, das als Partner in diesem Projekt beteiligt war, gern einen Zugang. Weitere Informationen: nextgenio.eu

Abwärmenutzung steigert Energieeffizienz

Das DKRZ betreibt eines der weltweit effizientesten Rechenzentren, in dem Klimasimulationen möglichst umweltschonend durchgeführt werden können. Die Energieeffizienz konnte erneut gesteigert werden, indem die vom Hochleistungsrechner Mistral erzeugte Wärme zur Beheizung der Nachbargebäude genutzt wird. Als Eigentümerin des DKRZ-Gebäudes hat die Universität Hamburg dafür eine Anlage zur Nutzung der Abwärme installiert, die im November ihren Betrieb aufgenommen hat. Das erwärmte Kühlwasser des Hochleistungsrechners überträgt die überschüssige Wärmeenergie mittels Wärmetauscher in das Lüftungssystem der benachbarten Chemielabore. Im Jahresdurchschnitt können damit etwa 25% der vom Hochleistungsrechner erzeugten Wärme ressourcenschonend genutzt werden. Die dadurch jährlich eingesparte Wärmeenergie entspricht knapp 2.000 Tonnen Kohlendioxid, also etwa dem Energieverbrauch von 500 Haushalten. Weitere Informationen: dkrz.de/kommunikation/aktuelles/abwaermenutzung

FAU Erlangen-Nürnberg nun Teil des VI-HPS

Im November wurde die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in das „Virtual Institute – High Productivity Supercomputing“ (VI-HPS) aufgenommen. Das Regionale Rechenzentrum Erlangen (RRZE), der IT-Service-Provider der FAU, wird dort seine Expertise im Bereich Node-Level Performance Engineering, Multicore-Tools und Lehre einbringen. Die aktuell 14 Mitglieder des VI-HPS haben sich zum Ziel gesetzt, die Entwicklung von Simulationscode auf modernen Parallelrechnern zu unterstützen und zu beschleunigen, indem Programmierwerkzeuge zur Leistungsoptimierung und Korrektheitsprüfung entwickelt und bereitgestellt werden. Ausbildungsaktivitäten bilden einen zentralen Bestandteil der Mission des VI-HPS. Weitere Informationen: vi-hps.org/

LIKWID Tools Version 5 veröffentlicht

Rechtzeitig zur SC19-Konferenz in Denver hat das RRZE die Version 5 seiner Multicore-Werkzeugsammlung LIKWID veröffentlicht. LIKWID steht für „Like I Knew What I‘m Doing“ und beinhaltet Werkzeuge zur Erkundung der Topologie eines Multicore-Knotens, zum Binden von Prozessen und Threads an Kerne (auch für hybride „MPI+X“-Programme), zum Zählen von Hardware-Events, zum definierten Mikrobenchmarking und einiges mehr. In der neuen Version 5.0 kam die offizielle Unterstützung von ARM-Architekturen, insbesondere Marvells ThunderX2, für IBM POWER8 und POWER9 und für AMD Zen2 hinzu. Außerdem ist es nun erstmals möglich, mit LIKWID auf die Hardware-Events von Nvidia-GPUs zuzugreifen. LIKWID ist nicht nur in den Zentren der Gauß-Allianz und des GCS sondern weltweit im Einsatz, z. B. am Extreme Computing Research Center der King Abdullah University of Science and Technology (KAUST) im Königreich Saudi-Arabien und an den beiden US-amerikanischen Einrichtungen National Energy Research Supercomputing Center (NERSC) in Berkeley und am Los Alamos National Laboratory (LANL). Weitere Informationen: tiny.cc/LIKWID

Rechenzeitvergabe für MOGON II

Die Vergabe von Rechenzeit in der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) wurde ab Dezember für Projekte mit mindestens 1,2 Mio. Core-Stunden geändert. Im Rahmen der aktuellen Ausschreibung, die noch bis 07.01.2020 läuft, werden insgesamt bis zu 20% der Rechenzeit von MOGON II an der Johannes Gutenberg-Universität Mainz auf die technisch und wissenschaftlich positiv begutachteten Projekte vergeben. Die Laufzeit eines Projekts kann bis zu 12 Monate betragen. Kleine und Test-Projekte können unabhängig von den Ausschreibungen, die zukünftig zweimal jährlich stattfinden, beantragt werden. Weitere Informationen und Antragstellung: https://hpc.uni-mainz.de/call-for-proposals-for-hpc-compute-resources-2019