Juli/August 2019

Gauß-Allianz Infobrief - Ausgabe 73

Top500-Frühjahrsranking

Zur ISC19 wurde das jährliche Frühjahrsranking der weltweit 500 leistungsfähigsten Supercomputer veröffentlicht. Die Top500-Liste veranschaulicht, wie die mittlere Rechenleistung von aktuellen Supercomputern kontinuierlich zunimmt. Erstmals erreichen alle Rechner der Liste über 1 PetaFlop/s – also 1 Billiarde Gleitkommaoperationen pro Sekunde – im Benchmark Linpack. Die Listenspitze ist weitgehend unverändert: Die ersten beiden Platzierungen werden weiter durch die beiden IBM-Systeme Summit und Sierra mit 148,6 beziehungsweise 94,6 PetaFlop/s gehalten. Mit dem SuperMUC-NG (ThinkSystem) mit 19,5 PetaFlop/s des Leibniz-Rechenzentrums ist wieder ein deutsches System unter den ersten Top Ten. Dominiert wird die Top500 wieder durch 219 Systeme in China, gefolgt von den USA mit 116 Supercomputern. Japan ist mit 29, Frankreich mit 19, das Vereinigte Königreich mit 18 und Deutschland mit 14 Hochleistungsrechnern dabei. Interessant ist, dass China zwar fast doppelt so viele Rechner platzieren konnte wie die USA, dass die US-amerikanischen Systeme jedoch insgesamt mehr Rechenleistung aufweisen. Sie verfügen über 38,4 Prozent der gesamten Rechenleistung; Chinas Systeme erreichen 29,9 Prozent. Der CLAIX-Rechner der Universität Aachen, der sich mit 2,5 PetaFlop/s bei den reinen Universitätsrechnern auf Platz 92 vor den – ebenfalls von NEC gelieferten – Mogon II der Johannes Gutenberg-Universität in Mainz schiebt (2 PetaFlop/s, Platz 131), ist als einziges deutsches System neu in der Liste. Weitere Informationen: https://www.top500.org/lists/2019/06/

KI-Forschungskompetenz am KIT

Ausbau und Verstetigung seiner herausragenden Forschungskompetenz in der Künstlichen Intelligenz (KI) sind ein strategisches Forschungsziel des KIT. Mit HAICU (Helmholtz Artifical Intelligence Cooperation Unit) (vgl. GA-Infobrief Nr. 72 ) konnte das KIT als Lokaleinheit für Energie zwei Nachwuchsforschungsgruppen einwerben. Am Institut für Automation und angewandte Informatik (IAI) wird eine Juniorprofessur KI-Methoden für das Energiesystem der Zukunft entwickeln, anwenden und im Energy Lab 2.0 demonstrieren. Das umfasst z. B. Reinforcement Learning, evolutionäre Algorithmen, agentenbasierte Systeme und modellprädiktive Optimierungsmethoden. Der Fokus liegt auf autonomen Entscheidungen auf verschiedenen Aggregationsebenen (z. B. Gebäude, Industriecampus als lokale Zelle, Versorgungsgebiet) mit Aspekten des optimalen Agierens von Prosumern sowie des optimalen Betriebs von Netzen. Am Steinbuch Centre for Computing wird u. a. ein High Level Support Team die Erforschung von KI-Algorithmen und die Entwicklung skalierbarer KI-Software ebenso adressieren, wie das KI-Consulting für den Forschungsbereich Energie der Helmholtz-Gemeinschaft sowie die Bereitstellung von spezialisierter Infrastruktur für KI-Anwendungen. Weitere Informationen: https://www.haicu.de

Prototyp für künftige modulare Supercomputer

Am Forschungszentrum Jülich geht in diesem Jahr ein neues Testsystem für künftige modulare Supercomputer an den Start. Jülicher Expert/innen arbeiten gemeinsam mit europäischen Partner/innen in den DEEP-Projekten an einer neuen modularen Supercomputer-Architektur, die sich flexibler und effizienter als bisherige Systeme für wissenschaftliche Anwendungen nutzen lässt. Ein solcher Rechner besteht aus mehreren Modulen, die sich nach dem Baukastenprinzip je nach Bedarf kombinieren lassen. Das erste Modul, der DEEP-EST-Cluster, wurde kürzlich vom deutschen Supercomputer-Anbieter MEGWARE am Jülich Supercomputing Centre (JSC) installiert. Bis Jahresende sollen zwei weitere Module folgen, die für massivparalleles Rechnen (DEEP-EST-Booster) und Datenanalyse (DEEP-EST-DAM) ausgelegt sind. Genutzt wird das System zunächst von den Partner/innen im DEEP-EST-Projekt. Geplant ist zusätzlich auch die Nutzung durch weitere interessierte Anwender/innen im Laufe des nächsten Jahres. Weitere Informationen: https://fz-juelich.de/ias/jsc/deep-est-system

KI zur Verbesserung der Sensorik in Robotern

Als Partner im neu gestarteten internationalen Verbundprojekt „AI4DI – Artificial Intelligence for Digitalizing Industry“ beteiligen sich das Institut für Leichtbau und Kunststofftechnik und das ZIH der TU Dresden an der Weiterentwicklung der Sensortechnologie für Mensch-Maschine-Interaktionen. Im Teilprojekt „Sensitive Strukturen für die Mensch-Maschine-Interaktion in digitalisierten Prozessketten“ soll an der TU Dresden ein neuartiges Sensorsystem auf Basis der elektrischen Zeitbereichsreflektometrie (EZBR) entwickelt werden. Die Nutzung dieses Prinzips ermöglicht die Herstellung von Sensoren, die sowohl kraft- als auch ortsaufgelöste Messungen vereinen. Damit soll beispielsweise die Leistungsfähigkeit von Robotern bei der Interaktion mit dem Menschen kosteneffizient verbessert werden, denn EZBR-Sensoren eignen sich gut für den industriellen Masseneinsatz, weil sie vergleichsweise einfach und kostengünstig hergestellt werden können und in der Größe skalierbar sind. Das ZIH wird dazu Möglichkeiten für die Auswertung, Interpretation und Klassifizierung der Sensorsignale mit Methoden des maschinellen Lernens entwickeln. Das Verbundprojekt AI4DI, an dem zahlreiche internationale Partner beteiligt sind, wird im gemeinsamen Förderprogramm „Electronic Components and Systems for European Leadership Joint Undertaking“ (ECSEL JU) für drei Jahre durch die EU, das BMBF und den Freistaat Sachsen gefördert. Weitere Informationen: https://tu-dresden.de/zih/ai4di

Energieeffizienz durch Messen und Integrieren

Das Leibniz-Rechenzentrum (LRZ) beschäftigt sich in mehreren Projekten damit, wie Höchstleistungsrechner energiesparender arbeiten. Zwei laufende Projekte erreichten jetzt Meilensteine. Die am LRZ entwickelte Datacenter Data Base (DCDB) zum Monitoring nimmt neben Daten aus den IT-Systemen und von Sensoren aus der näheren Umgebung des Rechners jetzt auch Metriken aus dem Rechner auf. Das Programm vernetzt somit verschiedene Datensilos und harmonisiert Messwerte, die bisher aus diversen Quellen zusammengetragen wurden. Weitere Details wird das LRZ-Team auf der SC19 im November in Denver vorstellen. Im zweiten Projekt geht es um offene Schnittstellen für Ressource- oder Energie-Management-Software. Erste Schritte für die neuen Schnittstellen sind bereits geschafft: Mit Referenz-Implementierungen sollen diese Ideen in Open-Source-Programmen sowie im Global Extensible Open Power Manager (GEOPM) von Intel eingebettet und ausprobiert werden. Die internationale, vom LRZ mit angeführte Kooperation wird ebenfalls bis zur SC19 weiter vorangetrieben, um dort weitere Ergebnisse zu präsentieren. Weitere Informationen: https://www.lrz.de/wir/newsletter/2019-07/#Energieverbrauch_senken_durch_Messen_und_Integrieren

AtMoDat: Nutzung von Atmosphärenmodelldaten

Standards für die Qualität, Organisation und Verwaltung von Forschungsdaten sind wichtig, um diese Daten auffindbar zu machen und ihre Nachnutzung zu vereinfachen. In der Meteorologie und Klimaforschung finden solche Standards bisher primär in großen, international koordinierten Modellvergleichsstudien ihre Anwendung. Im Projekt AtMoDat (Atmosphären-Modelldaten: Datenqualität, Kurationskriterien und DOI-Branding) werden diese Standards systematisch an die Bedarfe kleinerer Fachcommunitys und Modellvergleichsstudien angepasst. Als Anwendungsfälle dienen u. a. Daten aus der Stadtklimaforschung und kleinen Klimamodellvergleichsstudien. Im Verlauf des Projekts werden die entwickelten Standards adaptiert und auf ihre universelle Nutzbarkeit hin evaluiert. Durch eine nachhaltige Anwendung dieser Standards, der angebundenen Prozesse zur Kuratierung und Qualitätssicherung sowie durch die Entwicklung und Vergabe fachspezifischer DataCite Digital Object Identifier (DOI) wird die Nachnutzbarkeit der Atmosphärenmodelldaten signifikant erhöht. Das im Juni begonnene Projekt wird vom BMBF für drei Jahre im Programm zur „Entwicklung und Erprobung von Kurationskriterien und Qualitätsstandards von Forschungsdaten im Zuge des digitalen Wandels im deutschen Wissenschaftssystem“ gefördert. Als Projektpartner arbeiten unter der Koordination durch das DKRZ die Universitäten Hamburg und Leipzig sowie die Technische Informationsbibliothek Hannover mit. Weitere Informationen: https://www.atmodat.de/

SPPEXA: Abschluss-Symposium in Dresden

Das DFG-Schwerpunktprogramm 1648 „Software for Exascale Computing“ (SPPEXA) hat in den letzten sechs Jahren die deutsche HPC-Forschungslandschaft mit 17 interdisziplinären Teilprojekten, 60 Principle Investigators, und 60 Doktorand/innen geprägt. Nach zwei dreijährigen Förderungsphasen läuft das Programm zum Jahresende weitgehend aus. Als Abschluss findet vom 21. bis 23. Oktober ein finales Symposium an der TU Dresden statt. Das Event besteht aus Minisymposien der 17 Projekte. Aufgrund des trilateralen Aufbaus von SPPEXA (Japan, Frankreich, Deutschland) werden zahlreiche internationale Sprecher/innen vertreten sein, zumal die Projekte neben den internen Redner/innen zu ihren Veranstaltungen auch externe Experte/innen aus aller Welt einladen. Zusätzlich zu den Symposien beinhaltet das Programm die eingeladenen Plenarvorträge, die Verleihung der SPPEXA-Preise für Nachwuchswissenschaftler/innen und ein Festkolloquium. In Vorbereitung der Konferenz findet für Interessierte ein Networking-Event zur Stärkung der Geschlechterverteilung im HPC statt. Die Anmeldung ist bis zum 30. September möglich. Weitere Informationen: https://www5.in.tum.de/workshops/SPPEXAFinalSymposium2019/info.php