März/ April 2018

Gauß-Allianz Infobrief - Ausgabe 61

Ausbau des Hochleistungsrechners MOGON II in Mainz

Im Oktober 2017 wurde an der Johannes Gutenberg-Universität Mainz (JGU) die zweite Phase von MOGON II in Betrieb genommen. Mit 1,97 PetaFlop/s ist der durch die Hersteller MEGWARE und NEC aufgebaute Mainzer Supercomputer zurzeit der schnellste Hochleistungsrechner an einer deutschen Universität und wird gemeinsam durch das Zentrum für Datenverarbeitung und das Helmholtz-Institut Mainz (HIM) betrieben. Seit 2016 haben das Land Rheinland-Pfalz, der Bund, die JGU und das HIM in das über den Wissenschaftsrat begutachtete neue System 10,6 Millionen Euro investiert. Damit steht den rheinland-pfälzischen Wissenschaftler/-innen im Rahmen der Allianz für Hochleistungsrechnen Rheinland-Pfalz (AHRP) bis 2020 Rechenleistung der internationalen Spitzenklasse zur Verfügung. MOGON II besteht aus 1.876 einzelnen Knoten, von denen 822 Knoten mit jeweils zwei 10-Kern Broadwell-Prozessoren und 1.046 Knoten mit jeweils zwei 16-Kern Skylake-Prozessoren von Intel ausgestattet sind. Die mehr als 49.000 Kerne sind mit einem 50 GBit/s Intel Omni-Path-Netzwerk gekoppelt und an ein Lustre-Speichersystem mit 7,5 Petabyte nutzbarer Kapazität angeschlossen. Weitere Informationen: https://hpc.uni-mainz.de/ .

LRZ als Bayerisches Big Data Kompetenzzentrum

Eingebettet in die umfassende Strategie BAYERN DIGITAL der Bayerischen Staatsregierung, agiert das Leibniz-Rechenzentrum (LRZ) seit dem 1. März als Bayerisches Big Data Kompetenzzentrum (BBDZ). Aufbauend auf der starken Basis als IT-Kompetenzzentrum, unterstützt das LRZ künftig verstärkt Anwender/-innen aus Wissenschaft und Wirtschaft im vorwettbewerblichen Bereich bei ihren IT-Problemstellungen im Bereich Big Data. Das Portfolio des BBDZ deckt ein umfassendes und integriertes Leistungsspektrum ab, das etablierte LRZ-Dienste mit neuen Angeboten verknüpft. Neben der Bereitstellung entsprechender Hardwareressourcen und der nötigen Infrastruktur für das Transportieren, Speichern, Verarbeiten und Analysieren von großen Datenmengen stehen vor allem Beratung sowie Aus- und Weiterbildung u. a. in den Bereichen Machine Learning und Deep Learning im Fokus des BBDZ. Das LRZ wird dafür mit einer Vielzahl von Akteuren im Big-Data-Umfeld zusammenarbeiten – von Studierenden über Lehrstuhlinhaber/-innen bis hin zu Start-ups, KMU und vielen mehr. Weitere Informationen: http://www.bigdata.lrz.de (LRZ-Kontaktformular: https://servicedesk.lrz.de/ql/create/116 )

SCC baut European Open Science Cloud mit auf

Mit der European Open Science Cloud (EOSC) entsteht seit Anfang des Jahres eine europaweite Cloud-Plattform, auf der Wissenschaftler/-innen Forschungsdaten speichern, teilen, nutzen und wiederverwenden können. Da wissenschaftliche Datenmengen teilweise riesig ausfallen, ist spezielles Know-How für Aufbau und Verwaltung der Big-Data-Cloud-Infrastruktur gefragt. Das Steinbuch Centre for Computing (SCC) des KIT bringt seine langjährige Expertise in der Verwaltung großer Datenmengen an mehreren Stellen ein. Insbesondere verantwortet es das IT-Service-Management, wie den Aufbau eines Service-Katalogs, die Planung und Umsetzung von Support-Prozessen und -Werkzeugen sowie eines Service Desks als zentrale Anlaufstelle für Nutzeranfragen. Die Leitung des Arbeitspaketes „Federation and Collaborative Services“ mit dem Fokus auf der Integration von föderativen IT-Diensten, wie Authentifizierung und Service-Katalog sowie von Monitoring-, Accounting und IT-Service-Management-Werkzeugen, liegt beim SCC. Weitere Informationen: http://www.eosc-hub.eu/

Quantifizierung von Unsicherheiten mittels Simulation

Quantifizierung von Unsicherheiten (UQ), die systematische Berücksichtigung von Fehlern aller Art und deren Auswirkung auf das Endergebnis, hat in Modellierung, Simulation und Optimierung und insbesondere in der Parameteridentifizierung wesentlich an Bedeutung gewonnen. Am Zuse-Institut Berlin ist UQ ein Querschnittsthema, das sich durch die meisten Projekte zieht. Beispiele sind die Bestimmung von systembiologischen Parametern in Therapiemodellen, von Halbleiter-Fertigungsparametern durch optische Metrologie, von Übergangswahrscheinlichkeiten zwischen simulierten Molekülkonformationen sowie die 3D-Anatomie-Rekonstruktion aus Röntgenbildern. Für UQ werden Sampling-Verfahren und lokale Approximationen von Posterior-Verteilungen eingesetzt. Erstere erlauben eine korrekte Erfassung komplexer Verteilungen in hochnichtlinearen Problemen, erfordern dafür aber eine große Anzahl von Simulationen, die jeweils nicht zu aufwendig sein sollten – etwa in Systembiologie oder Moleküldynamik. Lokale UQ kommt mit sehr viel weniger Simulationen aus, ist aber auf näherungsweise normalverteilte Parameter beschränkt – typisch für technische Anwendungen wie optische Metrologie und Anatomie-Rekonstruktion. Weitere Informationen: http://www.zib.de/features/uncertainty-quantification

Vereinfachte Multi-GPU-Programmierung

Das BMBF-geförderte Projekt „Automatisierte Partitionierung für heterogene Systeme durch Code-Analyse und -Transformation“ (GPU Mekong) befasst sich mit der Vereinfachung der Programmierung von Multi-GPU-Systemen. Grafikprozessoren (Graphics Processing Units) haben sich als hochperformante und energieeffiziente Beschleuniger im Hochleistungsrechnen etabliert, aber insbesondere Systeme mit mehreren GPUs sind schwer zu programmieren. GPU Mekong ermöglicht die automatische Skalierung von für einzelne GPUs entworfenen Codes auf mehrere GPUs und erlaubt dadurch die Aggregation von Speicher- und Rechenressourcen. Der Ansatz basiert auf drei voll automatisierten Schritten: Zuerst werden Informationen wie Datenabhängigkeiten und Speicherzugriffsmuster über statische Code-Analyse gesammelt. Diese Informationen führen anschließend über Kostenmodelle zu einer geeigneten Partitionierungsstrategie. Über Code-Transformationen wird im dritten Schritt die gewählte Partitionierung umgesetzt. Durch diese Methodik wird der erhebliche Zusatzaufwand für die Nutzung mehrerer GPUs komplett vermieden. Partner des BMBF-Projektes sind die Computer Engineering Group und das Engineering Mathematics and Computing Lab der Universität Heidelberg, geleitet von Juniorprofessor Holger Fröning bzw. Professor Vincent Heuveline. Assoziierte Partner sind NVIDIA Deutschland und das Scalable Parallel Computing Laboratory der ETH Zürich. Weitere Informationen: http://www.gpumekong.org

10 Jahre Steinbuch Centre for Computing

Am 22. Februar 2008, noch vor der KIT-Gründung 2009, wurde das SCC durch den Zusammenschluss des Rechenzentrums der Universität Karlsruhe mit dem Institut für Wissenschaftliches Rechnen des damaligen Forschungszentrums Karlsruhe gegründet. Als zentrale wissenschaftliche Einrichtung für Informationsverarbeitung des KIT verschränkt das SCC konsequent Forschung und Dienstleistung, sodass Erkenntnisse aus der Forschung in das Design und die Entwicklung seiner IT-Dienste und -Infrastruktur einfließen und die Forschung von der engen Verzahnung profitiert. Heute positioniert sich das SCC als Zentrum für datenintensives Rechnen und die Analyse groß-skaliger Daten mit hoher nationaler und internationaler Sichtbarkeit sowie als innovativer und agiler IT-Serviceprovider. Über aktuelle Forschungsthemen, Dienste und Innovationen berichtet regelmäßig die SCC-News . Die Gründungsgeschichte, die damalige Organisationsstruktur sowie Visionen sind in der ersten Ausgabe 1/2008 dargestellt. Weitere Informationen: www.scc.kit.edu/publikationen/scc-news

Europäische HPC-Initiative nimmt Fahrt auf

Bereits 2017 bekräftigte die Europäische Kommission ihre Pläne, in das HPC zu investieren, da sie bislang noch nicht über die leistungsfähigsten Supercomputer verfügt und die vorhandenen Systeme auf außereuropäischer Technik basieren. Ziel ist die Zusammenführung des digitalen Binnenmarktes zur Entwicklung eigener leistungsstarker HPC-Technik. Daraus sollen europaweite HPC-Infrastrukturen entstehen, die einen unabhängigen Zugang zu HPC-Spitzentechnik sichern und es Wissenschaft, Industrie und Wirtschaft ermöglichen, ihre Daten innerhalb der EU verarbeiten zu lassen. Das neue gemeinsame Unternehmen EuroHPC wird voraussichtlich im Jahr 2019 seinen Betrieb aufnehmen und soll bis Ende 2026 tätig sein. Es hat das Ziel, bis 2023 Supercomputer mit einer Leistungsfähigkeit im Bereich bis 1018 Rechenoperationen pro Sekunde in Europa bereitzustellen. Ab 2019 / 2020 wird es mit der Ausschreibung von Forschungs- und Innovationsmaßnahmen beginnen und gleichzeitig die Beschaffung von Hochleistungsrechnern im Pre-Exascale-Bereich vorantreiben. Weitere Informationen: http://europa.eu/rapid/press-release_MEMO-18-3_de.htm .

Neue Data-Analytics-Vorlesung an der TU Dresden

Big-Data-Analytics fordert Lösungen in verschiedenen Bereichen wie Rechnerarchitektur und Hochleistungsrechnen sowie statistische Analyse, Maschinelles Lernen und Data-Analytics-Frameworks. Das ZIH will seine umfangreiche Kompetenz auf diesen Gebieten ab dem kommenden Sommersemester gezielt in eine neue Lehrveranstaltung einfließen lassen. Die Vorlesung an der TU Dresden stellt aktuelle Ansätze vor, die durch ausgewählte Anwendungen, deren Konsequenzen für verschiedene Lebensbereiche und umfangreiche praktische Übungen ergänzt werden. Weitere Informationen: https://tu-dresden.de/zih/news