Juni 2020

Gauß-Allianz Infobrief - Ausgabe 81

ISC 2020 digital

Die ISC 2020 findet in diesem Jahr aufgrund der Covid-19-Pandemie in digitaler Form vom 22. bis 25. Juni statt. Für die Online-Veranstaltung erwarten die Organisierenden 3.700 Anmeldungen, das sind ebenso viele wie bei der Live-Veranstaltung in Frankfurt. Alle angebotenen Vorträge sind 14 Tage lang exklusiv für registrierte Teilnehmende verfügbar. Sie konzentrieren sich auf die neuesten internationalen Entwicklungen und Trends in den Bereichen Hochleistungsrechnen, maschinelles Lernen und Datenanalyse. Die Veranstaltung wird kostenlos angeboten. Interessierte können sich seit dem 2. Juni auf der ISC 2020-Website anmelden. Weitere Informationen: isc-hpc.com/

Sponsor im Studentcluster-Wettbewerb der ISC

Das GCS führt sein Engagement fort, junge Talente aus den MINT-Studiengängen für das Hochleistungsrechnen zu begeistern. Auch in diesem Jahr sponsert das GCS Studierendenteams der Friedrich-Alexander-Universität Erlangen-Nürnberg und den Universitäten Hamburg und Heidelberg, die sich für den Studentcluster-Wettbewerb qualifizieren konnten. Dieser Wettbewerb ist seit langem fester Bestandteil der ISC, die in diesem Jahr aufgrund der Corona-Krise in digitaler Form stattfinden wird. Der diesjährige Online-Wettbewerb erstreckt sich über den Zeitraum von drei Wochen, vom 1. bis 24. Juni, und steht im Zeichen des Kampfes gegen Covid-19. Die insgesamt 14 Studierendenteams aus aller Welt sind beauftragt, verschiedene Anwendungen zu testen, die derzeit von Forschenden auf der Suche nach einem Heilmittel gegen Covid-19 genutzt werden. Das GCS unterstützt die Teams mit einem finanziellen Zuschuss zur Deckung wettkampfbedingter Auslagen und bietet den Studierenden in der Vorbereitungsphase darüber hinaus Training, Unterstützung und HPC-Expertise durch die drei GCS-Zentren HLRS, JSC und LRZ. Weitere Informationen: gauss-centre.eu/news/pressreleases/article/scc-isc20/

Ein neuer Supercomputer für das KIT

Ab Herbst 2020 stellt das KIT die erste Aufbaustufe eines neuen Supercomputers bereit. Er soll im Sommer 2021 der Wissenschaft übergeben werden. Der nun unterzeichnete Liefervertrag hat eine Größenordnung von 15 Mio. Euro. Der „Hochleistungsrechner Karlsruhe“ (HoreKa) wird mit ca. 17 Billiarden Rechenoperationen pro Sekunde voraussichtlich zu den zehn leistungsfähigsten Rechnern Europas gehören. Das System wird Wissenschaftler/innen aus ganz Deutschland zur Verfügung stehen. Um das leistungsfähigste Gesamtsystem zu erhalten, war das Ausschreibungsverfahren technologieoffen gestaltet. Das Ergebnis ist ein Hybrid-System mit fast 60.000 Prozessorkernen der nächsten Generation und mehr als 220 Terabyte Hauptspeicher sowie 740 GPUs des Typs NVIDIA A100 Tensor Core der nächsten Generation. Als Kommunikationsnetzwerk kommt ein nicht-blockierendes InfiniBand-HDR-Netzwerk von NVIDIA Mellanox mit 200 Gigabit/s pro Port zum Einsatz, als Datenablage dienen zwei parallele Spectrum-Scale-Dateisysteme mit einer Kapazität von mehr als 15 Petabyte. Um die bei Simulationen anfallenden großen Datenmengen zu bewältigen, liefern die Rechenknoten, das InfiniBand-Netzwerk und die parallelen Dateisysteme von HoreKa im Vergleich zum Vorgängersystem ForHLR jeweils einen bis zu vier Mal höheren Speicherdurchsatz. Das Unternehmen pro-com Datensysteme GmbH wird die Lenovo-Rechnersysteme liefern und die Projekt- und Systemintegration übernehmen. Weitere Informationen: s.kit.edu/horeka

Menschliches Modell in HD-Auflösung

SuperMUC-NG forscht gegen Corona: Der Supercomputer des Leibniz-Rechenzentrums (LRZ) in Garching filtert aus Millionen von Substanzen diejenigen heraus, die sich als wirksam gegen das Virus erweisen könnten. Der dazu notwendige Algorithmus wurde im Centre of Excellence CompBioMed entwickelt und beansprucht bei seiner Berechnung alle 311.040 Rechnerknoten des SuperMUC-NG. Seit 2015 entwickelt ein internationales Team Programme und Algorithmen für das HPC, um ein virtuelles Modell des Menschen zu schaffen. Dieses Modell soll dazu dienen, Bewegungsabläufe zu berechnen, molekulare Prozesse zu simulieren oder das Geschehen in Gefäßen zu visualisieren. Durch die wachsende Leistung von Hochleistungsrechnern und mit Hilfe von Big Data wird das virtuelle Menschenmodell jetzt detaillierter. Das LRZ als Kernpartner von CompBioMed ist verantwortlich für das Datenmanagement und hilft dabei, die Projektdaten zu katalogisieren. Dafür nutzt das Team den Data Science Storage des LRZ und Werkzeuge zur automatisierten Hochdurchsatzanalytik von Big Data, etwa aus Massentests. Darin finden Algorithmen oft mehr Muster und minimieren so beispielsweise den Aufwand bei der Medikamentenentwicklung gegen SARS-CoV-2. Anhand des virtuellen Modells, das dank CompBioMed aus den Daten eines Menschen künftig gebaut werden kann, könnten individuelle Rezepturen gegen Krankheiten oder künstliche Gelenke passgenau entwickelt werden. Weitere Informationen: lrz.de/presse/ereignisse/2020-03-31_Den-Menschen-simulieren/

Infektionsdynamik von SARS-CoV-2

Wissenschaftler/innen der TU Berlin (Prof. Nagel, Verkehrssystemplanung und Telematik), der Humboldt-Universität zu Berlin (Prof. Brockmann, Theoretische Biologie) sowie der Freien Universität Berlin und des Zuse Instituts Berlin (Prof. Schütte) entwickeln komplexe Modellanwendungen auf dem HLRN-Hochleistungsrechner „Lise“, um die Infektionsdynamik im urbanen, regionalen und bundesweiten Kontext zu untersuchen und eine Überlastung des Gesundheitssystems abzuwenden. Die zentrale Idee des Projektes ist es, mit Hilfe einer Modellierung auf dem HLRN, eine Pipeline aufzubauen, die es erlaubt, sehr schnell synthetische Personen mit Bewegungsmustern für beliebige Regionen in Deutschland zu erzeugen. Diese Personen sollen einer Infektionsdynamik unterworfen werden, um dann die Reaktion der Dynamik auf unterschiedliche Maßnahmen (z. B. Schulschließungen) zu testen und anschließend deren Wirksamkeit zu bewerten. Weitere Informationen: zib.de/projects/mobilitaetsmodelle-berlin

Digitaler Zwilling für die Stadtplanung

In Kooperation mit Forschenden des Fraunhofer-Institut für Arbeitswirtschaft und Organisation der Universität Stuttgart und dem Kommunikationsbüro Ulmer hat ein Team des Höchstleistungsrechenzentrums Stuttgart (HLRS) neue Methoden und Werkzeuge zur Planungs- und Entscheidungsunterstützung für Städte entwickelt. Im „Digitalen Zwilling“ der Stadt Herrenberg in Baden-Württemberg wurden mithilfe von Supercomputing-Technologien komplexe urbane Daten analysiert, simuliert, in Modelle integriert und visualisiert. In einer mobilen VR-Umgebung (Virtuellen Realität) konnten sich Bürger/innen direkt vor Ort im Rahmen mehrerer Veranstaltungen über anstehende Stadtentwicklungsprojekte informieren und beteiligen. Durch den Einsatz von VR konnten komplexe Sachverhalte verständlich und übersichtlich präsentiert werden. Menschen mit Beeinträchtigungen, Migrationshintergrund oder Jugendliche, die oft nur schwer Zugang zu gängigen Beteiligungsformaten finden, konnten so in diese Prozesse integriert werden. Aufgrund der positiven Resonanz und der guten Zusammenarbeit mit den Verantwortlichen der Stadt Herrenberg wird das Projekt „Digitaler Zwilling“ weiter vorangetrieben. So sollen im Rahmen zukünftiger Projekte neue Ebenen und Werkzeuge wie maschinelles Lernen, weitere Sensorik und soziale Daten integriert werden – und das nicht nur in Herrenberg, sondern auch in anderen Städten. Weitere Informationen: hlrs.de/news/detail-view/2020-05-07/

HLRS im EU-Projekt HiDALGO

Gegenwärtige globale Herausforderungen sind vielschichtig: Klimawandel, Gesundheitsrisiken, Migrationsbewegungen oder der Wandel hin zu erneuerbaren Energien sind von gesellschaftspolitischer Bedeutung. Die Lösung solcher Herausforderungen verlangt die Berechnung und Analyse enormer Datenmengen, für die Supercomputer wie das HLRS-System Hawk erforderlich sind. Nahezu alle globalen Herausforderungen sind aufgrund ihres Ausmaßes hoch komplex und erfordern interdisziplinäre Zusammenarbeit von Expert/innen zu Aspekten wie Modellierung, Datenerfassung, Simulation, Analyse und Visualisierung. Das Centre of Excellence HiDALGO, für das das HLRS die technische Leitung inne hat, betrachtet solche Aspekte, indem es globale Herausforderungen in einer rechnergestützten und datenanalytischen Umgebung erfasst, die die Interpretation und das Verständnis dieser Herausforderungen erlaubt und verbessert sowie eine systematische Zusammenarbeit zwischen Forschenden unterschiedlicher Gebiete ermöglicht. Das übergeordnete Ziel von HiDALGO ist es, die Nutzung von HPC-, Big-Data- und AI-Technologien zu verbessern, um die Verarbeitung und die Analyse dieser riesigen Datenmengen zu ermöglichen. Im Vordergrund stehen dabei die Skalierbarkeit von Anwendungen durch die agenten-basierte Modellierung und Simulation sowie die Synthese und Analyse von Sozialen Netzwerken im großem Maßstab. Weitere Informationen: hlrs.de/de/whats-new/news/detail-view/2019-10-23/