HPC-Statuskonferenz 2023
Hoch- und Höchstleistungsrechnen in Deutschland

Go to first section
31. Mai bis 2. Juni 2023
Konferenz
Englerstraße 7, 76131 Karlsruhe
Vom 31. Mai bis 2. Juni 2023 veranstaltet die Gauß-Allianz und das Karlsruher Institut für Technologie gemeinsam mit dem Bundesministerium für Bildung und Forschung in Karlsruhe eine Tagung zu aktuellen Entwicklungen im Bereich des High Performance Computings (HPC) sowie einer Session Künstliche Intelligenz (KI) & HPC.

Vom Supercomputing auf der höchsten Leistungsklasse mit dem Gauss Centre for Supercomputing (GCS) über den Verbund der Zentren des Nationalen Hochleistungsrechnens an den Hochschulen (NHR), den HPC-Zentren der Ebene 3 sowie der Nationalen Forschungsdateninfrastruktur, den KI-Servicezentren sowie die KI-Kompetenzzentren bietet Deutschland eine hervorragende Infrastruktur für Wissenschaft und Forschung. Diese wird auf nationaler und europäischer Ebene an der Schwelle zur Exascale-Ära durch eine Reihe exzellenter Forschungsvorhaben ergänzt. Im Kontext dieser Entwicklungen laden wir Sie herzlich zu einer gemeinsamen Tagung ein. Es werden aktuelle Entwicklungen in der HPC-Forschung und der HPC-Nutzung in Wissenschaft und Wirtschaft und im Themengebiet der künstlichen Intelligenz vorgestellt und diskutiert. Darüber hinaus ist auch die Kooperation mit europäischen Partnern in EuroHPC ein zentrales Thema.

Die dreitägige Statuskonferenz adressiert am ersten Tag die Entwicklungen im nationalen HPC, am zweiten Tag liegt der thematische Fokus auf den Forschungsvorhaben und -ziele der SCALEXA-Projekte sowie dem Themenkomplex Künstliche Intelligenz & HPC. Abgerundet wird das Programm am dritten Tag mit den aktuellen Entwicklungen, Vorhaben und Ziele auf europäischer Ebene.

Prof. Dr. Wolfgang E. Nagel
Vorstandsvorsitzender Gauß-Allianz e. V.

Prof. Dr. Martin Frank
Direktor Steinbuch Centre for Computing, KIT
supported by
Registrierung
Der Konferenzbeitrag beträgt 160 Euro (inkl. 19% MwSt.). Dieser wird vom lokalen Veranstalter zur Deckung der Unkosten im Rahmen der Ausrichtung der HPC-Statuskonferenz vereinnahmt und verantwortet. Die Gauß-Allianz hat im Zusammenhang mit dieser Veranstaltung keine Einnahmen und auch kein finanzielles Interesse.

Ab dem 1. Mai 2023 beträgt der Konferenzbeitrag 200 Euro. Bitte melden Sie sich bis spätestens Montag, den 22. Mai 2023 (extended Deadline), unter dem folgenden Link für die Konferenz an: Registrierungsplattform .

Angehörige des KIT melden sich bitte unter dem folgenden Link an: Anmeldung für KIT-Angehörige .

Organisatorische Fragen richten Sie bitte an visit@scc.kit.edu. Für alle anderen Fragen stehen wir Ihnen unter der Adresse service@gauss-allianz.de zur Verfügung.
Hotelkontingent
Für den Zeitraum vom 31. Mai bis 2. Juni 2023 wurden für die Teilnehmer und Teilnehmerinnen der GA-HPC-Statuskonferenz im Hotel Leonardo ein Kontingent von Einzelzimmern zum Preis von 125 Euro pro Nacht (inkl. Frühstück und MwSt.) reserviert. Bitte reservieren Sie Ihr Zimmer selbstständig.

Buchungscode: 267609 (Reservierung bis zum 4. April 2023)

Leonardo-Hotel Karlsruhe
Ettlinger Straße 23
76137 Karlsruhe

Telefon: +49 62 213608910
Webseite: https://www.leonardo-hotels.de/karlsruhe/leonardo-hotel-karlsruhe

Achat Hotel Karlsruhe City
Mendelssohnplatz
76131 Karlsruhe

Telefon: +49 721 3717 0
Webseite: https://achat-hotels.com/hotels/karlsruhe-city?utm_source=Google&utm_medium=Yext&utm_campaign=ACHAT17

Hotel am Markt
Kaiserstraße 76
76133 Karlsruhe

Telefon: +49 721 9199 80
Webseite: https://www.hotelammarkt.de/

Hotel Berliner Hof
Douglasstr. 7
76133 Karlsruhe

Telefon: +49 721 1828-0
Webseite: https://hotel-berliner-hof.de/

Weitere Hotels sind über die einschlägigen Hotelportale verfügbar.
Programm
Mittwoch, 31. Mai 2023 von 10:30 bis Freitag, 2. Juni 2023 13 Uhr


Registrierung
10:00
90'
Registrierung
Gebäude 20.30 (Mathematik) , Englerstraße 2, 76131 Karlsruhe
Entwicklungen im nationalen HPC
11:30
10'
Grußwort
Prof. Dr. Kora Kristof
Vizepräsidentin für Digitalisierung und Nachhaltigkeit, KIT
Fritz-Haller-Hörsaal, Gebäude 20.40
11:40
20'
High-Performance Computing @ Steinbuch Centre for Supercomputing
Prof. Dr. Martin Frank
Direktor Steinbuch Centre for Supercomputing, KIT
Fritz-Haller-Hörsaal, Gebäude 20.40
12:00
60'
Keynote: High-Performance Computing at BASF
Dr. Stefan Schenk
Product Manager High Performance Computing, BASF SE
About Dr. Stefan Schenk
Stephan Schenk is the Product Manager for High Performance Computing at BASF SE in Ludwigshafen, Germany. He made his first contact with HPC during his studies in chemistry in 2000. He remained in this field obtaining a PhD in Computational Chemistry in 2006. After a postdoctoral stay at ETH Zurich, he joined BASF in 2010. He currently heads the team providing the supercomputer platform QURIOSITY that empowers BASF colleagues to leverage HPC to rapidly turn data into successful innovation and insights.

He also serves as a member of the Invited Program Committee for the ISC High Performance conference series as well as the Scientific Council of the John von Neumann Institute for Computing (NIC) Jülich. Furthermore, Stephan is a deputy chairman of the High Performance Computing and Quantum Computing working group at Bitkom, Germany’s digital association.

His interest focuses on democratization of HPC across businesses and leveraging the highly innovative technologies of Next Generation Computing, especially Quantum Computing.
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
The talk will give an overview about recent activities of BASF in the area of High Performance Computing (HPC). Illustrative examples will show how HPC has become an integral part of the BASF’s R&D process and answer why the largest supercomputer in the chemical industry has been deployed in Ludwigshafen.
13:00
60' Pause
14:00
30'
Quantencomputing in Deutschland
Laura Schulz
Head of Quantum Computing and Technologies, Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
About Laura Schulz
Laura Schulz ist Abteilungsleiterin für Quantencomputing und Technologien am Leibniz-Rechenzentrum (LRZ) in Garching bei München. Darüber hinaus arbeitet sie an der strategischen Entwicklung und Partnerschaft im Bereich HPC und KI/ML. Sie ist die Hauptautorin des LRZ-Strategieplans für Quantencomputing, Mitbegründerin des monatlich stattfindenden Bavarian Quantum Computing eXchange (BQCX) und PI für das Euro-Q-Exa-Projekt für das EuroHPC JU. Bevor sie zum LRZ kam, war sie Teil des Computation Directorate am Lawrence Livermore National Laboratory (LLNL) und im High Performance Computing Innovation Center (HPCIC) des LLNL tätig. Kürzlich wurde Laura zu einer HPCWire 2023 Person to Watch ernannt.
Fritz-Haller-Hörsaal, Gebäude 20.40
14:30
60'
Energieeffizienz im HPC
Energieeffizienz im HPC - Ansätze jenseits von AI
Dr. Hendryk Bockelmann
Deutsches Klimarechenzentrum GmbH (DKRZ)
ENSIMA - ENergy-efficient SImulation Methods for Application-oriented computational problems
Dr. Christian Terboven
NHR4CES, RWTH Aachen University
EE-HPC - Quelloffene Lösungsansätze für Monitoring & Systemeinstellungen für energieoptimierte Rechenzentren
Thomas Gruber
NHR@FAU - Erlangen National High Performance Computing Center
ESN4NW – Energieoptimierte Supercomputer-Netzwerke durch die Nutzung von Windenergie
Dr. Gunnar Schomaker
Universität Paderborn
Description
Ein durch das BMBF gefördertes Vorhaben in der Fördermaßnahme Elektronik für energiesparsame Informations- und Kommunikationstechnik zum Themenfeld HPC Rechenzentren. High-Performance Computing (HPC) liefert heute in vielen Branchen und Disziplinen grundlegende IT Ressourcen, z.B. für Forschungsmethoden (Simulationen im Kontext Industrie, Klima, Astrophysik, Biologie, …). Rechenzentren in Deutschland benötigen dazu derzeit ca. 3 % des nationalen Stroms und ausschließlich Maßnahmen zur Energieeinsparungen in Rechenzentren werden die gewünschten CO2 Effekte wohl nicht erreichen. Somit erscheinen Innovationen wie neue Architekturen, alternative Betriebsführungen oder auch andere Verortungskonzepte von Rechenzentren benötigt zu werden. Zudem scheint der Ausbau von Datennetzen und Energienetze dem gesellschaftlichen Bedarf ohne weitere Treiber in ländlichen Regionen wie OWL nicht gerecht zu werden.

Überlastungen im Stromnetzes führen heute in Windregionen zum Stillstand von Windkraftanlagen, was einerseits eine Verschwendung und andererseits Unmut in der Bevölkerung erzeugt. Im Gegensatz zu Solarkraftwerken sind Windkraftanlagen fortwährend in der Wahrnehmung der Bevölkerung. In Zahlen: 01.03.2022 in OWL 1.000 Anlagen mit eine Leistungsfähigkeit von 1.667 Megawatt. Im Vorhaben ESN4NW soll diese Energieverfügbarkeit auch für High-Performance Computing direkt in den Anlagen erschlossen werden. Der Schwerpunkt des Vorhabens ist die Entwicklung einer angepassten Infrastruktur zur dynamischen Aktivierung von HPC Ressourcen. Die Rechenknoten, deren Rechenleistung und Abwärme, das lokale Stromnetz und die Windkraftanlagen selbst bilden ein komplexes Gesamtsystem. Eine Aufgabe, die Steuerung und Reglung, ist somit ein zentrales Entwicklungsziel. Für doe Lösung sollen neben etablierten DCIMs, Konzepte wie der digitale Zwilling oder Methoden des maschinellen Lernens genutzt werden. Es verbleibt somit spannend, welche Kennzahlensysteme ein solches System besitzt und ob die ganzheitliche Analyse und Bewertung eine echte CO2 Einsparung im Vergleich zum konventionellen Betrieb im deutschen Energie-Mittelmix zeigen kann.
Fritz-Haller-Hörsaal, Gebäude 20.40
15:30
30' Pause
16:00
90'
HPC in Deutschland
Entwicklungen und Ausblick im nationalen HPC
Prof. Dr. Dieter Kranzlmüller
Gauss Centre for Supercomputing (GCS) e. V.
NHR – es geht voran!
Prof. Dr. Gerhard Wellein
Verein für Nationales Hochleistungsrechnen - NHR-Verein e.V., Vorstand
Thematische und institutionelle HPC-Zentren - Stand und Perspektiven
Prof. Dr. Thomas Ludwig
Deutsches Klimarechenzentrum GmbH (DKRZ)
Fritz-Haller-Hörsaal, Gebäude 20.40
17:30
15' Pause
17:45
90'
HoreKa-Führung
Steinbuch Centre for Supercomputing, KIT
Campus Nord, Steinbuch Centre for Supercomputing, KIT
Description
Abfahrten Campus Süd: 17:45 und 18:15

Zum Rechenzentrum:
Das Steinbuch Centre for Computing (SCC) betreibt Großgeräte für wissenschaftliches Hochleistungsrechnen und datenintensive Wissenschaften im Rahmen von sicheren IT-Föderationen. Dazu gehören moderne Supercomputer wie der „Hochleistungsrechner Karlsruhe“ (HoreKa) und weitere Clustersysteme und Entwicklungsplattformen für unterschiedliche Benutzergruppen, wie beispielsweise das Grid-Computing Zentrum GridKa.

HoreKa ist ein innovatives Hybrid-System mit fast 60.000 Intel Prozessorkernen, mehr als 220 Terabyte Hauptspeicher sowie 668 NVDIA A100 GPUs. Als Kommunikationsnetzwerk kommt ein non-blocking InfiniBand-HDR-Netzwerk mit 200 GBit/s zum Einsatz, als Datenablage dienen zwei parallele Spectrum-Scale-Dateisysteme mit einer Gesamtkapazität von mehr als 15 Petabyte.

Das im März 2016 eingeweihte Rechnergebäude ist mit einer innovativen Warmwasserkühlung ausgestattet und dadurch besonders ressourcenschonend. 2017 wurde es in der Kategorie „Neu gebaute energie- und ressourceneffiziente Rechenzentren“ mit dem deutschen Rechenzentrumspreis ausgezeichnet.
Skalierbarkeit, innovativen Methoden sowie Architekturen für zukünftige Exascale-Systeme.
09:00
10'
Einführung in die SCALEXA-Förderung
Dr. Michael Rafii
Bundesministerium für Bildung und Forschung
Dr. Torsten Aßelmeyer-Maluga
Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR), DLR Projektträger
Fritz-Haller-Hörsaal, Gebäude 20.40
09:10
40'
Multi-skalen Codes mit gekoppelten Ebenen
Prof. Dr. Philipp Neumann
Helmut-Schmidt-Universität Hamburg
Prof. Dr. Harald Köstler
FAU Erlangen-Nürnberg
Dr. Ivo Kabadshow
FZ Jülich
Prof. Dr. Marcus Müller
Georg-August-Universität Göttingen
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
Das gemeinsame Ziel dieser SCALEXA Projekte ist die Erweiterung und Effizienzsteigerung von extrem großen Simulationen mit Foki auf u.a. Partikelsimulationen unter Berücksichtigung komplexer Wechselwirkungen oder der Kopplung an Kontinuumsmodelle. In allen Fällen wird durch die Forschungsarbeit sowohl eine fundamentale Erweiterung hin zur Nutzung von Exascale-Computern als auch die realistische Beschreibung von synthetischen oder anwendungsnahen (bspw. biomolekular, geodynamisch) Prozessen angestrebt.

3xa: Hans-Joachim Bungartz, Technische Universität München, Philipp Neumann (Vortrag GA Tagung), Karsten Meier, Helmut-Schmidt-Universität Hamburg, Christoph Niethammer, Michael Resch, HLRS, Jadran Vrabec, Technische Universität Berlin
Das Projekt „3xa: Exascale-Simulationssoftware für Systeme mit Dreikörperwechselwirkungen“ zielt auf die Entwicklung skalierbarer Methoden für Dreikörperwechselwirkungen in Partikelsystemen. In einem interdisziplinären, holistischen Ansatz sollen 1) vektorisierte Kernels und auto-tuning-basierte, systemunabhängige Multi- und Manycore-Algorithmik auf Knotenebene, 2) neue dynamische Lastverteilungsansätze, innovative Zonal-Methods-Ansätze für optimales Strong-Scaling und verbesserte Inter-GPU-Knoten-Kommunikation auf Inter-Knoten-Ebene, sowie 3) adaptive Verfahren für Partikeldarstellungen, sog. Adaptive Resolution-Schemata, eine skalierbare dreikörperpotenzialbasierte Partikelsimulation auf Exascale-Systemen etablieren. Exemplarisch soll dies in Anwendungen der chemischen Industrie demonstriert werden.

CoMPS: Ulrich Rüde, Harald Köstler (Vortrag GA Tagung), FAU Erlangen-Nürnberg, Barbara Wohlmuth, TU München, Marcus Mohr, Hans-Peter Bunge, LMU München, Maximilian Höb, Dieter Kranzlmüller, Bayerische Akademie der Wissenschaften, Leibniz-Rechenzentrum
Ziel des Vorhabens ist die Entwicklung einer Simulationsumgebung für die Modellierung physikalischer Phänomene in der Geodynamik über mehrere Größenskalen hinweg. Dafür sollen mehrere hochskalierbare Simulationsprogramme miteinander gekoppelt werden, die sowohl auf kontinuierlichen als auch auf diskreten Modellen beruhen. Neben der Entwicklung neuartiger Techniken zur Codegenerierung liegt der methodische Schwerpunkt auf der Untersuchung von fortschrittlichen numerischen Algorithmen mit variabler Berechnungsgenauigkeit. Dies ermöglicht effiziente Lösungen für komplexe physikalische Schnittstellenprobleme. Code: TerraNeo (fau.de)

FlexFMM: Ivo Kabadshow, Jülich Supercomputing Centre, Research Centre Jülich
Ziel des FlexFMM Projektes ist die Durchführung hoch-realistischer MD Simulationen unter Verwendung einer flexiblen fast multipole-basierten Elektrostatik in GROMACS. Damit werden Biomoleküle in komplexen chemischen Umgebungen äußerst realistisch modelliert, indem sie dynamische Protonierungen mittels Kopplung an einen konstanten pH-Wert erlaubt. Zudem ermöglicht die Verwendung der FMM neue Anwendungen dank gitterfreier Darstellung inhomogener und nicht-periodischer Systeme. Zusammen mit Sipearl wird im Co-Design prototypische Exascale Hardware der ARM-Architektur mit SVE-Vektoreinheiten und HBM-Speicher im Entwicklungszyklus berücksichtigt. Das Projekt erlaubt damit ein tiefgreifenderes Verständnis biomolekularer Prozess und die Beschleunigung biomedizinische Entwicklungen auf modernsten, europäischen HPC Systemen.

MExMeMo: Marcus Müller, Institut für Theoretische Physik, Georg-August-Universität Göttingen
Herstellungsverfahren weicher Materialien – hier: isoporöser Polymermembrane – mittels digitaler Zwillinge rechnergestützt zu planen und zu optimieren ist eine große Herausforderung da komplexe Prozesse von der makromolekularen Struktur bis zur Membranmorphologie auf der Skala von Mikrometern gekoppelt sind. Selbst mit zukünftigen Exascale-Supercomputern wird eine systematische, skalenübergreifende Untersuchung des vollständigen Herstellungsprozesses komplexer Materialen mittels teilchenbasierter Modelle allein nicht möglich sein. Das Projektziel ist es, unser teilchenbasiertes Simulationsprogramm SOMA mit einer Kontinuums- beschreibung mittels Heterogener Multiskalen Methode und Machine-Learning Techniken nahtlos und effizient zu koppeln, um damit die großen Zeit- und Längenskalen der Membranmorphologie zu erfassen und gleichzeitig den durch das Teilchenmodell hergestellten und für das Materialdesign essentiellen Bezug zu molekularen Eigenschaften beizubehalten. Beide, Teilchen- und Kontinuumsmodell, stellen unterschiedliche Anforderungen an die Computer-Hardware. Dies ist ein idealtypischer Anwendungsfall für das Konzept der modularen Supercomputerarchitektur (MSA), wie dem JUWELS-Cluster-Booster-System in Jülich. Ein zu entwickelnder Koordinator orchestriert die Kopplung der beiden Modellierungsebenen und verwaltet die Zuteilung der Ressourcen auf der MSA. Über die konkrete Anwendung hinaus wird der Koordinator eine effiziente Nutzung von MSA-Systemen und einen vereinfachten Zugang durch minimalen Portierungsaufwand der zu koppelnden Anwendungen ermöglichen.
09:50
30'
Synergie bei CFD/matrixfreien Algorithmen
Dr. Chiara Hergl
DLR
Prof. Dr. Martin Kronbichler
Universität Augsburg
Prof. Dr. Stefan Turek
TU Dortmund
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
Die Projekte PDExa, StroemungsRaum und ADAPTEX beschäftigen sich mit der Verbesserung verschiedener Anwendungen der Computational Fluid Dynamics (CFD).

Das Projekt PDExa entwickelt effiziente Verfahren höherer Ordnung für partielle Differentialgleichungen mit einem Fokus auf inkompressiblen Strömungen auf komplizierten Geometrien. Die zentrale Projektkomponente sind matrixfreie Implementierungen iterativer Löser, welche mit modernen Vorkonditionierern wie Mehrgitterverfahren ausgestattet werden. Diese Verfahren werden über Abstraktionen für CPU/GPU-basierte Hardware mittels Software-Komponenten der Finite-Elemente-Bibliothek deal.II und der Lineare-Algebra-Software Ginkgo im CFD-Anwendungscode ExaDG gebündelt.

Im Projekt StroemungsRaum soll ausgewählte Industrieanwendungen auf zukünftige Exascale-Computing-Architekturen vorbereiten. Die entsprechende Realisierung von Computational Fluid Dynamics (CFD) Anwendungssoftware im industriellen Kontext erfordert hochskalierende Methoden. Diese Methoden lösen hochdimensionale und instationäre (nicht)lineare Gleichungssysteme und müssen so in die Anwendungssoftware integriert werden, dass sie auch von Nicht-HPC-Experten aus der Industrie genutzt werden können. Insbesondere die Open-Source-Software FEATFLOW ist ein zentraler Bestandteil der StroemungsRaum-Plattform, die vom Industriepartner des Projekts IANUS seit Jahren erfolgreich eingesetzt wird. Im Rahmen des Gesamtprojektes wird FEATFLOW methodisch und durch parallele hardwarenahe Implementierungen erweitert.

In ADAPTEX wird ein Open-Source Exascale-fähiges Framework mit AMR für Anwendungen in der Erdsystemmodellierung entwickelt. Das Zentrum bildet dabei ein exascale-fähiges CFD-AMR Framework bestehend aus einem Gitterverwaltungssystem (t8code), einem Strömungslöser (Trixi.jl), sowie einem Adaptionsmodul (Multiwave). Durch das entstehende Framework soll die Auflösung in Simulationen und die Ressourceneffizienz verbessert werden (HYDRO_AS, SERGHEI, MESSy, MPTRAC). Das Ziel ist ein Framework, welches einfach in weiter Anwendungen zu integrieren ist.
10:20
20' Pause
10:40
20'
Weiterentwicklungen des ICON-Modells
Prof. Dr. Daniel Ruprecht
TU Hamburg
Dr. Fabian Senf
Leibniz-Institut für Troposphärenforschung e. V.
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
Die ICON-Software ist der zentrale Baustein der nationalen Initiative für Erdsystemmodellierung und wird sowohl vom Deutschen Wetterdienst (DWD) für die operationelle Wettervorhersage als auch zur Erstellung von Klimaprognosen sowie generell in der Forschung verwendet. Das vom DWD und dem Max Planck Institut für Meteorologie gemeinsam entwickelte ICON-Modell basiert auf physikalischen Grundlagen für die Beschreibung der Atmosphäre und der Ozeane und spannt dafür ein Netz aus Dreiecksgittern um die Erde. So divers wie die besonders gesellschaftsrelevanten Anwendungsfelder von ICON sind auch die verschiedenen HPC-Architekturen, auf denen ICON Anwendung findet. Daraus entstehen für die erfolgreiche Zusammenarbeit zwischen den Computerwissenschaften und der geowissenschaftlichen Forschung besondere Herausforderungen. Die SCALEXA Projekte IFCES2 und ExaOcean tragen zur Bewältigung dieser bei und zielen darauf ab, mit neuartigen Ansätzen die Performanz des ICON Modells auf zukünftigen Exascale-Rechnern sicherzustellen. IFCES2 wird zu diesem Zwecke neuartige Methoden der parallelen Ausführung, Kommunikation und der dynamischen Lastbalancierung für ICON implementieren und optimieren. ExaOcean kombiniert numerische Algorithmen mit Techniken des Maschinellen Lernens in einem “super-resolution” Ansatz, um effektiv hohe Auflösung auch mit größeren Gitterweiten zu erzielen und somit den Durchsatz des Modells zu verbessern. Die entwickelten Techniken sind eine notwendige Voraussetzung für die effiziente Nutzung zukünftiger Exascale-Rechner, ermöglichen eine erhebliche Erhöhung des Detailgrades von Erdsystemmodellen und tragen damit zur Verringerung der Unsicherheiten zukünftiger Klimaprojektionen bei.
11:00
30'
Ansätze zur Nutzung von heterogener Hardware und smarten Netzwerken
Prof. Dr. Martin Schulz
TU München
Prof. Dr. Michael Bader
TU München
Dr. Hartwig Anzt
KIT
Fritz-Haller-Hörsaal, Gebäude 20.40
11:30
30'
Speichersysteme für das Exascale
Prof. Dr. Erwin Laure
Max Planck Computing and Data Facility
Prof. Dr. Julian Kunkel
Georg-August-Universität Göttingen
Patrick Vogler
HLRS
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
Große Datenmengen bleiben eine Herausforderung für (wissenschaftliche) Anwendungen. In dieser Session werden zunächst Herausforderungen beim Umgang großer Datenmengen aufgeführt und aktuell geförderten Projekte als Ansätze vorgestellt.
Die Projekte DaREXA-F, TOPIO und MCSE bieten unterschiedliche Lösungsansätze. Die Projektleiter stellen die einzelnen Projekte kurz vor und zeigen wie sich diese ergänzen und voneinander abgrenzen.
12:00
60' Pause
Künstliche Intelligenz und High Performance Computing
13:00
5'
Einführung in die KI- & HPC-Session
Dr. Andrea Seifert
Bundesministerium für Bildung und Forschung
Fritz-Haller-Hörsaal, Gebäude 20.40
13:05
90'
Anwendungen aus dem Bereich der Künstlichen Intelligenz
OpenGPT-X: Anwendungen aus dem Bereich der Künstlichen Intelligenz
Dr. Nicolas Flores-Herr
Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
It will change everything! How AI and HPC usher in a new era in life science research
Ali al-Fatlawi
ScaDS.AI
Fritz-Haller-Hörsaal, Gebäude 20.40
14:35
20' Pause
14:55
30'
Nutzungsszenarien aus dem Bereich der Künstlichen Intelligenz
Open Web Search and Web Archive Analytics at Scale
Jun.-Prof. Dr. Martin Potthast
Universität Leipzig und ScaDS.AI
Fritz-Haller-Hörsaal, Gebäude 20.40
15:25
45'
Rolle und Chancen der BMBF-geförderten KI-Servicezentren
Prof. Dr. Julian Kunkel
Georg-August Universität Göttingen
Stellvertretender Leiter GWDG - Bereich HPC
Dr. Joachim Köhler
Abteilungsleiter NetMedia, Fraunhofer IAIS
WestAI Servicezentrum
Fritz-Haller-Hörsaal, Gebäude 20.40
Description
In diesem Vortrag werden die 4. vom BMBF geförderten KI-Servicezentren vorgestellt. Zunächst wird ein Überblick über die Förderschiene und die Gemeinsamkeiten von Hessian AI, KISSKI, KISZ-BB und WestAI gegeben. Die Spezialitäten der einzelnen Zentren werden aufgezeigt. Abschließend wird ein Ausblick auf die Chancen und Risiken der gemeinsamen und differenzierenden Ansätze gegeben.
16:10
30'
KI-Angebote von GCS und NHR
Dr. Stefan Kesselheim
Head of Applied Machine Learning Lab, Jülich Supercomputing Centre
Prof. Dr. Wolfgang E. Nagel
NHR@TUD
Fritz-Haller-Hörsaal, Gebäude 20.40
16:40
20' Pause
17:00
60'
Podiumsdiskussion
Prof. Dr. Thomas Ludwig (Moderator)
Deutsches Klimarechenzentrum GmbH (DKRZ)
Dr. Joachim Köhler
Abteilungsleiter NetMedia, Fraunhofer IAIS
WestAI Servicezentrum
Jun.-Prof. Dr. Martin Potthast
Universität Leipzig und ScaDS.AI
Prof. Dr. Julian Kunkel
Georg-August Universität Göttingen
Stellvertretender Leiter GWDG - Bereich HPC
Dr. Stefan Kesselheim
Head of Applied Machine Learning Lab, Jülich Supercomputing Centre
Prof. Dr. Wolfgang E. Nagel
NHR@TUD
Fritz-Haller-Hörsaal, Gebäude 20.40
Abendveranstaltung (Social Event)
19:00
270'
Abendveranstaltung (Social Event)
Gebäude 20.30 (Mathematik) , Englerstraße 2, 76131 Karlsruhe
Entwicklungen, Strategien und Ausblick des europäischen HPC
09:00
60'
Keynote: Künstliche Intelligenz im Zeitalter des Exascale Computing
Dr. Charlotte Debus
Steinbuch Centre for Supercomputing, KIT
Fritz-Haller-Hörsaal, Gebäude 20.40
10:00
20' Pause
10:20
30'
EuroHPC Strategie & Ausblick
Dr. René S. Chatwell
Programme Officer - HPC Applications, European High Performance Computing Joint Undertaking (EuroHPC JU)
Fritz-Haller-Hörsaal, Gebäude 20.40
10:50
30'
Netzwerk nationaler Kompetenzzentren in HPC (EuroCC 2)
Jisika Yono
Höchstleistungsrechenzentrum Stuttgart (HLRS), Universität Stuttgart
Fritz-Haller-Hörsaal, Gebäude 20.40
11:20
30' Pause
11:50
90'
Projekte des EuroHPC
SEA Projekte: Softwareentwicklung für Heterogene HPC Systeme
Prof. Dr. Estela Suarez
Jülich Supercomputing Centre von Forschungszentrum Jülich und Rheinische Friedrich-Wilhelms-Universität Bonn
REGALE - die europäische Verwirklichung des PowerStack-Ansatzes
Dr. Josef Weidendorfer
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
OPTIMA Projekt - Optimierung von Industrieanwendungen für heterogene HPC-Systeme
Dr. Matthias Balzer
Competence Center HPC, Fraunhofer ITWM
Fritz-Haller-Hörsaal, Gebäude 20.40
13:20
10'
Schlusswort
Prof. Dr. Wolfgang E. Nagel
Gauß-Allianz e. V.
Fritz-Haller-Hörsaal, Gebäude 20.40
 
 
Anfahrt und Veranstaltungsort
Karlsruher Institut für Technologie
Campus Süd
Gebäude 20.40
Fritz-Haller-Hörsaal
Englerstraße 7
76131 Karlsruhe

Informationen zur Anfahrt finden Sie hier .