Die Supercomputing Top500 Herbst 2024
Die 64. Top500-Liste der weltweit schnellsten Hochleistungsrechner offenbart eine Reihe von Veränderungen im Vergleich zum Frühjahr. Auf den ersten 3 Plätzen konnten sich von HPE Cray installierte Systeme positionieren: Mit einer Linpack-Rechenleistung von 1,742 ExaFlop/s belegt El Capitan des Lawrence Livermore National Laboratory, USA, den Spitzenplatz. Das ehemalige Spitzensystem Frontier des Oak Ridge National Lab, USA, nimmt mit seiner Rechenleistung von 1,353 ExaFlop/s nun den 2. Platz ein, gefolgt von Aurora der Argonne Leadership Computing Facility, ebenfalls USA, mit 1,012 ExaFlop/s auf Platz 3. Insgesamt dominieren die USA mit 172 Systemen die aktuelle Top500-Liste. Das schnellste europäische System auf Platz 5 des italienischen Eni S.p.A. ist das ebenfalls von HPE Cray gelieferte System HPC6 mit einer Linpack-Leistung von 477,9 PetaFlop/s. Auch unter den deutschen Systemen gibt es sehr gute Platzierungen. Mit JETI – JUPITER Exascale Transition Instrument – (83,14 PetaFlop/s) auf Platz 18 und JUWELS Booster (44,12 PetaFlop/s) auf Platz 33 hat das FZJ gleich 2 Systeme unter den Top50. Das Cluster Capella des ZIH erreicht mit 24,06 PetaFlop/s den 51. Platz und damit den 3. Platz unter den deutschen Systemen. Insgesamt zählt die aktuelle TOP500-Liste 41 deutsche Systeme. Die GA-Mitglieder sind mit 36 Systemen in der Liste vertreten; davon schaffen es 5 GCS- und 2 NHR-Rechner in die Top100. In der Green500-Liste, die die Energieeffizienz der Systeme betrachtet, liegt das von EuroHPC und JSC betriebene System JEDI auf dem weltweit 1. Platz. Drei weitere deutsche Systeme unter den Top10 dieser „grünen Liste“ sind Capella des ZIH auf Platz 5, JETI des JSC auf Platz 6 und HoreKa-Teal des SCC am KIT auf Platz 9. Weitere Informationen: top500.org/lists/top500/2024/11/ .
Universität Hamburg tritt Kompetenznetzwerk bei
Mit der Aufnahme der Universität Hamburg (UHH) in die Gauß-Allianz am 7. Oktober umfasst das HPC-Kompetenznetzwerk nun 19 Mitglieder. Das Rechenzentrum der Universität Hamburg versorgt auf Ebene 3 Forschende u. a. aus den Bereichen Astro- und Teilchenphysik, Bioinformatik, Festkörper- und Laserphysik sowie Chemie. Ein Schwerpunkt des aktuellen HPC-Systems „Hummel-2“ soll auf Maschinellem Lernen liegen. Methodisch unterstützt das „Hub of Computing & Data Science“ (HCDS) als zentrale Einrichtung der Universität die Nutzung in Wissenschaft und Forschung insbesondere in den Bereichen KI, HPC sowie Methoden und Algorithmen. Das interdisziplinäre Zentrum koordiniert die regionale Vernetzungsplattform für das datenintensive Rechnen und Maschinelle Lernen in der Region Hamburg „Kiez of Computing and Data Science“. Weitere Informationen: rrz.uni-hamburg.de/de/services/hpc .
Neues HPC-Cluster an der Universität Hamburg
Das Regionale Rechenzentrum der UHH hat sein neues HPC-Cluster „Hummel-2“ in Betrieb genommen, das sein Vorgängersystem nach 9 Jahren Betrieb ablöst. Hummel-2 verfügt über 178 Rechenknoten mit CPUs des Typs AMD EPYC, insgesamt 34.176 Rechenkernen und 142 Terabyte RAM sowie 4 Rechenknoten mit insgesamt 32 GPUs des Typs H100 von NVIDIA. Die CPUs, die GPUs und die RAM-Module sind direkt wassergekühlt. Daten können auf traditionellen Festplattensystemen mit einer Kapazität von 5,2 Petabyte oder auf SSD/NVMe-Systemen mit einer Kapazität von 500 Terabyte gespeichert werden. Rechenknoten und Festplattensysteme sind mit einem Omni-Path-Netzwerk verbunden. Zu Hummel-2 gehören außerdem 6 Spezialknoten mit Intel-Xeon-CPUs und je 6 Terabyte RAM. Die Investitionskosten für das neue Cluster in Höhe von 4,4 Mio. Euro wurden von der DFG, der Hamburger Behörde für Wissenschaft, Forschung, Gleichstellung und Bezirke, des European Research Council und der UHH bereitgestellt. Weitere Informationen: rrz.uni-hamburg.de/en/services/hpc/hummel2-2024 .
Astrophysikerinnen lösen kosmisches Rätsel
Astrophysiker:innen vom JSC und der Universität Leiden haben mit Hilfe von Computersimulationen die Dynamik des Sonnensystems jenseits von Neptun untersucht. Ihre Ergebnisse könnten ein bislang ungeklärtes kosmisches Rätsel lösen: Viele der sogenannten „transneptunischen“ Objekte bewegen sich auf exzentrischen, gegenüber der gemeinsamen Bahnebene der Planeten des Sonnensystems geneigten Bahnen. Mit mehr als 6.000 Computersimulationen fand das Team heraus, dass ein markanter, naher Vorbeiflug eines anderen Sterns die auffällig anderen Umlaufbahnen der Transneptun-Himmelskörper erklären könnte. Vor Milliarden von Jahren streifte wahrscheinlich ein Stern unser Sonnensystem so nah, dass tausende kleine Himmelskörper ihre Flugbahn signifikant veränderten. Dabei könnten einige von ihnen in Richtung Sonne katapultiert und von Jupiter und Saturn als Monde eingefangen worden sein. Das könnte erklären, warum die äußeren Planeten unseres Sonnensystems zwei verschieden Arten von Monden haben. Die beiden Studien wurden in den Fachzeitschriften Nature Astronomy und Astrophysical Journal Letters veröffentlicht. Weitere Informationen: go.fzj.de/jsc-stellarer-vorbeiflug-auswirkungen .
KI optimiert solarthermische Kraftwerke
Die ca. 2.000 Spiegel einer vom DLR betriebenen Testanlage in Jülich sollen aktuell mit KI-Methoden so ausgerichtet werden, dass sie Sonnenlicht auf einen Absorber auf einem Turm reflektieren. Derartige Solarturmkraftwerke können Wind- und Photovoltaikanlagen als erneuerbare Energiequellen ergänzen. Die in ihnen konzentrierte Wärme kann zur Stromerzeugung, für thermische Industrieprozesse oder für die Nutzung in der Nacht und bei Windstille gespeichert werden. Wie andere erneuerbare Technologien stehen auch solarthermische Kraftwerke unter erheblichem Kostendruck. Daher ist die Produktions- und Leistungsoptimierung der Spiegel (Heliostate) für die Wettbewerbsfähigkeit entscheidend. Derzeit sind die Spiegel der Testanlage nicht perfekt flach, was zu einer ungleichmäßigen Wärmeverteilung und Effizienzminderung führt. Am KIT haben Forschende des DLR deshalb gemeinsam mit der Expertise von Helmholtz.AI des FZJ und des SCC eine neue Methode entwickelt, um Unregelmäßigkeiten in den Spiegeln zu erkennen. Dafür haben sie ein differenzierbares Ray-Tracing-Verfahren mit Maschinellem Lernen genutzt, das eine Bestrahlungsstärkeverteilung von Heliostaten datengesteuert aus einer kleinen Anzahl von Kalibrierungsbildern ableiten kann, die bereits in den meisten Solartürmen gesammelt wurden. Ihre Ergebnisse wurden im renommierten Wissenschaftsjournal Nature Communications veröffentlicht. Weitere Informationen: nature.com/articles/s41467-024-51019-z.epdf .
DataNord – Datenkompetenzen für die Region Bremen
DataNord ist ein interdisziplinäres Datenkompetenzzentrum für die Region Bremen, das Forschende aller Karrierestufen bei der Erweiterung ihrer Datenkompetenzen unterstützt. Als Teil der U Bremen Research Alliance (UBRA) und in Zusammenarbeit mit weiteren regionalen Partnern bündelt das Kompetenzzentrum Expertise in Forschungsdatenmanagement und Datenwissenschaften. Die Profilbereiche sind Umwelt- und Meeres-, Sozial-, Material- und Ingenieur-, Gesundheits- sowie Geisteswissenschaften. Das Angebot umfasst praxisnahe Trainings, individuelle Beratungen, Hackathons, Summer Schools, Selbstlernmaterialien und Netzwerkmöglichkeiten, die den gesamten Datenlebenszyklus abdecken – von der Datenerhebung bis zur Archivierung. Wesentliche Säulen sind das Data Science Center der Universität Bremen, das maßgeschneiderte Workshops und Beratungen anbietet, sowie das disziplinübergreifende Trainingsprogramm Data-Train für Promovierende und Nachwuchsforschende. DataNord gehört zu den 11 vom BMBF geförderten Datenkompetenzzentren. Weitere Informationen: datanord-bremen.de .
Datacenter Strategy Award für das HLRS
Beim Datacenter Strategy Summit in Bad Homburg erhielt das HLRS den Datacenter Strategy Award in der Kategorie Transformation. Ausgezeichnet wurde die nachhaltige Rechenzentrumsstrategie und das Neubauprojekt HLRS III, das moderne Ansätze für Energieeffizienz, Infrastruktur und Energiemanagement verfolgt. Der Neubau wird ab 2025 errichtet und das Exascale-System Herder beherbergen, das 2027 in Betrieb gehen soll. Das Gebäude wird Photovoltaikanlagen und ein dynamisches Energiemanagementsystem integrieren. Eine Abwärmezentrale wird zudem die durch den Supercomputer erzeugte Wärme für die Dekarbonisierung des Campus Vaihingen nutzen. Seit Jahresanfang optimiert das HLRS den Energieverbrauch des Supercomputers Hawk durch dynamisches Power Management. Weitere Informationen: hlrs.de/de/news/detail/hlrs-gewinnt-datacenter-strategy-award-in-der-kategorie-transformation .
Energieeffizienzpreis für Abwärmenutzung in Dresden
Energieeffizienz ist ein wichtiges Ziel für den Betrieb des Rechenzentrums im Lehmann-Zentrum (LZR) der TU Dresden. Das ZIH sowie die beiden Projektpartner SachsenEnergie und der Staatsbetrieb Sächsisches Immobilien- und Baumanagement (SIB) sind deshalb stolz, dass die Abwärmenutzung der LZR-Systeme im Dresdner Fernwärmenetz mit dem Energy Efficiency Award der Deutschen Energieagentur (dena) prämiert wurde. Mit der Nachnutzung der Abwärme der wassergekühlten Hochleistungsrechner erreicht der LZR-Gesamtbetrieb ein neues Level an Nachhaltigkeit. Drei Wärmepumpen wandeln diese Abwärme künftig in Fernwärme um, wobei ganzjährig eine Nachnutzung von über 50% der im LZR erzeugten Wärme zu erwarten ist. Durch die HPC-Abwärmenutzung können bis zu 24.000 Megawattstunden grüne Wärme pro Jahr entstehen, d. h. 3.700 durchschnittliche Haushalte versorgt werden. Die Verringerung des CO2-Ausstoßes durch die vermiedene Rückkühlung beläuft sich auf ca. 65 Tonnen pro Jahr. Weitere Informationen: tu-dresden.de/zih/news/energiewendepreis-fuer-hpc-abwaermenutzung-im-dresdner-fernwaermenetz .