Neue Top 500-Liste vom Juni 2018
Im aktuellen Ranking der weltschnellsten Rechner, das Ende Juni zur ISC‘18 in Frankfurt am Main veröffentlicht wurde, gab es unter den Top 10 mit drei neuen und einem erheblich aufgestockten System durchaus Bewegung gegenüber dem Vorjahr. Die Spitze wird nun wieder durch amerikanische Superrechner angeführt: Listensieger wurde das IBM-System Summit des Oak Ridge National Labs mit einer Spitzenleistung von 122 PetaFlop/s. Auf den nächsten Plätzen folgen China mit dem 93 PetaFlop/s-System Sunway TaihuLight am National Supercomputing Center in Wuxi und nochmals die USA mit dem IBM-System Sierra am Lawrence Livermore National Lab mit 71,6 PetaFlop/s. Ein weiterer chinesischer Rechner belegt den 4. Platz: der massiv aufgestockte Tianhe-2A, dessen Linpack-Leistung durch eigene Accelerator-Karten auf 61,4 PetaFlop/s quasi verdoppelt werden konnte. Mit etwas Abstand folgt auf dem 5. Platz der japanische Rechner des National Institute of Advanced Industrial Science and Technology mit 19,9 PetaFlop/s – und damit einem knappen Vorsprung zum Piz Daint der Firma Cray im Swiss National Supercomputing Centre in Lugano, der mit 19,6 PetaFlop/s der schnellste europäische Rechner ist. Insgesamt dominieren die Systeme in China mit 206 Einträgen vor den USA mit 124 Systemen. Es folgen Japan, Großbritannien, Deutschland und Frankreich, wobei Europa mit 101 Rechnern gegenüber Nordamerika und Asien etwas zugelegt hat. Deutschlands schnellstes System steht in Jülich: JUWELS (Modul 1) – mit Prozessoren vom Typ Xeon Platinum 8168 ohne Beschleuniger – kommt mit 6,2 PetaFlop/s auf Platz 23 und hat damit das Cray-System Hazel Hen im HLRS in Stuttgart überholt. Ebenfalls im deutschen Spitzenbereich liegt die Max-Planck-Gesellschaft mit ihrem System Cobra, das mit 5,6 PetaFlop/s den 28. Platz belegt. Deutschland ist mit acht akademischen Rechnern in den Top100 vertreten, wobei Mogon II an der Johannes-Gutenberg-Universität Mainz mit 1,96 PetaFlop/s als schnellster klassischer universitärer Rechner Platz 87 belegt. Die Schwelle für die Top500 Liste ist inzwischen so angestiegen, dass selbst Rechner mit 1 PetaFlop/s Peakleistung herausfallen können. Weitere Informationen: https://www.top500.org/lists/2018/06/
Supercomputer JUWELS startet am JSC
Am Jülich Supercomputing Centre (JSC) wird in diesen Tagen ein neuer Höchstleistungsrechner in Betrieb genommen. Der neue Rechner JUWELS (Jülich Wizard for European Leadership Science) ersetzt den bisherigen Supercomputer JUQUEEN, der nach sechs Jahren Betriebszeit Ende Mai 2018 abgeschaltet wurde. Der Aufbau von JUWELS erfolgt in zwei Phasen, denn der Rechner ist als modulares System konzipiert. Zuerst startet das JSC Anfang Juli 2018 mit dem JUWELS-Cluster, ein von der europäischen Firma Atos gemeinsam mit den Softwarespezialisten der deutschen Firma ParTec gelieferter Rechner. Mit seinen ca. 2.500 Knoten und ca. 120.000 Kernen erreicht das Cluster-Modul eine maximale Rechenleistung von etwa 12 PetaFlop/s. Eine Besonderheit ist seine neuartige Warmwasserkühlung, die es erlaubt den Großteil der Abwärme ohne zusätzliche Kälteerzeuger direkt mit der Außenluft zu kühlen und dadurch Energie zu sparen. 2019 soll das Booster-Modul hinzukommen, das für hohe Skalierbarkeit bei besonderer Energieeffizienz ausgelegt sein wird. Finanziert wird JUWELS im Rahmen des Projektes SiVeGCS, das zu gleichen Teilen durch Bundes- und Landesmittel getragen wird. 20% des JUWELS-Clusters (500 Knoten) wurden durch eine erfolgreich eingeworbene Helmholtz-Ausbauinvestition finanziert. Ein entsprechender Anteil der Rechenzeit wird ausschließlich Forschenden im Bereich der Erdsystemmodellierung (ESM) als sogenannte ESM-Partition zur Verfügung stehen. Auf der aktuellen TOP500-Liste der weltweit schnellsten Rechner erreicht JUWELS den Platz 23 und ist damit der schnellste Rechner in Deutschland. Weitere Informationen: http://www.fz-juelich.de/ias/jsc/juwels
ForHLR-Nachfolgesystem am KIT
Der derzeitige Supercomputer des KIT wird durch einen leistungsfähigeren Nachfolger ersetzt. Laut Planung soll das System ab Mitte 2019 in der ersten Stufe durch das Steinbuch Centre for Computing in Betrieb genommen werden. Dafür stehen nach Beschluss der Gemeinsamen Wissenschaftskonferenz in Berlin 15 Millionen Euro bereit. Spitzenforschung produziert enorme Mengen von Daten, nutzt immer komplexere Simulationsmodelle und braucht deshalb höchste Rechenleistung sowie schnelle Datenspeicher. Daher soll der neue Supercomputer mehrere Billiarden Rechenoperationen pro Sekunde und ein Speichersystem bieten, das im Sekundentakt den Inhalt von 20 DVDs aufnehmen kann. Ausgehend von Nutzerbefragungen wird von einer Verdopplung bis Verdreifachung des Bedarfs an Rechenleistung in den nächsten Jahren ausgegangen. Das neue System soll 2021 vollständig betriebsbereit sein. Weitere Informationen: http://www.kit.edu/kit/pi_2018_078_neuer-supercomputer-fuer-15-millionen-euro-geplant.php
Simulation von Triebwerkssystemen
Im Mai startete das Verbundprojekt PRESTIGE als Teil des Luftfahrtforschungsprogramms des BMWi. Es widmet sich der Weiterentwicklung, Anwendung und Validierung von innovativen multidisziplinären Simulations- und Entwurfsverfahren zur Verbesserung des fachübergreifenden Verständnisses von Triebwerkssystemen. Ein Ziel des Projekts ist die Simulation der instationären Strömung durch einen vollständigen Triebwerksverdichter inklusive seiner stationären und rotierenden Komponenten mit Rechennetzen von mehreren Milliarden Gitterknoten. Koordiniert und geleitet wird das Projekt von Rolls-Royce Deutschland Ltd & Co KG. Das Konsortium versammelt deutsche und internationale Partner aus der akademischen Forschung und Industrie. Die umfangreichen HPC-Ressourcen, die das Projekt benötigt, werden von den Hochleistungsrechnern des ZIH der TU Dresden bereitgestellt. Weiterhin bringt das ZIH seine Expertise zur parallelen Performance-Analyse und Optimierung ein und wird gemeinsam mit den Firmen Kitware SAS aus Frankreich sowie Intelligent Light aus den USA in Zusammenarbeit mit der CFD Consultants GmbH aus Deutschland an skalierbaren In-situ-Visualisierungslösungen arbeiten. Weitere Partner sind die Institute für Strömungsmechanik und für Leichtbau und Kunststofftechnik der TU Dresden, die DLR-Institute in Braunschweig und Köln, das Department of Mechanical Engineering Sciences der University of Surrey (UK) sowie die T-Systems Solutions for Research GmbH.
Symposium zu Next-Gen HPC am LRZ
Am 29. Juni lud das Leibniz-Rechenzentrum (LRZ) zur Veranstaltung „Next-Gen HPC: The Path to Exascale – Artificial Intelligence und Personalised Medicine“ ein. Hochkarätige internationale Redner wie Dr. Alan Gara, Chefarchitekt bei Intel, Dr. Fred Streitz, Direktor des HPC Innovation Centre am Lawrence Livermore National Lab (USA), Prof. Satoshi Matsuoka, Direktor des Riken Center for Computational Science (Japan), Prof. Rick Stevens, Stellvertretender Direktor des Argonne National Laboratory (USA), sowie Prof. Peter Coveney, Direktor des Centre for Computational Science am University College London (Großbritannien), lockten rund 100 Gäste ans LRZ. Die Referenten gaben detaillierte Einblicke in Trends und Herausforderungen des HPC und thematisierten das ganz neue Zusammenspiel von Computersimulationen, Machine Learning und der Analyse großer Datenmengen im Bereich der personalisierten Medizin. In der anschließenden Podiumsdiskussion wurden vor allem Fragen aus dem Bereich der personalisierten Medizin – etwa ethische Fragen nach dem Umgang mit Patientendaten – und nach den Möglichkeiten, die die neuen Technologien eröffnen, erörtert. Intensiv diskutiert wurde auch die Frage, wie sich wissenschaftlicher Nachwuchs qualifizieren lässt und wie die interdisziplinäre Zusammenarbeit zwischen Experten für Supercomputing und künstlicher Intelligenz sowie Medizin und Genetik gefördert und erfolgreich gestaltet werden kann. Weitere Informationen: https://www.lrz.de/presse/ereignisse/2018-06-29_NextGen-HPC/
Big-Data-Sommerschule in Leipzig
Vom 30. Juni bis zum 6. Juli fand in Leipzig die vierte gemeinsame Sommerschule für Big Data und Machine Learning der beiden nationalen Kompetenzzentren für Big Data, ScaDS Dresden/Leipzig und BBDC statt. Die knapp 100 Teilnehmer/-innen setzten sich aus Studierenden, Forschenden sowie Anwendern aus Industrie und Wirtschaft zusammen. Den Auftakt bildete ein zweitägiges Hackathon zum Thema Stream Processing mit einem vom Institut für Angewandte Informatik (InfAI) e. V. der Uni Leipzig gesponserten Preisgeld von 500 Euro für das Gewinnerteam aus Basel. Die Themen der anschließenden Vortragswoche der Sommerschule waren sehr vielfältig und kamen u. a. aus den Bereichen Visual Analytics, Deep Learning, Textmining, Bilderkennung, Complex Event Processing und Graphanalyse. Hierbei boten die Vorträge Einblicke in Wissenschaft und Praxis und beleuchteten die unterschiedlichen Ansätze, mit den verschiedenen Aspekten von Big Data umzugehen. Der besondere Schwerpunkt lag dabei auf der Verknüpfung von HPC und Big Data. Weitere Informationen: https://www.scads.de/en/summerschool-2018
Berichtsband zu SuperMUC-Projekten
7,6 Milliarden CPU-Stunden, 5,6 Millionen ausgeführte Jobs, über 750 Forschungsprojekte mit knapp 2000 involvierten Wissenschaftlerinnen und Wissenschaftlern: Seit 2012 hat SuperMUC Wissenschaft und Forschung auf Weltklasseniveau ermöglicht. Die Ergebnisse der SuperMUC-Nutzer/-innen aus den Jahren 2016 und 2017 veröffentlicht das Leibniz-Rechenzentrum nun im zweiten Band „High Performance Computing in Science and Engineering“ (Ausgabe 2018). Das Buch kann unter www.lrz.de/hpcbooks heruntergeladen oder in gedruckter Form beim LRZ bestellt werden.