Neues Tier-3-System in Karlsruhe
Für die lokale und regionale Grundversorgung mit Rechenleistung beschafft das Steinbuch Centre for Computing (SCC) ein Compute-Cluster mit Datenhaltungssystem. Damit wird der seit 2014 betriebene bwUniCluster als gemeinsames System aller neun Universitäten in Baden-Württemberg erneuert und erweitert. So werden künftig auch die Bedarfe im Großforschungsbereich des KIT und bei den Hochschulen für angewandte Wissenschaften gedeckt. Das neue System, das im Juni 2019 von der Firma Hewlett Packard Enterprise geliefert werden soll, wird aus insgesamt 475 Rechenknoten bestehen. Alle Knoten werden mit Intel-Prozessoren der neuen Cascade-Lake-Generation ausgestattet. Ein Teil des HPC-Systems wird für High Throughput Computing ausgelegt sein, bei dem Jobs nur einzelne Kerne oder maximal einen Knoten belegen. Für besonders speicherintensive Anwendungen werden fünf Knoten mit 3 Terabyte RAM und 4,8 Terabyte NVMe-Speicher ausgestattet. Zehn Knoten erhalten GPU-Beschleuniger von NVIDIA, um die Bedarfe des Machine Learning und für die Entwicklung neuartiger numerischer Algorithmen zu decken. Diese Knoten werden auch in die Infrastruktur der Helmholtz Data Federation integriert. Die Kapazität des Datenhaltungssystems wird für mehr als 5 Petabyte mit einem aggregierten Datendurchsatz von 72 Gigabyte ausgelegt. Weitere Informationen: www.scc.kit.edu/dienste/bwUniCluster.php
HLRN-IV in Göttingen: Erste Phase im Produktionsbetrieb
Der Supercomputer des Norddeutschen Verbunds für Hoch- und Höchstleistungsrechnen (HLRN) ist traditionell an zwei Standorten beheimatet: am Zuse Institute Berlin und seit Sommer 2018 an der Universität Göttingen. Die von der Firma Atos in Göttingen errichtete erste Phase der vierten Generation des Supercomputers, der HLRN-IV, steht für die Nutzer/-innen der sieben norddeutschen Bundesländer mittlerweile uneingeschränkt zur Verfügung, die den Großrechner gemeinsam unterhalten. Im Oktober 2018 fand eine umfassende Nutzerschulung auf dem neuen System statt. Besondere Schwerpunkte lagen auf dem im HLRN neu eingeführten Batch System Slurm sowie auf Entwicklungswerkzeugen, die die Anwender/-innen bei der Programmierung und Optimierung von massiv parallelen Programmen unterstützen. Phase 2 des HLRN-IV wird ab Sommer 2019 in Göttingen und Berlin errichtet. Mit Abschluss der Phase 2 wird der HLRN-IV seine geplante Gesamtleistung von etwa 15 PetaFlop/s (sechsmal so schnell wie der HLRN-III) erreichen. Weitere Informationen: https://www.hlrn.de
Das MPI-M Grand Ensemble ist frei verfügbar
Das Grand Ensemble des Max-Planck-Instituts für Meteorologie (MPI-M) ist derzeit das größte existierende Ensemble von Simulationen mit einem einzelnen, aktuellen Erdsystemmodell (MPI-ESM 1.1). Experimente solcher Größenordnung sind so umfänglich, dass die Simulationen verteilt über einen Zeitraum von fünf Jahren auf den HPC-Systemen des schweizerischen CSCS und des DKRZ in Hamburg gerechnet wurden. Das Ensemble (MPI-GE) besteht aus fünf Klimaszenarien mit je 100 Simulationen mit jeweils anderen Anfangsbedingungen. Das entspricht einer Gesamtzahl von mehr als 59.000 simulierten Jahren. Dabei wurden zwei Szenarien in der Schweiz und drei am DKRZ gerechnet. Zusätzlich wurde ein 2000 Jahre langer Kontrolllauf mit vorindustriellen Randbedingungen simuliert. Das MPI-GE erlaubt die Beantwortung wissenschaftlicher Fragestellungen z. B. nach der internen Variabilität des Klimasystems unter verschiedenen Klimaantrieben, die in der Vergangenheit nicht adressierbar waren. Ein Teil der Daten (ca. 55 Terabyte von insgesamt ca. 300 Terabyte) wurde kürzlich durch das DKRZ im Rahmen der Earth System Grid Federation veröffentlicht, womit sie global und frei zur Nachnutzung verfügbar sind. Weitere Informationen https://www.mpimet.mpg.de/en/science/projects/integrated-activities/grand-ensemble/
Wie verbinden sich Neuronen im Gehirn?
Das neuronale Netzwerk im Gehirn ist nicht fest verdrahtet. Selbst im Gehirn eines Erwachsenen werden neue Verbindungen zwischen Neuronen gebildet, und bereits vorhandene sterben ab. Dies nennt man strukturelle Plastizität. Die Dynamik des Konnektoms, wie die Verbindung der Neuronen untereinander heißt, ist von essenzieller Bedeutung für das Verständnis von Lernprozessen, Erinnerung und die Restrukturierung nach Verletzungen oder Schlaganfällen. Leider ist die empirische Erfassung neuronaler Verbindungsdaten, wie sie für Gehirnsimulationen benötigt werden, sehr schwierig. Alternativ lässt sich die Entwicklung von Synapsen zwischen Neuronen selbst simulieren, allerdings bis vor Kurzem nur bis zur Größe des Gehirns einer Fruchtfliege. Im Europäischen Human Brain Project wurde nun unter Federführung der TU Darmstadt und in Zusammenarbeit mit der Jülich Aachen Research Alliance und der Firma Biomax ein skalierbarer Algorithmus entwickelt, der die Grenze solcher Simulationen gleich um mehrere Größenordnungen in Richtung des menschlichen Gehirns verschiebt. Statt wie bisher 105 Neuronen schafft der neue Algorithmus 109. Extrapolationen zeigen, dass – einen hinreichend großen Rechner vorausgesetzt – auch 1011 Neuronen möglich wären, d. h. so viele wie in einem menschlichen Gehirn. Weitere Informationen: https://sciencenode.org/feature/How%20the%20brain%20rewires.php
WDCC vom CoreTrustSeal zertifiziert
Das Weltklimadatenzentrum (World Data Center for Climate, WDCC), das vom DKRZ betrieben wird, ist im Dezember 2018 vom CoreTrustSeal (CTS) zertifiziert worden. Damit werden Qualität, Stabilität und Breite der Datenservices international anerkannt. Die neue Zertifizierungsorganisation CTS wurde durch die Organisationen World Data System des International Science Council und Data Seal of Approval gegründet. Die CTS-Zertifizierung ersetzt die bisherigen Zertifizierungen dieser beiden Organisationen. Neben technischen Aspekten wie Datenhaltung und -bearbeitung und Sicherheitsaspekten bewertet das CTS auch strukturelle Merkmale wie Personalausstattung und -qualifikation sowie Kontroll- und Managementstrukturen, wie den Wissenschaftlichen Lenkungsausschuss und die Nutzergruppe am DKRZ. In regelmäßigen Abständen werden alle Merkmale überprüft. Mit der Verleihung des CTS verlängert sich auch der Status des WDCC als Weltdatenzentrum. Weitere Informationen: https://www.dkrz.de/p/cts-zertifizierung/
EuroHPC sucht Quartiere für HPC-Systeme
Die neue Public Private Partnership der EU für Hochleistungsrechner (EuroHPC), hat eine Ausschreibung zur Förderung für das Hosting von zwei Petascale-Systemen veröffentlicht, also von Supercomputern, die mit einer Billiarde Operationen pro Sekunde arbeiten. Zur Förderung können sich Organisationen aus einem der an EuroHPC teilnehmenden Mitgliedstaaten bewerben. Derzeit verzeichnet EuroHPC 25 Teilnehmerländer, die alle EU-Mitgliedstaaten sind. Im Rahmen der ausgeschriebenen Förderung übernimmt EuroHPC 35 Prozent der Gesamtkosten der Supercomputer; der Rest wird von der Regierung der Gastinstitution abgedeckt oder von anderen nationalen Regierungen, die sich bereit erklärt haben, als Konsortium zu investieren. Die Gastgeber selbst zahlen also nichts, haben jedoch auch keinen Anteil an den Systemen, die im Miteigentum von EuroHPC und den Regierungen stehen, die die Rechnungen bezahlen. Die Ausschreibungsfrist endet am 15. April; Fragen zur Ausschreibung können bis zum 7. März eingereicht werden. Insgesamt hat EuroHPC zwei Aufforderungen veröffentlicht: Die erste richtet sich an Institutionen, die in der Lage sind, Petascale-Computer zu hosten (veröffentlicht am 15. Februar). Daneben gibt es eine Ausschreibung vom 21. Januar bis zum 4. April, die nach Vorläufern für mindestens zwei Exascale-Computer sucht, d. h. Systemen, die mit mehr als 150 PetaFlop/s arbeiten. Weitere Informationen: http://eurohpc.eu/ .
Jobspezifisches Performance-Monitoring
Am 25. und 26. März veranstaltet das ZIH der TU Dresden einen Performance-Engineering-Workshop mit dem Schwerpunkt jobspezifisches Performance-Monitoring. Performance-Engineering ist ein essenzieller Prozess zur nachhaltigen Verbesserung der Nutzung von HPC-Ressourcen. Eine entscheidende Rolle spielt dabei das systemweite, jobspezifische Monitoring, das als automatisierter Prozess Kenndaten aller Jobs auf einem System aufzeichnet, analysiert und visualisiert. Durch einfache Analysen können sowohl aus den Job-Metadaten als auch aus dem Performanceverhalten problematische Fälle wie fehlerhafte oder ungeeignete Job-Allokationen oder überhandnehmende Idle-Zeiten erkannt werden. Daraufhin können die Nutzer/-innen mit gezielten Hinweisen zur Verbesserung unterstützt werden. Der kostenfreie Workshop soll dem Erfahrungsaustausch dienen und richtet sich an Interessierte aus Forschung und Industrie. Weitere Informationen und Anmeldung unter: https://event.zih.tu-dresden.de/Events/view/39