Sicherheitsvorfälle auf HPC-Systemen
Seit Mitte Mai 2020 wurden Sicherheitsvorfälle an mehreren Hoch- und Höchstleistungsrechnern in Deutschland festgestellt. Die betroffenen HPC-Zentren waren daher gezwungen, den Nutzerbetrieb auf den angegriffenen Systemen einzustellen sowie die Vorfälle den zuständigen Sicherheitsbehörden zu melden. Zum aktuellen Zeitpunkt kann aus kriminaltechnischen Gründen keine Aussage zu den Hintergründen gegeben werden. Der breite Angriff auf das nationale wissenschaftliche Hoch- und Höchstleistungsrechnen ist ein gravierender Eingriff in das Wissenschaftssystem. Durch die fehlende Rechenleistung entsteht großer Schaden für die Wissenschaft und in der Folge auch für die Gesellschaft, da Simulationen und damit der wissenschaftliche Fortschritt beeinträchtigt sind. Nach mehreren Wochen der Nicht-Verfügbarkeit der Systeme steht inzwischen ein Großteil der HPC-Systeme den Nutzer/innen mit vorerst restriktiven und innerhalb der nationalen Gemeinschaft abgestimmten Sicherheitskonzepten wieder zur Verfügung.
Neue Hardware für KI-Forschung und -Anwendung
Das BMBF stellt 4 Mio. Euro für eine substantielle Erweiterung der Hardware-Ressourcen für das Kompetenzzentrum für Big Data und künstliche Intelligenz – ScaDS.AIDresden/Leipzig – zur Verfügung. Die geplante, speziell auf KI-Methoden und auf das DNN-Training zugeschnittene Erweiterung soll bis Ende des Jahres in Betrieb genommen werden. Insbesondere geht es um die Bereitstellung einer leistungsfähigen GPU-Architektur als Experimentierfeld für die KI-Forschung und -Anwendung. Das umfangreiche ScaDS.AI-Forschungsprogramm leistet wichtige Beiträge zur Methodenentwicklung im Bereich Big Data und KI, um datenintensive wissenschaftliche Anwendungen zu ermöglichen. Daraus ergeben sich hohe Anforderungen an ein modernes GPU-basiertes Auswertesystem mit hohen Leistungsansprüchen an Rechenleistung und Parallelität, das zudem breit einsetzbar sein soll und gleichzeitig umfangreiche Anpassungsarbeiten in der Entwicklungsphase neuer Lernmodelle vermeiden soll.
LRZ installiert HPE-System mit Fujitsu-Prozessoren
Als erstes akademisches Rechenzentrum in der EU nimmt das Leibniz-Rechenzentrum (LRZ) ein HPE-System Cray CS500 mit Fujitsu A64FX-Prozessoren auf ARM-Basis in Betrieb. Das System wird in den nächsten Wochen in die LRZ-Testumgebung „BEAST“ (Bavarian Energy, Architecture and Software Testbed) integriert. Es handelt sich um die gleiche Architektur wie bei dem japanischen Höchstleistungsrechner Fugaku, der derzeit den ersten Platz in der Top500-Liste belegt. Die ARM-basierte Architektur in den Fujitsu-Prozessoren, die von Hewlett Packard Enterprise integriert wurde, wird sowohl für traditionelle Modellierungen und Simulationen, als auch für Datenanalysen, maschinelles Lernen und KI-Anwendungen geeignet sein. Neben dem internen Testbetrieb, soll das System ab dem frühen Herbst sowohl für enge Partner aus der Wissenschaft und ausgewählte Projekte als auch für die nächste Generation von HPC-Anwender/-innen zur Verfügung stehen. Den Nutzer/innen bietet sich damit die Möglichkeit, die Leistung der Fujitsu A64FX-Prozessoren im Alltag mit GPUs und mit üblichen CPUs zu vergleichen. Das LRZ als Rechenzentrum interessiert sich zudem besonders dafür, welche Rechenleistung pro Watt das System liefert. Weitere Informationen: lrz.de/presse/ereignisse/2020-06-23_LRZ-to-deploy-HPE_s-Cray-CS500-system-to-bring-innovative-architecture-to-the-science-of-its-users/
Vertrag für neuen DKRZ-Supercomputer
Das DKRZ erteilt der Firma Atos den Zuschlag für die Lieferung des Supercomputers HLRE-4 (Hochleistungsrechnersystem für die Erdsystemforschung 4), der voraussichtlich Mitte 2021 seinen Betrieb aufnehmen wird. Rund 3.000 Rechnerknoten der neuen BullSequana-XH2000-Technologie werden auf Basis der neuesten Generation von AMD EPYC x86-Prozessoren eine Gesamtspitzenleistung von 16 PetaFlop/s liefern und damit die Rechenleistung im Vergleich zum aktuellen HLRE-3 „Mistral“ verfünffachen. HLRE-4 wird zudem mit 800 Terabyte Hauptspeicher und einem 120 Petabyte großen Speichersystem von DDN ausgestattet sein. Die interne Datenübertragung zwischen allen Komponenten erfolgt über NVIDIA Mellanox InfiniBand HDR 200G. Mit der deutlich erhöhten Rechenleistung können Klimaforscher/-innen am DKRZ zukünftig noch detailliertere Klima- und Erdsystemmodelle einsetzen, mehr Prozesse in die Rechnungen einbeziehen, längere Zeiträume simulieren, und die natürliche Klimavariabilität mithilfe von Ensemblerechnungen genauer erfassen. Damit werden Unsicherheiten reduziert und verlässlichere, detailliertere Ergebnisse geliefert. Die Kosten von 32,5 Mio. Euro finanzieren die Helmholtz-Gemeinschaft Deutscher Forschungszentren, die Max-Planck-Gesellschaft und die Freie und Hansestadt Hamburg. Weitere Informationen: dkrz.de/p/hlre-4-vertrag/
Entwicklung ethischer Standards für KI
Das HLRS ist eine der treibenden Kräfte der neugegründeten Arbeitsgruppe „AI Ethics Impact“ (AIEI Group), die sich der ethischen Normierung von Künstlicher Intelligenz (KI) widmet. KI-Anwendungen werden zunehmend in Entscheidungskontexten eingesetzt: Welche/r Bewerber/in soll auf eine Stelle eingestellt werden? Woran ist eine Person erkrankt und wie kann ihr geholfen werden? Wie kann öffentliche Sicherheit geschützt werden? Beim Einsatz KI-basierter Systeme ist es deshalb wichtig, dass sie gerecht (keinen Bias enthalten), nachvollziehbar und verlässlich sind. Die Sicherstellung, dass KI-Systeme diese Anforderungen erfüllen, führt unweigerlich zu Fragen nach einem geeigneten Standardisierungsverfahren. Die AIEI Group, zu der neben dem HLRS das VDE, die Bertelsmann Stiftung, das KIT und IZEW gehören, hat eine neuartige Methode entwickelt, die Entwickler/innen, Anwender/innen und Betroffene gleichermaßen bei der Orientierung unterstützen kann. Die Studie „From Principles to Practice – interdisciplinary framework to operationalise AI ethics“ erläutert, wie ethische Standards wirksam und nachprüfbar international umgesetzt werden können. Weitere Informationen: ai-ethics-impact.org/en
HLRS leitet europäische HPC-Projekte
Das EuroHPC Joint Undertaking (JU) hat den vom Gauss Centre for Supercomputing (GCS) und dem Höchstleistungsrechenzentrum Stuttgart (HLRS) eingereichten Antrag EuroCC befürwortet. Unter der Federführung des HLRS soll das Projekt in zwei Jahren ein europaweites Netzwerk nationaler HPC-Kompetenzzentren aufbauen, dem sich bisher 33 europäische Staaten angeschlossen haben. Ziel ist es, dass sich die Kompetenzzentren der teilnehmenden Länder als nationale Ankerpunkte etablieren, um das von den nationalen Experten/innen bereitgestellte HPC-Know-How, die Trainings-Ressourcen sowie HPC-Dienstleistungen und -Werkzeuge den jeweiligen Nutzergruppen ihres Heimatlandes zur Verfügung zu stellen. Im Fokus steht insbesondere die Zusammenarbeit mit der jeweiligen nationalen Industrie. Parallel dazu wurde dem GCS und dem HLRS die Leitung eines damit einhergehenden zweiten EU-Projektes übertragen. Mit Castiel, in dem mit CINECA in Italien, dem TERATEC-Konsortium, dem Barcelona Supercomputing Center und PRACE (Partnership for Advanced Computing in Europe) weitere europäische HPC-Institutionen mitwirken, wird die Weitergabe der in EuroCC erworbenen Kenntnisse über die jeweiligen Landesgrenzen hinweg koordiniert. Während EuroCC die HPC-Expertise innerhalb der einzelnen Mitgliedsstaaten entwickeln und fördern soll, wird CASTIEL dieses Wissen über das gesamte EuroCC-Netzwerk hinweg verfügbar machen. Dies soll durch internationale Workshops, Mentoring-Programme und dezidierte Partnerschaften, sowie themenspezifische Arbeitsgruppen erreicht werden. Die Projektverantwortlichen erwarten, dass die beiden Projekte das HPC-Niveau auf gesamteuropäischer Ebene steigern, Synergien erzielen und dass über Landesgrenzen hinweg neue Partnerschaften geknüpft werden. Beide Projekte beginnen am 1. September. Weitere Informationen: hlrs.de/news/detail-view/2020-05-27/
Machine-Learning-basierte Vorhersagen in der Chemie
Das IT Center der RWTH Aachen kooperiert mit dem RWTH Institute of Organic Chemistry im Bereich Machine-Learning (ML). Erforscht werden vollautomatische, Python-basierte Systeme zur Erzeugung von ML-Input für die Identifikation von Liganden, die neue reaktive Ni(l)-Dimere bilden. Liganden sind an den di-nuklearen Nickelkern gebundene Ionen, die für die selektive Synthese und Katalyse komplexer Reaktionen nützlich sind. Bisher war der Workflow zur Datenerstellung für die Extraktion von ML-Merkmalen nur teilweise implementiert und erforderte viele manuelle Eingriffe mit entsprechender Fehleranfälligkeit. Dieser Ablauf ist nun effizienter und schließt die automatische Fehlererkennung mit ein. Durch Methoden der Signalverarbeitung und entsprechende Berechnungen auf Basis einer Sammlung von Spezies werden ML-Datensätze generiert, die groß genug sind, um Erkenntnisse neuartiger, reaktiver Ni(l)-Dimere zu liefern. Mit rein experimentellen Daten ist dies nur bedingt möglich – eine der größten Herausforderungen von ML in der Chemie. Aktuell werden entsprechende ML-Algorithmen in diesem Kontext untersucht. Weitere Informationen: 2020.isc-program.com/presentation/?id=proj114&sess=sess326