ISC‘19 in Frankfurt
Die International Supercomputing Conference (ISC) findet in diesem Jahr vom 16. bis 20. Juni in Frankfurt statt. Als Europas größte Ausstellung für das High Performance Computing (HPC) ist sie eine wichtige Plattform für Hersteller, Universitäten und Forschungseinrichtungen aus aller Welt, um Neuheiten aus den verschiedenen Bereichen vorzustellen und zu diskutieren. Auch in diesem Jahr stehen viele spannende HPC-Themen auf der Agenda. Für das Programm wurden 13 Themen ausgewählt, darunter: HPC-Komponenten und -Systeme der nächsten Generation, Anwendungen im Extrembereich, Parallel Ray Tracing – High-End-Visualisierung, Blockchain-Technologie und Krypto-Währung, Parallelverarbeitung in der Biowissenschaft, Cloud Computing für HPC, parallele Programmiermodelle für Extremberechnungen, Workflow-Management sowie das Spannungsfeld zwischen Maschinellem Lernen, Big-Data-Analytik, Deep Learning und HPC. Ein breites Spektrum an Vorträgen, Workshops und Tutorials, an denen sich auch die Mitglieder der Gauß-Allianz beteiligen, kennzeichnen die Konferenz. Weitere Informationen: https://www.isc-hpc.com/ .
ISC-Aktivitäten der GA-Mitglieder
● Das GCS informiert über die zahlreichen und vielfältigen Forschungsaktivitäten, die von den drei GCS-Supercomputern Hazel Hen, JUWELS und SuperMUC-NG unterstützt werden. Im Fokus der Präsentation stehen die ergänzenden Angebote zur Nutzung der Supercomputer, wie Nutzerservice und Support-Angebote oder eigens entwickelte Supercomputing-Werkzeuge. Das GCS sponsert erneut zwei deutsche Studierenden-Teams und den jährlich ausgeschriebenen GCS-Award. ● Das DKRZ präsentiert auf seinem Stand, gemeinsam mit dem europäischen Centre of Excellence ESiWACE, auf einem interaktiven Touch-Tisch ultra-hochaufgelöste Klimasimulationen, die mit dem Klimamodell ICON im Rahmen der Projekte ESiWACE und DYAMOND mit einem globalen Gitterabstand von 2,5 bis 5 km berechnet wurden. ● Am Stand der Jülich Aachen Research Alliance (JARA) wird u. a. eine Visualisierung zur anfänglichen Entwicklung eines Flammenkerns in homogener isotroper Turbulenz unter Motorbedingungen präsentiert. Die Anwendung wird von der Software Unreal Engine unterstützt und auf einer stereoskopischen Projektionsfläche gezeigt. Die Besucher/-innen werden darüber hinaus über die jüngsten Entwicklungen im OpenMP-Standard und über das Korrektheitsanalyse-Werkzeug MUST informiert. ● Das PC2 stellt aktuelle Arbeiten zur Beschleunigung von Rechnungen der Quantenchemie vor, liefert Beiträge zum Intel-Collaboration-Hub – Elektrodynamik-Simulation mit FPGA – in Kooperation mit der Firma BittWare und ist am IXPUG-Workshop sowie dem Workshop ExaComm‘19 beteiligt. ● Das ZIH beteiligt sich wie in den Vorjahren am wissenschaftlichen Programm der Konferenz und stellt an einem Stand seine Aktivitäten vor. Der Fokus liegt hierbei auf Performance-Analyse, Data Analytics und Big Data. Weitere Informationen: https://gauss-allianz.de/de/isc19 .
Kooperation Terra_Byte
Das Leibniz-Rechenzentrum (LRZ) und das Deutsche Zentrum für Luft- und Raumfahrt (DLR) kooperieren in Zukunft unter dem Namen „Terra_Byte“ bei der Auswertung der enormen Datenmengen, die Erdbeobachtungssatelliten im Zusammenspiel mit weiteren Datenquellen täglich über den Zustand unseres Planeten erfassen. Schon jetzt hat das Datenvolumen des europäischen Erdbeobachtungsprogramms Copernicus die Schwelle von 10 Petabytes überschritten. Bis 2024 werden die Sentinel-Satelliten des Copernicus-Programms mehr als 40 Petabytes an Daten erzeugt haben. Angesichts derartiger Datenmengen sind konventionelle Auswerteverfahren längst an ihre Grenzen gekommen. Die Verarbeitung dieser Datenmengen mit modernen Methoden erfordert die Verfügbarkeit hoch performanter Datenanalyse-Plattformen HPDA – High Performance Data Analytics. Der Part des LRZ in der Kooperation umfasst skalierbare und zuverlässige IT-Dienste und Technologien, Optimierung von Prozessen und Verfahren, für das Supercomputing und Cloud Computing sowie Verfahren der Künstlichen Intelligenz (KI) und Big Data. Weitere Informationen: https://www.lrz.de/presse/ereignisse/2019-05-27_dlr-lrz-kooperationsvertrag/
Machine-Learning-Anwendungen auf HPC-Cloud
Das DEEP-HybridDataCloud-Projekt (DEEP) nutzt einen Hybrid-Cloud-Ansatz, um intensive Rechentechniken wie Deep Learning zu ermöglichen. Dies erfordert den Zugriff auf spezielle Hardware wie z. B. Grafikprozessoren (GPU) oder Low-Latency-Interconnects, um sehr große Datensätze zu untersuchen. DEEP basiert auf einem nutzerzentrierten Konzept, d. h. Entwickler von Machine-Learning-Anwendungen werden dabei unterstützt, Cloud-Dienste so zu kombinieren, dass sie technische Details geeignet kapseln. Nutzer/-innen können dadurch ihre speziellen Use Cases effizienter umsetzen. Zu den DEEP-Zielen gehört auch die Unterstützung von Nutzer/-innen unterschiedlicher Erfahrungsstufen durch verschiedene Integrationspfade. Dafür stehen ein Open Catalog für Machine-Learning-Anwendungen, eine DEEP-API (as-a-Service) für den Web-Zugang zu Machine-Learning-Modellen, eine CI/CD-Pipeline (continuous integration/continuous delivery) für Nutzeranwendungen sowie Pilot-Testbed-Ressourcen zur Verfügung. Ende März 2019 hat das Projekt die Zwischenbewertung bei der Europäischen Kommission in Luxemburg erfolgreich bestanden. Weitere Informationen: https://deep-hybrid-datacloud.eu
Exzellenzcluster CLICCS liefert Klimawissen
Seit 2019 fördert die Deutsche Forschungsgemeinschaft im Rahmen der Exzellenzstrategie des Bundes und der Länder den interdisziplinär ausgerichteten Exzellenzcluster „Climate, Climatic Change, and Society“ (CLICCS) in Hamburg, an dem neben der Universität Hamburg u. a. das Max-Planck-Institut für Meteorologie, das Helmholtz-Zentrum Geesthacht sowie das Deutsche Klimarechenzentrum beteiligt sind. Die rund 200 Natur- und Sozialwissenschaftler/-innen des Clusters erforschen die naturwissenschaftlichen Grundlagen des Klimawandels sowie Wechselwirkungen mit Gesellschaften, die auf die Veränderungen reagieren und damit ihrerseits das Klima beeinflussen. Am 21. Mai besuchte Bundesaußenminister Heiko Maas CLICCS-Wissenschaftler/-innen in Hamburg. Im Gespräch sammelte Maas Argumente, um auf internationaler politischer Ebene von der Existenz des Klimawandels zu überzeugen. Der Klimawandel, so Maas, sei eines der zentralen Themen, die Deutschland im Weltsicherheitsrat voranbringen wolle. Im Anschluss an die Diskussionsrunde besichtigte Maas den Hochleistungsrechner am DKRZ. Weitere Informationen: https://www.dkrz.de/p/maas_dkrz/ .
HAICU: Künstliche Intelligenz und Maschinelles Lernen
Die Helmholtz-Gemeinschaft hat die Plattform HAICU für Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) initiiert, die zur Analyse komplexer Systeme in den Bereichen Energie, Materie, Information, Verkehr, Klima und Gesundheit anwendungsorientiert neue Methoden entwickeln, implementieren und verbreiten soll. HAICU besteht aus einer zentralen Einheit am Helmholtz Zentrum München (HMGU) sowie fünf lokalen forschungsspezifischen Einheiten in weiteren Helmholtz-Zentren; darunter die beiden GA-Partner Deutsches Klimarechenzentrum (DKRZ) und Jülich Supercomputing Centre (JSC). Um die breite Anwendung neuer leistungsfähiger ML-Algorithmen für erdsystemwissenschaftliche Fragestellungen zu fördern, wird am Helmholtz-Zentrum Geesthacht (HZG) und am DKRZ die HAICU-Lokaleinheit AIM (Artificial Intelligence innovates Earth System Analytics and Modelling) für den Forschungsbereich Erde und Umwelt eingerichtet. In einer Nachwuchsgruppe und einem High-Level-Support-Team, werden hier innovative KI- und ML-Methoden für Erdsystemanalyse und -modellierung sowie Prognosen erforscht. Am Forschungszentrum Jülich wird eine HAICU-Lokaleinheit in den Bereichen Information und Schlüsseltechnologien zu Deep-Learning-Verfahren für Neuroscience und Big-Data-Neuroimaging angesiedelt. Hier kooperieren das Institut für Neurowissenschaften und Medizin, ein High-Level-Support-Team des JSC und das am JSC angesiedelte Cross-Sectional-Team Deep Learning, das generische großskalige Deep-Learning-Verfahren für domänenübergreifendes Continual Learning erforschen soll. Die entstehenden Methoden und Werkzeuge sollen der wissenschaftlichen Gemeinschaft als Open Source bereitgestellt werden. Weitere Informationen: https://www.haicu.de/
Gridka School 2019
Die diesjährige GridKa School 2019 „The Art of Data“ findet vom 26. bis 30. August in Karlsruhe statt. Die GridKa School, die jährlich vom Steinbuch Centre for Computing (SCC) am Karlsruher Institut für Technologie (KIT) veranstaltet wird, ist in Europa im Bereich Scientific Computing die führende Sommerschule. Durch ihre Mischung aus Plenarvorträgen, interaktiven Workshops und einem ergänzenden Rahmenprogramm bietet die GridKa School eine ideale Plattform für die Anwendung des neu gewonnen Wissens sowie einen Austausch über die Fachgrenzen hinweg. Die Themen umfassen in diesem Jahr u.a. moderne Methoden in den Bereichen Datenanalyse, Machine Learning sowie Skalierbarkeit und Zuverlässigkeit. Die Registrierung steht allen Interessierten offen. Weitere Informationen: http://gridka.school