Inbetriebnahme des neuen HLRS-Schulungszentrums
Anfang März hat das HLRS seinen neuen Erweiterungsbau mit Büroräumen und einem neuen Schulungszentrum bezogen. Der neue, 254 m2 große Schulungsraum mit modernster IT- und Medien-Ausstattung bietet hervorragende Voraussetzungen für die verschiedenen HPC- und IT-Trainingsformate des HLRS. In Kombination mit dem direkt angrenzenden Höchstleistungsrechner erwarten die Schulungsteilnehmer/-innen des HLRS neben der Betreuung durch erfahrene HPC-Experten auch der Zugang zu einem der weltweit schnellsten Supercomputer und erstklassigen Visualisierungsmöglichkeiten. Mit mehr als 1000 Trainings- und 400 Workshop-Teilnehmende im Jahr 2016 ist das HLRS bereits jetzt Europas größte Ausbildungseinrichtung im Bereich HPC. Um dieser Aufgabe weiterhin gerecht zu werden und neue Zielgruppen ansprechen zu können, sollen insbesondere neue Trainingskonzepte für Teilnehmer/-innen jenseits der traditionellen wissenschaftlichen Gemeinschaft entwickelt und angeboten werden. Ziel ist es, nicht nur Wissenschaft und Forschung, sondern darüber hinaus auch den Transfer in die Industrie zu fördern. Ein spezieller Fokus liegt deshalb auf der Ingenieurausbildung, um die zahlreichen Ingenieurbüros in der Region Stuttgart im Bereich Simulation zu stärken.
ProfiT-HPC – Ein Profiling Toolkit für HPC
Hochleistungsrechnen hat eine Schlüsselstellung in vielen wissenschaftlichen Disziplinen eingenommen. Während aber einerseits HPC-Ressourcen immer technisch komplexer werden, haben andererseits viele Forschende kein tieferes Verständnis der Arbeitsweise der im HPC eingesetzten Systeme. Die Möglichkeiten, durch Performance-Engineering den Ressourcenverbrauch zu optimieren, bleiben daher oft ungenutzt. Ziel des seit Februar laufenden DFG-Projektes „Profiling Toolkit für High Performance Computing“ (ProfiT HPC) ist es, das Bewusstsein für Performance-Probleme zu vergrößern. Dazu sollen automatisiert Laufzeit-Profile der Anwendungen bereitgestellt werden, die durch die nutzerfreundliche Aufbereitung auch mit wenig HPC-Fachwissen verstanden werden können und zur Optimierung der Anwendungen motivieren. Insbesondere bei zusätzlicher Beratung, zum Beispiel durch das Fachberaternetzwerk des HLRN, kann dadurch eine effizientere Nutzung von HPC-Systemen erreicht werden. Im Projekt wirken die Universitäten Hamburg, Hannover und Rostock, die GWDG und das Zuse-Institut Berlin mit. Weitere Informationen: http://profit-hpc.de/
Vielfalt im Regenwald: Datenanalyse mit SuperMUC
Ende März veröffentlichte die Fachzeitschrift „Nature Ecology and Evolution“ eine Untersuchung der mikrobiellen Vielfalt in tropischen Regenwäldern. Ein internationales Team um Micah Dunthorn (Technische Universität Kaiserslautern, finanziert durch das Emmy Noether-Programm der DFG) sammelte Bodenproben in den Regenwäldern von Costa Rica, Panama und Ecuador und extrahierte sowie sequenzierte die DNA der darin lebenden Mikroben. Die Bioinformatiker Alexandros Stamatakis, Lucas Czech und Alexey Kozlov des Heidelberger Instituts für Theoretische Studien und des Karlsruher Instituts für Technologie analysierten die über 130 Millionen Sequenzen auf dem SuperMUC des LRZ und konnten so die Existenz einiger unbekannter Arten nachweisen. Ohne den Einsatz des HPC-Systems wäre diese Studie nicht denkbar gewesen. Für die Analysen waren etwa 1 Million Prozessorstunden auf dem SuperMUC nötig. Gegenwärtig arbeitet die Gruppe an einem neuen Parallelisierungsansatz für ihre Software, um Datensätze handhaben zu können, die zehn Mal grösser als in der aktuellen Studie sein werden. Weitere Informationen: https://www.uni-kl.de/aktuelles/news/news/detail/News/neue-arten-entdeckt-mikroparasiten-tragen-zur-stabilitaet-des-oekosystems-im-regenwald-bei/
Workshop: Big Data in Business
Nach dem positiven Feedback im letzten Jahr veranstaltet das Big-Data-Kompetenzzentrum ScaDS Dresden/Leipzig vom 15. bis 16. Juni erneut einen Workshop zum Thema „Big Data in Business“. Das diesmal zweitägige Programm bietet verschiedenen Anwendern von Big-Data-Technologien aus Wirtschaft und Forschung die Möglichkeit, sich über neue Erkenntnisse und Herausforderungen auszutauschen. Vorträge von erfahrenen Referenten aus der Wirtschaft bereichern das Programm des Workshops. Wissenschaftler/-innen des Kompetenzzentrums präsentieren aktuelle Arbeiten anhand von interaktiven Demos und Postern. Weitere Informationen: https://www.scads.de/de/bidib2017
Visualisierungswettbewerb für Wolkensimulationen
Im Rahmen der IEEE-VisWeek – der wichtigsten Konferenz für Visualisierungswissenschaftler weltweit – findet jedes Jahr ein Visualisierungswettbewerb „SciVis Contest“ statt. In diesem Jahr werden dafür hochauflösende ICON-Daten des HD(CP)2-Projektes genutzt. Für die Teilnahme an diesem Wettbewerb müssen mehrere Aufgaben gelöst und beantwortet werden, darunter die Klassifizierung von Wolken und die Verfolgung ihrer Zugbahnen sowie ein Vergleich von Informationen, die auf verschiedenen Gittern und mit unterschiedlicher zeitlicher und räumlicher Auflösung gespeichert wurden. Als Organisator hat das DKRZ die Daten für den diesjährigen Wettbewerb bereitgestellt und gemeinsam mit Wissenschaftlern des MPI für Meteorologie die Aufgabenstellungen entwickelt. Beide Einrichtungen sind zudem in der Jury für die Begutachtung der Einreichungen vertreten. Die Einreichungsfrist endet im Juli. Bis heute haben sich bereits mehr als 40 Teilnehmer registriert und Daten heruntergeladen. Weitere Informationen unter: https://www.dkrz.de/SciVis
GridKa School 2017
Die jährlich vom Steinbuch Centre for Computing am Karlsruher Institut für Technologie veranstaltete internationale GridKa School feiert in diesem Jahr ihr 15-jähriges Bestehen. Unter dem Motto „make science && run“ findet vom 28. August bis 1. September in Karlsruhe eine der führenden Sommerschulen für Advanced Computing Technologies in Europa statt. Das Hauptaugenmerk der GridKa School liegt auf der praktischen Vermittlung von Erfahrungen und Wissen durch eine Mischung aus Plenarvorträgen und interaktiven Kursen. Die Zielgruppe umfasst sowohl neue als auch fortgeschrittene Nutzer/-innen und Administrierende von HPC-Systemen. Weitere Informationen: https://gridka-school.scc.kit.edu/2017/
GPU-Hackathon in Jülich
Vom 6. bis 10. März fand am JSC in Kooperation mit dem GPU Center of Excellence Dresden der erste GPU-Hackathon 2017 statt. GPU-Hackathons ermöglichen es Wissenschaftler/-innen, ihre Anwendungen mit Hilfe von Experten auf Grafikkarten (GPUs) zu portieren und zu optimieren. International organisiert werden sie vom Oak Ridge National Laboratory (USA). Insgesamt zehn Teams wurden für diesen Hackathon zugelassen. Jedes bestand aus mindestens drei Personen sowie zwei Mentoren. Die Anwendungen kamen aus ganz unterschiedlichen Forschungsgebieten, u. a. Gehirnforschung, theoretische Teilchenphysik und Strömungsmechanik. Die Teams programmierten jeden Tag bis in die Abendstunden und berichteten täglich in einem kurzen Vortrag über den aktuellen Status. Am Ende der Woche hatten alle Teams konkrete Pläne, wie sie an ihren Anwendungen weiterarbeiten werden. Besonders gelobt wurde die enge Zusammenarbeit mit akademischen GPU-Entwicklern und den anwesenden Experten von NVIDIA und IBM. Weitere Informationen: http://www.fz-juelich.de/eurohack
Das erste Jahr der JAMSTEC-DKRZ-Kooperation
Das japanische Zentrum JAMSTEC, Standort des Earth Simulators, und das DKRZ haben seit Mai 2016 ein Kooperationsabkommen über gemeinsame wissenschaftliche Aktivitäten bei der HPC-Unterstützung für Klima- und Erdsystemforschung. Vom 22. bis 24. März trafen sich die beteiligten Wissenschaftler am DKRZ zu einem Ergebnis-Workshop zu den gemeinsamen Aktivitäten im Bereich Energieeffizienz. Im DKRZ ist dies eingebettet in einen Ausbau des Monitoring-Systems zur Erfassung wichtiger Kenngrößen. Die am JAMSTEC eingesetzte NEC-Architektur liefert bereits ohne Zusatzwerkzeuge relevante Informationen über die Performance bei einzelnen Anwendungen und gestattet so eine differenzierte Betrachtung des Energieverbrauchs. Zusammen mit der Universität Hamburg und dem EU-Projekt ESiWACE fand in diesem Rahmen am 22. und 23. März der Workshop „Understanding I/O Performance Behavior (UIOP)” statt, der zukünftige Speicherarchitekturen, Monitoring-Werkzeuge zur Analyse der System- und Anwendungsleistung sowie Benchmarks zur Richtungsvorgabe künftiger Entwicklungen thematisierte. Die internationalen Teilnehmer repräsentierten Forschung und Industrie aus der Sicht von Rechenzentren, Entwicklern von HPC-Dateisystemen/-Speicherlösungen und Nutzern. Die Veranstaltung verdeutlichte die Wichtigkeit und Komplexität der Thematik und diente als Diskussionsplattform. Die Beiträge der Wissenschaftler stimulierten die Gemeinschaft, zu offenen Lösungen und Standardisierungen beizutragen, um die steigende Datenflut effizient bewältigen zu können. Weitere Informationen: https://www.dkrz.de/Nutzerportal/workshops/de-jamstec-dkrz-WS17/