Juni 2013

Gauß-Allianz Infobrief - Ausgabe 18

GA-Mitglieder auf HPC-Konferenz ISC‘13

Die International Supercomputing Conference (ISC), eine der wichtigsten Veranstaltungen für Hochleistungsrechnen (HPC) international und Europas größte Ausstellung auf diesem Gebiet, findet in diesem Jahr vom 16. bis 20. Juni in Leipzig statt. Die Organisatoren der ISC‘13 erwarten mehr als 2.500 Teilnehmer und 170 Aussteller aus Wissenschaft und Industrie aus ca. 50 Ländern. Neu in diesem Jahr ist der Industriepfad, der parallel zum Hauptprogramm, Unternehmen – insbesondere kleinen und mittelständischen Unternehmen – eine fundierte Entscheidung über den Erwerb von und die Arbeit mit HPC-Systemen ermöglichen soll. Auch Mitglieder der Gauß-Allianz werden die Konferenz nutzen, um ihre Expertise in den verschiedenen Bereichen zu präsentieren; u.a. mit folgenden Aktivitäten: • Das GCS wird mit einem eigenen Messestand vertreten sein, auf dem u.a. die neuesten 2D/3D-Videos und -Animationen, interaktive Simulationen, Augmented-Reality-Visualisierungen sowie interaktive Monitoring-Software für weltweit installierte Supercomputer präsentiert werden. Am 18.6. lädt das GCS von 14:15-16:15 Uhr zudem zu einer Panel Session der drei GCS-Zentrumsleiter zum Thema „GCS to Establish HPC Centre of Excellence“ ein.• Die Präsentation des HLRN wird den Beitritt Brandenburgs zum HLRN-Verbund sowie den neuen Supercomputer für die Spitzenforschung HLRN-III thematisieren. • Das SCC wird Forschungsarbeiten aus den Bereichen Datenmanagement und -analyse, sichere IT-Föderationen, Computational Science & Engineering und dynamische IT-Infrastrukturen präsentieren. Schwerpunktthemen werden die am SCC angesiedelten Simulation Laboratories (SimLabs) und das Management großskaliger Daten sein. Ebenso wird das Grid Computing Centre Karlsruhe (GridKa) im Fokus stehen, das als deutsches Tier1-Zentrum für den Large Hadron Collider am CERN in Genf maßgeblich an der Entdeckung des Higgs-Boson-Teilchens beteiligt war. • Das ZIH wird neben eigenen Forschungsaktivitäten insbesondere auf den Gebieten Performance-Analyse, Energieeffizienz und Datenintensives Rechnen sowie Anwenderprojekten v.a. die gegenwärtige HPC-Neuinstallation sowie die Planung des neuen Rechenzentrums vorstellen. Ein wichtiger Bestandteil der Präsentation ist das am ZIH entwickelte Werkzeug Vampir zur interaktiven Performance-Analyse. Es ist zudem mit verschiedenen Beiträgen am wissenschaftlichen Programm der Konferenz beteiligt. Weitere Informationen: http://www.isc13.org

Überholspur für Daten: 400-Gigabit

Entwicklungen wie Cloud Computing, Social Media und Big Data benötigen für den weltweiten Datenverkehr leistungsstarke Datennetze. Die Übertragung von 50 Gigabyte Daten pro Sekunde zwischen Dresden, München und Hamburg wird derzeit durch ein 400 GBit/s-Testbed unter der Leitung von T-Systems und Alcatel-Lucent in einer Kooperation von Industrie und Forschung erprobt. Durch optische Datenübertragung mit höchster Leistungsstärke in Kombination mit Hochgeschwindigkeits-Flash-Speichertechnologien und einem hochperformanten verteilten Dateisystem können erstmalig Anwendungen über einen 400 GBit/s-Datenpfad kommunizieren. Damit können künftig datenintensive Projekte auch über größere Entfernungen effektiv verteilt und verarbeitet werden. Zusätzlich ergeben sich neue Optionen für Datensicherheit im Katastrophenfall. Im Projekt werden die Verbindungen für rechenintensive Aufgaben mit verteilten Datenbanken und mehrstufiger Datenverarbeitung aus Klimaforschung und Turbinenentwicklung genutzt. Damit werden die Zusammenarbeit weit entfernter Rechenzentren und neue Anwendungsmöglichkeiten für große Bandbreiten unter realen Bedingungen getestet. Weitere Projektpartner sind Barracuda Networks, Bull, Clustervision, DLR, EMC2, IBM, LRZ, MPI für Meteorologie, Mellanox, RZG und ZIH. Auf der ISC‘13 soll das Projekt vorgestellt werden.

HPC-Installation für BigData

Am ZIH der TU Dresden wird derzeit die erste Stufe für den neuen Hochleistungsrechner-/Speicherkomplex (HRSK-II) mit einer Rechenleistung von über 100 TeraFlop/s in Betrieb genommen. Die Architektur des Systems ist insbesondere auf die Anforderungen von Anwendern mit datenintensiven Workflows wie beispielsweise aus Lebenswissenschaften, Materialwissenschaft und Teilchenphysik ausgerichtet. Neben Bandbreite und Kapazität lag beim Desgin des integrierten Speichersystems der Fokus auf Flexibilität und Optimierbarkeit. Diese Qualitäten werden es erlauben, verschiedene Speichertechnologien effizient zu nutzen und den Anwendern eine auf ihre Anforderungen zugeschnittenen Ressource zur Verfügung zu stellen. Möglich wird die Steuerung des Dateisystems durch eine begleitende Methodenentwicklung zur Analyse der in diesem Umfeld anfallenden Performancedaten.

Auswertung großvolumiger Bilddaten

In den letzten Jahren haben sich die Methoden in der Biotechnologie und den Datenakquisitionsverfahren zur dynamischen 3D-Mikroskopie und Zellbiologie beeindruckend weiterentwickelt. Die aktuellen Mikroskop-Typen erzeugen multidimensionale, großvolumige Bilddatensätze, deren zeitnahe Auswertung eine enorme Herausforderung darstellt. Um große 3D-/4D-/5D-Bilddaten im Gigabyte-, Terabyte- bis hin zum Petabyte-Bereich zu bewältigen, sind immense Rechenleistungen notwendig. Die da-cons GmbH, eine Ausgründung des KIT und gefördert durch das Exist-Gründerstipendium des Bundesministeriums für Wirtschaft und Technologie, ist ein innovatives Unternehmen, das sehr eng mit dem Steinbuch Centre for Computing (SCC) des KIT verbunden ist. Die Firma hat sich in Zusammenarbeit mit dem SCC und dem Buchmann Institute for Molecular Life Sciences der Goethe-Universität Frankfurt auf die neuesten Technologien in der automatischen Auswertung, Archivierung und Visualisierung großer Bilddaten spezialisiert und bietet dieses Know-how als Dienstleistung an.

Exsascale-Simulation der Erdmantelkonvektion

Die Festkörperkonvektion des Erdmantels wird durch den Wärmetransport aus dem Inneren unseres Planeten angetrieben und verursacht einen Großteil der geologischen Aktivität der Erde. Die Erforschung der Dynamik des Mantels ist von zentraler Bedeutung für das Verständnis vieler geologischer Vorgänge wie Erdbeben, Plattentektonik, Entwicklung der Erdkruste bis hin zum Geodynamo. Die Simulation dieser Prozesse erfordert räumliche und zeitliche Auflösungen, die zu den großen Herausforderungen des Höchstleistungsrechnens zählen. Mit zukünftigen Exascale-Systemen eröffnen sich Möglichkeiten für noch weitergehende wissenschaftliche Fragestellung. Dabei stehen die Quantifizierung von Unsicherheiten, die Parameterschätzung und die Assimilation sehr großer Datenmengen im Vordergrund. Im DFG-Schwerpunktprogramm SPPEXA haben sich dazu jeweils zwei Arbeitsgruppen der Münchner Universitäten (Geophysik an der LMU und Numerische Mathematik der TUM) und der Universität Erlangen-Nürnberg (Höchstleistungsrechnen und Systemsimulation aus der Informatik) zu einem Projektkonsortium zusammengeschlossen. Innerhalb von sechs Projektjahren soll mit „TERRA-NEO“ ein Softwareframework für die simulationsbasierte Forschung in der Geophysik entstehen.

Forschungsagenda für Big Data-Computing

In den letzten drei Jahren haben Experten in den USA, in der EU und in Asien im Rahmen des Projektes IESP eine gemeinsam formulierte Forschungsagenda für das Exascale-Computing erarbeitet. Die Fokussierung der traditionell führenden HPC-Experten auf dieses Thema unterstreicht einerseits das erwartete Potenzial und die Chancen dieser Bemühungen im Erfolgsfall – sie verdeutlicht andererseits aber auch die technischen Herausforderungen auf diesem Gebiet. Während die Aufmerksamkeit sich bisher vor allem auf die großen Anforderungen an Hardware-Architekturen und die entsprechenden Software-Lösungen gerichtet hat, ist inzwischen unumstritten, dass Exascale Computing nicht ohne Berücksichtigung der jüngsten Entwicklungen im Bereich Big Data denkbar ist. Der NSF-Workshop „Big Data und Extreme-scale Computing (BDEC)“ vom 30. April bis 1. Mai in Charleston (USA) diente deshalb dazu, erste Ideen für ein systematisches Forschungsprogramm zu entwickeln, in denen die wichtigsten Fragestellungen im Zusammenhang mit Big Data und Exascale Computing adressiert werden, um sie den nationalen und internationalen Fördermittelgebern zu empfehlen. Weitere Informationen: http://www.exascale.org/bdec/

Workshop „High Performance Computing Hessen“

Um die hessischen Wissenschaftlerinnen und Wissenschaftler in die Lage zu versetzen, den Anfang Juni an der TU Darmstadt eingeweihten neuen Hochleistungsrechner effizient zu nutzen, fand bereits im April ein erster Workshop mit dem Titel „High Performance Computing Hessen“ (HiPerCH) statt. Der viertägige Workshop an der TU Darmstadt bot den zukünftigen Nutzern Vorträge zu den Themen Software im Hochleistungsrechnen und Exascale-Computing, eine Einführung in das neue System sowie die Vorstellung von Parallelisierungs-Techniken und -Strategien mit der Möglichkeit von Hands-on Übungen. 110 Wissenschaftler verschiedener Fachrichtungen nahmen an diesem Workshop teil. Die positive Resonanz belegt die Notwendigkeit, Nutzer von Hochleistungsrechnern kontinuierlich zu qualifizieren, die vielfältigen Einsatzmöglichkeiten dieser Schlüsseltechnologie effektiv für die Bearbeitung ihrer Fragestellungen in Wissenschaft, Forschung, Technik und Gesellschaft zu nutzen. Weitere Informationen: www.hrz.tu-darmstadt.de/hiperch

Wechsel im Vorstand des GCS

Nach vier Jahren als Vorsitzender des Vorstands des GCS übergab Professor Heinz-Gerd Hegering Ende Mai seine Aufgaben an Prof. Michael M. Resch. Der neue Vorstandsvorsitzende ist Direktor des HLRS und war bisher bereits Mitglied im Vorstand. Für die kommenden zwei Jahre werden die Fortsetzung der Rechnerentwicklung an den drei Standorten des GCS sowie die Weiterentwicklung in Richtung Kompetenzzentren im Vordergrund stehen. Ein weiterer GCS-Schwerpunkt wird die engere Kooperation mit der Industrie sein.