November 2014

Gauß-Allianz Infobrief - Ausgabe 31

Gauß-Allianz-Zentren auf der SC14 in New Orleans

In diesem Jahr bringt die SC14 als wichtigste internationale Konferenz zum Supercomputing vom 16. bis zum 21. November in New Orleans (USA) wieder die Akteure auf den Gebieten High Performance Computing, Networking, Speicherung und Analyse zum Austausch über die neuesten Entwicklungen und Möglichkeiten zusammen. Mehrere Mitglieder der Gauß-Allianz werden auch diesmal mit eigenen Ständen, in Workshops, Vorträgen, Tutorials und Diskussionsrunden vertreten sein. So präsentiert das JSC auf seinem Stand wissenschaftliche Simulationen und seine für das Supercomputing ent-wickelte Werkzeuge, wie z. B. LLview, Scalasca, SIONlib und UNICORE sowie die Beteiligung am Human Brain Project. Außerdem betreuen Mitarbeiter des JSC die Besucher am PRACE-Stand und am Stand der europäischen Exascale-Projekte und bieten mehrere Tutorials und Vorträge an. Zum ersten Mal präsentiert sich zudem die Sektion High Performance Computing der Jülich Aachen Research Alliance (JARA-HPC). Gemeinsam werden die Kollegen des JSC und der RWTH Aachen aktuelle Aktivitäten zu den Themen VisNEST, MUST und JADE sowie Aufbau und Nutzung der JARA Partition vorstellen. Das DKRZ gibt auf seinem Stand einen Ausblick auf das neue HPC-System HLRE-3, informiert über seine Datendienste und zeigt auf einem Monitor aktuelle Klimasimulationen. Das RRZE ist an verschiedenen Tutorials beteiligt und organisiert eine „Birds-of-a-feather“-Session zum Thema „Code Optimization War Stories“, in der interessante und überraschende Aktivitäten auf dem Gebiet der Code-Optimierung vorgestellt und diskutiert werden. Am Stand des ZIH werden aktuelle Forschungsschwerpunkte des Zentrums wie Energieeffizienz, Big Data sowie hochskalierende Performance-Analyse für Systeme mit und ohne Hardware-Beschleuniger thematisiert. Am Konferenzprogramm beteiligt sich das ZIH durch verschiedene Vorträge und in Workshops. Auch das HLRS und das LRZ werden sich und aktuelle Projekte sowie wissenschaftliche Erfolge auf ihren Messeständen präsentieren. Weitere Informationen: http://gauss-allianz.de/sc2014

Zweite Phase des HLRN-III in Betrieb

Der Norddeutsche Verbund für Hoch- und Höchstleistungsrechnen (HLRN) hat am 23. Oktober am Standort Berlin die zweite Phase des HLRN-III für den allgemeinen Benutzerbetrieb freigegeben und die Zuverlässigkeitsprüfung für die Abnahme begonnen, während am Standort Hannover inzwischen die Betriebsbereitschaft erklärt wurde. Mit der Erweiterung um sechs weitere Cray XC40 Cabinets am Zuse-Institut Berlin, die mit Prozessoren vom Typ Intel Xeon Haswell-EP der neuesten Generation ausgerüstet sind, und um fünf weitere XC40 Cabinets nebst 32 weiteren SMP-Knoten mit je 512 GiB Hauptspeicher an der Leibniz-Universität Hannover steht den Wissenschaftlern der sieben norddeutschen HLRN-Verbundländer jetzt eine theoretische Spitzenrechenleistung von 2,7 PetaFlop/s aggregiert über beide Standorte zur Verfügung (das entspricht 2,7*1015 Gleitkommaoperationen pro Sekunde). Im Linpack-Benchmark erreichte das Berliner System mit insgesamt 1872 Rechenknoten (1128 XC40-Knoten und 744 XC30-Knoten aus der Phase 1) eine Rechenleistung von 991 TeraFlop/s. Um der zu erwartenden Datenmenge aufgrund der zusätzlichen enormen Rechenleistung gerecht zu werden, wurde auch das Plattenspeichersystem auf insgesamt 7,4 PiB ausgebaut. Beide Systeme in Berlin und Hannover werden von den Anwendern während der Zuverlässigkeitsprüfung bereits intensiv genutzt. Weitere Informationen: www.hlrn.de

Computational Sciences an der Universität zu Köln

Im Rahmen der Exzellenzinitiative wurde an der Universität zu Köln (UzK) ein Kompetenzfeld zur quantitativen Modellierung komplexer Systeme geschaffen. Die breit gefächerten Forschungsansätze mit Schwerpunkt auf den Kernprofilbereichen Quantenmaterie und -materialien tragen zum besseren Verständnis einer Vielfalt von Phänomenen bei und erlauben einzigartige interdisziplinäre Forschung. Das Regionale Rechenzentrum (RRZK) der UzK betreibt das CHEOPS Cluster und unterstützt die Wissenschaften in seiner effizienten Nutzung, u. a. für die Themenbereiche Wetter und Klima, Sternentstehung in interstellaren Wolken, Transkriptionsfaktoren und Genom, Mond-Plasma-Wechselwirkungen und der Blutfluss durch Arterien. Die Modellierung als wissenschaftliches Standbein gewinnt in immer mehr Studiengängen an Bedeutung, weshalb die Lehre unterstützt und Workshops wie der Computational Sciences Day zur Vermittlung fachübergreifender Kenntnisse ausgerichtet werden. Weitere Informationen: complexsystems.uni-koeln.de

Dresden und Leipzig gemeinsam für Big Data

Anfang Oktober hat das „Competence Center for Scalable Data Services and Solutions Dresden/Leipzig (ScaDS Dresden/Leipzig)“ mit einer Auftaktveranstaltung offiziell seine Arbeit aufgenommen. ScaDS Dresden/Leipzig wird in der vierjährigen Aufbauphase mit mehr als fünf Millionen Euro durch das BMBF gefördert. Das gemeinsame Konzept von TU Dresden, Universität Leipzig und weiteren Forschungspartnern adressiert insbesondere die Big-Data-Herausforderungen Integration großer und komplexer Datenbestände, Wissensextraktion sowie Visuelle Analyse. Die Partner setzen dabei auf Vernetzung: Eine enge interdisziplinäre Verzahnung von Methoden- und anwenderwissenschaftlicher Forschung und die Bündelung der Expertise der beiden Standorte eröffnen ein vielversprechendes Innovationspotenzial für den intelligenten Umgang mit Big Data, das zügig umgesetzt werden kann. Ein Servicezentrum soll als nationaler Anlaufpunkt Lösungen und Dienste für die Bewältigung aktueller und zukünftiger Herausforderungen zur Verfügung stellen. Weitere Informationen: www.scads.de

Datenanalyse in Smart Ecosystems

Das im Technologiewettbewerb „Smart Data“ vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt „Big Data Produktionsoptimierung in Smart Ecosystems (PRO-OPT)“ verfolgt das Ziel, Unternehmen in dezentralen kooperativen Strukturen (Smart Ecosystems) die effektive und intelligente Analyse großer Datenmengen zu ermöglichen. Vor allem durch die Digitalisierung und Automatisierung fallen bei der Produktion immer größere Datenmengen an. Die Datenquellen liegen dabei verteilt bei verschiedenen, wirtschaftlich unabhängigen Teilnehmern des Ecosystems, zumal in die Produktion meist nicht nur Teile aus eigener Fertigung eingehen. Übergreifende Analysen müssen unter Berücksichtigung von Zugriffsberechtigungen auf diese Quellen heruntergebrochen werden. Big-Data-Strategien sollen helfen, dies zu ermöglichen bzw. effizienter zu gestalten. Die Lösung wird in der Automobildomäne angesiedelt, die in Deutschland eine Schlüsselstellung einnimmt und einen Leuchtturmeffekt für weitere Branchen hat. Das Projekt-Konsortium besteht aus Fraunhofer IESE (Kaiserslautern), DFKI (Kaiserslautern), Audi AG (Ingolstadt), camLine GmbH (Petershausen) sowie der DSA GmbH (Aachen).

Ferienschule zum Wissenschaftlichen Rechnen

Das Jülich Supercomputing Centre (JSC) setzt seine erfolgreiche Serie von Ferienschulen zum Wissenschaftlichen Rechnen fort: Vom 23. bis 27. März 2015 findet die Ferienschule „Computational Trends in Solvation and Transport in Liquids“ statt. Zwanzig renommierte Wissenschaftler aus sieben Ländern werden in ihren Vorträgen ein breites Spektrum von modernen Methoden und Algorithmen vorstellen, das zur Simulation von Flüssigkeiten und Lösungsmitteln in der Physik, Chemie, Biophysik und der Materialwissenschaft eingesetzt wird. Eine Einführung in die Verwendung von Grafikkarten als parallele Architektur zur Beschleunigung von Simulationen bildet einen praktischen Teil. Die Veranstaltung richtet sich vor allem an Doktoranden und PostDocs. Sie wird unterstützt und finanziert durch den Jülicher CECAM-Knoten und das Exzellenzcluster RESOLV an der Ruhr-Universität Bochum. Weitere Informationen: http://www.fz-juelich.de/stl-2015

Zweite Förderphase SPPEXA

Am 1. Oktober wurde die zweite Förderperiode für das DFG-Schwerpunktprogramm 1648 „Software for Exa-scale Computing“ (SPPEXA) ausgeschrieben. Bis zum 31. Januar 2015 können Projektanträge zur Grundlagenforschung im Bereich der Softwareentwicklung für massiv parallele Anwendungen auf dem Gebiet des High Performance Computing eingereicht werden. Der Schwerpunkt liegt dabei auf der Unterstützung zukünftiger Exascale-Systeme mit mehr als zehn Millionen parallelen Verarbeitungseinheiten mit der ausdrücklichen Möglichkeit zur Förderung internationaler Kollaborationen von Forschern aus Frankreich (ANR), Deutschland (DFG) und Japan (JST). Mit der enormen Menge an parallelen Verarbeitungseinheiten treten neue Herausforderungen wie die effiziente Behandlung von I/O, Resilience und Lastbalancierung in den Vordergrund. Die eingereichten Anträge müssen – bei einem interdisziplinären Konsortium mit jeweils drei bis fünf Partnern – mindestens zwei und maximal drei der Kategorien Algorithmen, System-Software und Laufzeitbibliotheken, Anwendungen, Datenmanagement und -erforschung sowie Programmierung und Software-Werkzeuge adressieren. Besonderes Augenmerk sollte auf die verschiedenen Herausforderungen beim Wechsel von sequentiellen oder moderat parallelen Anwendungen hin zu massiv parallelen Anwendungen gelegt werden. Weitere Informationen: http://www.dfg.de/foerderung/info_wissenschaft/info_wissenschaft_14_57