Hessisches Kompetenzzentrum für Hochleistungsrechnen
Mitte März 2014 hat das Hessische Kompetenzzentrum für Hochleistungsrechnen (HKHLR) seine Arbeit aufgenommen. Das HKHLR wird vom Hessischen Ministerium für Wissenschaft und Kunst gefördert und koordiniert das HPC in Hessen an den Universitäten Darmstadt, Frankfurt, Gießen, Kassel und Marburg mit einer Geschäftsstelle in Darmstadt. Aufgaben des HKHLR sind, die vorhandenen HPC-Strukturen in Hessen zu koordinieren, nachhaltig zu etablieren und weiterzuentwickeln. Mit dem Ziel, das HPC-Ökosystem als Infrastruktur und Dienstleistung für die Forschung in Hessen zu verstetigen, sollen standortübergreifende wissenschaftliche Dienstleistungen für die Performanz paralleler Programme und die Produktivität der Programmierung gefördert werden, die Pflege von Software für das HPC vorangebracht und Schulungen angeboten werden. Anfang Juni fand ein interner Kick-Off-Workshop des Kompetenzzentrums statt, bei dem sich alle Mitarbeiterinnen und Mitarbeiter gemeinsam mit den Administratoren der beteiligten Hochleistungsrechner trafen. Weitere Informationen: www.hpc-hessen.de
Neuer Forschungshochleistungsrechner am KIT
Der Forschungshochleistungsrechner ForHLR I ermöglicht Wissenschaftlern aus den Bereichen Umwelt, Energie, Nanotechnologien und Materialwissenschaften die Bearbeitung komplexer Anwendungsprobleme. Als Parallelrechner einer Leistungsklasse (Tier-2) direkt unterhalb der Systeme der nationalen Höchstleistungszentren (Tier-1), schließt er die Lücke zwischen extrem skalierenden Anwendungen und solchen aus dem schwach parallelisierten Bereich. Die Vergabe der Rechenzeit erfolgt über einen gemeinsamen wissenschaftlichen Lenkungsausschuss mit dem HLRS. Das System verfügt über 524 Knoten mit Intel Xeon Prozessoren des Typs E5-2670 v2 für stärker parallelisierte Anwendungen. 16 weitere Knoten mit Intel Xeon Prozessoren des Typs E5-4620 v2 sind für Anwendungen mit hohen Speicheranforderungen vorgesehen. Das von MEGWARE gelieferte System enthält insgesamt mehr als 10000 Rechenkerne. Der Cluster mit 41,1 TByte Hauptspeicher, einem nicht-blockierenden InfiniBand-FDR-Netzwerk sowie mehreren parallelen Lustre-Dateisystemen mit drei Petabyte Kapazität befindet sich derzeit in der Inbetriebnahmephase. Zudem ist der ForHLR I an die Large Scale Data Facility des SCC angebunden, die das Speichern und Verwalten sehr großer Datenmengen erlaubt. Mit dem ForHLR II wird in zwei Jahren auch ein Petaflop-System in Betrieb gehen. Weitere Informationen: http://www.scc.kit.edu/dienste/forhlr.php
SCC installiert HPSS für Big Data
Stark steigende Datenmengen aus der Wissenschaft müssen nach Empfehlung der DFG mindestens 10 Jahre sicher archiviert werden. Um dieser und den erweiterten Anforderungen der Bibliotheken und dem Staatsarchiv in Baden-Württemberg gerecht zu werden, beschafft und installiert das SCC ein Archivierungs- und HSM-System. Mit dem geplanten ‚HPSS‘ bedient das SCC diese und zukünftige Exascale-Anforderungen der Langzeit-Datenspeicherung und fügt eine weitere wichtige Komponente für das Management von wissenschaftlichen Daten in die Infrastruktur des KIT ein. Die Betriebskosten sind verglichen mit der Auslagerung auf drehende Festplatten geringer. Die Helmholtz Gemeinschaft und das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg fördern dieses Projekt. HPSS verbindet Tape-Speicher mit disk caches und ist extrem horizontal skalierbar. In Deutschland ist HPSS auch beim DKRZ, DWD, RZG und dem HLRS in Betrieb. In den kommenden Jahren werden Simulationsdaten von abgeschlossenen Projekten des HLRS und über 20 PB Daten aus dem Betrieb des Grid Computing Centre Karlsruhe (GridKA) und der Large Scale Data Facility (LSDF) in das HPSS migriert.
Hochauflösende Numerik in der Industrie
Numerische Simulationen machen Daten zugänglich, die experimentell nicht ermittelt werden können. Für die Entwicklung von Industrieprodukten bedeutet dies eine Verbesserung von Wirtschaftlichkeit, Umweltverträglichkeit, Lebensdauer und Sicherheit und damit einen entscheidenden Beitrag zur Wettbewerbsfähigkeit. Bei komplexen Strömungsproblemen stoßen die verfügbaren CFD-Simulationswerkzeuge jedoch an ihre Grenzen, da die Software nicht für massiv parallele Simulationen ausgelegt ist. Das Projektteam des vom BMBF seit 2013 für drei Jahre geförderten Projektes „Industrialisierung von hochauflösender Numerik für komplexe Strömungsvorgänge in hydraulischen Systemen (HONK)“ entwickelt eine CFD-Software, die moderne Hardware-Architektur berücksichtigt und ausschöpft. Die Grundlage dafür bildet die CFD-Software FLEXI, die durch den Projektpartner Universität Stuttgart entwickelt wurde. Diese soll für massiv-parallele Anwendungen in der Industrie weiterentwickelt werden, indem u.a. die Kommunikation zwischen den einzelnen Rechenknoten effizienter gestaltet wird. Ziel ist ein Open-Source-Strömungslöser. Die Robert Bosch GmbH, die das Projekt leitet, will diesen Strömungslöser mit eigenen Softwarebibliotheken verbinden, um komplexe Strömungsvorgänge in Bosch-Produkten im Produktentstehungsprozess simulieren zu können. Seitens der Universität Stuttgart sind das Institut für Aero- und Gasdynamik, das Visualisierungsinstitut und das HLRS beteiligt.
Neue Projekte im JARA-HPC Seed Fund
Die Sektion High-Performance Computing der Jülich Aachen Research Alliance (JARA-HPC) hat einen Seed Fund zur Unterstützung neuer Projekte aufgesetzt. Die Projekte sollen einen wesentlichen Bezug zum Höchstleistungsrechnen haben und die Zusammenarbeit zwischen der RWTH Aachen und dem Forschungszentrum Jülich fördern. Im letzten Seed-Fund-Aufruf konnten Mitarbeiter des Forschungszentrums zusammen mit ihren Aachener Kollegen erfolgreich fünf neue Projekte einwerben: „NESTML – A modelling language for spiking neuron and synapse models for NEST“, „Hybrid parallelism for the Jülich DFT code FLEUR“, „Interactive Volume Rendering of Massive Data on the Blue Gene Active Storage Architecture“, „Development of a DEM process model for HPC of vibratory finishing“ und „A method framework for high-performance data mining of Monte Carlo protein simulations“. Diese Projekte werden für zwei Jahre gefördert. An den drei zuletzt genannten sind Wissenschaftler des Jülich Supercomputing Centre beteiligt.
„Smart Data“ Projektförderung des BMWi
Das Bundesministerium für Wirtschaft und Energie (BMWi) hat insgesamt 13 Projekte zur Förderung im Technologieprogramm „Smart Data – Innovationen aus Daten“, das im November 2013 ausgeschrieben worden war, ausgewählt. Daran beteiligt sind innovative Unternehmen unterschiedlichster Branchen – über die Hälfte aus dem Mittelstand – sowie zahlreiche Forschungsinstitute. Rund 30 Mio. Euro an Fördermitteln wurden reserviert, wobei das Programm durch Eigenmittel der Projektpartner insgesamt rund 55 Mio. Euro umfasst. Das BMWi fördert mit „Smart Data“ Forschungs- und Entwicklungsprojekte, um den Wachstumsmarkt Big Data für die deutsche Wirtschaft besser zu erschließen. Neben den technologischen Arbeiten werden im Programm insbesondere rechtliche und gesellschaftliche Herausforderungen wie Fragen des Datenschutzes und der Akzeptanz adressiert und diskutiert sowie entsprechende Lösungsansätze erarbeitet. Die ausgewählten Projekte in den vier Kategorien Industrie, Mobilität, Energie und Gesundheit werden sich auf der Jahrestagung der Gesellschaft für Informatik (GI) am 23. September 2014 in Stuttgart öffentlich präsentieren. Weitere Informationen: www.bmwi.de/DE/Presse/pressemitteilungen,did=642872.html
Internationale Energieeffizienz-Konferenz
Am 1. und 2. September 2014 findet in Dresden die fünfte „International Conference on Energy-Aware High Performance Computing“ (EnA-HPC) statt. Die Konferenz bietet eine gemeinsame Plattform für Forscher, Entwickler, Vertreter der Industrie und Anwender, sich mit den großen Herausforderungen im Energieverbrauch bzw. der Energieversorgung moderner HPC-Systeme auseinanderzusetzen. Das thematische Spektrum der insgesamt 12 Fachvorträge der EnA-HPC 2014 reicht von der Analyse und Optimierung der Energie-Effizienz von Hardware und Software über die Modellierung und Simulation des Stromverbrauchs von Anwendungen bis zu ökologischen und ökonomischen Belangen des Betriebs von Rechenzentren. Den Eröffnungsvortrag wird Jeffrey S. Vetter von der Future Technology Group des Oak Ridge National Laboratory halten. Die diesjährige Konferenz wird zum zweiten Mal vom ZIH der TU Dresden in enger Kooperation mit dem DKRZ organisiert. Weitere Informationen und Registrierung: http://www.ena-hpc.org
Kick-Off-Workshop des HKHLR in Darmstadt
Am 22. und 23. September findet in Darmstadt ein Workshop für die Nutzung der hessischen Hochleistungsrechner statt. Es ist die erste öffentliche Veranstaltung des Hessischen Kompetenzzentrums für Hochleistungsrechnen (HKHLR) und bietet wissenschaftliche Vorträge und Sessions zu Parallelisierungs-Techniken und -Strategien mit der Möglichkeit Codes für das parallele Rechnen zu erzeugen, diese effizient für die eigene Wissenschaft einzusetzen und für zukünftige Anwendungen weiterzuentwickeln. Weitere Informationen: www.hpc-hessen.de