Geschäftsstelle für die Gauß-Allianz
Ende Juni haben die Landesreferenten der in der Gauß-Allianz beteiligten Standorte eine Strategie zur nachhaltigen Förderung der nationalen HPC-Versorgungssituation sowie der notwendigen Methodenkompetenz diskutiert und sich über die finanziellen Voraussetzungen für die Einrichtung einer Koordinierungsstelle geeinigt. Vorangegangen war eine Empfehlung des Wissenschaftsrats, der ein nachhaltiges Engagement von Bund und Ländern zur Unterstützung des HPC in Deutschland gefordert hatte. Die Gründung der Gauß-Allianz als Dachorganisation für HPC-Aktivitäten war dabei ausdrücklich begrüßt, die Einrichtung einer Geschäftsstelle für die Abwicklung organisatorischer Aufgaben nachdrücklich empfohlen worden. Damit können – anknüpfend an die vorhandene Zusammenarbeit der Zentren – wichtige Entwicklungsschritte strategisch koordiniert und befördert werden. In einem Zeitraum von drei Jahren sollen vor allem die notwendigen Profilierungsmaßnahmen der einzelnen Zentren im Rahmen der Gauß-Allianz-Mitgliedschaft sowie die Entwicklung und Implementierung eines HPC-Portals für Industrie und Mittelstand in enger Abstimmung mit dem Gauss Center for Supercomputing sowie den Mitgliedsinstitutionen zur Verteilung der Anfragen vorangebracht werden.
HLRN-III erhält die zweite Ausbaustufe
Ein Jahr nach der Inbetriebnahme an den Standorten Leibniz Universität Hannover und Konrad-Zuse-Zentrum für Informationstechnik Berlin wird der HLRN-III im September 2014 ausgebaut. Zu den vier XC30 Cabinets der Firma Cray an jedem Standort kommen noch einmal fünf Cabinets mit Haswell-CPUs in Hannover und weitere sechs in Berlin dazu. Das Lustre Work-Dateisystem an jedem Standort wird von 1.4 PiB auf jeweils 3.7 PiB ausgebaut, insgesamt 7.2 PiB mit einer aggregierten Bandbreite von insgesamt 100 GB/s. Nur am Standort Hannover wird auch das dortige SMP-System um 32 Knoten Ivy Bridge auf insgesamt 64 Knoten mit 2304 Kernen und 24 TB Hauptspeicher aufgerüstet. Im MPP-System werden den Nutzern des HLRN-III über beide Standorte hinweg 85248 Prozessorkerne mit insgesamt 222 TB Hauptspeicher bereitstehen. Dies entspricht einer theoretischen Spitzenrechenleistung von etwa 2.5 Peta-Flop/s. Die Anwendungsrechenleistung wird bei zugleichgebliebenem Stromverbrauch verglichen mit dem Vorgängermodell HLRN-II auf etwa das Zehnfache ansteigen. Obwohl die Standorte nacheinander aufgerüstet werden, ist wegen der Abnahmetests mit einer kurzen Unterbrechung zu rechnen, in der der HLRN-III für den Nutzerbetrieb nicht zur Verfügung stehen wird. Der HLRN-III wird mit dieser finalen Ausbaustufe bis August 2018 in Betrieb sein.
LRZ, TUM und Intel gründen gemeinsames IPCC
Das Leibniz-Rechenzentrum (LRZ) und die Fakultät für Informatik der TU München (TUM) gründen gemeinsam mit Unterstützung der Intel GmbH ein Intel Parallel Computing Center (IPCC) „Extreme Scaling on MIC/x86“. Ziel dieses IPCC ist es, die Softwareentwicklung hochparalleler Programmcodes für zukünftige Supercomputer voranzutreiben, die aus einer sehr großen Zahl von Prozessoren mit Koprozessoren bestehen werden. Diese Koprozessoren wie Intels Xeon Phi können aufgrund ihrer spezialisierten Funktionalität bestimmte Aufgaben sehr viel schneller und energieeffizienter rechnen. Vier Programme, die bereits jetzt auf dem SuperMUC mit hervorragender Performance im Peta-Flop/s-Bereich laufen (SeisSol, GADGET, ls1 mardyn und SG++), wurden ausgewählt, um einerseits diese Simulationsprogramme für zukünftige Rechnersysteme zu optimieren und andererseits den Prozess der Entwicklung wissenschaftlicher Software besser zu verstehen und zu modellieren. Die erzielten Ergebnisse und Erkenntnisse werden in die Weiterentwicklung der vier Programme einfließen und der wissenschaftlichen Öffentlichkeit zur Verfügung gestellt.
Molekulardynamische Simulationen zu RNA-Faltung
Numerische Simulationen spielen in den Lebenswissenschaften eine wichtige Rolle, um die betrachteten komplexen Systeme quantitativ zu beschreiben. Molekulardynamische (MD) Simulationen haben sich als vielseitiges Werkzeug etabliert, um die Bewegung und Funktion von Biomolekülen mit atomarer Auflösung nachzuvollziehen. Die Parallelisierbarkeit ist durch die strikt sequentielle Abfolge von Zeitschritten begrenzt und die Skalierbarkeit jedes Zeitschrittes wird durch die Systemgröße beschränkt. Eine große Herausforderung besteht daher darin, Zeitskalen deutlich über dem Mikrosekundenbereich zu erreichen. Durch Vereinfachung der berücksichtigten Wechselwirkungen („coarse-graining“) ist einer Arbeitsgruppe am KIT die MD-Simulation von RNA-Faltung – die Bildung komplexer dreidimensionaler Strukturen auf der Sekundenskala – auf einem regulären HPC System gelungen. Weitere Informationen: www.scc.kit.edu/en/research/MBS.php
Virtuelle Produktentwicklung mit Big Data
Das Vorhaben „Vergleichende Analyse von ingenieur-relevanten Mess- und Simulationsdaten (VAVID)“ wird im Rahmen des BMBF-Förderprogramms „Management und Analyse großer Datenmengen (Big Data)“ gefördert. Ziel des Teams aus Wissenschaftlern des Fraunhofer-Institut SCAI und der TU Dresden sowie Industriepartnern aus dem Windenergiebereich (Bosch Rexroth Monitoring Systems GmbH und General Electric Global Research) und KMUs aus dem Automobilbereich (SCALE GmbH, GNS GmbH und SIDACT GmbH) ist es, neue Techniken für einen effizienten Umgang mit Daten von numerischen Simulationen und Messdaten von Sensoren zu untersuchen. Durch vergleichende Betrachtung solcher Daten können Zusammenhänge und Unterschiede der zugrundeliegenden Objekte aufgedeckt und genutzt werden. Hierzu werden Methoden zur Kompression von umfangreichen Datenbeständen, zur Datenextraktion, zum Datenmanagement, zur effizienten Analyse – jeweils auch mit Hilfe paralleler Datenverarbeitung – sowie zur interaktiven Visualisierung entwickelt und bereitgestellt.
Revision von Industrieanlagen nur bei Bedarf
Unnötige Stillstände und zu kurze Revisionsintervalle führen beim Betrieb von Industrieanlagen zu erheblichen Kosten. Im Rahmen der BMWi-Initiative „Smart Data - Innovationen aus Daten“ startet unter der Leitung von Bayer Technology Services ein Konsortium aus universitären Forschern (TUM), Anlagenbetreibern (Evonik, Bayer), Armaturenherstellern (Samson, Krohne) sowie Software-lieferanten/IT-Dienstleistern (IBM, Gewasoft, Krönhert Infotecs) ein Forschungsvorhaben zur systematischen Analyse der Abnutzung und des Ausfalls von Industriearmaturen. Das Vorhaben „Skalierbares Integrationskonzept zur Datenaggregation, -analyse, -aufbereitung von großen Datenmengen in der Prozessindustrie (SIDAP)“ zielt darauf ab, Daten verschiedener Standorte, Hersteller und Betreiber zu aggregieren und basierend auf dieser Datenvielfalt neuartige Kriterien zur detaillierten Bewertung der individuellen Abnutzung und zur Abschätzung der zulässigen Restlebensdauer zu entwickeln. Zusätzlich steht die Bereitstellung der Daten sowie der daraus resultierenden Ergebnisse im Fokus. Dabei werden von Anfang an Aspekte des Datenschutzes und der Geheimhaltung berücksichtigt.
3. Internationales Big Data Symposium am KIT
Das SCC des KIT ist auch dieses Jahr Gastgeber des internationalen Symposiums „The Challenge of Big Data in Science“ am 7. Oktober. Ziel der Veranstaltung ist es, die großen Herausforderungen, die an das Management und die Analyse großer und wertvoller wissenschaftlicher Datenmengen gestellt werden, zu diskutieren und konkrete Lösungsmöglichkeiten aus aller Welt vorzustellen. Big Data ist nicht nur für die Industrie, sondern auch für eine stark ansteigende Zahl von Wissenschaftszweigen eine Schlüsseltechnologie. Insbesondere die in wissenschaftlichen Großexperimenten produzierten Daten stellen durch ihr Volumen, ihre Vielfältigkeit und Einzigartigkeit sehr hohe Anforderungen an alle Prozesse entlang des gesamten Daten-Lebenszyklus. Der Eröffnungsvortrag wird von Chris Mattmann, NASA Jet Propulsion Laboratory, Pasadena, gehalten. Den Abschlussvortrag hält Ed Seidel vom National Center for Supercomputing Applications, University of Illinois/Urbana-Champaign. Weitere Informationen: http://www.helmholtz-lsdma.de/Symposium2014
Horizont 2020: Technologieförderung für das HPC
Mit der aktuellen IKT-Ausschreibung „Towards exascale high performance computing“ im Programm „Künftige und neu entstehende Technologien“ (FET) adressiert die Europäische Kommission (EC) das gesamte Spektrum der technischen Möglichkeiten für die Bereitstellung und effiziente Nutzung von Exascale-Systemen. Architektur-Kriterien wie Energieeffizienz, Liefermodelle oder die Anforderungen aktueller Anwendungen, insbesondere auch aus dem Bereich Big Data, sollen dabei ebenso gefördert werden, wie neue Methoden, Werkzeuge und Umgebungen für extrem parallele und datenintensive Programmierung. Ein drittes Unterthema der Ausschreibung bilden mathematische und algorithmische Ansätze für bestehende und zukünftige Anwendungen in wissenschaftlichen Fachgebieten wie Physik, Chemie, Biologie, Lebenswissenschaften, Material-, Klima- und Geowissenschaften. Bei einem vorgesehenen Gesamtvolumen von 97,4 Mio. Euro geht die EC davon aus, dass eingereichte Vorhaben mit einem Budget zwischen 2-4 Mio. Euro die Herausforderungen in diesem Bereich angemessen ins Auge fassen können, wobei im Unterthema HPC-Technologien und Architekturen Antragstellungen bis zu 8 Mio. Euro denkbar sind. Anträge müssen bis zum 25. November eingereicht werden. Weitere Informationen: http://gauss-allianz.de/FETHPC-1-2014