Erste Stufe des ForHLR am KIT in Betrieb
Seit dem 29. September steht die erste Stufe des Forschungshochleistungsrechners ForHLR für die Bearbeitung komplexer Anwendungsprobleme zur Verfügung. Der am Steinbuch Centre for Computing (SCC) installierte Parallelrechner rangiert in der Leistungs-klasse 2 (Tier-2-System). Die Ressourcenvergabe auf dem ForHLR erfolgt durch einen gemeinsam mit dem HLRS genutzten Lenkungsausschuss aus Wissenschaftlern unterschiedlicher Fachdisziplinen. Vier Projekte aus den Fachbereichen Chemie, Festkörperphysik und Strömungsmechanik wurden bereits genehmigt und können den ForHLR nun umfassend nutzen. Die zweite Stufe befindet sich derzeit im Ausschreibungsverfahren mit Teilnehmerwettbewerb. Der Bau des zugehörigen Rechnergebäudes schreitet plangemäß voran. Weitere Informationen: http://www.scc.kit.edu/dienste/forhlr.php
Neues HPC-Kompetenzzentrum an der JGU Mainz
Die Carl-Zeiss-Stiftung fördert in den kommenden vier Jahren an der Johannes Gutenberg-Universität (JGU) Mainz mit 750.000 Euro den Aufbau des „Kompetenzzentrums für HPC in den Naturwissenschaften“. Das Zentrum wird unter Leitung von Prof. Dr. Bertil Schmidt und Prof. Dr. André Brinkmann die Forschungsarbeiten in den Bereichen Big Data und HPC an der JGU bündeln und sich der interdisziplinären Kooperation mit den Anwendern widmen. Im Sinne einer translationalen Forschung wird das Zentrum in den Naturwissenschaften die erfolgreiche Übertragung informatischer Forschung, d.h. Entwurf, Implementierung und Evaluierung von skalierbaren Methoden zur Auswertung und Speicherung großer Datenmengen, in die Naturwissenschaften ermöglichen. Während Implementierung, Erweiterung und Wartung von Programmen in dem Zentrum klare Serviceaspekte aufweisen, sind Methodenentwurf und optimale Anpassung der Programme an moderne HPC-Rechnerarchitekturen mit interessanten Forschungsproblemen verbunden. Das Kompetenzzentrum wird insbesondere in den Anwendungsgebieten Bioinformatik, Analyse großer Datenmengen aus Teilchenbeschleunigern, Identifikation und Lokalisierung meteorologischer Strukturen sowie Geowissenschaften arbeiten. Die Informationschwerpunkte liegen in den Bereichen Beschleuniger, Benchmarking und Anwendungsoptimierung, Data-Mining und Visual Analytics. Die Erstellung geeigneter Programmbibliotheken soll eine möglichst umfangreiche Wiederverwendung der Resultate ermöglichen.
Pilotbetrieb eines Smart Data Innovation Lab am KIT
Zahlreiche Partner aus Industrie und Wissenschaft haben das Smart Data Innovation Lab (SDIL) ins Leben gerufen, um durch eine enge Zusammenarbeit von Industrie und Wissenschaft die Voraussetzungen für Spitzenforschung im Bereich Big Data zu verbessern. Aktuelle Herausforderungen aus den Gebieten Industrie 4.0, Energie, Smart Cities und Medizin werden in Data Innovation Communities bearbeitet, für die das SCC die Forschungsplattform betreibt und die benötigten Big-Data-Werkzeuge der Technologiepartner zur Verfügung stellt. So steuern SAP und die Software AG ihre jeweiligen in-memory Datenbanken HANA und Terracotta bei; IBM bringt seine Watson Foundations für Big-Data-Analysen auf hauseigenen Power-Systemen ein. Weitere Technologieprovider werden folgen. Seit September sind die ersten SDIL-Komponenten einsatzbereit und befinden sich mit ausgewählten Industriepartnern im Pilotbetrieb. Dies ist ein weiterer Meilenstein, um die hohen Erwartungen der beteiligten Partner zu erfüllen: nämlich aus Big Data tatsächlich auch Smart Data zu machen. Weitere Informationen: http://www.sdil.de
TU Dresden und Intel forschen gemeinsam
Das ZIH und Intel haben gemeinsam das Intel Parallel Computing Center (IPCC) Dresden zur Softwareentwicklung hochparalleler Programme gegründet. Im Rahmen der Kooperation werden am ZIH zwei Teilprojekte mit einer gemeinsamen Herausforderung bearbeitet: die automatische Erzeugung eines parallelen Quellcodes, der insbesondere für Intels Many-Core-Architektur optimiert ist. Während die Entwicklung von Lösern für Strömungsdynamik TAU und TRACE in Kooperation mit dem DLR und T-Systems erfolgt, wird die Portierung des OpenModelica-Compilers zur Modellierung allgemeiner wissenschaftlicher und ingenieurtechnischer Probleme in Kooperation mit Bosch-Rexroth und der ITI-GmbH realisiert. Weitere Informationen: http://tu-dresden.de/zih/ipcc/press-release
Schnelles, fehlertolerantes Exascale-Computing
Das DFG-Projekt „A Fast and Fault-tolerant Microkernel-based System for Exascale Computing (FFMK)“ widmet sich wichtigen Herausforderungen zukünftiger Exascale-Systeme. Diese sind hohe Anfälligkeit gegenüber temporären Fehlern und Ausfällen von Systemkomponenten sowie Leistungseinbußen durch unzureichende Lastbalancierung und Beeinträchtigung durch das Betriebssystem (OS-Noise). Dazu werden drei Technologien integriert: Hauptspeicherbasiertes Checkpoint/Restart mit fehlerkorrigierenden Codes, um der steigenden Ausfallrate zu begegnen, Lastbalancierung von HPC-Anwendungen durch aus dem Cluster-Managementsystem MosiX bekannten Verfahren sowie ein auf dem Mikrokern L4 basierendes Betriebssystem. Ziel ist die Konstruktion eines sich weitgehend selbst organisierenden Systems für Exascale-Anwendungen. Ein limitierter Prototyp soll innerhalb der ersten Förderperiode des DFG-Schwerpunktprogramms SPPEXA entwickelt und anhand geeigneter HPC-Anwendungen evaluiert werden. Projektpartner sind die Technische Universität Dresden, das Zuse-Institut Berlin und die Hebrew University of Jerusalem. Weitere Informationen: http://ffmk.tudos.org
HPC-Status-Konferenz der Gauß-Allianz in Aachen
Die Gauß-Allianz veranstaltet am 8. und 9. Dezember 2014 an der RWTH Aachen University ihre vierte HPC-Status-Konferenz. Diese Veranstaltung bietet Wissenschaftlern und Anwendern eine Plattform zum interdisziplinären Austausch über aktuelle Forschungsprojekte und Fragestellungen zum Thema anwendungsorientierte HPC-Software. Im Mittelpunkt werden insbesondere die aktuell durch das BMBF in diesem Bereich geförderten Forschungsprojekte stehen. Zwei Keynote-Talks aus Industrie- und Politikumfeld werden das Programm abrunden. Weitere Informationen: www.gauss-allianz.de/hpc-statustagung-2014
Europäische IPCC User Forum Conference am ZIB
Anfang September trafen sich mehr als 30 Wissenschaftler 12 europäischer Intel Parallel Computing Center (IPCC) zur EMEA IPCC User Forum Conference im Zuse-Institut Berlin zu einem intensiven Erfahrungsaustausch über den Einsatz der Intel Many-Integrated-Core (MIC) Architektur für hochparallele Anwendungen. Anhand ausgewählter Schlüsselanwendungen demonstrierten Anwender die Leistungsfähigkeit der Intel Xeon Phi Prozessoren in den Bereichen Astrophysik, Molekulardynamik, Materialforschung und Nanowissenschaften, Seismik, Strömungsmechanik, Thermodynamik sowie Umwelt- und Erdsystemforschung. Hier wurden zum Teil beachtliche Leistungssteigerungen durch den Einsatz der Intel Xeon Phi Prozessoren erzielt. Darüber hinaus wurden neue Ergebnisse aus der Grundlagenforschung zur Programmierung von Rechnersystemen aus der Intel MIC-Architektur präsentiert. Unterstützt wurde die Veranstaltung durch die Firma Intel, deren Mitarbeiter einen Ausblick auf die Weiterentwicklung der Intel MIC-Architektur gaben und für Fachfragen zur Verfügung standen. Viele Teilnehmer nutzten am zweiten Tag die Gelegenheit, in einem Hands-on-Training ihre Kenntnisse im Umgang mit Werkzeugen zur Programmoptimierung der Intel Xeon Phi Prozessoren zu vertiefen.
Workshop zum Hessischen Hochleistungsrechnen
Organisiert vom Hessischen Kompetenzzentrum für Hochleistungsrechnen (HKHLR) trafen sich in Darmstadt Wissenschaftler aus ganz Hessen zum zweiten High Performance Computing (HiPerCH) Workshop. Ein weites inhaltliches Spektrum erreichte die Zuhörerschaft von Professoren, PostDocs, Doktoranden und Studierenden. Die Vorstellung von Anwendungsprogrammen aus den Bereichen Strömungsmechanik und elektromagnetische Felder motivierten dazu Rechnerarchitekturen effizient zu nutzen. In Vorträgen von Experten verschiedener deutscher Universitäten und Hochleistungsrechenzentren (TU Darmstadt, TU Dresden, HLRS Stuttgart, RWTH Aachen) und der Industrie (CRAY Inc.) wurden Hardware-Konzepte und deren Auswirkungen auf die Performanz paralleler Programme dargelegt. Neben der Klärung von Begriffen, wurden auch Werkzeuge zur Beurteilung paralleler Effizienz von Software erläutert. Welche Möglichkeiten die NAG-Bibliothek bietet, die auf dem Lichtenberg-Cluster in Darmstadt zur Verfügung steht, wurde in einem Vortrag von einem NAG-Mitarbeiter präsentiert. Des Weiteren wurden die beiden großen Cluster in Darmstadt (Lichtenberg-Rechner) und Frankfurt (FUCHS, LOEWE) vorgestellt sowie Nutzergruppen-Treffen zu HPC-Software-Themenbereichen initiiert. Weitere Informationen: www.hpc-hessen.de
12. Internationale GridKa Summer School
Vom 1. bis 5. September veranstaltete das SCC zum zwölften Mal die internationale GridKa Summer School. Die Schwerpunkte lagen wie schon im Vorjahr auf den Themen Big Data, Cloud Computing und moderner Programmierung sowie Parallel Computing. Über 150 Teilnehmer aus verschiedenen Wissenschaftsfeldern aus 17 Nationen sowie aus der Industrie nahmen an den zahlreichen praxisorientierten Kursen und Fachvorträgen teil. Weitere Informationen: http://gridka-school.scc.kit.edu