L-CSC in Darmstadt auf Platz 1 bei Energieeffizienz
Der neue Supercomputer L-CSC des GSI Helmholtzzentrums für Schwerionenforschung ist weltweit der energieeffizienteste Supercomputer. Im jüngsten Ranking der Green500 belegte der am Frankfurt Institute for Advanced Studies (FIAS) und der Goethe-Universität von Prof. Volker Lindenstruth entwickelte Höchstleistungsrechner mit einer Rechenleistung von 5,27 GigaFlop/s pro Watt den ersten Platz. L-CSC nutzt vor allem eine effiziente Kühlung und handelsübliche Grafikkarten zur Beschleunigung, um Energieverbrauch und Investitionskosten zu reduzieren. Das System ist eine Weiterentwicklung von LOEWE-CSC und SANAM, setzt jedoch noch stärker auf Grafikkarten und optimierte Systemsoftware. Die Investitionskosten für L-CSC betragen rund zwei Millionen Euro. Der Erfolg geht auf den gesamtheitlichen Ansatz zurück: Neben der Performance wird die optimale Nutzung aller zur Verfügung stehenden Ressourcen berücksichtigt wie Energie, finanzielle Aspekte, Hardware, Software und die Kreativität des Teams. Das Cluster besteht aus insgesamt 160 Servern (ASUS ESC4000 G2S/FDR) mit je zwei Intel-Ivy-Bridge-Prozessoren und vier AMD FirePro S9150 Grafikkarten. Jeder Server hat einen Arbeitsspeicher von 256 Gigabyte. Verbunden sind sie über ein Infiniband-FDR-Netzwerk. Weitere Informationen: http://goo.gl/t0zj65
LRZ nimmt SuperMUC Phase 2 in Betrieb
Die Arbeiten zur Inbetriebnahme der Phase 2 des SuperMUC am LRZ in Garching sind in vollem Gange. Zur jetzigen Peak-Performance von 3,2 PetaFlop/s kommen mit Phase 2 weitere 3,6 PetaFlop/s an Rechenleistung hinzu, die von insgesamt 86.016 Cores in 6.144 Intel Haswell-Prozessoren E5-2697 v3 erbracht werden. Das Kommunikationsnetz von Phase 2 basiert auf Mellanox FDR14- und ConnectIB-InfiniBand-Technologie. Der bisherige Hauptspeicher von 288 Terabyte wird um weitere knapp 200 Terabyte erweitert. Außerdem werden weitere 7,5 Petabyte SAN/DAS-Speicher den Nutzern zur Verfügung gestellt. Die Inbetriebnahme der Phase 2 des SuperMUC wird für den Frühsommer 2015 erwartet. Dann stehen den Nutzern nicht nur doppelt so viel Rechenleistung zur Verfügung, sondern sie haben auch Zugang zu Intel-Xeon-Phi-Acceleratoren. Auch die Phase 2 des SuperMUC nutzt eine Warmwasserkühlung. Damit bleibt SuperMUC einer der energieffizientesten Supercomputer der Welt. Weitere Informationen: http://lrz.de/supermuc
News-Stream 3.0 – Echtzeitanalyse und Big Data
Im BMBF-Projekt „News-Stream 3.0: Echtzeitanalyse und Auswertung heterogener Nachrichtenströme mittels Big-Data-Technologien“ erforscht ein Expertenteam aus Forschung und Medienwirtschaft neue Recherchetools, um große Datenmengen aus Videos, sozialen Netzwerken, Blogs und Archiven zu analysieren, zu bündeln und Redakteuren die wichtigsten Informationen automatisiert bereitzustellen. Dazu entwickeln das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) und der Berliner Datenspezialist Neofonie neue Analysetools und bauen eine Big-Data-Infrastruktur zur Echtzeitanalyse und Auswertung heterogener Nachrichtenströme auf. Um diese Systeme bestmöglich für die journalistische Praxis nutzbar zu machen, beteiligen sich die Deutsche Presse-Agentur mit ihrer Tochter dpa-infocom und die Deutsche Welle an der Entwicklung und Konzeption der neuen Techniken, die umfassende Big-Data-Analysen ermöglichen. Als Analysewerkzeuge kommen vor allem Sprachtechnologien wie Text- und Audio-Mining zum Einsatz. Das Forschungsprojekt wird im Rahmen der Ausschreibung: „Management und Analyse großer Datenmengen (Big Data)“ für drei Jahre durch das BMBF finanziert. Weitere Informationen: http://newsstreamproject.org
Management wissenschaftlicher Daten
In dem neuen DFG-gefördeten Forschungsprojekt „Metadata Management for Applied Sciences“ (MASi) wird ab März ein generisches Metadatenmanagement für wissenschaftliche Daten aufgebaut. Anwender unterschiedlicher und heterogener Gebiete begleiten die Umsetzung. Neben der Behandlung der Daten ist auch die effiziente Nutzung von Forschungsinfrastrukturen eine Voraussetzung zur Unterstützung der angewandten Wissenschaften. Die Infrastruktur wird zwischen den Standorten Dresden und Karlsruhe etabliert, um den Betrieb eines generischen, verteilten und nachhaltigen Metadatendienstes zu ermöglichen. Das Metadatenmanagement wird eine verbesserte Datenbeschreibung, eine nachhaltige Sicherung, bessere Wiederauffindbarkeit, entsprechende Aufbereitung zur Weiterverarbeitung und Nutzung der vorhandenen Daten unterstützen. Projektpartner sind das ZIH der TU Dresden (Koordination), das IPE des KIT Karlsruhe, das IÖR Dresden, die RWTH Aachen, LINGLIT TU Darmstadt und die Digitale Akademie Mainz. Weitere Informationen: http://tu-dresden.de/zih/masi
CeBIT 2015 – Vernetzte Welt
Das Themenspektrum der CeBIT 2015 verspricht vom 16. bis 20. März in Hannover neben Zukunftsvisionen zur alles umfassenden Vernetzung oder der Innovation mobiler Endgeräte auch interessante Erkenntnisse zum Bereich Big Data und Cloud. Die vernetzte Welt erzeugt bereits heute eine enorme Datenflut, die es umsichtig zu nutzen, aufzubereiten und zu schützen gilt. Unter diesem Fokus stehen zahlreiche Veranstaltungen, Vorträge, Vorführungen verschiedener Aussteller sowie Fachforen. Die fortschreitende Digitalisierung bedarf vor allem der vielfältigen Projekte und Ideen im Bereich Big Data. Auch Mitglieder der Gauß-Allianz werden ihre Projekte in den verschiedenen Bereichen vorstellen. Ohne Impulse aus der Forschung ist die zunehmende Digitalisierung nicht zu bewältigen und deshalb gehören Forschungseinrichtungen wie Förderer gleichfalls zu den Präsentanten, die ihre Projekte vorstellen werden. Auf den Konferenzforen sollen Chancen und Herausforderungen der digitalen Zukunft beleuchtet sowie Möglichkeiten zur Kontaktaufnahme und gemeinsamen Lösungsfindung geboten werden. Der Veranstalter der Supercomputer- und Cloud&Big-Data-Konferenzen ISC Events wird gemeinsam mit der Deutschen Messe erstmals das Thema High Performance Computing auf die CeBIT bringen. Unter dem Titel „Compute Cluster – The Turbo for CAE Simulations“ wird ein vierstündiges Forum stattfinden. Weitere Informationen: http://cebit.de
PPCES: Parallelprogrammierung an der RWTH Aachen
Vom 16. bis 20. März findet der Parallelprogrammierungskurs PPCES 2015 am IT Center der RWTH Aachen University statt und führt damit die seit 2001 in Aachen gepflegte Tradition der einwöchigen Frühjahrsveranstaltungen fort. Während dieser Woche wird inhaltlich ein weites Spektrum abgedeckt. Dazu gehören Vektorprogrammierung, Parallelisierung von Fortran und C/C++ Programmen mit MPI und OpenMP inklusive Leistungssteigerung, wie auch Korrektheitstest und Fehlersuche inklusive Vorstellung der dazu benötigten Werkzeuge. Ebenso werden aktuelle Themen wie Manycore-Programmierung mit OpenMP 4.0 auf der Intel-MIC-Architektur und Programmierung von GPGPUs mit OpenACC ausführlich vorgestellt. Zu allen Bereichen werden Übungen angeboten; wahlweise können die Teilnehmer auch an der Optimierung der eigenen Codes mit Unterstützung der Mitarbeiter des IT Centers arbeiten. Fallstudien und Gastvorträge runden das Thema ab. Weitere Informationen: http://www.itc.rwth-aachen.de/ppces
Förderstipendien des SCC für SchülerInnen
Im Wintersemester 2014/2015 ist im Rahmen des Projekts „Simulierte Welten“ eine dritte Runde des SCC-Förderstipendiums gestartet. Acht Förderstipendien werden an Schülerinnen und Schüler der Oberstufen des Bismarck-Gymnasiums und des Gymnasiums Neureut in Karlsruhe vergeben. Die Stipendiaten erlernen die Grundlagen der Computermodellierung, des Hochleistungsrechnens und des datenintensiven Rechnens an vier Themen der aktuellen computergestützten Forschung in den Bereichen Klimamodellierung, Kollisionsdatenanalyse in der Hochenergiephysik, Aerosolmodellierung und Proteinfaltung. Die Teilnehmer werden von Mitarbeitern des SCC individuell betreut. Das Projekt „Simulierte Welten“ wird vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg gefördert. Weitere Informationen: http://simulierte-welten.de
International HPC Summer School 2015
Die diesjährige „International Summer School on HPC Challenges in Computational Sciences” findet vom 21. bis 26. Juni in Toronto (Kanada) statt. Die zunächst als US-europäische Sommerschule im Jahr 2010 begonnene Veranstaltung war in den letzten beiden Jahren auf Japan und Kanada ausgedehnt worden. Auch aktuell erfolgt die Organisation und Finanzierung wieder über die Träger Compute/Calcul Canada, PRACE für Europa, RIKEN AICS für Japan, und XSEDE/NSF für die USA. Exzellente Doktoranden und Post-docs wissenschaftlicher Einrichtungen in Europa, den USA, Kanada und Japan sind eingeladen, sich bis zum 11. März um einen Platz zu bewerben. Führende amerikanische, europäische und japanische Wissenschaftler aus den Computational Sciences sowie dem High Performance Computing werden wieder einen weiten Themenbereich abdecken, der sowohl verschiedene Disziplinen, Algorithmen, numerische Bibliotheken, datenintensives Rechnen, Programmierung und Visualisierung beinhaltet. Die Teilnahme ist für die Studenten kostenfrei, ebenso wie Hotelunterbringung, Mahlzeiten und Anreise. Weitere Informationen und Bewerbung: https://ihpcss2015.computecanada.ca