Dezember 2014/Januar 2015

Gauß-Allianz Infobrief - Ausgabe 32

Kompetenzzentrum „Berlin Big Data Center“ gestartet

Im Rahmen des vom BMBF geförderten Kompetenzzentrums „Berlin Big Data Center“ (BBDC) unter der Federführung der Technischen Universität Berlin werden die Konsortialpartner Konrad-Zuse-Zentrum für Informationstechnik (ZIB), Fritz-Haber-Institut der Max-Planck-Gesellschaft, Beuth Hochschule und Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) in den Jahren 2014 bis 2018 neuartige und automatisch skalierbare Technologien entwickeln, welche tiefgreifende Analysen von Big Data ermöglichen. Das BBDC verfolgt hierbei das Ziel, die bisher getrennt nebeneinander existierenden Forschungsgebiete Maschinelles Lernen und Datenmanagement zu verschmelzen. Es gilt, ein deklaratives, hoch-skalierbares Open-Source-System zu entwickeln, das in der Lage ist die Spezifikation, automatische Optimierung, Parallelisierung und Hardware-Adaption sowie die fehlertolerante, effiziente Ausführung verschiedener Datenanalysemethoden (z. B. des Maschinellen Lernens, der linearen Algebra, der Statistik, der Wahrscheinlichkeitstheorie, der Computerlinguistik sowie der Signalverarbeitung) durchzuführen. Die Technologie wird exemplarisch anhand der Anwendungsbereiche Materialforschung, Medizin sowie Informationsmarktplätze validiert. Darüber hinaus wird das BBDC mittels Wissens- und Technologietransfer Innovation in Firmen und Start-ups unterstützen. Weitere Informationen: http://www.bbdc.berlin/

HLRS-Supercomputer Hornet „up and running“

Im November ging am Höchstleistungsrechenzentrum Stuttgart (HLRS) der neue Supercomputer „Hornet“ in Betrieb. Hornet, ein CRAY XC40-System, umfasst in der aktuellen Konfiguration 21 Cabinets mit insgesamt 3.944 Rechenknoten, die jeweils mit zwei Intel Xeon („Haswell“) Prozessoren bestückt sind und über das neue Hochgeschwindigkeits-Netzwerk Cray Aries Interconnect miteinander kommunizieren. Die insgesamt 94.656 Rechenkerne erbringen eine Spitzenrechenleistung von 3,8 PetaFlops (Billiarden Rechenoperationen pro Sekunde). Der neue HLRS-Supercomputer bietet 493 Terabyte an Hauptspeicher und eine Gesamt-Speicherkapazität von 5,4 Petabyte, auf die mit Geschwindigkeiten (I/O) von bis zu 150 Gigabit/s zugegriffen werden kann. Hornet, der in der aktuellen Liste der schnellsten Supercomputer der Welt (TOP500) auf Platz 16 debütierte, ersetzt planmäßig den bisherigen Supercomputer Hermit, ein CRAY XE6-System. Um eine reibungslose Migration der Anwendungen auf die neue Technologie zu gewährleisten, werden die beiden Rechner bis zum Jahresende im Parallelbetrieb gefahren. Anfang 2015 wird Hermit sukzessive deinstalliert.

Terabit-Demonstrator zwischen Dresden und Stuttgart

Gemeinsam mit den Industriepartnern Adva Optical Networking, Brocade Communications Systems und der Deutschen Telekom haben das HLRS und das ZIH im November auf der Supercomputing-Konferenz 2014 in New Orleans einen Terabit-Demonstrator betrieben. Dieses Projekt wurde als ‚Open Innovation Ecosystem‘ betrieben, sodass jeder Partner die Kosten seiner Beiträge selbst getragen hat. Für den Betrieb wurde die Infrastruktur des durch das BMBF geförderten Projektes „Safe and Secure European Routing“ genutzt; die Anbindung an SASER wurde von Adva übernommen. Mithilfe der Brocade-Switches wurden zehn 100-Gigabit-Leitungen zu einem logischen Link zusammengefasst, sodass eine Datenübertragung von bis zu einem Terabit/s zwischen Dresden und Stuttgart in einer multi-vendor Umgebung über eine Strecke von ca. 1.000 km möglich wurde. Um realistische Datenströme zu simulieren, kam ein Mix aus verschiedenen Anwendungen zum Einsatz. Neben Software des ZIH auf Basis von Score-P wurden durch das DKRZ auf den 28 Servern des ZIH durch Simulation Klimadaten berechnet, welche dann unter Nutzung des Programms UFTP (UNICORE-FTP) über die Terabit-Leitung nach Stuttgart transferiert wurden.

Datenwertschöpfungsketten für die Industrie

Im Technologiewettbewerb des Bundesministeriums für Wirtschaft und Energie (BMWi) „Smart Data – Innova-tionen aus Daten“ wurden 13 von 130 Einreichungen zu Anwendungen der Datenanalytik in den Bereichen Industrie, Mobilität, Energie und Gesundheit für die Förderung ausgewählt. Darunter das Projekt Smart Data Web, das erstmals Daten und neueste Technologien aus Web 3.0, Big Data und Industrie 4.0 systematisch zusammenführt. Anwendungsbeispiele sind Lieferkettenmanagement und Marktforschung. Für beide Anwendungen sollen frei verfügbare Informationen zu Firmen, Produkten, Liefer- bzw. Vertriebswegen aus Nachrichten, sozialen Medien und öffentlichen Datenquellen erschlossen und ausgewertet werden. Wenn sich die Quellen der Datensammlung und -vorverarbeitung sowie die Arten und Stufen der Analyse auf mehrere Dienste bzw. Anbieter verteilen, ergeben sich ganz neue Wertschöpfungsketten. Das DFKI ist Konsortialführer des Projekts. Weitere Partner sind Siemens, Neofonie, VICO Research & Consulting und uberMetrics sowie aus der Forschung die Universität Leipzig und die Beuth Hochschule für Technik Berlin.

Europäische Big Data Forschungsförderung

Die Europäische Union hat im Förderprogramm ICT 2015 – Information and Communications Technologies am 15. Oktober einen Aufruf zur Einreichung von Projektanträgen zur Big-Data-Forschung (ICT-16-2015) ausgeschrieben. Bis zum 14. April 2015 können Anträge zu grundlegenden Themen wie Skalierung und Ansprechverhalten von analytischen Methoden (z. B. privacy-aware, Maschinelles Lernen, Sprachverstehen und -verarbeitung, Data Mining und Visualisierung großer Datensätze, Optimierungsstrategien, Vorhersagealgorithmen) eingereicht werden. Ausdrücklich erwünscht ist die Beteiligung von Industriepartnern, um die Vorhersagefähigkeit der entwickelten Verfahren zu validieren und qualitativ zu beschreiben. Die dafür nötigen extrem großen sowie heterogen strukturierten und unstrukturierten Datensätze sollten bevorzugt aus dem europäischen Raum stammen, z. B. vom European Union Open Data Portal (http://open-data.europa.eu/) oder anderer europäischer Open-Data-Quellen.

Workshop zum Thema „Sparse Solvers for Exascale“

Das von der DFG im Schwerpunktsprogramm „Software for Exascale Computing“ (SPPEXA) geförderte Projekt „Equipping Sparse Solvers for Exascale“ (ESSEX) richtet vom 23. bis 25. März 2015 einen Workshop am Alfried-Krupp Wissenschaftskolleg in Greifswald aus. Die Veranstaltung mit dem Titel „Sparse Solvers for Exascale: From Building Blocks to Applications“ wird einen Überblick über den Stand der Wissenschaft auf dem Gebiet hochskalierender Löser für dünn besetzte Probleme geben. Namhafte Experten wie Satoshi Matsuoka (TITECH), Yousef Saad (University of Minnesota), Marlis Hochbruck (KIT), Horst Simon (LBNL) und Edmond Chow (Georgia Tech) werden mit Präsentationen den Rahmen für wissenschaftliche Kurzvorträge, Diskus-sionen und Poster-Präsentationen bilden. Weitere Informationen und Anmeldung: http://tinyurl.com/exascale15

MPSoC-Winterschool 2014

Die Technologie-Entwicklung treibt die Innovation auch bei eingebetteten Systemen. Inzwischen werden in diesem Bereich komplexe Multi-Prozessor-Systeme auf Chip-Basis (MPSoC) sehr energieeffizient in vielfältigen Anwendungsgebieten (z. B. für Multimedia-Anwendungen, Telekommunikations-Architekturen, in der Netzwerk-Sicherheit etc.) eingesetzt. Auf der diesjährigen MPSoC-Winterschool 2014 vom 24. bis 28. November trafen sich in Tunis Spezialisten aus verschiedenen Bereichen zum wissenschaftlichen Austausch über dieses Thema. Der Schwerpunkt lag auf dem Design und der Programmierung derartiger Systeme. Das Programm bot neben wissenschaftlichen Vorträgen einen Workshop sowie Diskussionsrunden, insbesondere über den vermeintlichen Gegensatz, aber auch Gemeinsamkeiten von MPSoC und HPC. Die vom DAAD gestützte Winterschule hatte insbesondere die Förderung des wissenschaftlichen Austauschs zwischen Deutschland und Tunesien zum Ziel, um den Grundstein für zukünftige gemeinsame wissenschaftliche und wirtschaftliche Kooperationen zu legen.

Tools Guide des VI-HPS

Das Virtual Institute – High Productivity Supercomputing (VI-HPS) hat sich zum Ziel gesetzt, den Entwicklungsprozess komplexer Simulationscodes in Wissenschaft und Technik zu beschleunigen und deren Qualität zu verbessern. Der Zusammenschluss von zwölf Partnerinstitutionen widmet sich aktuellen Forschungsthemen im Hochleistungsrechnen. Insbesondere entwickeln die Partner integrierte Programmierwerkzeuge nach modernsten Standards, die Anwendungsentwickler bei der Diagnose von Programmierfehlern und der Leistungsoptimierung ihrer Simulationscodes unterstützen. Mit dem im Oktober erschienenen Tools Guide stellt das virtuelle Institut einen Übersichtskatalog der von den Partnern entwickelten Werkzeuge zur Verfügung. Der Tools Guide enthält eine nach Paradigmen, Funktionen und anderen Kriterien kategorisierte Darstellung der einzelnen Werkzeuge. Die kompakt strukturierte Präsentation ermöglicht es Nutzern, rasch das passende Werkzeug für ihren Bedarf zu identifizieren und ihre Anwendungen effektiv zu überprüfen und zu verbessern. Darüber hinaus veranstaltet das virtuelle Institut regelmäßig Trainingsworkshops, in denen die Teilnehmer den Umgang mit den Werkzeugen erlernen können. Weitere Informationen: http://www.vi-hps.org/tools/