Das vom BMBF seit 2014 geförderte Berlin Big Data Center (BBDC) startete – nach positiver Evaluation des bisherigen Projektes – im September in seine dreijährige zweite Förderphase mit einem leicht erweiterten Konsortium aus TU Berlin, TU Braunschweig, ZIB, Charité, DFKI und assoziierten Partnern. In der zweiten Phase soll die erfolgreiche Forschung, Entwicklung und Lehre von Big-Data-Technologien der nächsten Generation im Kontext verschiedener Anwendungsdisziplinen aus der Wissenschaft und Industrie weiter fortgesetzt werden. Als neue Herausforderungen kommen insbesondere Aspekte heterogener, geographisch verteilter Daten und ihre echtzeitnahe Verarbeitung und Analyse, Datensouveränität, effiziente, inkrementelle Datenanalyse aus unzähligen, kontinuierlichen Datenquellen, und die Fehler- und Leistungsanalyse als weitere Schwerpunkte des BBDC2 hinzu. Das ZIB konzentriert sich auf die Analyse verteilter biomedizinischer Massendaten und deklarativem Datenmanagement für eine konsistente Zustandsverwaltung für die Datenstromanalyse. Anwendungen und die zu entwickelnde Workflow-Umgebung sollen die Nutzung von Datensätzen abstrakt definieren. Hinzu kommen Anforderungen an Redundanz-, Konsistenz- und ggf. geographische Verteilungseinschränkungen mit dem Ziel, die verfügbaren Ressourcen effizient nutzbar zu machen, ohne dass Anwendungswissenschaftler/-innen Expertise für Algorithmen des verteilten Datenmanagements besitzen müssen. Weitere Informationen: http://www.bbdc.berlin