HPC matters ::: Knowledge- & Technologytransfer
DE | EN

6. HPC-Status-Konferenz der Gauß-Allianz
Deutsches Elektronen-Synchrotron DESY, Hamburg, 28. - 29. Nov. 2016

Go to first section
Am 28. und 29. November 2016 findet am Deutschen Elektronen-Synchrotron DESY in Hamburg die sechste HPC-Status-Konferenz der Gauß-Allianz statt.

Die HPC-Status-Konferenz bietet Wissenschaftlern und Anwendern eine Plattform zum interdisziplinären Austausch zu aktuellen Forschungsaktivitäten und Fragestellungen im Bereich des Hoch- und Höchstleistungsrechnens in Deutschland (HPC). Im Mittelpunkt stehen insbesondere die durch das BMBF in diesem Bereich geförderten Forschungsprojekte für anwendungsorientierte HPC-Software. Begleitet werden die Programmpunkte durch den Community-übergreifenden Austausch von Ansätzen und Lösungen.

Die Einladung richtet sich an alle Nutzergruppen sowie Interessierte, die bereits heute oder in Zukunft Hoch- und Höchstleistungsrechnen nutzen bzw. nutzen wollen. Ein Ziel der HPC-Status-Konferenz ist dabei auch die Vernetzung der Communities auf dem Gebiet des Forschungsschwerpunktes Hochleistungsrechnen.

Registrierung

Die Konferenzgebühr beträgt 119 € (inkl. 19 % MwSt.). Bitte melden Sie sich bis zum 8.November 2016 hier im Konferenzsystem an.
 
 
Hotels
Unter dem Stichwort "Gauß-Allianz" halten wir für Sie Zimmerkontingente bis Ende Oktober bereit. Bitte reservieren Sie diese selbstständig bei folgenden Hotels:

DESY Hostel
Entfernung zum Veranstaltungsort: 0,8 km, ca. 10 Fußwegminuten
20 Einzelzimmer mit Bad für € 31

Mercure-Hotel
Entfernung zum Veranstaltungsort: 1 km, ca. 10 Fußwegminuten
60 Einzelzimmer inkl. Frühstück, Tiefgaragenplatz, WLAN und Benutzung der Sauna und des Schwimmbades für € 96,25
20 Komfortzimmer wie oben und zusätzlich ruhige Innenhoflage und eine Flasche Wasser für € 116,25

B&B-Hotel
Entfernung zum Veranstaltungsort: 4 km mit dem Auto und ca. 25 Minuten mit Öffentlichen Verkehrsmitteln (Metrobus 3 von Schützenstr. bis Bahrenfeld Trabrennbahn, alle 10 Min.)
10 Einzelzimmer mit großem französischen Bett für € 58, Frühstück für € 7,50



 
 
Programm
Beginn: 28.11.2016, 10:30Uhr
Voraussichtliches Ende: 29.11.2016, 17:00Uhr
Ort: Flash-Seminarraum, 2. OG, Gebäude 28c

Das aktuelle Programm finden Sie hier sowie auf der Indico-Seite der Konferenz.

Monday, November 28, 2016

10:00 -10:30
Registrierung
28.11.16, 10:00
10:30 -10:35
Begrüßung
Prof. Dr. Volker Gülzow
28.11.16, 10:30
Abstract
Begrüßung zur 6. HPC-Status-Konferenz der Gauß-Allianz
10:35 -11:00
Eröffnung und Vorstellung des DESY
Prof. Dr. Joachim Mnich
28.11.16, 10:35
Abstract
Eröffnung der 6. HPC-Status-Konferenz der Gauß-Allianz und Vorstellung des DESY
11:00 -11:15
Die Gauß-Allianz
Prof. Dr. Wolfgang E. Nagel
28.11.16, 11:00
Abstract
Kurzübersicht über die Gauß-Allianz und ihre Aktivitäten
11:15 -12:00
Keynote: Effizientes Simulieren plasmabasierter Teilchenbeschleuniger auf Hochleistungsrechnern
Dr. Timon Mehrling
FLA, DESY
28.11.16, 11:15
13:30 -14:00
Manual and Automatic Energy Tuning for HPC Codes
Prof. Dr. Michael Gerndt; Prof. Dr. Kai Diethelm
Lehrstuhl für Rechnertechnik und Rechnerorganisation, Technische Universität München; GNS mbH
28.11.16, 13:30
Abstract
We present the results of the BMBF project Scalable Tools for the Analysis and Optimization of Energy Consumption in HPC (Score-E) (Grant No. 01IH13001; October 2013–September 2016). Specifically, within the framework of this project the established performance analysis tools Vampir, Scalasca and Periscope Tuning Framework (PTF) and their joint underlying measurement infrastrcuture Score-P have been extended; in addition to their traditional features they now contain the capability to investigate HPC codes with respect to their energy requirements. Moreover, the project developed concepts and tools for reducing the energy consumption of HPC applications. For example, a new energy tuning plugin for PTF was designed and implemented. This plugin searches for the best settings of important tuning parameters such as the number of processes and threads as well as the clock frequency. Furthermore, since not all energy related data that may be relevant for tuning and optimization purposes is accessible for direct measurements, appropriate models have been developed that allow a reliable prediction of the code’s behaviour in such cases too. Other key outcomes of Score-E are Extra-P, a tool for the automatic detection of unintentionally poor scalability behaviour, and the Performance Visualization Toolkit (pvt), a software system that adds a significant amount of new possibilities for visualizing the performance and energy measurement data. This includes, among others, automatic tools that support the user in analyzing the measurements, thus simplifiying the search for bottlenecks, and the possibility to display performance data on the real geometry of the simulated process, hence improving the understanding of the connections between the behaviour of the code under investigation and the properties that are currently being simulated. Finally we indicate currently ongoing activities that extend the results from Score-E, in particular with respect to the automation of the tuning workflow, thus relieving the software developer from this possibly highly time-comsuming task.
14:00 -14:30
ELP - Effektive Laufzeitunterstützung für zukünftige Programmierstandards
Tim Cramer
IT Center, RWTH Aachen
28.11.16, 14:00
Abstract
Hybride Parallelisierung, also die Kombination von MPI und OpenMP und ggfs. einem weiteren Paradigma zur Programmierung von Beschleunigern bzw. Vektoreinheiten wird zunehmend wichtiger, um moderne Cluster effizient ausnutzen zu können. Im Rahmen von ELP wird unter Zuhilfenahme von Methoden der Compiler- und Laufzeittechnologie eine effektive Laufzeitunterstützung entwickelt, um leistungsfähige Softwarewerkzeuge in den Arbeitsfluss zu integrieren und insgesamt die Komplexität der Entwicklung paralleler Programme zu reduzieren. Ein besonderer Schwerpunkt liegt auf der Unterstützung der aktuellen Standards OpenMP 4.0 und OpenACC, welche die Programmierung von Beschleuniger- bzw. Vektoreinheiten moderner Rechnerarchitekturen unterstützen und standardisieren. In diesem Vortrag präsentieren wir die Beiträge von ELP zur Weiterentwicklung und Verbreitung der beiden Standards sowie zur Korrektheits- und Performanceanalyse hybrid-paralleler Programme mit den Werkzeugen MUST und VAMPIR.
14:30 -15:00
FEPA - A framework for systematic energy and performance analysis
Thomas Röhl
28.11.16, 14:30
Abstract
Mit wachsender Komplexität von HPC Systemen steigt der Bedarf die Rechenknoten sowie deren Vernetzung zu überwachen. Für die generelle Systemüberwachung existieren bereits einige ausgreifte Softwarelösungen. Die Möglichkeiten für Benutzer ihre eigenen Berechnungen zur Laufzeit zu überwachen sind jedoch zumeist eingestränkt. Desweiteren bieten diese Systeme zumeist nur knotenweite Datenerfassung mit Konzentration auf Ressourcenverbrauch, während die Möglichkeit Performancemetriken sowie Applikationsmetriken zu erfassen oft nicht realisiert ist. Der FEPA Monitoring Stack bietet neben System-, Job- und Performanceüberwachung auf Systemebene auch Möglichkeiten für Benutzer applikationsspezifische Metriken und Events im Monitoringsystem abzulegen und sich grafisch aufbereiten zu lassen. Im Rahmen des Abschlussvortrags wird der FEPA Stack vorgestellt und dessen zukünftige Weiterentwicklung umrissen und zur Diskussion gestellt.
15:30 -16:00
FaST: Lessons learned beim Aufbau hochskalierender, dynamischer Systeme
Prof. Dr.-Ing. André Brinkmann
28.11.16, 15:30
Abstract
"Find a Suitable Topology for Exascale Applications" (FaST) ist ein Forschungsprojekt, das vom Bundesministerium für Bildung und Forschung bis Ende 2016 gefördert wird. Es beschäftigt sich mit der zeitlichen und räumlichen Platzierung von Prozessen in Hochleistungsrechnern der Zukunft. Grundannahme ist, dass sich der aktuelle Trend in der Hardwareentwicklung fortsetzen wird und die CPU-Leistung deshalb deutlich schneller als andere Ressourcen wie die I/O-Leistung wachsen wird. Um zu verhindern, dass diese Ressourcen zu Engpässen im System werden, wurden neue Scheduling-Ansätze entwickelt, die Systemressourcen überwachen und lokale Anpassungen an der Jobverteilung vornehmen. Im Rahmen dieses Abschlussvortrags werden die einzelnen Systemkomponenten, deren Integration sowie die in dem Projekt gemachten Erfahrungen vorgestellt.
16:00 -16:30
MyThOS – Betriebssystem für dynamische und hochskalierbare Anwendungen
Lutz Schubert
Institut für Organisation und Management von Informationssystemen, Universität Ulm
28.11.16, 16:00
Abstract
Traditionelle Betriebssysteme sind ungeeignet für den Grad an Skalierbarkeit und Heterogenität den derzeitige und künftige Many-Core Prozessoren aufweisen. Mit MyThOS haben wir ein Betriebssystem realisiert, das auf hohe Skalierbarkeit und minimalen Overhead und Ressourcen-Bedarf ausgelegt ist, was es ideal für eingebettete und hochskalierbare Systeme macht. Es zeichnet sich insbesondere dadurch aus, dass praktisch ohne Zeitverlust neue Threads instanziiert und sogar migriert werden können, als auch dass es Systemprozeduren, Speicher und Kommunikationsschnittstellen effizienter verwaltet. Wir können zeigen, dass MyThOS deutlich effizienter als Linux ist und dank seiner Architektur für verschiedenste skalierbare und verteilte Anwendungen geeignet ist.
16:30 -18:30
Führung European XFEL - "Der weltweit größte Röntgenlaser"
DESY
28.11.16, 16:30
Abstract

Abfahrt vom Konferenzort mit dem Bus zum XFEL: 16:30 Uhr
2 parallele Führungen für je 20 Personen

In der Metropolregion Hamburg entsteht mit dem European XFEL eine Großforschungsanlage der Superlative: 27 000 Röntgenlaserblitze pro Sekunde und eine Leuchtstärke, die milliardenfach höher ist als die besten Röntgenstrahlungsquellen herkömmlicher Art, werden völlig neue Forschungsmöglichkeiten eröffnen. Forschergruppen aus aller Welt können an dem europäischen Röntgenlaser atomare Details von Viren und Zellen entschlüsseln, dreidimensionale Aufnahmen im Nanokosmos machen, chemische Reaktionen filmen und Vorgänge wie die im Inneren von Planeten untersuchen. Die European XFEL GmbH ist eine gemeinnützige Forschungsorganisation, die eng mit dem Forschungszentrum DESY und weiteren internationalen Institutionen zusammenarbeitet. Bei Beginn des Nutzerbetriebs im Jahr 2017 wird sie rund 280 Menschen beschäftigen. Mit Kosten von 1,22 Milliarden Euro (Preisniveau 2005) für Bau und Inbetriebnahme und einer Länge von 3,4 Kilometern ist European XFEL eines der größten und ambitioniertesten europäischen Forschungsprojekte. Derzeit beteiligen sich elf Länder: Dänemark, Deutschland, Frankreich, Italien, Polen, Russland, Schweden, die Schweiz, die Slowakei, Spanien und Ungarn. Deutschland (Bundesministerium für Bildung und Forschung sowie die Länder Hamburg und Schleswig-Holstein) trägt 58 Prozent der Kosten, Russland 27 Prozent. Die anderen Partnerländer sind mit ein bis drei Prozent beteiligt. Mehr Informationen finden Sie unter www.xfel.eu/de
19:00 -21:00
Social Event
Gebäude 9/9a Bistro, Cafeteria
28.11.16, 19:00

Tuesday, November 29, 2016

08:30 -08:50
Hochparallele Software-Verifikation nebenläufiger Anwendungen in der Automobilindustrie (HPSV)
Prof. Dr. Dirk Nowotka
AG Zuverlässige Systeme, Institut für Informatik, Christian-Albrechts-Universität zu Kiel
29.11.16, 08:30
Abstract
Das Projekt "Hochparallele Software-Verifikation nebenläufiger Anwendungen in der Automobilindustrie" (HPSV) hat zum Ziel, Methoden aus dem HPC-Bereich für die Analyse komplexer nebenläufiger Softwaresysteme zu entwickeln und einzusetzen. Als konkretes Anwendungsfeld dient dabei die Software automobiler eingebetteter Systeme.

Die Anwendung von Techniken des Hochleistungsrechnens auf die Sicherheitsanalyse und Fehlersuche in Software eingebetteter Systeme ist neu und eröffnet die Möglichkeit größere Codemengen mit höherer Genauigkeit zu analysieren. Bei der Entwicklung von Analysealgorithmen steht deren Skalierbarkeit sowohl auf Manycore-Architekturen als auch auf modernen HPC-Architekturen mit sehr vielen Kernen (z.B. Cray XC40) im Vordergrund. Dadurch ist sichergestellt, dass weniger komplexe Verifikationsprojekte auch auf preisgünstigeren Manycore-Clustern vor Ort beim Anwender ausgeführt werden können, während für sehr große Simulationsprozesse die Dienstleistungen der HPC-Zentren genutzt werden können.

Wir stellen das Verbundprojekt HPSV näher vor und berichten über aktuelle Ergebnisse.
08:50 -09:10
Ultra-Skalierbare Multiphysiksimulationen für Erstarrungsprozesse in Metallen
PD Dr.-Ing. Harald Köstler
Lehrstuhl für Systemsimulation, FAU Erlangen-Nürnberg
29.11.16, 08:50
Abstract
Komplexe Phänomene in den Natur- und Ingenieurwissenschaften werden dank der rapide steigenden Rechenleistung immer öfter mit Hilfe von realitätsgetreuen Simulationstechniken erforscht. Für die Entwicklung neuer Materialien, für die Verbesserung von Werkstoffeigenschaften sowie für die Optimierung von Herstellungs- und Fertigungsprozessen haben moderne und hocheffiziente Simulationstechniken eine unverzichtbare Bedeutung in der akademischen und industriellen Forschung erreicht. Die mechanischen Eigenschaften eines Werkstoffes werden ganz wesentlich durch die Ausbildung der Mikrostruktur beim Herstellungsprozess – der Erstarrung aus der Schmelze – festgelegt. Ein Modellierungsansatz in diesem Bereich sind Phasenfeldmodelle.
Im Vortrag wird das waLBerla Softwareframework vorgestellt, das im Projekt SKAMPY zu einer Softwarelösung weiterentwickelt wird, die es erlaubt, komplexe Phasenfeldmodelle hochparallel und effizient zu berechnen.
09:10 -09:30
Eigenwert-Löser für PetaFlop-Anwendungen: Algorithmische Erweiterungen und Optimierungen (ELPA-AEO)
29.11.16, 09:10
Abstract
Übergeordnetes Ziel des Verbundvorhabens ELPA-AEO ist es, die Effizienz von Supercomputer-Simulationen zu steigern, für die die Lösung des Eigenwertproblems für dichte und Band-strukturierte symmetrische Matrizen zu einem entscheidenden Beitrag wird. Dies ist insbesondere bei Fragestellungen aus der Materialforschung, der biomolekularen Forschung und der Strukturdynamik der Fall. Im Vortrag wird auf Teilziele, Vorgehensweisen und das an der Zusammenarbeit beteiligte Konsortium zu ELPA-AEO eingegangen. Es wird eine Abgrenzung zum ELPA-Vorhaben (2008-2011) aus dem 2. HPC-Call vorgenommen, und erste Zwischenergebnisse werden präsentiert.
09:30 -09:50
Parallele Algorithmische Differentiation in OpenModelica für energietechnische Simulationen und Optimierungen
29.11.16, 09:30
Abstract
Im Zuge der Energiewende in Deutschland geht die Stromerzeugung weg von zentralen Großkraftwerken mit vorab bestimmten Einsatzplänen hin zu sehr vielen verteilten Kleinerzeugern auf Basis erneuerbarer Energien. Durch den Einsatz von Software zur Echtzeitoptimierung soll in Sekundenschnelle auf Schwankungen in Produktion und Bedarf reagiert werden. Die Grenzen der heute verfügbaren Optimierungstechnologien sind jedoch erreicht. Vielversprechende Ansätze bieten hier die Methoden des Hochleistungsrechnens und insbesondere die parallele Lösung der Optimierungsaufgaben. Ziel des Forschungsvorhabens PARADOM ist die Bereitstellung moderner mathematischer Methoden in Verbindung mit der Entwicklung entsprechender paralleler Algorithmen. Damit soll die effiziente Simulation und Optimierung komplexer Modelle mit OpenModelica auf HPC-Systemen ermöglicht werden.
10:20 -11:30
Überblick 5. HPC-Call des BMBF
Dr. Aßelmeyer-Maluga & et. al.
29.11.16, 10:20
11:30 -12:15
Keynote: High-Performance Computational Fluid Dynamics for Industrial Aircraft Design
Dr. Jens Jägersküpper
DLR
29.11.16, 11:30
13:20 -13:40
ParaPhase - space-time parallel adaptive simulation of phase-field models on HPC architectures
Prof. Dr. Oliver Sander
Institut für Numerische Mathematik, Fakultät Mathematik und Naturwissenschaften, TU Dresden
29.11.16, 13:20
Abstract
Phase-field models are an important class of mathematical techniques for the description of industry-relevant physical and technical processes like modelling of cracks or the representation of liquid phase epitaxy. The price for the broad applicability and mathematical elegance of this approach is the significant computing cost required for the simulation of phase-field equations at large scales. The enormous number of degrees-of-freedom in space and time as well as the significant complexity of the simulation demand the use of modern HPC architectures. In this talk we introduce the ParaPhase project and its three key approaches to tackle these challenges: heterogeneous parallelization in space using an adaptive phase-field multigrid algorithm, innovative parallelization in time and flexible high-order methods in space and time. We describe the numerical methods, their applications and show first results with the DUNE framework.
13:40 -14:00
WAVE: Eine portable HPC-Toolbox zur Simulation und Inversion von Wellenfeldern
Prof. Dr. Thomas Bohlen
Geophysikalisches Institut, Karlsruher Institut für Technologie (KIT)
28.11.16, 13:40
Abstract
Die Ausbreitung von akustischen Wellen spielt in vielen Bereichen der Natur und Technik eine zentrale Rolle, z.B. in der Medizintechnik, dem Lärmschutz, der zerstörungsfreien Materialprüfung oder der Erkundung des Erdinneren. Dabei ist die Simulation der Wellenausbreitung in heterogenen Medien essentiell für die Technologieentwicklung sowie zentraler Bestandteil von Abbildungsverfahren, die reflektierte und gestreute Wellenfelder verwenden, um die innere Struktur und Materialparameter des durchschallten Bereichs abzubilden.

In dem Projekt WAVE entwickeln wir eine freie portable HPC-Toolbox für die Simulation und Inversion von akustischen Wellenfeldern. Deren wesentliche Bestandteile sind (1) generische numerische Datenstrukturen und Algorithmen, (2) Lastbalancierung und (3) 3-D Finite-Differenzen-Wellenfeldsimulatoren auf räumlich variablen Gittern. Die Toolbox wird die Eigenschaften von aktuellen und künftigen HPC-Architekturen (Größe, Heterogenität, hierarchischer Aufbau) berücksichtigen. Die Entwicklungen werden durchgeführt von zwei universitären Instituten am Karlsruher Institut für Technologie (KIT), einem Partner aus der Fraunhofer-Gesellschaft (SCAI) sowie einem industriellen Partner (TEEC).
14:00 -14:30
Industrialisierung von hochauflösender Numerik für komplexe Strömungsvorgänge in hydraulischen Systemen
Dr. Sebastian Boblest
VISUS, Universität Stuttgart
29.11.16, 14:00
Abstract
Numerische Simulationen sind heute unverzichtbar für sämtliche Forschungs- und Entwicklungsarbeiten im Bereich der Ingenieuranwendungen. Sie tragen maßgeblich zur Wirtschaftlichkeit, Umweltverträglichkeit und Sicherheit neu entwickelter Systeme bei und liefern so einen entscheidenden Beitrag zur Wettbewerbsfähigkeit der deutschen Industrie.
Eine ganze Reihe anwendungsrelevanter Strömungsprobleme sind aber so komplex, dass sie auch heutige Software-Werkzeuge noch immer vor große Herausforderungen stellen. So müssen zur treffsicheren Auslegung von Fertigungsprozessen und zur Funktionsauslegung hydraulischer Systeme und Komponenten aufwändige Strömungssimulationen eingesetzt werden. Treten bedingt durch die Auflösung unterschiedlicher physikalischer Vorgänge unterschiedliche Zeit- und Raumskalen auf, können oft keine Simulationen in vertretbaren Rechenzeiten durchgeführt werden, die alle wichtigen physikalischen Phänomene einschließen. Der hohe Rechenaufwand der Simulationen lässt hier somit nur eingeschränkte Vorauslegungen zu.

Im Projekt HONK wird an einer Lösung dieser Probleme gearbeitet. Ziel des Projektes ist die Erstellung einer effizienten ganzheitlichen Simulationsumgebung für Mehrskalenprobleme. Neben Methoden für die physikalische und numerische Modellierung umfasst dies auch Software für die Visualisierung der Ergebnisse, sowie die Entwicklung von Methoden für die effiziente Ausnutzung moderner hochparalleler Rechensysteme.
14:30 -15:00
SIMOPEK Ergebnisse und die Weiterentwicklung von Adsorptionskältemaschinen für Rechenzentren
Torsten Wilde
Leibniz-Rechenzentrum der Bayrischen Akademie der Wissenschaften
29.11.16, 14:30
Abstract
This talk highlights the results from the SIMOPEK project.

The main part of the project was to model, simulate, and optimize the chiller-less cooling infrastructure of the LRZ data center. A detailed model/simulation for a specific part of the chiller-less cooling loop of the Leibniz Supercomputing Center (LRZ) will be presented and optimization results will be discussed.

A more theoretical part of SIMOPEK was the definition of requirements and the research into possible solutions for data center specific adsorption chiller technology. The second part of this talk will focus on these results and how knowledge gained in the project moves adsorption chiller technology closer to being a viable alternative to mechanical chillers.
15:30 -16:00
HPC-OpenModelica für Multiskalen-Simulationen technischer Systeme und Anwendung bei der Entwicklung energieeffizienter Arbeitsmaschinen
Dr. Jens Frenkel
ESI ITI GmbH
29.11.16, 15:30
Abstract
Kerngedanke des vorliegenden Projekts ist es, mathematische und syntaktische Kontextinformationen von Teilmodellen auszunutzen, um per Software ein gekoppeltes Gesamtmodell zu erzeugen, das trotz dessen Multiskalen-Phänomenen in hoher paralleler Effizienz simuliert werden kann. Die HPC-relevanten Herausforderungen liegen in der automatischen Analyse, Annotation und Partitionierung der Modellgraphen und in der Generierung optimierter, lastbalancierter HPC-Codes. Parallel dazu werden hochdetaillierte Modelle für Teilsysteme sowie eine robuste Kopplung von HPC- mit VR-Systemen entwickelt. Für den Test der Algorithmen, Methoden, Konzepte und Modelle dienen Simulationen kompletter Arbeitsmaschinen in ihrem Einsatzkontext unter Verwendung hochdetaillierter Modelle von Bosch-Rexroth-Antriebskomponenten.
16:00 -16:30
Skalierbare HPC-Software für molekulare Simulationen in der chemischen Industrie (SkaSim)
Jun. Prof. Dr.-Ing. Martin Horsch
Lehrstuhl für Thermodynamik, Technische Universität Kaiserslautern
29.11.16, 16:00
Abstract
Durch den Einsatz von kraftfeldbasierten Molekulardynamik (MD) Simulationen sind zahlreiche praxisrelevante Probleme in den Ingenieurwissenschaften erstmals überhaupt der Modellierung und Simulation zugänglich geworden. Durch solche Simulationen können auch bei extremen Bedingungen thermodynamischen Eigenschaften komplexer fluider Mischungen mit semi-interaktiven Antwortzeiten im Bereich von Sekunden bis Minuten sicher ermittelt werden, auch „wo reale Experimente nicht möglich, zu zeitaufwändig oder zu teuer sind“ (BMBF-Ausschreibung). Ebenfalls für nanoskalige Prozesse werden realistische Einblicke, die anderweitig nicht zu erhalten sind, durch die molekulare Simulation erstmals möglich. Daher besteht seitens der chemischen Industrie ein zunehmendes Interesse daran, das Potential dieser Herangehensweise durch optimale Ausnutzung der verfügbaren Ressourcen im Höchstleistungsrechnen zum vollen Einsatz zu bringen und im Projekt SkaSim wurde die Molekulardynamik als zuverlässiges und produktives industrielles Werkzeug erfolgreich vorangetrieben.
 
 
Anfahrt und Veranstaltungsort
Alle Informationen zur Anfahrt finden Sie hier .

Die Veranstaltung findet auf dem Hamburger DESY Gelände in der neuen Flash Halle statt: Gebäude 28 c, 2. OG. Zur Orientierung finden Sie anbei einen Geländeplan vom Hamburger DESY Standort .