Internationale Supercomputing-Konferenz 2012
Vom 17. bis 21. Juni findet die ISC’12 in Hamburg statt. Die europaweit größte Konferenz der HPC-Community hält Neuigkeiten aus der HPC-Welt sowie den Bereichen Networking und Storage bereit. Sie bietet eine ausgezeichnete Plattform, um sich mit wichtigen Vertretern der Branche auszutauschen. Dabei werden vor allem aktuelle Herausforderungen wie Exascale-Computing, Energieeffizienz und die weitere Entwicklung des HPC thematisiert. In zahlreichen Präsentationen und Diskussionen stellen internationale Experten ihre Perspektiven dazu vor. Ein Schwerpunkt wird die traditionelle Präsentation der TOP500-Liste der schnellsten Rechner der Welt sein. Die Zentren der Gauß-Allianz werden die Konferenz nutzen, um ihre Expertise im Hochleistungsrechnen, Data Intensive Computing sowie Grid- und Cloud-Computing vorzustellen. So werden die ● GCS-Zentren HLRS, JSC und LRZ sowie die Zentren aus Karlsruhe und Dresden insbesondere ihre neuesten Ergebnisse in der Entwicklung von Software-Werkzeugen zur effizienten Nutzung von Supercomputern und verteilten Systemen präsentieren. ● Der HLRN informiert an einem Gemeinschaftstand mit der Universität Hamburg über seine aktuellen technischen Möglichkeiten und Ressourcen, die der Spitzenforschung in Norddeutschland zur Verfügung stehen. ● Schwerpunktthemen des SCC werden die Simulation Laboratories (SimLabs) sein. Deren Aufgabe liegt insbesondere darin, Software zur effizienten Nutzung von Supercomputern und verteilten Systemen in der interdisziplinären Forschung und Entwicklung voranzubringen. Darüber hinaus wird hier das Management großskaliger Daten im Fokus stehen. ● Das Grid Computing Centre Karlsruhe (GridKa), das deutsche Tier1-Zentrum für den Large Hadron Collider am CERN in Genf sowie die neuesten Forschungsergebnisse des SCC im Bereich Cloud-Computing werden ebenfalls auf der ISC’12 thematisiert. ● Das GCS wird vier Workshops gestalten. Auf dem gemeinsamen Stand der drei Zentren werden u. a. diverse 2D-/3D-Videos und -Animationen, interaktive 3D-Visualisierungen von Simulationsergebnissen und interaktive Monitoring Software für Supercomputer gezeigt. ● Das LRZ wird den Fokus zudem auf seinen neuen Höchstleistungsrechner SuperMUC legen und Details zur höchsten Energieeffizienz des neuen 3-Petaflops-Systems beleuchten. ● Das RRZE beteiligt sich am Tutorial „Performance-oriented Programming on Multicore-based Clusters with MPI, OpenMP & Hybrid MPI/OpenMP“ und organisiert die Session „Application Performance: Lessons Learned from Petascale Computing“. Es bietet dazu außerdem einen Vortrag an. ● Das DKRZ wird sich ebenfalls mit einem Stand präsentieren. Gemeinsam mit dem ZIH, der Firma CISCO und der Universität Hamburg stellt es darüber hinaus als ISCnet-Sponsor alle Netzwerkbelange auf der ISC‘12 sicher.
Perspektiven-Workshop in Schloss Dagstuhl
Mit den Installationen der ersten deutschen Petascale-Systeme am GCS in München, Jülich und Stuttgart ist das Petascale Computing in der Gegenwart angekommen. Dies war Anlass für einen Dagstuhl-Perspektiven-Workshop zum Thema „Co-Design of Systems and Applications for Exascale“. Vom 20. bis 25. Mai haben sich Wissenschaftler aus dem Bereich Computational Science im Leibniz-Zentrum für Informatik GmbH, Schloss Dagstuhl, intensiv ausgetauscht, um angesichts der wissenschaftlichen, technologischen sowie finanziellen Herausforderungen der nächste Stufe des Hochleistungsrechnens – den Exascale-Systemen – und den damit verbundenen Möglichkeiten für das Wissenschaftliche Rechnen, einen integrativen Ansatz anzuregen. Erklärtes Ziel des Workshops war es, ein Diskussionsforum über die verschiedenen Bereiche der Informatik hinweg anzubieten, um die aktuellen Entwicklungen und Anforderungen im Co-Design – angefangen von Architektur- und Programmiermodellen über Laufzeit-Systeme bis hin zur Anwendungsebene – möglichst breit und unter Beteiligung aller relevanten Bereiche zu beleuchten. In den verschiedenen Sessions mit zahlreichen Vorträgen und Diskussionen ging es u.a. um Co-Design-Methoden, Software-Werkzeuge, Implementierungen und praktische Anwendungen im Exascale-Bereich. Dabei wurden die gegenwärtigen Petascale-Architekturen ebenso beleuchtet wie Perspektiven für das Exascale-Computing. Die Organisatoren des Workshops waren Arndt Bode (TU München/LRZ Garching), Adolfy Hoisie (Pacific Northwest National Lab., US), Dieter Kranzlmüller (LMU München/LRZ Garching) sowie Wolfgang E. Nagel (ZIH, TU Dresden). Weitere Informationen: http://www.dagstuhl.de/12212
Medikamente aus dem Computer
Das Forschungsprojekt „High-Performance Computing in Computer-Aided Drug Design“ (hpCADD) ist eines der seit dem letztem Jahr vom BMBF geförderten HPC-Software-Projekte. Als eine wichtige Säule im Entwicklungsprozess neuer Medikamente ist CADD aus der Pharmaindustrie heute nicht mehr wegzudenken. Der Erfolg des Ansatzes wird v. a. durch die Genauigkeit der Vorhersage relevanter Größen im Rahmen der verfügbaren Rechnerressourcen sowie durch die Qualität und Reproduzierbarkeit experimenteller Referenzdaten bestimmt. Das Ziel des Projekts ist die computergestützte Vorhersage biologischer Aktivität und medizinischer Parameter auf der Basis molekularer Eigenschaften. Es stellt sich diesen Herausforderungen durch einen innovativen und integrativen Ansatz, der stark von den Fähigkeiten aktueller Hochleistungsrechner profitiert. Hochgenaue Rechenmethoden benötigen im Regelfall außerordentlich lange (serielle) Rechenzeiten, so dass sich der Vorteil computergestützter Verfahren im Umfeld der industriellen Pharmaforschung nur dann entfalten kann, wenn innovative Algorithmen und theoretische Methodik speziell auf HPC-Architekturen zugeschnitten werden. Neben diesem zentralen Projektziel ergibt sich die Anforderung, die sehr heterogenen Daten und Verfahren der einzelnen theoretischen Schritte zu integrieren und zu visualisieren, um eine homogene Benutzerschnittstelle zur Steuerung zu erarbeiten. Um diese Ziele zu erreichen, arbeiten Wissenschaftler des Computer-Chemie-Centrums, des RRZE der Universität Erlangen-Nürnberg und der TU Dortmund mit den Forschungszentren der Unternehmen Sanofi-Aventis, Cepos InSilico und Molcad zusammen. Weitere Informationen: hpCADD
Schnelle Verfahren für Partikelsimulationen
Simulationen komplexer Teilchensysteme spielen in vielen Bereichen der Wissenschaft eine bedeutende Rolle. Die Größe der simulierten Systeme ist jedoch häufig von der Effizienz der Parallelisierung sowie der Komplexität der verwendeten numerischen Verfahren abhängig. Bei Systemen mit langreichweitigen Kräften steigt der Rechenaufwand in der Regel überproportional zur Größe des Systems. Probleme wie z. B. Gravitation in Galaxien oder elektrostatische Wechselwirkungen in biologischen Systemen weisen diese Eigenschaften auf. In dem in den vergangenen drei Jahren innerhalb der ersten Förderrunde für „HPC-Software für skalierbare Parallelrechner“ vom BMBF finanzierten Projekt „Scalable Fast Coulomb Solver“ (ScaFaCoS) wurden optimierte Algorithmen effizient parallelisiert und in einer parallelen Bibliothek zusammengefasst. Diese wird der wissenschaftlichen Gemeinschaft nun als OpenSource-Software zur Verfügung gestellt. Projektpartner waren das Forschungszentrum Jülich, die Universitäten Bonn, Chemnitz, Stuttgart und Wuppertal, das Fraunhofer-Institut SCAI, das Max-Planck-Institut für Polymerwissenschaften Mainz sowie die Firmen BASF, Cognis und IBM. Weitere Informationen: ScaFaCoS
Anwendungen auf heterogenen Rechnerarchitekturen
Moderne komplexe Rechnersysteme bestehen aus einem Verbund klassischer Prozessoren (CPUs) und spezieller Hardware-Beschleuniger (z. B. GPGPUs). Diese heterogenen Architekturen erfordern nicht nur spezielle Betriebssysteme, sondern auch neue Programmiermethoden und Software. Diese Problematik ist Gegenstand des von Oktober 2010 bis September 2013 im Rahmen der ITEA-2-Initiative laufenden, europaweiten Projekts „Optimise HPC Applications on Heterogeneous Architectures (H4H)“. Unter Leitung des französischen Computer-Herstellers Bull sind an diesem Projekt 23 Forschungseinrichtungen und Unternehmen aus Frankreich, Spanien, Schweden und Deutschland beteiligt. Der Beitrag der deutschen Partner, die vom BMBF gefördert werden, liegt in der Entwicklung leistungsfähiger Software-Werkzeuge, der Bereitstellung optimierter Software-Bibliotheken sowie im Einsatz der entwickelten Technologien in industrierelevanten und wissenschaftlichen Anwendungsgebieten. Weitere Informationen: http://www.h4h-itea2.org
2. ZISC Multicore-Technologie-Briefing
Der Trend in Richtung Multicore-Architektur hat die Entwicklung der Standardprozessoren in den letzten Jahren dominiert. Die zweite Auflage des Multicore-Technologie-Briefings am LRZ am 13. Juli widmet sich wichtigen Fragen, die mit dem Übergang zu Multicore-Architekturen verbunden sind. Dabei geht es z.B. um die relevanten Eigenschaften von Multicore-Prozessoren, die Bewertung von GPGPUs und die Auswirkungen auf die Software-Entwicklung. Insbesondere werden Fragen diskutiert zu Grenzen der Parallelität und zu den Möglichkeiten, Parallelisierung durch Software-Werkzeuge zu unterstützen. Darüber hinaus stehen ausgewiesene Experten rund um die Multicore-Problematik für individuelle Gespräche zur Verfügung. Weitere Informationen: http://www.zisc.uni-erlangen.de/veranstaltungen/multicore-briefing-2.shtml