Science Alliance Kaiserslautern e.V. Science Alliance Kaiserslautern e.V.

Go to first section

Science Alliance Kaiserslautern e.V.

Die TU Kaiserslautern sowie das Fraunhofer ITWM sind Mitglied der Science Alliance Kaiserslautern e.V. und haben in diesem Verbund eine strategische Allianz für das Hochleistungsrechnen in Kaiserslautern geschlossen. Die TU Kaiserslautern betreibt am Regionalen Hochschulrechenzentrum Kaiserslautern (RHRK) den Hochleistungsrechner Elwetritsch und das Fraunhofer ITWM drei Parallelrechner am dortigen Competence Center High Performance Computing (CC-HPC). Darüber hinaus bietet das RHRK die HPC-Infrastruktur für eine Fülle von Forschungsvorhaben in Kaiserslautern an, so z.B. den SFB-TR 49 "Condensed Matter Systems with Variable Many-Body Interactions", den SFB-TR 88 "Kooperative Effekte in homo- und heterometallischen Komplexen", den SFB 926 "Bauteiloberflächen: Morphologie auf der Mikroskala". Die HPC Infrastruktur am Fraunhofer ITWM wird von den 400 Mitarbeitern des ITWM für Entwicklungen im Bereich der Materialforschung, der Nutzfahrzeugtechnologie sowie der Optimierung und Verfahrenstechnik in enger Zusammenarbeit mit Wissenschaftlern der TU Kaiserslautern eingesetzt. Mitarbeiter des Fraunhofer ITWM nutzen diese Infrastruktur in zahlreichen EU und BMBF Projekten, darunter insbesondere auch Europäische Exascale Projekte.

HPC Expertise

  • Algorithmisches Differenzieren und Optimierung
  • Programmiermodelle & Standards
  • Visualisierung 
  • Geowissenschaften/Geophysik
  • Strömungsmechanik, Mechanik

HPC Systems

Elwetritsch - Fujitsu PRIMERGY XC250/400

since August 2012 - learn more - Top500.org
GPU-Nodes MPP-System SMP-Nodes Tier 3 - Cluster Xeon-Phi-Nodes
134 TFlop/s
Peak Performance
319 Nodes
QDR-Infiniband
17 TB
Main Memory
5,624 CPU Cores
Intel
29 GPGPUs
Nvidia
6 Many Core Processors
Intel

Elwetritsch II - Dell PowerEdge R

since January 2016
80 TFlop/s
Peak Performance
144 Nodes
QDR-Infiniband
9 TB
Main Memory
2,112 CPU Cores
Intel

Beehive - Dell PowerEdge

since January 2014
GPU-Nodes MPP-System SMP-Nodes Tier 3 - Cluster
67 TFlop/s
Peak Performance
198 Nodes
FDR-Infiniband
14 TB
Main Memory
3,224 CPU Cores
Intel
2 GPGPUs
Nvidia

Seislab

GPU-Nodes MPP-System Tier 3 - Cluster Xeon-Phi-Nodes
35 TFlop/s
Peak Performance
90 Nodes
FDR-Infiniband, QDR-Infiniband
6 TB
Main Memory
1,584 CPU Cores
Intel
3 GPGPUs
Nvidia
2 Many Core Processors
Intel

Ocean 1

Tier 3 - Cluster
1,450 Nodes
23 TB
Main Memory
11,600 CPU Cores
Intel

File Systems

WORK file system

Elwetritsch (FhGFS)

HDD Symbol
322 TB
disk storage

Beehive (BeeGFS)

HDD Symbol
240 TB
disk storage

Seislab (BeeGFS)

HDD Symbol
600 TB
disk storage

HOME file system

Elwetritsch (NFS)

HDD Symbol
10 TB
disk storage

Projects

Enabling Performance Engineering in Hesse and Rhineland-Palatinate- A Cooperation of the Rhine-Main-Universities and the Technische Universität Kaiserslautern
DFG
Mit EPE werden die in Rheinland-Pfalz und Hessen bestehenden Kompetenznetzwerke ausgebaut und die wissenschaftliche HPC-Expertise der Projektbeteiligten an die Nutzerinnen und Nutzer der Hochleistungsrechner weitergegeben. Ziel ist die Verbesserung der...
32%
24 months remaining

Contact

Science Alliance Kaiserslautern
Paul-Ehrlich-Straße 32
67663 Kaiserslautern
Germany

 Send a message to Science Alliance Kaiserslautern