Logo Science and Innovation Alliance Kaiserslautern e. V. Science and Innovation Alliance Kaiserslautern e.V.

Gauß-Allianz
Mitglied
Go to first section

Über Science and Innovation Alliance Kaiserslautern e.V.

Die TU Kaiserslautern sowie das Fraunhofer ITWM sind Mitglied der Science and Innovation Alliance Kaiserslautern e.V. und haben in diesem Verbund eine strategische Allianz für das Hochleistungsrechnen in Kaiserslautern geschlossen. Die TU Kaiserslautern betreibt am Regionalen Hochschulrechenzentrum Kaiserslautern (RHRK) den Hochleistungsrechner Elwetritsch und das Fraunhofer ITWM drei Parallelrechner am dortigen Competence Center High Performance Computing (CC-HPC). Darüber hinaus bietet das RHRK die HPC-Infrastruktur für eine Fülle von Forschungsvorhaben in Kaiserslautern an, so z.B. den SFB-TR 49 "Condensed Matter Systems with Variable Many-Body Interactions", den SFB-TR 88 "Kooperative Effekte in homo- und heterometallischen Komplexen", den SFB 926 "Bauteiloberflächen: Morphologie auf der Mikroskala". Die HPC Infrastruktur am Fraunhofer ITWM wird von den 400 Mitarbeitern des ITWM für Entwicklungen im Bereich der Materialforschung, der Nutzfahrzeugtechnologie sowie der Optimierung und Verfahrenstechnik in enger Zusammenarbeit mit Wissenschaftlern der TU Kaiserslautern eingesetzt. Mitarbeiter des Fraunhofer ITWM nutzen diese Infrastruktur in zahlreichen EU und BMBF Projekten, darunter insbesondere auch Europäische Exascale Projekte.

HPC-Expertise

  • Algorithmisches Differenzieren und Optimierung
  • Programmiermodelle & Standards
  • Visualisierung
  • Geowissenschaften/Geophysik
  • Strömungsmechanik, Mechanik

Regionales Hochschulrechenzentrum Kaiserslautern

Das RHRK ist eine zentrale wissenschaftliche Einrichtung der Technischen Universität Kaiserslautern. Das RHRK versorgt Studierende, Fachbereiche, zentrale Einrichtungen und die zentrale Verwaltung bedarfsgerecht mit IT-Infrastruktur und IT-Dienstleistungen. Das RHRK führt begleitend zur Stützung seiner Dienstleistungsaufgaben eigene Forschungs- und Entwicklungsarbeiten durch.

HPC-Expertise

Zur besonderen Unterstützung des Hochleistungsrechnens obliegen dem RHRK insbesondere

  • Entwicklung, Einsatz und Anwendung von Methoden, Werkzeugen und Maschinen im Hochleistungsrechnen zu verfolgen und zu bewerten und die Anwenderinnen und Anwender in der Universität hinsichtlich des Einsatzes und der Nutzung ihrer lokalen Rechenkapazitäten und zentraler Hochleistungsrechentechnik entsprechend zu beraten,
  • neueste Methoden und ihre softwaretechnische Realisierung für die Lösung des für die Universität typischen Anwendungsspektrums auf den vorhandenen Architekturen zu adaptieren und bereitzustellen,
  • Schulungen und individuelle Beratung über Algorithmen und deren effiziente Umsetzung auf Hochleistungsrechnern durchzuführen,
  • die aktuellen und potentiellen Anwenderinnen und Anwender bei der Analyse und Optimierung ihrer Programme zu unterstützen,
  • den Anwenderkreis durch Demonstration neuer Anwendungsmöglichkeiten und die Erhöhung der Nutzerfreundlichkeit der installierten Hochleistungsrechentechnik zu verbreitern,
  • gemeinsam mit den Fachbereichen Bachelor-, Master- und Doktorarbeiten zu betreuen, an Lehrveranstaltungen mitzuwirken und eine kontinuierliche Vortrags- und Publikationstätigkeit durchzuführen.


Das RHRK koordiniert seine Arbeiten mit anderen Kompetenzzentren Hochleistungsrechnen im Land Rheinland-Pfalz und im Bundesgebiet.

HPC-Systeme

HPC-Cluster Elwetritsch II der TUK

Elwetritsch II - Dell PowerEdge R NEC HPC1812Rh-1 Nvidia DGX-2, DGX-1

seit Januar 2016 - Letzte Erweiterung: Januar 2020 - weitere Informationen
Ebene 3 HPC-System GPU-Knoten GPU-System MPP-System SMP-Knoten SSD Speicher Xeon-Phi-Knoten
489 Knoten
Unknown QDR-Infiniband, Intel Omnipath
53 TB
Hauptspeicher
10.520 CPU-Kerne
Intel, AMD
56 GPGPUs
Nvidia
56 Anwendungen
228 Versionen

Beehive - Dell PowerEdge

seit Januar 2014
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten
67 TFlop/s
Gesamtleistung
198 Knoten
Unknown FDR-Infiniband
14 TB
Hauptspeicher
3.224 CPU-Kerne
Intel
2 GPGPUs
Nvidia

Elwetritsch - Fujitsu PRIMERGY XC250/400

seit August 2012 - weitere Informationen
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten Xeon-Phi-Knoten
134 TFlop/s
Gesamtleistung
319 Knoten
Unknown QDR-Infiniband
17 TB
Hauptspeicher
5.624 CPU-Kerne
Intel
29 GPGPUs
Nvidia
6 Many-Core-Prozessoren
Intel
56 Anwendungen
228 Versionen

Seislab

Ebene 3 HPC-System GPU-Knoten MPP-System Xeon-Phi-Knoten
35 TFlop/s
Gesamtleistung
90 Knoten
Unknown FDR-Infiniband, QDR-Infiniband
6 TB
Hauptspeicher
1.584 CPU-Kerne
Intel
3 GPGPUs
Nvidia
2 Many-Core-Prozessoren
Intel

Ocean 1

Ebene 3 HPC-System
1.450 Knoten
23 TB
Hauptspeicher
11.600 CPU-Kerne
Intel

Dateisysteme

WORK-Dateisystem

Seislab (BeeGFS)

HDD Symbol
600 TB
Festplattenspeicherplatz

Beehive (BeeGFS)

HDD Symbol
240 TB
Festplattenspeicherplatz

Elwetritsch (BeeGFS)

seit April 2018
HDD Symbol
1285 TB
Festplattenspeicherplatz

HOME-Dateisystem

Elwetritsch (NFS)

HDD Symbol
10 TB
Festplattenspeicherplatz

Kontakt

Science and Innovation Alliance Kaiserslautern
Paul-Ehrlich-Straße 32
67663 Kaiserslautern
Germany

 Schreiben Sie eine Nachricht an SIAK