HPC in Deutschland - Wer? Was? Wo?
Center for Scientific Computing
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_gufam_loewecsc.jpg)
823 TFlop/s (Gesamtleistung) , 69.00 TiB (Hauptspeicher)
848 Knoten (Unknown QDR-Infiniband, FDR-Infiniband) , 18.960 CPU-Kerne (Intel, AMD)
700 GPGPUs (AMD)
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_gufam_fuchs.jpg)
41 TFlop/s (Gesamtleistung) , 18.00 TiB (Hauptspeicher)
358 Knoten (Unknown QDR-Infiniband) , 6.456 CPU-Kerne (AMD)
Deutscher Wetterdienst
![HPC-System LU](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-LU_240513052031.jpg)
11.220 TFlop/s (Gesamtleistung) , 216.00 TiB (Hauptspeicher)
508 Knoten , 36.864 CPU-Kerne (NEC)
![HPC-System LU](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-LU_240513052031.jpg)
8.630 TFlop/s (Gesamtleistung) , 166.00 TiB (Hauptspeicher)
391 Knoten , 28.352 CPU-Kerne (NEC)
Deutsches Elektronen Synchrotron
2.321 TFlop/s (Gesamtleistung) , 393.00 TiB (Hauptspeicher)
764 Knoten , 26.732 CPU-Kerne (Intel, AMD)
282 GPGPUs (Nvidia)
Deutsches Klimarechenzentrum GmbH
![HPC-System Levante](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_Levante_240503104836.jpg)
16.600 TFlop/s (Gesamtleistung) , 863.00 TiB (Hauptspeicher)
3.042 Knoten , 389.376 CPU-Kerne (AMD)
240 GPGPUs (Nvidia)
Competence Center High Performance Computing (CC-HPC)
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_cchpc_beehive_copyright_thomas_brenner.jpg)
67 TFlop/s (Gesamtleistung) , 14.00 TiB (Hauptspeicher)
198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)
2 GPGPUs (Nvidia)
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_cchpc_seislab_copyright_fraunhofer_itwm.jpg)
35 TFlop/s (Gesamtleistung) , 6.00 TiB (Hauptspeicher)
90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)
3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_gwdg_hpccluster.jpg)
2.883 TFlop/s (Gesamtleistung) , 90.00 TiB (Hauptspeicher)
402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)
278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HLRNIV_Emmy_Phase_1_190829162006.jpg)
8.261 TFlop/s (Gesamtleistung) , 487.00 TiB (Hauptspeicher)
1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)
12 GPGPUs (Nvidia)
Hochschulrechenzentrum
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/Lichtenberg_2_220330153758.jpg)
8.500 TFlop/s (Gesamtleistung) , 549.00 TiB (Hauptspeicher)
1.229 Knoten ( HDR100-Infiniband, Mellanox HDR100-Infiniband) , 122.816 CPU-Kerne (Intel, AMD)
84 GPGPUs (Nvidia, Intel)
Höchstleistungsrechenzentrum Stuttgart
![HPC-System Hawk](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HPE_Apollo_system_Hawk__200512155945.jpg)
26.000 TFlop/s (Gesamtleistung) , 1.00 PiB (Hauptspeicher)
5.656 Knoten (Mellanox HDR200-Infiniband) , 723.968 CPU-Kerne (AMD)
192 GPGPUs (Nvidia)
![HPC-System vulcan](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_vulcan_240513071228.jpg)
120.00 TiB (Hauptspeicher)
476 Knoten , 14.480 CPU-Kerne (Intel, NEC)
16 GPGPUs (AMD, Nvidia)
IT Center der RWTH Aachen University
![HPC-System CLAIX-2018](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/CLAIX2018_200507182330.jpg)
4.965 TFlop/s (Gesamtleistung) , 245.00 TiB (Hauptspeicher)
1.307 Knoten (Intel Omnipath) , 62.736 CPU-Kerne (Intel)
96 GPGPUs (Nvidia)
![HPC-System CLAIX-2023](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_CLAIX-2023_240513070921.jpeg)
11.484 TFlop/s (Gesamtleistung) , 226.00 TiB (Hauptspeicher)
684 Knoten , 65.664 CPU-Kerne (Intel)
208 GPGPUs (Nvidia)
Jülich Supercomputing Centre (JSC)
![Supercomputer JUWELS am Jülich Supercomputing Centre](https://gauss-allianz.de/media/cache/cphase_image/images/misc/JUWELS_Supercomputer_am_JSC_190212173451.jpg)
85.000 TFlop/s (Gesamtleistung) , 749.00 TiB (Hauptspeicher)
3.515 Knoten (Mellanox EDR-Infiniband, HDR200-Infiniband) , 168.208 CPU-Kerne (Intel, AMD)
3956 GPGPUs (Nvidia)
![HPC-System JURECA](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_JURECA_240507120851.png)
18.520 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)
780 Knoten (Mellanox HDR100-Infiniband) , 99.840 CPU-Kerne (AMD)
768 GPGPUs (Nvidia)
Zuse-Institut Berlin
![Foto HPC-System Lise](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HPCSystem_Lise_200416131716.jpg)
7.907 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)
1.146 Knoten (Intel Omnipath) , 110.016 CPU-Kerne (Intel)
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_SuperMUC-NG_240507105441.png)
54.860 TFlop/s (Gesamtleistung) , 822.00 TiB (Hauptspeicher)
6.720 Knoten (Intel Omnipath, Mellanox HDR200-Infiniband) , 337.920 CPU-Kerne (Intel)
960 GPGPUs (Intel)
Max Planck Computing & Data Facility
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//Raven_240503101217.jpg)
24.800 TFlop/s (Gesamtleistung) , 517.00 TiB (Hauptspeicher)
1.784 Knoten , 128.448 CPU-Kerne (Intel)
768 GPGPUs (Nvidia)
4.900 TFlop/s (Gesamtleistung) , 445.00 TiB (Hauptspeicher)
768 Knoten , 98.304 CPU-Kerne (AMD)
Paderborn Center for Parallel Computing
![](https://gauss-allianz.de/media/cache/cphase_image/images/misc/Noctua_System_Paderborn_190121081628.jpg)
835 TFlop/s (Gesamtleistung) , 51.00 TiB (Hauptspeicher)
274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)
18 GPGPUs (Nvidia)
![](https://gauss-allianz.de/media/cache/cphase_image/images/misc/Noctua_2_-_Paderborn_Center_for_Parallel_Computing_221017095322.jpg)
7.100 TFlop/s (Gesamtleistung) , 347.00 TiB (Hauptspeicher)
1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)
136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)
Regionales Hochschulrechenzentrum Kaiserslautern-Landau (RHRZ)
3.072 TFlop/s (Gesamtleistung) , 52.00 TiB (Hauptspeicher)
489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)
56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)
66.00 TiB (Hauptspeicher)
243 Knoten ( Omnipath) , 4.128 CPU-Kerne (AMD)
48 GPGPUs (Nvidia)
Regionales Rechenzentrum der Universität zu Köln
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_rrzk_cheops.jpg)
100 TFlop/s (Gesamtleistung) , 35.00 TiB (Hauptspeicher)
841 Knoten (Unknown QDR-Infiniband) , 9.712 CPU-Kerne (Intel)
Scientific Computing Center
![bwUniCluster 2.0 Stufe 1](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/bwUniCluster_2.0_Stufe_1_230105142021.jpg)
155.00 TiB (Hauptspeicher)
837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)
196 GPGPUs (Nvidia)
![HoreKa](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HoreKa__230105145347.jpg)
242.00 TiB (Hauptspeicher)
769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)
668 GPGPUs (Nvidia)
Zentrum für Datenverarbeitung
![](https://gauss-allianz.de/media/cache/cphase_image/images/profile/cluster_zdv_mogon.jpg)
379 TFlop/s (Gesamtleistung) , 88.00 TiB (Hauptspeicher)
570 Knoten (Unknown QDR-Infiniband) , 35.760 CPU-Kerne (Intel, AMD)
52 GPGPUs (Nvidia) , 8 Many-Core-Prozessoren (Intel)
106 TFlop/s (Gesamtleistung) , 10.00 TiB (Hauptspeicher)
320 Knoten (Unknown QDR-Infiniband) , 5.120 CPU-Kerne (Intel)
3.125 TFlop/s (Gesamtleistung) , 190.00 TiB (Hauptspeicher)
1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)
188 GPGPUs (Nvidia, NEC)
Zentrum für Informationsdienste und Hochleistungsrechnen
5.443 TFlop/s (Gesamtleistung) , 34.00 TiB (Hauptspeicher)
34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)
272 GPGPUs (Nvidia)
![HPC-System Barnard](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_Barnard_240513044952.jpg)
4.050 TFlop/s (Gesamtleistung) , 315.00 TiB (Hauptspeicher)
630 Knoten ( HDR100-Infiniband) , 65.520 CPU-Kerne (Intel)
Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HPCCluster_Meggie_RRZE_170322105607.jpg)
511 TFlop/s (Gesamtleistung) , 46.00 TiB (Hauptspeicher)
728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)
21 Anwendungen (61 Versionen)
![](https://gauss-allianz.de/media/cache/cphase_image/images/cluster/HPCCluster_TinyGPU_RRZE_170322105223.jpg)
5.00 TiB (Hauptspeicher)
45 Knoten , 1.392 CPU-Kerne (Intel, AMD)
208 GPGPUs (Nvidia) , 3 Anwendungen (8 Versionen)
![HPC-System Alex](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_Alex_240507131708.jpg)
6.080 TFlop/s (Gesamtleistung) , 78.00 TiB (Hauptspeicher)
82 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 10.496 CPU-Kerne (AMD)
656 GPGPUs (Nvidia)
![HPC-System Fritz](https://gauss-allianz.de/media/cache/cphase_image/images/cluster//HPC-System_Fritz_240507130900.jpg)
5.450 TFlop/s (Gesamtleistung) , 248.00 TiB (Hauptspeicher)
992 Knoten (Mellanox HDR100-Infiniband) , 71.424 CPU-Kerne (Intel)