HPC in Deutschland - Wer? Was? Wo?
Center for Scientific Computing
823 TFlop/s (Gesamtleistung) , 69.00 TiB (Hauptspeicher)
848 Knoten (Unknown QDR-Infiniband, FDR-Infiniband) , 18.960 CPU-Kerne (Intel, AMD)
700 GPGPUs (AMD)
41 TFlop/s (Gesamtleistung) , 18.00 TiB (Hauptspeicher)
358 Knoten (Unknown QDR-Infiniband) , 6.456 CPU-Kerne (AMD)
Deutscher Wetterdienst
11.220 TFlop/s (Gesamtleistung) , 216.00 TiB (Hauptspeicher)
508 Knoten , 36.864 CPU-Kerne (NEC)
8.630 TFlop/s (Gesamtleistung) , 166.00 TiB (Hauptspeicher)
391 Knoten , 28.352 CPU-Kerne (NEC)
Deutsches Elektronen Synchrotron
2.321 TFlop/s (Gesamtleistung) , 393.00 TiB (Hauptspeicher)
764 Knoten , 26.732 CPU-Kerne (Intel, AMD)
282 GPGPUs (Nvidia)
Deutsches Klimarechenzentrum GmbH
16.600 TFlop/s (Gesamtleistung) , 863.00 TiB (Hauptspeicher)
3.042 Knoten , 389.376 CPU-Kerne (AMD)
240 GPGPUs (Nvidia)
Competence Center High Performance Computing (CC-HPC)
67 TFlop/s (Gesamtleistung) , 14.00 TiB (Hauptspeicher)
198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)
2 GPGPUs (Nvidia)
35 TFlop/s (Gesamtleistung) , 6.00 TiB (Hauptspeicher)
90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)
3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
2.883 TFlop/s (Gesamtleistung) , 90.00 TiB (Hauptspeicher)
402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)
278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)
8.261 TFlop/s (Gesamtleistung) , 487.00 TiB (Hauptspeicher)
1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)
12 GPGPUs (Nvidia)
Hochschulrechenzentrum
8.500 TFlop/s (Gesamtleistung) , 549.00 TiB (Hauptspeicher)
1.229 Knoten ( HDR100-Infiniband, Mellanox HDR100-Infiniband) , 122.816 CPU-Kerne (Intel, AMD)
84 GPGPUs (Nvidia, Intel)
Höchstleistungsrechenzentrum Stuttgart
26.000 TFlop/s (Gesamtleistung) , 1.00 PiB (Hauptspeicher)
5.656 Knoten (Mellanox HDR200-Infiniband) , 723.968 CPU-Kerne (AMD)
192 GPGPUs (Nvidia)
120.00 TiB (Hauptspeicher)
476 Knoten , 14.480 CPU-Kerne (Intel, NEC)
16 GPGPUs (AMD, Nvidia)
IT Center der RWTH Aachen University
4.965 TFlop/s (Gesamtleistung) , 245.00 TiB (Hauptspeicher)
1.307 Knoten (Intel Omnipath) , 62.736 CPU-Kerne (Intel)
96 GPGPUs (Nvidia)
11.484 TFlop/s (Gesamtleistung) , 226.00 TiB (Hauptspeicher)
684 Knoten , 65.664 CPU-Kerne (Intel)
208 GPGPUs (Nvidia)
Jülich Supercomputing Centre (JSC)
85.000 TFlop/s (Gesamtleistung) , 749.00 TiB (Hauptspeicher)
3.515 Knoten (Mellanox EDR-Infiniband, HDR200-Infiniband) , 168.208 CPU-Kerne (Intel, AMD)
3956 GPGPUs (Nvidia)
18.520 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)
780 Knoten (Mellanox HDR100-Infiniband) , 99.840 CPU-Kerne (AMD)
768 GPGPUs (Nvidia)
Zuse-Institut Berlin
7.907 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)
1.146 Knoten (Intel Omnipath) , 110.016 CPU-Kerne (Intel)
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
54.860 TFlop/s (Gesamtleistung) , 822.00 TiB (Hauptspeicher)
6.720 Knoten (Intel Omnipath, Mellanox HDR200-Infiniband) , 337.920 CPU-Kerne (Intel)
960 GPGPUs (Intel)
Max Planck Computing & Data Facility
24.800 TFlop/s (Gesamtleistung) , 517.00 TiB (Hauptspeicher)
1.784 Knoten , 128.448 CPU-Kerne (Intel)
768 GPGPUs (Nvidia)
4.900 TFlop/s (Gesamtleistung) , 445.00 TiB (Hauptspeicher)
768 Knoten , 98.304 CPU-Kerne (AMD)
Paderborn Center for Parallel Computing
835 TFlop/s (Gesamtleistung) , 51.00 TiB (Hauptspeicher)
274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)
18 GPGPUs (Nvidia)
7.100 TFlop/s (Gesamtleistung) , 347.00 TiB (Hauptspeicher)
1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)
136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)
Regionales Hochschulrechenzentrum Kaiserslautern-Landau (RHRZ)
3.072 TFlop/s (Gesamtleistung) , 52.00 TiB (Hauptspeicher)
489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)
56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)
66.00 TiB (Hauptspeicher)
243 Knoten ( Omnipath) , 4.128 CPU-Kerne (AMD)
48 GPGPUs (Nvidia)
Regionales Rechenzentrum der Universität zu Köln
100 TFlop/s (Gesamtleistung) , 35.00 TiB (Hauptspeicher)
841 Knoten (Unknown QDR-Infiniband) , 9.712 CPU-Kerne (Intel)
Scientific Computing Center
155.00 TiB (Hauptspeicher)
837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)
196 GPGPUs (Nvidia)
242.00 TiB (Hauptspeicher)
769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)
668 GPGPUs (Nvidia)
Zentrum für Datenverarbeitung
379 TFlop/s (Gesamtleistung) , 88.00 TiB (Hauptspeicher)
570 Knoten (Unknown QDR-Infiniband) , 35.760 CPU-Kerne (Intel, AMD)
52 GPGPUs (Nvidia) , 8 Many-Core-Prozessoren (Intel)
106 TFlop/s (Gesamtleistung) , 10.00 TiB (Hauptspeicher)
320 Knoten (Unknown QDR-Infiniband) , 5.120 CPU-Kerne (Intel)
3.125 TFlop/s (Gesamtleistung) , 190.00 TiB (Hauptspeicher)
1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)
188 GPGPUs (Nvidia, NEC)
Zentrum für Informationsdienste und Hochleistungsrechnen
5.443 TFlop/s (Gesamtleistung) , 34.00 TiB (Hauptspeicher)
34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)
272 GPGPUs (Nvidia)
4.050 TFlop/s (Gesamtleistung) , 315.00 TiB (Hauptspeicher)
630 Knoten ( HDR100-Infiniband) , 65.520 CPU-Kerne (Intel)
Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)
511 TFlop/s (Gesamtleistung) , 46.00 TiB (Hauptspeicher)
728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)
21 Anwendungen (61 Versionen)
5.00 TiB (Hauptspeicher)
45 Knoten , 1.392 CPU-Kerne (Intel, AMD)
208 GPGPUs (Nvidia) , 3 Anwendungen (8 Versionen)
6.080 TFlop/s (Gesamtleistung) , 78.00 TiB (Hauptspeicher)
82 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 10.496 CPU-Kerne (AMD)
656 GPGPUs (Nvidia)
5.450 TFlop/s (Gesamtleistung) , 248.00 TiB (Hauptspeicher)
992 Knoten (Mellanox HDR100-Infiniband) , 71.424 CPU-Kerne (Intel)