HPC in Deutschland - Wer? Was? Wo?
Center for Scientific Computing
823 TFlop/s (Gesamtleistung) , 70 TB (Hauptspeicher)
848 Knoten (Unknown QDR-Infiniband, FDR-Infiniband) , 18.960 CPU-Kerne (Intel, AMD)
700 GPGPUs (AMD)
41 TFlop/s (Gesamtleistung) , 18 TB (Hauptspeicher)
358 Knoten (Unknown QDR-Infiniband) , 6.456 CPU-Kerne (AMD)
Deutscher Wetterdienst
1.072 TFlop/s (Gesamtleistung) , 125 TB (Hauptspeicher)
976 Knoten (Cray Aries) , 29.952 CPU-Kerne (Intel)
1.072 TFlop/s (Gesamtleistung) , 125 TB (Hauptspeicher)
976 Knoten (Cray Aries) , 29.952 CPU-Kerne (Intel)
Deutsches Elektronen Synchrotron
Deutsches Klimarechenzentrum GmbH
3.590 TFlop/s (Gesamtleistung) , 266 TB (Hauptspeicher)
3.336 Knoten (Unknown FDR-Infiniband, Mellanox FDR-Infiniband) , 101.196 CPU-Kerne (Intel)
42 GPGPUs (Nvidia)
Competence Center High Performance Computing (CC-HPC)
66 TFlop/s (Gesamtleistung) , 14 TB (Hauptspeicher)
198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)
2 GPGPUs (Nvidia)
35 TFlop/s (Gesamtleistung) , 6 TB (Hauptspeicher)
90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)
3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)
Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
2.883 TFlop/s (Gesamtleistung) , 92 TB (Hauptspeicher)
402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)
278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)
8.261 TFlop/s (Gesamtleistung) , 498 TB (Hauptspeicher)
1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)
12 GPGPUs (Nvidia)
Hochschulrechenzentrum
3.148 TFlop/s (Gesamtleistung) , 251 TB (Hauptspeicher)
643 Knoten ( HDR100-Infiniband) , 61.824 CPU-Kerne (Intel, AMD)
56 GPGPUs (Nvidia)
Höchstleistungsrechenzentrum Stuttgart
26.000 TFlop/s (Gesamtleistung) , 1 TB (Hauptspeicher)
5.632 Knoten (Unknown HDR200-Infiniband) , 720.896 CPU-Kerne (AMD)
IT Center der RWTH Aachen University
678 TFlop/s (Gesamtleistung) , 88 TB (Hauptspeicher)
633 Knoten (Intel Omnipath) , 16.152 CPU-Kerne (Intel)
20 GPGPUs (Nvidia)
4.964 TFlop/s (Gesamtleistung) , 251 TB (Hauptspeicher)
1.307 Knoten (Intel Omnipath) , 62.736 CPU-Kerne (Intel)
96 GPGPUs (Nvidia)
Jülich Supercomputing Centre (JSC)
12.000 TFlop/s (Gesamtleistung) , 286 TB (Hauptspeicher)
2.575 Knoten , 123.088 CPU-Kerne (Intel)
196 GPGPUs (Nvidia)
Zuse-Institut Berlin
7.907 TFlop/s (Gesamtleistung) , 455 TB (Hauptspeicher)
1.146 Knoten (Intel Omnipath) , 110.016 CPU-Kerne (Intel)
Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften
3.580 TFlop/s (Gesamtleistung) , 197 TB (Hauptspeicher)
3.072 Knoten (Unknown FDR-Infiniband) , 86.016 CPU-Kerne (Intel)
26.900 TFlop/s (Gesamtleistung) , 719 TB (Hauptspeicher)
6.480 Knoten (Intel Omnipath) , 311.040 CPU-Kerne (Intel)
Max Planck Computing & Data Facility
12.720 TFlop/s (Gesamtleistung) , 530 TB (Hauptspeicher)
3.424 Knoten (Intel Omnipath) , 136.960 CPU-Kerne (Intel)
368 GPGPUs (Nvidia)
Paderborn Center for Parallel Computing
835 TFlop/s (Gesamtleistung) , 53 TB (Hauptspeicher)
274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)
18 GPGPUs (Nvidia)
7.100 TFlop/s (Gesamtleistung) , 355 TB (Hauptspeicher)
1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)
136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)
Regionales Hochschulrechenzentrum Kaiserslautern (RHRK)
134 TFlop/s (Gesamtleistung) , 17 TB (Hauptspeicher)
319 Knoten (Unknown QDR-Infiniband) , 5.624 CPU-Kerne (Intel)
29 GPGPUs (Nvidia) , 6 Many-Core-Prozessoren (Intel) , 56 Anwendungen (228 Versionen)
53 TB (Hauptspeicher)
489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)
56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)
Regionales Rechenzentrum der Universität zu Köln
100 TFlop/s (Gesamtleistung) , 36 TB (Hauptspeicher)
841 Knoten (Unknown QDR-Infiniband) , 9.712 CPU-Kerne (Intel)
Scientific Computing Center
159 TB (Hauptspeicher)
837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)
196 GPGPUs (Nvidia)
248 TB (Hauptspeicher)
769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)
668 GPGPUs (Nvidia)
Steinbuch Centre for Computing
Zentrum für Datenverarbeitung
378 TFlop/s (Gesamtleistung) , 90 TB (Hauptspeicher)
570 Knoten (Unknown QDR-Infiniband) , 35.760 CPU-Kerne (Intel, AMD)
52 GPGPUs (Nvidia) , 8 Many-Core-Prozessoren (Intel)
106 TFlop/s (Gesamtleistung) , 10 TB (Hauptspeicher)
320 Knoten (Unknown QDR-Infiniband) , 5.120 CPU-Kerne (Intel)
3.125 TFlop/s (Gesamtleistung) , 194 TB (Hauptspeicher)
1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)
188 GPGPUs (Nvidia, NEC)
Zentrum für Informationsdienste und Hochleistungsrechnen
2.621 TFlop/s (Gesamtleistung) , 279 TB (Hauptspeicher)
1.782 Knoten (Unknown FDR-Infiniband, Mellanox HDR100-Infiniband) , 64.536 CPU-Kerne (Intel, IBM, AMD)
320 GPGPUs (Nvidia) , 415 Anwendungen (848 Versionen)
35 TB (Hauptspeicher)
34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)
272 GPGPUs (Nvidia)
Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)
231 TFlop/s (Gesamtleistung) , 36 TB (Hauptspeicher)
556 Knoten (Mellanox QDR-Infiniband) , 11.088 CPU-Kerne (Intel)
20 GPGPUs (Nvidia) , 44 Anwendungen (131 Versionen)
511 TFlop/s (Gesamtleistung) , 47 TB (Hauptspeicher)
728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)
21 Anwendungen (61 Versionen)
5 TB (Hauptspeicher)
45 Knoten , 1.392 CPU-Kerne (Intel, AMD)
208 GPGPUs (Nvidia) , 3 Anwendungen (8 Versionen)
65 TB (Hauptspeicher)
70 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 8.960 CPU-Kerne (AMD)
560 GPGPUs (Nvidia)
242 TB (Hauptspeicher)
944 Knoten (Mellanox HDR100-Infiniband) , 67.968 CPU-Kerne (Intel)