Filter zurücksetzen
Icon loader

HPC in Deutschland - Wer? Was? Wo?

Filtern nach

Prozessor

Hersteller

Generation

Modell

Kerne
Kerne

 

GPU/ManyCore/FPGA

Hersteller

Modell

Stück
Stück

 

Arbeitsspeicher
GB
GB
GB

 

Tags
TB
Gb/s
TB

 

Tags
Tags
59 HPC-Systeme, 33 Dateisysteme, 4 Archive von 35 Organisationen

Rechenzentrum

Freiburg im Breisgau
Ebene 3 HPC-System GPU-Knoten

155.00 TiB (Hauptspeicher)

256 Knoten , 38.848 CPU-Kerne (AMD, Intel)

52 GPGPUs (AMD, Nvidia)

Mehr erfahren

Fachgruppe Physik

Wuppertal
Megware
Ebene 3 HPC-System GPU-Knoten

78.00 TiB (Hauptspeicher)

281 Knoten , 17.968 CPU-Kerne (AMD, Intel)

40 GPGPUs (Nvidia)

Mehr erfahren

Deutscher Wetterdienst

Offenbach
HPC-System LU
NEC SX Aurora Tsubasa A412, SX Aurora Tsubasa C401
Ebene 2 HPC-System VE-Knoten

16.578 TFlop/s (Gesamtleistung) , 319.00 TiB (Hauptspeicher)

645 Knoten , 54.400 CPU-Kerne (NEC)

Mehr erfahren

HPC-System LU
NEC SX Aurora Tsubasa A412, SX Aurora Tsubasa C401
Ebene 2 HPC-System VE-Knoten

12.775 TFlop/s (Gesamtleistung) , 246.00 TiB (Hauptspeicher)

497 Knoten , 41.920 CPU-Kerne (NEC)

Mehr erfahren

Deutsches Elektronen Synchrotron

Hamburg
Ebene 3 HPC-System GPU-Knoten

37 TFlop/s (Gesamtleistung)

43 Knoten , 2.416 CPU-Kerne (Intel, AMD)

14 GPGPUs (Nvidia)

Mehr erfahren

Ebene 3 HPC-System

16 TFlop/s (Gesamtleistung)

143 Knoten , 2.288 CPU-Kerne (Intel)

Mehr erfahren

Unknown -
Ebene 3 HPC-System GPU-Knoten MPP-System

2.321 TFlop/s (Gesamtleistung) , 393.00 TiB (Hauptspeicher)

764 Knoten , 26.668 CPU-Kerne (Intel, AMD)

282 GPGPUs (Nvidia)

Mehr erfahren

Deutsches Klimarechenzentrum GmbH

Hamburg
HPC-System Levante
Atos BullSequana XH2000
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

16.600 TFlop/s (Gesamtleistung) , 863.00 TiB (Hauptspeicher)

3.042 Knoten , 389.376 CPU-Kerne (AMD)

240 GPGPUs (Nvidia)

Mehr erfahren

ZDV

Tübingen
Ebene 3 HPC-System GPU-Knoten

543 TFlop/s (Gesamtleistung) , 41.00 TiB (Hauptspeicher)

302 Knoten , 6.120 CPU-Kerne (Intel)

124 GPGPUs (Nvidia)

Mehr erfahren

Competence Center High Performance Computing (CC-HPC)

Kaiserslautern
Dell PowerEdge
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

67 TFlop/s (Gesamtleistung) , 14.00 TiB (Hauptspeicher)

198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)

2 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Beehive (BeeGFS)
240 TB
Ebene 3 HPC-System GPU-Knoten MPP-System Xeon-Phi-Knoten

35 TFlop/s (Gesamtleistung) , 6.00 TiB (Hauptspeicher)

90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)

3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)

Mehr erfahren

Dateisysteme
Seislab (BeeGFS)
600 TB

Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

Göttingen
Sysgen GPU Cluster, Compute Cluster, Transtec Compute Cluster, DELTA Computer Compute Cluster, Atos Intel PCSD, Clustervision Compute Cluster
Ebene 3 HPC-System GPU-Knoten MPP-System

2.883 TFlop/s (Gesamtleistung) , 90.00 TiB (Hauptspeicher)

402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)

278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)

Mehr erfahren

Dateisysteme
Bioinformatics WORK (BeeGFS-Storage-Server)
243 TB
MPS WORK (Storage Server)
140 TB
SCC HOME (StorNext - LAN Client)
1900 TB
SCC HOME (Stor Next - NFS)
900 TB
SCC scratch2 (Storage Server)
110 TB
SCC scratch (MDC) (Storage Server)
1865 TB
Archive
SCC Archivspeicher (Scalar i6000)
22000 TB
Ebene 2 HPC-System MPP-System

8.261 TFlop/s (Gesamtleistung) , 487.00 TiB (Hauptspeicher)

1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)

12 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HLRN-IV Work (EXAScaler)
9412 TB
HLRN-IV Home (GRIDScaler)
340 TB
Archive
HLRN Archivspeicher (Scalar i6000)
7037 TB
Megware GPU Server System
Ebene 2 HPC-System GPU-Knoten GPU-System

14.760 TFlop/s (Gesamtleistung) , 74.00 TiB (Hauptspeicher)

126 Knoten , 8.632 CPU-Kerne (Intel, AMD)

504 GPGPUs (Nvidia)

Mehr erfahren

Zentrum für Informations- und Medientechnologie

Düsseldorf
SuperMicro , Unknown , Nvidia DGX A100
GPU-Knoten

64.00 TiB (Hauptspeicher)

212 Knoten , 6.820 CPU-Kerne (AMD, Intel, Alpha Data)

230 GPGPUs (Nvidia)

Mehr erfahren

Zentralabteilung Informationsdienste und Computing

Dresden
NEC
Ebene 3 HPC-System FPGA-Knoten GPU-Knoten MPP-System SMP-Knoten

6.800 TFlop/s (Gesamtleistung) , 255.00 TiB (Hauptspeicher)

357 Knoten , 29.776 CPU-Kerne (Intel, AMD)

268 GPGPUs (Nvidia) , 2 FPGAs (AMD XILINX)

Mehr erfahren

hessian.AI

Darmstadt
Hewlett Packard Enterprise (HPE) Apollo 6500
GPU-Knoten

8.830 TFlop/s (Gesamtleistung) , 159.00 TiB (Hauptspeicher)

81 Knoten , 2.784 CPU-Kerne (AMD)

632 GPGPUs (Nvidia)

Mehr erfahren

Hochschulrechenzentrum

Darmstadt
Intel Cascadelake, Lenovo ThinkSystem SD650 V3
Ebene 2 HPC-System GPU-Knoten SMP-Knoten

8.500 TFlop/s (Gesamtleistung) , 549.00 TiB (Hauptspeicher)

1.229 Knoten ( HDR100-Infiniband, Mellanox HDR100-Infiniband) , 122.816 CPU-Kerne (Intel, AMD)

84 GPGPUs (Nvidia, Intel)

Mehr erfahren

Dateisysteme
GLOBAL (DSS)
4000 TB

Höchstleistungsrechenzentrum Stuttgart

Stuttgart
Hewlett Packard Enterprise (HPE)
GPU-Knoten

24.00 TiB (Hauptspeicher)

24 Knoten , 3.072 CPU-Kerne (AMD)

192 GPGPUs (Nvidia)

Mehr erfahren

HPC-System vulcan
NEC
Ebene 3 HPC-System GPU-System VE-Knoten

120.00 TiB (Hauptspeicher)

476 Knoten , 14.480 CPU-Kerne (Intel, NEC)

16 GPGPUs (AMD, Nvidia)

Mehr erfahren

Hewlett Packard Enterprise (HPE) Cray EX4000
Ebene 1 HPC-System GPU-Knoten MPP-System

48.100 TFlop/s (Gesamtleistung) , 286.00 TiB (Hauptspeicher)

444 Knoten , 34.432 CPU-Kerne (AMD)

752 GPGPUs (AMD)

Mehr erfahren

IT Center der RWTH Aachen University

Aachen
HPC-System CLAIX-2023
NEC HPC1808Rk-2
Ebene 2 HPC-System Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

11.484 TFlop/s (Gesamtleistung) , 226.00 TiB (Hauptspeicher)

684 Knoten , 65.664 CPU-Kerne (Intel)

208 GPGPUs (Nvidia)

Mehr erfahren

Jülich Supercomputing Centre (JSC)

Jülich
Supercomputer JUWELS am Jülich Supercomputing Centre
Atos BullSequana X1000
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

85.000 TFlop/s (Gesamtleistung) , 749.00 TiB (Hauptspeicher)

3.515 Knoten (Mellanox EDR-Infiniband, HDR200-Infiniband) , 168.208 CPU-Kerne (Intel, AMD)

3956 GPGPUs (Nvidia)

Mehr erfahren

HPC-System JURECA
Atos BullSequana XH2000
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

18.520 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)

780 Knoten (Mellanox HDR100-Infiniband) , 99.840 CPU-Kerne (AMD)

768 GPGPUs (Nvidia)

Mehr erfahren

Eviden Bullsequana XH3000
Ebene 1 HPC-System GPU-Knoten GPU-System MPP-System

94.000 TFlop/s (Gesamtleistung) , 23.00 TiB (Hauptspeicher)

48 Knoten , 13.824 CPU-Kerne (Nvidia)

192 GPGPUs (Nvidia)

Mehr erfahren

Zuse-Institut Berlin

Berlin-Dahlem
Foto HPC-System Lise
Atos Bull Intel cluster, Eviden
Ebene 2 HPC-System MPP-System

10.707 TFlop/s (Gesamtleistung) , 677.00 TiB (Hauptspeicher)

1.192 Knoten (Intel Omnipath, NDR-Infiniband) , 113.424 CPU-Kerne (Intel, AMD)

42 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HLRN-IV WORK (DDN EXAScaler)
8192 TB
HLRN-IV HOME (DDN GRIDScaler)
340 TB
Archive
Archivspeicher (StorageTEK SL8500)
25000 TB

Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Garching bei München
Lenovo ThinkSystem SD 650 DWC, ThinkSystem SD650-I V3
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

54.860 TFlop/s (Gesamtleistung) , 822.00 TiB (Hauptspeicher)

6.720 Knoten (Intel Omnipath, Mellanox HDR200-Infiniband) , 337.920 CPU-Kerne (Intel)

960 GPGPUs (Intel)

Mehr erfahren

Max Planck Computing & Data Facility

Garching
Lenovo ThinkSystem SD650 V2
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

24.800 TFlop/s (Gesamtleistung) , 517.00 TiB (Hauptspeicher)

1.784 Knoten , 128.448 CPU-Kerne (Intel)

768 GPGPUs (Nvidia)

Mehr erfahren

Eviden XH3000
Ebene 2 HPC-System MPP-System SMP-Knoten

4.900 TFlop/s (Gesamtleistung) , 445.00 TiB (Hauptspeicher)

768 Knoten , 98.304 CPU-Kerne (AMD)

Mehr erfahren

Eviden BullSequana XH3000
Ebene 2 HPC-System GPU-System MPP-System

36.000 TFlop/s (Gesamtleistung) , 75.00 TiB (Hauptspeicher)

300 Knoten , 14.400 CPU-Kerne (AMD)

600 GPGPUs (AMD)

Mehr erfahren

Paderborn Center for Parallel Computing

Paderborn
Arbor Workstation 2HE C612 INTEL
Ebene 3 HPC-System FPGA-Knoten

512.00 GiB (Hauptspeicher)

8 Knoten , 32 CPU-Kerne (Intel)

16 FPGAs (Alpha Data)

Mehr erfahren

Cray CS500
Ebene 3 HPC-System GPU-Knoten MPP-System

835 TFlop/s (Gesamtleistung) , 51.00 TiB (Hauptspeicher)

274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)

18 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Scratch (Cray ClusterStor)
720 TB
Atos Bull Sequana XH2000, Nvidia DGX -A100
Ebene 2 HPC-System FPGA-Knoten GPU-Knoten MPP-System

7.100 TFlop/s (Gesamtleistung) , 347.00 TiB (Hauptspeicher)

1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)

136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)

Mehr erfahren

Dateisysteme
Scratch (DDN Exascaler 7990X with NVMe accelerator)
6000 TB

Regionales Hochschulrechenzentrum Kaiserslautern-Landau (RHRZ)

Kaiserslautern
HPC-Cluster Elwetritsch II der TUK
Dell PowerEdge R, NEC HPC1812Rh-1, Nvidia DGX-2, DGX-1
Ebene 3 HPC-System GPU-Knoten GPU-System MPP-System SMP-Knoten SSD Speicher Xeon-Phi-Knoten

3.072 TFlop/s (Gesamtleistung) , 52.00 TiB (Hauptspeicher)

489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)

56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)

Mehr erfahren

NEC HPC2824Ri-2, DELTA Computer Products GmbH D22z-M2-ZG, Nvidia DGX B200
Ebene 3 HPC-System GPU-Knoten GPU-System SMP-Knoten

489 TFlop/s (Gesamtleistung) , 68.00 TiB (Hauptspeicher)

244 Knoten ( Omnipath) , 4.240 CPU-Kerne (AMD, Intel)

56 GPGPUs (Nvidia)

Mehr erfahren

Hochschulrechenzentrum

Bonn
Unknown
Ebene 3 HPC-System GPU-Knoten SMP-Knoten

304.00 TiB (Hauptspeicher)

277 Knoten , 28.384 CPU-Kerne (AMD, Intel)

320 GPGPUs (Nvidia)

Mehr erfahren

IT.SERVICES

Bochum
Unknown
Ebene 3 HPC-System GPU-Knoten

151.00 TiB (Hauptspeicher)

324 Knoten , 16.512 CPU-Kerne (AMD)

116 GPGPUs (Nvidia)

Mehr erfahren

URZ

Heidelberg
Ebene 3 HPC-System GPU-Knoten SMP-Knoten

147.00 TiB (Hauptspeicher)

432 Knoten , 27.648 CPU-Kerne (AMD)

276 GPGPUs (Nvidia)

Mehr erfahren

Scientific Computing Center

Karlsruhe
bwUniCluster 2.0 Stufe 1
Hewlett Packard Enterprise (HPE) ProLiant, Lenovo ThinkSystem
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

155.00 TiB (Hauptspeicher)

837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)

196 GPGPUs (Nvidia)

Mehr erfahren

HoreKa
Lenovo ThinkSystem SD650 V2
Ebene 2 HPC-System GPU-Knoten MPP-System

18.520 TFlop/s (Gesamtleistung) , 242.00 TiB (Hauptspeicher)

769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)

668 GPGPUs (Nvidia)

Mehr erfahren

Scientific Computing Center

Eggenstein-Leopoldshafen

IT und Medien Centrum

Dortmund
Megware
Ebene 3 HPC-System GPU-Knoten

30.00 TiB (Hauptspeicher)

366 Knoten , 8.160 CPU-Kerne (Intel)

40 GPGPUs (Nvidia)

Mehr erfahren

Universität Bielefeld – Fakultät Physik

Bielefeld
Ebene 3 HPC-System GPU-System

11.00 TiB (Hauptspeicher)

28 Knoten , 560 CPU-Kerne (Intel)

224 GPGPUs (Nvidia)

Mehr erfahren

Zentrum für Informations- und Mediendienste

Essen
NEC
Ebene 3 HPC-System

55.00 TiB (Hauptspeicher)

624 Knoten , 14.976 CPU-Kerne (Intel)

Mehr erfahren

Megware
Ebene 3 HPC-System GPU-Knoten SMP-Knoten

5.500 TFlop/s (Gesamtleistung) , 177.00 TiB (Hauptspeicher)

259 Knoten , 29.008 CPU-Kerne (Intel)

68 GPGPUs (Nvidia)

Mehr erfahren

Regionales Rechenzentrum (RRZ)

Hamburg
NEC
Ebene 3 HPC-System GPU-Knoten SMP-Knoten

2.640 TFlop/s (Gesamtleistung) , 147.00 TiB (Hauptspeicher)

182 Knoten , 34.432 CPU-Kerne (AMD)

32 GPGPUs (Nvidia)

Mehr erfahren

Zentrum für Informations- und Medientechnologie

Siegen
Unknown
Ebene 3 HPC-System GPU-Knoten

119.00 TiB (Hauptspeicher)

459 Knoten , 29.376 CPU-Kerne (Intel, AMD)

20 GPGPUs (Nvidia)

Mehr erfahren

Kommunikations- und Informationszentrum (kiz)

Ulm
Ebene 3 HPC-System FPGA-Knoten GPU-Knoten

188.00 TiB (Hauptspeicher)

692 Knoten , 33.216 CPU-Kerne (Intel)

28 GPGPUs (Nvidia) , 2 FPGAs (Bittware)

Mehr erfahren

Zentrum für Informationsverarbeitung

Münster
Megware

67.00 TiB (Hauptspeicher)

412 Knoten , 15.120 CPU-Kerne (Intel)

Mehr erfahren

Zentrum für Datenverarbeitung

Mainz
Megware MiriQuid, NEC NEC Cluster, Intel NEC Cluster
Ebene 2 HPC-System MPP-System SSD Speicher

3.125 TFlop/s (Gesamtleistung) , 190.00 TiB (Hauptspeicher)

1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)

188 GPGPUs (Nvidia, NEC)

Mehr erfahren

Dateisysteme
Mogon (GPFS)
1024 TB
Lustre (Lustre)
7394 TB
Ebene 2 HPC-System GPU-Knoten

2.800 TFlop/s (Gesamtleistung) , 219.00 TiB (Hauptspeicher)

600 Knoten ( HDR100-Infiniband) , 76.800 CPU-Kerne (AMD)

40 GPGPUs (Nvidia)

Mehr erfahren

Zentrum für Informationsdienste und Hochleistungsrechnen

Dresden
NEC HPC 22S8Ri-4

5.443 TFlop/s (Gesamtleistung) , 34.00 TiB (Hauptspeicher)

34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)

272 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
walrus (ES400NVX2)
20000 TB
/home (Intelliflash)
2000 TB
HPC-System Barnard
Eviden XH2000

4.050 TFlop/s (Gesamtleistung) , 315.00 TiB (Hauptspeicher)

630 Knoten ( HDR100-Infiniband) , 65.520 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
walrus (ES400NVX2)
20000 TB
/home (Intelliflash)
2000 TB
NEC Gigabyte

762 TFlop/s (Gesamtleistung) , 94.00 TiB (Hauptspeicher)

188 Knoten ( HDR200-Infiniband) , 24.064 CPU-Kerne (AMD)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
walrus (ES400NVX2)
20000 TB
/home (Intelliflash)
2000 TB
Hewlett Packard Enterprise (HPE) Superdome Flex

28 TFlop/s (Gesamtleistung) , 48.00 TiB (Hauptspeicher)

25.088 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
walrus (ES400NVX2)
20000 TB
/home (Intelliflash)
2000 TB
Megware Lenovo ThinkSystem SD665-N V3

39.664 TFlop/s (Gesamtleistung) , 111.00 TiB (Hauptspeicher)

148 Knoten ( HDR200-Infiniband) , 9.472 CPU-Kerne (AMD)

592 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
walrus (ES400NVX2)
20000 TB
/home (Intelliflash)
2000 TB
cat (Weka-Cluster)
2000 TB

Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)

Erlangen
Megware Linux-Cluster
Ebene 3 HPC-System MPP-System

511 TFlop/s (Gesamtleistung) , 46.00 TiB (Hauptspeicher)

728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)

21 Anwendungen (61 Versionen)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Alex
Megware GPGPU Cluster, GPU-Cluster, NF5488A5
Ebene 2 HPC-System Ebene 3 HPC-System GPU-Knoten GPU-System

6.080 TFlop/s (Gesamtleistung) , 78.00 TiB (Hauptspeicher)

82 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 10.496 CPU-Kerne (AMD)

656 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Fritz
Megware D50TNP
Ebene 2 HPC-System Ebene 3 HPC-System MPP-System

5.450 TFlop/s (Gesamtleistung) , 248.00 TiB (Hauptspeicher)

992 Knoten (Mellanox HDR100-Infiniband) , 71.424 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
Megware Lenovo ThinkSystem SD665-N V3
Ebene 2 HPC-System GPU-System

51.920 TFlop/s (Gesamtleistung) , 144.00 TiB (Hauptspeicher)

192 Knoten , 24.576 CPU-Kerne (AMD)

768 GPGPUs (Nvidia)

Mehr erfahren