Filter zurücksetzen
Icon loader

HPC in Deutschland - Wer? Was? Wo?

Filtern nach

Prozessor

Hersteller

Generation

Modell

Kerne
Kerne

 

GPU/ManyCore/FPGA

Hersteller

Modell

Stück
Stück

 

Arbeitsspeicher
GB
GB
GB

 

Tags
TB
Gb/s
TB

 

Tags
Tags
43 HPC-Systeme, 38 Dateisysteme, 4 Archive von 21 Organisationen

Center for Scientific Computing

Frankfurt am Main
Megware
Ebene 2 HPC-System GPU-Knoten MPP-System

823 TFlop/s (Gesamtleistung) , 69.00 TiB (Hauptspeicher)

848 Knoten (Unknown QDR-Infiniband, FDR-Infiniband) , 18.960 CPU-Kerne (Intel, AMD)

700 GPGPUs (AMD)

Mehr erfahren

Dateisysteme
CSC-LOEWE (FhGFS)
764 TB
Clustervision
Ebene 3 HPC-System MPP-System

41 TFlop/s (Gesamtleistung) , 18.00 TiB (Hauptspeicher)

358 Knoten (Unknown QDR-Infiniband) , 6.456 CPU-Kerne (AMD)

Mehr erfahren

Dateisysteme
FUCHS (FhGFS)
600 TB

Deutscher Wetterdienst

Offenbach
HPC-System LU
NEC SX Aurora Tsubasa A412, SX Aurora Tsubasa C401
Ebene 2 HPC-System VE-Knoten

11.220 TFlop/s (Gesamtleistung) , 216.00 TiB (Hauptspeicher)

508 Knoten , 36.864 CPU-Kerne (NEC)

Mehr erfahren

HPC-System LU
NEC SX Aurora Tsubasa A412, SX Aurora Tsubasa C401
Ebene 2 HPC-System VE-Knoten

8.630 TFlop/s (Gesamtleistung) , 166.00 TiB (Hauptspeicher)

391 Knoten , 28.352 CPU-Kerne (NEC)

Mehr erfahren

Deutsches Elektronen Synchrotron

Hamburg
Ebene 3 HPC-System

16 TFlop/s (Gesamtleistung)

143 Knoten , 2.288 CPU-Kerne (Intel)

Mehr erfahren

Unknown -
Ebene 3 HPC-System GPU-Knoten MPP-System

2.321 TFlop/s (Gesamtleistung) , 393.00 TiB (Hauptspeicher)

764 Knoten , 26.732 CPU-Kerne (Intel, AMD)

282 GPGPUs (Nvidia)

Mehr erfahren

Deutsches Klimarechenzentrum GmbH

Hamburg
HPC-System Levante
Atos BullSequana XH2000
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

16.600 TFlop/s (Gesamtleistung) , 863.00 TiB (Hauptspeicher)

3.042 Knoten , 389.376 CPU-Kerne (AMD)

240 GPGPUs (Nvidia)

Mehr erfahren

Competence Center High Performance Computing (CC-HPC)

Kaiserslautern
Dell PowerEdge
Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

67 TFlop/s (Gesamtleistung) , 14.00 TiB (Hauptspeicher)

198 Knoten (Unknown FDR-Infiniband) , 3.224 CPU-Kerne (Intel)

2 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Beehive (BeeGFS)
240 TB
Ebene 3 HPC-System GPU-Knoten MPP-System Xeon-Phi-Knoten

35 TFlop/s (Gesamtleistung) , 6.00 TiB (Hauptspeicher)

90 Knoten (Unknown FDR-Infiniband, QDR-Infiniband) , 1.584 CPU-Kerne (Intel)

3 GPGPUs (Nvidia) , 2 Many-Core-Prozessoren (Intel)

Mehr erfahren

Dateisysteme
Seislab (BeeGFS)
600 TB

Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen

Göttingen
Sysgen GPU Cluster, Compute Cluster, Transtec Compute Cluster, DELTA Computer Compute Cluster, Atos Intel PCSD, Clustervision Compute Cluster
Ebene 3 HPC-System GPU-Knoten MPP-System

2.883 TFlop/s (Gesamtleistung) , 90.00 TiB (Hauptspeicher)

402 Knoten (Unknown QDR-Infiniband, FDR-Infiniband, Intel Omnipath, FDR-Infiniband) , 16.640 CPU-Kerne (Intel, AMD)

278 GPGPUs (Nvidia) , 302 Anwendungen (454 Versionen)

Mehr erfahren

Dateisysteme
Bioinformatics WORK (BeeGFS-Storage-Server)
243 TB
MPS WORK (Storage Server)
140 TB
SCC HOME (StorNext - LAN Client)
1900 TB
SCC HOME (Stor Next - NFS)
900 TB
SCC scratch2 (Storage Server)
110 TB
SCC scratch (MDC) (Storage Server)
1865 TB
Archive
SCC Archivspeicher (Scalar i6000)
22000 TB
Ebene 2 HPC-System MPP-System

8.261 TFlop/s (Gesamtleistung) , 487.00 TiB (Hauptspeicher)

1.473 Knoten (Intel Omnipath) , 116.152 CPU-Kerne (Intel)

12 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HLRN-IV Work (EXAScaler)
9412 TB
HLRN-IV Home (GRIDScaler)
340 TB
Archive
HLRN Archivspeicher (Scalar i6000)
7037 TB

Hochschulrechenzentrum

Darmstadt
Intel Cascadelake, Lenovo ThinkSystem SD650 V3
Ebene 2 HPC-System GPU-Knoten SMP-Knoten

8.500 TFlop/s (Gesamtleistung) , 549.00 TiB (Hauptspeicher)

1.229 Knoten ( HDR100-Infiniband, Mellanox HDR100-Infiniband) , 122.816 CPU-Kerne (Intel, AMD)

84 GPGPUs (Nvidia, Intel)

Mehr erfahren

Dateisysteme
GLOBAL (DSS)
4000 TB

Höchstleistungsrechenzentrum Stuttgart

Stuttgart
HPC-System Hawk
Hewlett Packard Enterprise (HPE) Apollo,
Ebene 1 HPC-System GPU-Knoten MPP-System

26.000 TFlop/s (Gesamtleistung) , 1.00 PiB (Hauptspeicher)

5.656 Knoten (Mellanox HDR200-Infiniband) , 723.968 CPU-Kerne (AMD)

192 GPGPUs (Nvidia)

Mehr erfahren

HPC-System vulcan
NEC
Ebene 3 HPC-System GPU-System VE-Knoten

120.00 TiB (Hauptspeicher)

476 Knoten , 14.480 CPU-Kerne (Intel, NEC)

16 GPGPUs (AMD, Nvidia)

Mehr erfahren

IT Center der RWTH Aachen University

Aachen
HPC-System CLAIX-2018
NEC HNS2600BPB
Ebene 2 HPC-System GPU-Knoten MPP-System SSD Speicher

4.965 TFlop/s (Gesamtleistung) , 245.00 TiB (Hauptspeicher)

1.307 Knoten (Intel Omnipath) , 62.736 CPU-Kerne (Intel)

96 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
HPCWORK (Claix 16) (Lustre)
3000 TB
HOME / WORK (NFS)
1500 TB
HPCWORK (Claix 18) (Lustre)
10000 TB
HPC-System CLAIX-2023
NEC HPC1808Rk-2
Ebene 2 HPC-System Ebene 3 HPC-System GPU-Knoten MPP-System SMP-Knoten

11.484 TFlop/s (Gesamtleistung) , 226.00 TiB (Hauptspeicher)

684 Knoten , 65.664 CPU-Kerne (Intel)

208 GPGPUs (Nvidia)

Mehr erfahren

Jülich Supercomputing Centre (JSC)

Jülich
Supercomputer JUWELS am Jülich Supercomputing Centre
Atos BullSequana X1000
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

85.000 TFlop/s (Gesamtleistung) , 749.00 TiB (Hauptspeicher)

3.515 Knoten (Mellanox EDR-Infiniband, HDR200-Infiniband) , 168.208 CPU-Kerne (Intel, AMD)

3956 GPGPUs (Nvidia)

Mehr erfahren

HPC-System JURECA
Atos BullSequana XH2000
GPU-Knoten MPP-System SMP-Knoten

18.520 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)

780 Knoten (Mellanox HDR100-Infiniband) , 99.840 CPU-Kerne (AMD)

768 GPGPUs (Nvidia)

Mehr erfahren

Zuse-Institut Berlin

Berlin-Dahlem
Foto HPC-System Lise
Atos Bull Intel cluster
Ebene 2 HPC-System MPP-System

7.907 TFlop/s (Gesamtleistung) , 444.00 TiB (Hauptspeicher)

1.146 Knoten (Intel Omnipath) , 110.016 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
HLRN-IV WORK (DDN EXAScaler)
8192 TB
HLRN-IV HOME (DDN GRIDScaler)
340 TB
Archive
Archivspeicher (StorageTEK SL8500)
25000 TB

Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Garching bei München
Lenovo ThinkSystem SD 650 DWC, ThinkSystem SD650-I V3
Ebene 1 HPC-System GPU-Knoten MPP-System SMP-Knoten

54.860 TFlop/s (Gesamtleistung) , 822.00 TiB (Hauptspeicher)

6.720 Knoten (Intel Omnipath, Mellanox HDR200-Infiniband) , 337.920 CPU-Kerne (Intel)

960 GPGPUs (Intel)

Mehr erfahren

Max Planck Computing & Data Facility

Garching
HPC System COBRA
Atos Intel Compute Module HNS2600BPB24, Lenovo
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

12.720 TFlop/s (Gesamtleistung) , 518.00 TiB (Hauptspeicher)

3.424 Knoten (Intel Omnipath) , 136.960 CPU-Kerne (Intel)

368 GPGPUs (Nvidia)

Mehr erfahren

Lenovo ThinkSystem SD650 V2
Ebene 2 HPC-System GPU-Knoten MPP-System SMP-Knoten

24.800 TFlop/s (Gesamtleistung) , 517.00 TiB (Hauptspeicher)

1.784 Knoten , 128.448 CPU-Kerne (Intel)

768 GPGPUs (Nvidia)

Mehr erfahren

Paderborn Center for Parallel Computing

Paderborn
Arbor Workstation 2HE C612 INTEL
Ebene 3 HPC-System FPGA-Knoten

512.00 GiB (Hauptspeicher)

8 Knoten , 32 CPU-Kerne (Intel)

16 FPGAs (Alpha Data)

Mehr erfahren

Cray CS500
Ebene 3 HPC-System GPU-Knoten MPP-System

835 TFlop/s (Gesamtleistung) , 51.00 TiB (Hauptspeicher)

274 Knoten (Intel Omnipath) , 10.960 CPU-Kerne (Intel)

18 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Scratch (Cray ClusterStor)
720 TB
Atos Bull Sequana XH2000, Nvidia DGX -A100
Ebene 2 HPC-System FPGA-Knoten GPU-Knoten MPP-System

7.100 TFlop/s (Gesamtleistung) , 347.00 TiB (Hauptspeicher)

1.121 Knoten (Mellanox HDR100-Infiniband) , 143.488 CPU-Kerne (AMD)

136 GPGPUs (Nvidia) , 80 FPGAs (Bittware, AMD XILINX)

Mehr erfahren

Dateisysteme
Scratch (DDN Exascaler 7990X with NVMe accelerator)
6000 TB

Regionales Hochschulrechenzentrum Kaiserslautern-Lindau (RHRZ)

Kaiserslautern
HPC-Cluster Elwetritsch II der TUK
Dell PowerEdge R, NEC HPC1812Rh-1, Nvidia DGX-2, DGX-1
Ebene 3 HPC-System GPU-Knoten GPU-System MPP-System SMP-Knoten SSD Speicher Xeon-Phi-Knoten

3.072 TFlop/s (Gesamtleistung) , 52.00 TiB (Hauptspeicher)

489 Knoten (Unknown QDR-Infiniband, Intel Omnipath) , 10.520 CPU-Kerne (Intel, AMD)

56 GPGPUs (Nvidia) , 56 Anwendungen (228 Versionen)

Mehr erfahren

NEC HPC2824Ri-2, DELTA Computer Products GmbH D22z-M2-ZG

66.00 TiB (Hauptspeicher)

243 Knoten ( Omnipath) , 4.128 CPU-Kerne (AMD)

48 GPGPUs (Nvidia)

Mehr erfahren

Regionales Rechenzentrum der Universität zu Köln

Köln
Bull bullx S
Ebene 3 HPC-System MPP-System SMP-Knoten

100 TFlop/s (Gesamtleistung) , 35.00 TiB (Hauptspeicher)

841 Knoten (Unknown QDR-Infiniband) , 9.712 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
CHEOPS (Lustre)
500 TB

Scientific Computing Center

Karlsruhe
bwUniCluster 2.0 Stufe 1
Hewlett Packard Enterprise (HPE) ProLiant, Lenovo ThinkSystem

155.00 TiB (Hauptspeicher)

837 Knoten ( HDR200-Infiniband) , 40.608 CPU-Kerne (Intel)

196 GPGPUs (Nvidia)

Mehr erfahren

HoreKa
Lenovo ThinkSystem

242.00 TiB (Hauptspeicher)

769 Knoten ( HDR200-Infiniband) , 58.444 CPU-Kerne (Intel)

668 GPGPUs (Nvidia)

Mehr erfahren

Steinbuch Centre for Computing

Eggenstein-Leopoldshafen

Zentrum für Datenverarbeitung

Mainz
Megware
Ebene 2 HPC-System GPU-Knoten MPP-System

379 TFlop/s (Gesamtleistung) , 88.00 TiB (Hauptspeicher)

570 Knoten (Unknown QDR-Infiniband) , 35.760 CPU-Kerne (Intel, AMD)

52 GPGPUs (Nvidia) , 8 Many-Core-Prozessoren (Intel)

Mehr erfahren

Dateisysteme
Lustre (Lustre)
7394 TB
Transtec
Ebene 3 HPC-System MPP-System

106 TFlop/s (Gesamtleistung) , 10.00 TiB (Hauptspeicher)

320 Knoten (Unknown QDR-Infiniband) , 5.120 CPU-Kerne (Intel)

Mehr erfahren

Megware MiriQuid, NEC NEC Cluster, Intel NEC Cluster
Ebene 2 HPC-System MPP-System SSD Speicher

3.125 TFlop/s (Gesamtleistung) , 190.00 TiB (Hauptspeicher)

1.948 Knoten (Intel Omnipath) , 52.248 CPU-Kerne (Intel)

188 GPGPUs (Nvidia, NEC)

Mehr erfahren

Dateisysteme
Mogon (GPFS)
1024 TB
Lustre (Lustre)
7394 TB

Zentrum für Informationsdienste und Hochleistungsrechnen

Dresden
NEC HPC 22S8Ri-4

5.443 TFlop/s (Gesamtleistung) , 34.00 TiB (Hauptspeicher)

34 Knoten ( HDR200-Infiniband) , 1.632 CPU-Kerne (AMD)

272 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Taurus (Lustre)
44 TB
home + interact (ES200NVX2)
1000 TB
HPC-System Barnard
Eviden XH2000

4.050 TFlop/s (Gesamtleistung) , 315.00 TiB (Hauptspeicher)

630 Knoten ( HDR100-Infiniband) , 65.520 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB
NEC Gigabyte

94.00 TiB (Hauptspeicher)

188 Knoten , 24.064 CPU-Kerne (AMD)

Mehr erfahren

Dateisysteme
home + interact (ES200NVX2)
1000 TB
IBM IBM Power9

13.00 TiB (Hauptspeicher)

30 Knoten , 1.320 CPU-Kerne (IBM)

180 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB
Hewlett Packard Enterprise (HPE) Superdome Flex

48.00 TiB (Hauptspeicher)

25.088 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
horse (ES400NVX2)
20000 TB
home + interact (ES200NVX2)
1000 TB

Zentrum für nationales Hochleistungsrechnen Erlangen (NHR@FAU)

Erlangen
Megware Linux-Cluster
Ebene 3 HPC-System MPP-System

511 TFlop/s (Gesamtleistung) , 46.00 TiB (Hauptspeicher)

728 Knoten (Intel Omnipath) , 14.560 CPU-Kerne (Intel)

21 Anwendungen (61 Versionen)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
Sysgen GPU-Nodes II, GPU-Nodes III, GPU-Nodes V, Supermicro 2124GQ-NART, Nvidia GPU-Nodes IV, TRADEX SYSTEMS Sp. z o.o. Gigabyte G481-H80
Ebene 3 HPC-System GPU-Knoten GPU-System

5.00 TiB (Hauptspeicher)

45 Knoten , 1.392 CPU-Kerne (Intel, AMD)

208 GPGPUs (Nvidia) , 3 Anwendungen (8 Versionen)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
Megware Supermicro X10DRH, RaidMedia Gigabyte H262-Z66

22.00 TiB (Hauptspeicher)

47 Knoten , 2.484 CPU-Kerne (Intel, AMD)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Alex
Megware GPGPU Cluster, GPU-Cluster, NF5488A5
Ebene 2 HPC-System Ebene 3 HPC-System GPU-Knoten GPU-System

6.080 TFlop/s (Gesamtleistung) , 78.00 TiB (Hauptspeicher)

82 Knoten (Mellanox HDR200-Infiniband, HDR200-Infiniband) , 10.496 CPU-Kerne (AMD)

656 GPGPUs (Nvidia)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB
HPC-System Fritz
Megware D50TNP
Ebene 2 HPC-System Ebene 3 HPC-System MPP-System

5.450 TFlop/s (Gesamtleistung) , 248.00 TiB (Hauptspeicher)

992 Knoten (Mellanox HDR100-Infiniband) , 71.424 CPU-Kerne (Intel)

Mehr erfahren

Dateisysteme
Global (GPFS/NFS)
50 TB
Saturn (HPE Apollo 4510 Gen10)
450 TB
Titan (HPE Apollo 4510 Gen10)
450 TB
Fundus-Disk (GPFS)
6000 TB
Atuin (PowerEdge XE7100/XE7440)
1000 TB
Fritz (Lustre)
3700 TB
Archive
Fundus-Tape (IBM TS4500)
15000 TB