Lichtenberg Cluster Darmstadt

Lichtenberg Hochleistungsrechner Darmstadt

Cluster Access

Universität

Technische Universität Darmstadt

Info

In Darmstadt steht mit dem Lichtenberg-cluster ein Hochleistungsrechner der mittleren Leistungsklasse (Tier 2) zur Verfügung. Die meisten Prozessoren sind CPUs, einige Akzeleratorkarten (NVIDIA) sind außerdem verfügbar.

Anmerkung: Die Phase I von Lichtenberg (Node Type A) ist seit April 2020 außer Betrieb.

Zusatzinfo

Cluster-Einführungen:

  • Monatliche Sprechstunden zur Erstellung von Projektanträgen zur Nutzung des Cluster: in der Regel jeden ersten Mittwoch im Monat.
  • Monatliche Einführung in die Nutzung des Clusters: in der Regel jeden 2. Dienstag im Monat. 
HPC Support
HKHLR Team Technische Universität Darmstadt
Downloads
Quick Reference Card Lichtenberg Darmstadt
Rechnerzugang

Der Cluster steht Wissenschaftlern aller Hochschulen und öffentlichen Forschungseinrichtungen Deutschlands offen. Die Rechenressourcen werden über ein wissenschaftsgeleitetes Vergabeverfahren gewährt.

Typical Node Parameters

Title
Node type A
Type
Typical
Cores (sockets x cores/socket)
2x8
Memory
32 GB
FLOPS/Core (DP, theor. peak)
20.8 GFLOPS
CPU Type
Intel Xeon E5-2670
MPI Communication (pt2pt)
Intranode
Bandwidth
4.6 GB/s
Latency (64 bytes)
0.73 µs
Memory Bandwidth (triad)
40 GB/s per socket
Accelerators

43 à 2x NVIDIA K20Xm

1.3 TFLOPS, 6GB each

Title
Node type A
Type
Max
Cores (sockets x cores/socket)
8x8
Memory
1 TB
FLOPS/Core (DP, theor. peak)
20.8 GFLOPS
CPU Type
Intel Xeon E7-8837
MPI Communication (pt2pt)
Internode
Bandwidth
4.7 GB/s
Latency (64 bytes)
1.34 µs
Memory Bandwidth (triad)
40 GB/s per socket
Title
Node type B
Type
Typical
Cores (sockets x cores/socket)
2x12
Memory
64 GB
FLOPS/Core (DP, theor. peak)
20.0 GFLOPS
CPU Type
Intel Xeon E5-2680v3
MPI Communication (pt2pt)
Intranode
Bandwidth
4.1 GB/s
Latency (64 bytes)
0.71 µs
Memory Bandwidth (triad)
60 GB/s per socket
Accelerators

2 à 2x NVIDIA K40m, 1 à 2x NVIDIA K80

1.4 TFLOPS, 12 GB each

Title
Node type B
Type
Max
Cores (sockets x cores/socket)
4x15
Memory
1 TB
FLOPS/Core (DP, theor. peak)
20.0 GFLOPS
CPU Type
Intel Xeon E7-4890v2
MPI Communication (pt2pt)
Internode
Bandwidth
6.5 GB/s
Latency (64 bytes)
1.29 µs
Memory Bandwidth (triad)
60 GB/s per socket
Lokaler Zwischenspeicher
150-300 GB (per node)
Knotenzuordnung
Shared and exclusive

Global Cluster Parameters

Prozessoren (CPU, DP, peak)
771 TFLOPS
Akzelerator (GPU, DP, peak)
180 TFLOPS
Rechenkerne (CPU)
27.928
Permanentspeicher
280 TB
Stapelspeicher
800 TB
Job Manager
Slurm Workload Manager
Andere Jobbeschränkungen

runtime: 24h, max. 7d

  • Cluster Access

  • Typical Node Parameters

  • Global Cluster Parameters

  • Universität

    Technische Universität Darmstadt

    Info

    In Darmstadt steht mit dem Lichtenberg-cluster ein Hochleistungsrechner der mittleren Leistungsklasse (Tier 2) zur Verfügung. Die meisten Prozessoren sind CPUs, einige Akzeleratorkarten (NVIDIA) sind außerdem verfügbar.

    Anmerkung: Die Phase I von Lichtenberg (Node Type A) ist seit April 2020 außer Betrieb.

    Zusatzinfo

    Cluster-Einführungen:

    • Monatliche Sprechstunden zur Erstellung von Projektanträgen zur Nutzung des Cluster: in der Regel jeden ersten Mittwoch im Monat.
    • Monatliche Einführung in die Nutzung des Clusters: in der Regel jeden 2. Dienstag im Monat. 
    HPC Support
    HKHLR Team Technische Universität Darmstadt
    Downloads
    Quick Reference Card Lichtenberg Darmstadt
    Rechnerzugang

    Der Cluster steht Wissenschaftlern aller Hochschulen und öffentlichen Forschungseinrichtungen Deutschlands offen. Die Rechenressourcen werden über ein wissenschaftsgeleitetes Vergabeverfahren gewährt.

  • Title
    Node type A
    Type
    Typical
    Cores (sockets x cores/socket)
    2x8
    Memory
    32 GB
    FLOPS/Core (DP, theor. peak)
    20.8 GFLOPS
    CPU Type
    Intel Xeon E5-2670
    MPI Communication (pt2pt)
    Intranode
    Bandwidth
    4.6 GB/s
    Latency (64 bytes)
    0.73 µs
    Memory Bandwidth (triad)
    40 GB/s per socket
    Accelerators

    43 à 2x NVIDIA K20Xm

    1.3 TFLOPS, 6GB each

    Title
    Node type A
    Type
    Max
    Cores (sockets x cores/socket)
    8x8
    Memory
    1 TB
    FLOPS/Core (DP, theor. peak)
    20.8 GFLOPS
    CPU Type
    Intel Xeon E7-8837
    MPI Communication (pt2pt)
    Internode
    Bandwidth
    4.7 GB/s
    Latency (64 bytes)
    1.34 µs
    Memory Bandwidth (triad)
    40 GB/s per socket
    Title
    Node type B
    Type
    Typical
    Cores (sockets x cores/socket)
    2x12
    Memory
    64 GB
    FLOPS/Core (DP, theor. peak)
    20.0 GFLOPS
    CPU Type
    Intel Xeon E5-2680v3
    MPI Communication (pt2pt)
    Intranode
    Bandwidth
    4.1 GB/s
    Latency (64 bytes)
    0.71 µs
    Memory Bandwidth (triad)
    60 GB/s per socket
    Accelerators

    2 à 2x NVIDIA K40m, 1 à 2x NVIDIA K80

    1.4 TFLOPS, 12 GB each

    Title
    Node type B
    Type
    Max
    Cores (sockets x cores/socket)
    4x15
    Memory
    1 TB
    FLOPS/Core (DP, theor. peak)
    20.0 GFLOPS
    CPU Type
    Intel Xeon E7-4890v2
    MPI Communication (pt2pt)
    Internode
    Bandwidth
    6.5 GB/s
    Latency (64 bytes)
    1.29 µs
    Memory Bandwidth (triad)
    60 GB/s per socket
    Lokaler Zwischenspeicher
    150-300 GB (per node)
    Knotenzuordnung
    Shared and exclusive
  • Prozessoren (CPU, DP, peak)
    771 TFLOPS
    Akzelerator (GPU, DP, peak)
    180 TFLOPS
    Rechenkerne (CPU)
    27.928
    Permanentspeicher
    280 TB
    Stapelspeicher
    800 TB
    Job Manager
    Slurm Workload Manager
    Andere Jobbeschränkungen

    runtime: 24h, max. 7d

Related Projects