From bc81137f20407d1429b04178ba099ed17d1f6598 Mon Sep 17 00:00:00 2001 From: Thomas Keller Date: Fri, 23 Aug 2024 12:10:24 +0200 Subject: [PATCH] Update Workstations-Getting-Started.md --- Workstations-Getting-Started.md | 3 ++- 1 file changed, 2 insertions(+), 1 deletion(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index d76efaf..180c59b 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -123,7 +123,8 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia ### Starten eines Slurmjobs Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden): -```salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G +``` +salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G ``` Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben: