From 41987c201d8453e212f03fd020980f7831819b66 Mon Sep 17 00:00:00 2001 From: Curdin Marxer Date: Thu, 31 Oct 2024 17:17:11 +0100 Subject: [PATCH] Workstations-Getting-Started.md aktualisiert added --mem-per-gpu configuration of slurm job --- Workstations-Getting-Started.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 28ef96a..83cb3e2 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -161,7 +161,7 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden): ``` -salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G +salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G --mem-per-gpu=5G ``` Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben: