From 4725514a39d6cc3828ef64c4186e7eb0f16c1d4f Mon Sep 17 00:00:00 2001 From: Curdin Marxer Date: Mon, 3 Mar 2025 11:29:05 +0100 Subject: [PATCH] Workstations-Getting-Started.md aktualisiert --- Workstations-Getting-Started.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 1498975..808a137 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -161,7 +161,7 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden): ``` -salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G --mem-per-gpu=5G +salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem=7G ``` Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben: