From 847b9f97c5de00decb50ec098a9c1ca44396c0b4 Mon Sep 17 00:00:00 2001 From: Thomas Keller Date: Fri, 23 Aug 2024 12:08:22 +0200 Subject: [PATCH] Update Workstations-Getting-Started.md --- Workstations-Getting-Started.md | 8 +++++--- 1 file changed, 5 insertions(+), 3 deletions(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 4817263..a75067d 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -123,17 +123,19 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia ### Starten eines Slurmjobs Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden): -`salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G` - +```salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G +``` +` Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben: ``` apptainer shell --nv "${HOME}/build-apptainer/tensorflow-2.16.1-gpu.sif" - +``` python3 <<- EOF import tensorflow as tf print(tf.config.list_physical_devices('GPU')[0]) EOF + exit ``` In der letzten Ausgabezeile unseres Skripts sollte im Falle eines Erfolgs nun