diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 4817263..a75067d 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -123,17 +123,19 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia ### Starten eines Slurmjobs Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden): -`salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G` - +```salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G +``` +` Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben: ``` apptainer shell --nv "${HOME}/build-apptainer/tensorflow-2.16.1-gpu.sif" - +``` python3 <<- EOF import tensorflow as tf print(tf.config.list_physical_devices('GPU')[0]) EOF + exit ``` In der letzten Ausgabezeile unseres Skripts sollte im Falle eines Erfolgs nun