forked from CDS/infrastruktur-dok
Update Workstations-Getting-Started.md
This commit is contained in:
parent
741feabd39
commit
847b9f97c5
@ -123,17 +123,19 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia
|
||||
### Starten eines Slurmjobs
|
||||
Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden):
|
||||
|
||||
`salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G`
|
||||
|
||||
```salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem-per-cpu=7G
|
||||
```
|
||||
`
|
||||
Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben:
|
||||
|
||||
```
|
||||
apptainer shell --nv "${HOME}/build-apptainer/tensorflow-2.16.1-gpu.sif"
|
||||
|
||||
```
|
||||
python3 <<- EOF
|
||||
import tensorflow as tf
|
||||
print(tf.config.list_physical_devices('GPU')[0])
|
||||
EOF
|
||||
|
||||
exit
|
||||
```
|
||||
In der letzten Ausgabezeile unseres Skripts sollte im Falle eines Erfolgs nun
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user