forked from CDS/infrastruktur-dok
Workstations-Getting-Started.md aktualisiert
This commit is contained in:
parent
800da4635d
commit
b0d23b248c
@ -92,7 +92,7 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch
|
||||
#SBATCH --job-name="Mein Test" ## Job Name.
|
||||
#SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden
|
||||
#SBATCH --mem=200G ## Der Arbeitsspeicher, welcher für den Job reserviert wird
|
||||
#SBATCH --ntasks=16 ## Die Anzahl virtueller Cores, die für den Job reserviert werden
|
||||
#SBATCH --cpus-per-task=16 ## Die Anzahl virtueller Cores, die für den Job reserviert werden
|
||||
#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2)
|
||||
|
||||
### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden
|
||||
@ -134,7 +134,7 @@ Etwas genauer gerechnet: 508'486 MB RAM (515'654−(7×1'024))
|
||||
Daher könnten wir für den obigen Fall den folgenden Slurmjob auf dem Rechner zur sofortigen Ausführung bringen:
|
||||
|
||||
```
|
||||
salloc -p students --time=00:03:00 --ntasks=16 --mem=515654
|
||||
salloc -p students --time=00:03:00 --cpus-per-task=16 --mem=515654
|
||||
```
|
||||
|
||||
Leider zeigt `scontrol show node` momentan noch nicht an, ob die GPUs belegt oder frei sind.
|
||||
@ -161,7 +161,7 @@ apptainer exec --writable --fakeroot sandboxes/tensorflow/ apt install -y nvidia
|
||||
Um auf die GPUs der Workstation zuzugreifen, brauchen wir zwingend eine Slurm Session. Da unser Programm nur für eine GPU ausgelegt ist, fordern wir auch nur eine GPU mit Slurm an (die zweite GPU kann von einem weiteren Benutzer für eine gleichzeitig laufende Berechnung angefordert werden):
|
||||
|
||||
```
|
||||
salloc -p students --time=2:00:00 -G a100:1 --ntasks=32 --mem=7G
|
||||
salloc -p students --time=2:00:00 -G a100:1 --cpus-per-task=16 --mem=7G
|
||||
```
|
||||
|
||||
Sobald unser Slurm Job an der Reihe ist um ausgeführt zu werden (siehe `squeue`), können wir mit den folgenden Befehlen testen ob wir Zugriff auf die GPU haben:
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user