forked from CDS/infrastruktur-dok
Workstations-Getting-Started.md aktualisiert
This commit is contained in:
parent
bf7b7af3da
commit
800da4635d
@ -91,9 +91,8 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch
|
||||
#SBATCH --time=1:30:00 ## Zeitlimite. Diese sollte gleich oder kleiner der Partitions Zeitlimite sein. In diesem Fall ist diese auf 1 Stunde und 30 Minuten gesetzt.
|
||||
#SBATCH --job-name="Mein Test" ## Job Name.
|
||||
#SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden
|
||||
#SBATCH --cpus-per-task=1 ## Die Anzahl Threads die Slurm starten soll
|
||||
#SBATCH --mem=200G ## Der Arbeitsspeicher, welcher für den Job reserviert wird
|
||||
#SBATCH --ntasks-per-node=1 ## Die Anzahl Prozesse die gestartet werden sollen
|
||||
#SBATCH --ntasks=16 ## Die Anzahl virtueller Cores, die für den Job reserviert werden
|
||||
#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2)
|
||||
|
||||
### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden
|
||||
@ -135,7 +134,7 @@ Etwas genauer gerechnet: 508'486 MB RAM (515'654−(7×1'024))
|
||||
Daher könnten wir für den obigen Fall den folgenden Slurmjob auf dem Rechner zur sofortigen Ausführung bringen:
|
||||
|
||||
```
|
||||
salloc -p students --time=00:03:00 -n 32 --mem=515654
|
||||
salloc -p students --time=00:03:00 --ntasks=16 --mem=515654
|
||||
```
|
||||
|
||||
Leider zeigt `scontrol show node` momentan noch nicht an, ob die GPUs belegt oder frei sind.
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user