diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 808a137..86757d4 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -92,7 +92,8 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch #SBATCH --job-name="Mein Test" ## Job Name. #SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden #SBATCH --cpus-per-task=1 ## Die Anzahl Threads die Slurm starten soll -#SBATCH --ntasks-per-node=64 ## Die Anzahl Prozesse die gestartet werden sollen +#SBATCH --mem=200G ## Der Arbeitsspeicher, welcher für den Job reserviert wird +#SBATCH --ntasks-per-node=1 ## Die Anzahl Prozesse die gestartet werden sollen #SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2) ### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden