From 468859c4d2e52eaa63ffecb57f77ec7c581bb025 Mon Sep 17 00:00:00 2001 From: Thomas Keller Date: Mon, 3 Mar 2025 11:09:26 +0100 Subject: [PATCH] Update Workstations-Getting-Started.md --- Workstations-Getting-Started.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 640c81b..1498975 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -93,7 +93,7 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch #SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden #SBATCH --cpus-per-task=1 ## Die Anzahl Threads die Slurm starten soll #SBATCH --ntasks-per-node=64 ## Die Anzahl Prozesse die gestartet werden sollen -#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (hier eine GPU, mit der Syntax :1) +#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2) ### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden srun factor 1234567890123456789012345678901234567890