diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 640c81b..1498975 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -93,7 +93,7 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch #SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden #SBATCH --cpus-per-task=1 ## Die Anzahl Threads die Slurm starten soll #SBATCH --ntasks-per-node=64 ## Die Anzahl Prozesse die gestartet werden sollen -#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (hier eine GPU, mit der Syntax :1) +#SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2) ### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden srun factor 1234567890123456789012345678901234567890