From 800da4635d0b6fadfedfde7447698c3d829f3963 Mon Sep 17 00:00:00 2001 From: Curdin Marxer Date: Mon, 3 Mar 2025 13:51:53 +0100 Subject: [PATCH] Workstations-Getting-Started.md aktualisiert --- Workstations-Getting-Started.md | 5 ++--- 1 file changed, 2 insertions(+), 3 deletions(-) diff --git a/Workstations-Getting-Started.md b/Workstations-Getting-Started.md index 86757d4..0bab908 100644 --- a/Workstations-Getting-Started.md +++ b/Workstations-Getting-Started.md @@ -91,9 +91,8 @@ Für *sbatch* muss ein Shellskript geschrieben werden das einerseits einen Absch #SBATCH --time=1:30:00 ## Zeitlimite. Diese sollte gleich oder kleiner der Partitions Zeitlimite sein. In diesem Fall ist diese auf 1 Stunde und 30 Minuten gesetzt. #SBATCH --job-name="Mein Test" ## Job Name. #SBATCH --partition=students ## Partitionsname. Die zur Verfügung stehenden Partitionen können mit dem Befehl sinfo angezeigt werden -#SBATCH --cpus-per-task=1 ## Die Anzahl Threads die Slurm starten soll #SBATCH --mem=200G ## Der Arbeitsspeicher, welcher für den Job reserviert wird -#SBATCH --ntasks-per-node=1 ## Die Anzahl Prozesse die gestartet werden sollen +#SBATCH --ntasks=16 ## Die Anzahl virtueller Cores, die für den Job reserviert werden #SBATCH --gpus=a100:2 ## Die Anzahl GPUs (in diesem Beispiel zwei GPUs, mit der Syntax :2) ### Ausführen des effektiven Befehls in der Shell. Bei einer Machine Learning Aufgabe würde hier typischerweise ein Python Skript aufgerufen werden @@ -135,7 +134,7 @@ Etwas genauer gerechnet: 508'486 MB RAM (515'654−(7×1'024)) Daher könnten wir für den obigen Fall den folgenden Slurmjob auf dem Rechner zur sofortigen Ausführung bringen: ``` -salloc -p students --time=00:03:00 -n 32 --mem=515654 +salloc -p students --time=00:03:00 --ntasks=16 --mem=515654 ``` Leider zeigt `scontrol show node` momentan noch nicht an, ob die GPUs belegt oder frei sind.