From a7b0e2cb781d2f7a362fe6fd4d8a4c5a2adf3dca Mon Sep 17 00:00:00 2001 From: Thomas Keller Date: Fri, 8 Mar 2024 11:13:56 +0100 Subject: [PATCH] Update Cluster-PySpark-Howto.md --- Cluster-PySpark-Howto.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/Cluster-PySpark-Howto.md b/Cluster-PySpark-Howto.md index 22b6b4f..bf2feba 100644 --- a/Cluster-PySpark-Howto.md +++ b/Cluster-PySpark-Howto.md @@ -71,7 +71,7 @@ cp magpie/submission-scripts/script-sbatch-srun/magpie.sbatch-srun-spark . ``` Im Submission-Skript `magpie.sbatch-srun-spark` passen wir nun die folgenden Zeilen an; je nach benötigten Resourcen, können die Parameter zu den SBATCH Befehlen individuell angepasst werden. -**Achtung: die Rautenzeichen müssen bestehen bleiben.** +**Achtung: die Rautenzeichen for SBATCH müssen bestehen bleiben.** ``` #SBATCH --nodes=5 #SBATCH --time=180:00 @@ -89,7 +89,7 @@ Als nächstes können wir nun das Magpie Skript als Slurmjob an den HPC Cluster ``` sinfo --all ``` -Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "/home/-user-@edu.local/spark" befinden, den Slurmjob mit dem Befehl +Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "$HOME/spark" befinden, den Slurmjob mit dem Befehl ``` sbatch -k magpie.sbatch-srun-spark