diff --git a/Cluster-PySpark-Howto.md b/Cluster-PySpark-Howto.md index 22b6b4f..bf2feba 100644 --- a/Cluster-PySpark-Howto.md +++ b/Cluster-PySpark-Howto.md @@ -71,7 +71,7 @@ cp magpie/submission-scripts/script-sbatch-srun/magpie.sbatch-srun-spark . ``` Im Submission-Skript `magpie.sbatch-srun-spark` passen wir nun die folgenden Zeilen an; je nach benötigten Resourcen, können die Parameter zu den SBATCH Befehlen individuell angepasst werden. -**Achtung: die Rautenzeichen müssen bestehen bleiben.** +**Achtung: die Rautenzeichen for SBATCH müssen bestehen bleiben.** ``` #SBATCH --nodes=5 #SBATCH --time=180:00 @@ -89,7 +89,7 @@ Als nächstes können wir nun das Magpie Skript als Slurmjob an den HPC Cluster ``` sinfo --all ``` -Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "/home/-user-@edu.local/spark" befinden, den Slurmjob mit dem Befehl +Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "$HOME/spark" befinden, den Slurmjob mit dem Befehl ``` sbatch -k magpie.sbatch-srun-spark