forked from CDS/infrastruktur-dok
Update Cluster-PySpark-Howto.md
This commit is contained in:
parent
91a3278307
commit
a7b0e2cb78
@ -71,7 +71,7 @@ cp magpie/submission-scripts/script-sbatch-srun/magpie.sbatch-srun-spark .
|
|||||||
```
|
```
|
||||||
Im Submission-Skript `magpie.sbatch-srun-spark` passen wir nun die folgenden Zeilen an; je nach benötigten Resourcen, können die Parameter zu den SBATCH Befehlen individuell angepasst werden.
|
Im Submission-Skript `magpie.sbatch-srun-spark` passen wir nun die folgenden Zeilen an; je nach benötigten Resourcen, können die Parameter zu den SBATCH Befehlen individuell angepasst werden.
|
||||||
|
|
||||||
**Achtung: die Rautenzeichen müssen bestehen bleiben.**
|
**Achtung: die Rautenzeichen for SBATCH müssen bestehen bleiben.**
|
||||||
```
|
```
|
||||||
#SBATCH --nodes=5
|
#SBATCH --nodes=5
|
||||||
#SBATCH --time=180:00
|
#SBATCH --time=180:00
|
||||||
@ -89,7 +89,7 @@ Als nächstes können wir nun das Magpie Skript als Slurmjob an den HPC Cluster
|
|||||||
```
|
```
|
||||||
sinfo --all
|
sinfo --all
|
||||||
```
|
```
|
||||||
Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "/home/-user-@edu.local/spark" befinden, den Slurmjob mit dem Befehl
|
Falls genügend Nodes (in unserem Beispiel fünf) im Status 'Idle' erscheinen, können wir sofern wir uns noch im Verzeichnis "$HOME/spark" befinden, den Slurmjob mit dem Befehl
|
||||||
|
|
||||||
```
|
```
|
||||||
sbatch -k magpie.sbatch-srun-spark
|
sbatch -k magpie.sbatch-srun-spark
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user