forked from CDS/infrastruktur-dok
Update Cluster-PySpark-Howto.md
This commit is contained in:
parent
a7b0e2cb78
commit
9e8f88c8cc
@ -140,11 +140,11 @@ export JAVA_HOME="$HOME/miniconda3/envs/spark/bin"
|
|||||||
export SPARK_HOME="$HOME/spark/spark-3.4.1-bin-hadoop3"
|
export SPARK_HOME="$HOME/spark/spark-3.4.1-bin-hadoop3"
|
||||||
export SPARK_CONF_DIR="/tmp/$USER/spark/spark-test/*/spark/conf"
|
export SPARK_CONF_DIR="/tmp/$USER/spark/spark-test/*/spark/conf"
|
||||||
```
|
```
|
||||||
Danach die spark Environment starten
|
Danach überprüfen ob die Spark Conda Environment bereits gestartet ist, ansonsten mit dem Befehl
|
||||||
```
|
```
|
||||||
conda activate spark
|
conda activate spark
|
||||||
```
|
```
|
||||||
Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell:
|
aktivieren. Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell:
|
||||||
|
|
||||||
```
|
```
|
||||||
$SPARK_HOME/bin/pyspark
|
$SPARK_HOME/bin/pyspark
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user