Update Cluster-PySpark-Howto.md

This commit is contained in:
Thomas Keller 2024-03-08 11:37:50 +01:00
parent a7b0e2cb78
commit 9e8f88c8cc

View File

@ -140,11 +140,11 @@ export JAVA_HOME="$HOME/miniconda3/envs/spark/bin"
export SPARK_HOME="$HOME/spark/spark-3.4.1-bin-hadoop3" export SPARK_HOME="$HOME/spark/spark-3.4.1-bin-hadoop3"
export SPARK_CONF_DIR="/tmp/$USER/spark/spark-test/*/spark/conf" export SPARK_CONF_DIR="/tmp/$USER/spark/spark-test/*/spark/conf"
``` ```
Danach die spark Environment starten Danach überprüfen ob die Spark Conda Environment bereits gestartet ist, ansonsten mit dem Befehl
``` ```
conda activate spark conda activate spark
``` ```
Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell: aktivieren. Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell:
``` ```
$SPARK_HOME/bin/pyspark $SPARK_HOME/bin/pyspark