From 9e8f88c8ccaeec516cdaae0a3e9d2c2f66c2c6a0 Mon Sep 17 00:00:00 2001 From: Thomas Keller Date: Fri, 8 Mar 2024 11:37:50 +0100 Subject: [PATCH] Update Cluster-PySpark-Howto.md --- Cluster-PySpark-Howto.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/Cluster-PySpark-Howto.md b/Cluster-PySpark-Howto.md index bf2feba..7300676 100644 --- a/Cluster-PySpark-Howto.md +++ b/Cluster-PySpark-Howto.md @@ -140,11 +140,11 @@ export JAVA_HOME="$HOME/miniconda3/envs/spark/bin" export SPARK_HOME="$HOME/spark/spark-3.4.1-bin-hadoop3" export SPARK_CONF_DIR="/tmp/$USER/spark/spark-test/*/spark/conf" ``` -Danach die spark Environment starten +Danach überprüfen ob die Spark Conda Environment bereits gestartet ist, ansonsten mit dem Befehl ``` conda activate spark ``` -Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell: +aktivieren. Danach kann ein beliebiger PySpark Befehl ausgeführt werden. Zum Beispiel eine Sparkshell: ``` $SPARK_HOME/bin/pyspark