PySpark - Konfiguracja środowiska

W tym rozdziale zrozumiemy konfigurację środowiska PySpark.

Note - Jest to spowodowane tym, że na komputerze jest zainstalowana Java i Scala.

Pobierzmy teraz i skonfiguruj PySpark, wykonując następujące czynności.

Step 1- Przejdź do oficjalnej strony pobierania Apache Spark i pobierz najnowszą dostępną tam wersję Apache Spark. W tym samouczku używamyspark-2.1.0-bin-hadoop2.7.

Step 2- Teraz wypakuj pobrany plik tar Sparka. Domyślnie zostanie pobrany w katalogu Pobrane.

# tar -xvf Downloads/spark-2.1.0-bin-hadoop2.7.tgz

Utworzy katalog spark-2.1.0-bin-hadoop2.7. Przed uruchomieniem PySpark musisz ustawić następujące środowiska, aby ustawić ścieżkę Spark iPy4j path.

export SPARK_HOME = /home/hadoop/spark-2.1.0-bin-hadoop2.7
export PATH = $PATH:/home/hadoop/spark-2.1.0-bin-hadoop2.7/bin
export PYTHONPATH = $SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
export PATH = $SPARK_HOME/python:$PATH

Lub, aby ustawić powyższe środowiska globalnie, umieść je w .bashrc file. Następnie uruchom następujące polecenie, aby środowiska działały.

# source .bashrc

Teraz, gdy mamy już ustawione wszystkie środowiska, przejdźmy do katalogu Spark i wywołaj powłokę PySpark, uruchamiając następujące polecenie -

# ./bin/pyspark

Spowoduje to uruchomienie powłoki PySpark.

Python 2.7.12 (default, Nov 19 2016, 06:48:10) 
[GCC 5.4.0 20160609] on linux2
Type "help", "copyright", "credits" or "license" for more information.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.1.0
      /_/
Using Python version 2.7.12 (default, Nov 19 2016 06:48:10)
SparkSession available as 'spark'.
<<<