PySpark-環境設定
この章では、PySparkの環境設定について理解します。
Note −これは、JavaとScalaがコンピューターにインストールされていることを考慮しています。
次の手順でPySparkをダウンロードしてセットアップしましょう。
Step 1−公式のApache Sparkダウンロードページに移動し、そこで入手可能な最新バージョンのApacheSparkをダウンロードします。このチュートリアルでは、spark-2.1.0-bin-hadoop2.7。
Step 2−次に、ダウンロードしたSparktarファイルを抽出します。デフォルトでは、ダウンロードディレクトリにダウンロードされます。
# tar -xvf Downloads/spark-2.1.0-bin-hadoop2.7.tgz
ディレクトリを作成します spark-2.1.0-bin-hadoop2.7。PySparkを開始する前に、次の環境を設定してSparkパスとPy4j path。
export SPARK_HOME = /home/hadoop/spark-2.1.0-bin-hadoop2.7
export PATH = $PATH:/home/hadoop/spark-2.1.0-bin-hadoop2.7/bin
export PYTHONPATH = $SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH
export PATH = $SPARK_HOME/python:$PATH
または、上記の環境をグローバルに設定するには、それらを .bashrc file。次に、環境が機能するように次のコマンドを実行します。
# source .bashrc
すべての環境が設定されたので、Sparkディレクトリに移動し、次のコマンドを実行してPySparkシェルを呼び出します。
# ./bin/pyspark
これにより、PySparkシェルが起動します。
Python 2.7.12 (default, Nov 19 2016, 06:48:10)
[GCC 5.4.0 20160609] on linux2
Type "help", "copyright", "credits" or "license" for more information.
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/__ / .__/\_,_/_/ /_/\_\ version 2.1.0
/_/
Using Python version 2.7.12 (default, Nov 19 2016 06:48:10)
SparkSession available as 'spark'.
<<<