PySpark - StorageLevel

StorageLevel решает, как следует хранить RDD. В Apache Spark StorageLevel решает, следует ли хранить RDD в памяти, или на диске, или и то, и другое. Он также решает, следует ли сериализовать RDD и реплицировать ли разделы RDD.

В следующем блоке кода есть определение класса StorageLevel -

class pyspark.StorageLevel(useDisk, useMemory, useOffHeap, deserialized, replication = 1)

Теперь, чтобы определить хранилище RDD, существуют разные уровни хранения, которые приведены ниже -

  • DISK_ONLY = StorageLevel (Истина, Ложь, Ложь, Ложь, 1)

  • DISK_ONLY_2 = StorageLevel (Истина, Ложь, Ложь, Ложь, 2)

  • MEMORY_AND_DISK = StorageLevel (True, True, False, False, 1)

  • MEMORY_AND_DISK_2 = StorageLevel (Истина, Истина, Ложь, Ложь, 2)

  • MEMORY_AND_DISK_SER = StorageLevel (True, True, False, False, 1)

  • MEMORY_AND_DISK_SER_2 = StorageLevel (Истина, Истина, Ложь, Ложь, 2)

  • MEMORY_ONLY = StorageLevel (False, True, False, False, 1)

  • MEMORY_ONLY_2 = StorageLevel (False, True, False, False, 2)

  • MEMORY_ONLY_SER = StorageLevel (False, True, False, False, 1)

  • MEMORY_ONLY_SER_2 = StorageLevel (False, True, False, False, 2)

  • OFF_HEAP = StorageLevel (True, True, True, False, 1)

Давайте рассмотрим следующий пример StorageLevel, где мы используем уровень хранения MEMORY_AND_DISK_2, это означает, что разделы RDD будут иметь репликацию 2.

------------------------------------storagelevel.py-------------------------------------
from pyspark import SparkContext
import pyspark
sc = SparkContext (
   "local", 
   "storagelevel app"
)
rdd1 = sc.parallelize([1,2])
rdd1.persist( pyspark.StorageLevel.MEMORY_AND_DISK_2 )
rdd1.getStorageLevel()
print(rdd1.getStorageLevel())
------------------------------------storagelevel.py-------------------------------------

Command - Команда следующая -

$SPARK_HOME/bin/spark-submit storagelevel.py

Output - Результат выполнения вышеуказанной команды приведен ниже -

Disk Memory Serialized 2x Replicated