Pyspark: come arrotondare per eccesso o per difetto (arrotondare al più vicino) [duplicare]
Aug 21 2020
Ho un df che assomiglia a questo
TEST_schema = StructType([StructField("date", StringType(), True),\
StructField("col1", FloatType(), True),\
])
TEST_data = [('2020-08-01',1.22),('2020-08-02',1.15),('2020-08-03',5.4),('2020-08-04',2.6),('2020-08-05',3.5),\
('2020-08-06',2.2),('2020-08-07',2.7),('2020-08-08',-1.6),('2020-08-09',1.3)]
rdd3 = sc.parallelize(TEST_data)
TEST_df = sqlContext.createDataFrame(TEST_data, TEST_schema)
TEST_df = TEST_df.withColumn("date",to_date("date", 'yyyy-MM-dd'))
TEST_df.show()
+----------+-----+
| date|col1 |
+----------+-----+
|2020-08-01| 1.22|
|2020-08-02| 1.15|
|2020-08-03| 5.4 |
|2020-08-04| 2.6 |
|2020-08-05| 3.5 |
|2020-08-06| 2.2 |
|2020-08-07| 2.7 |
|2020-08-08|-1.6 |
|2020-08-09| 1.3 |
+----------+-----+
Logica: arrotonda col1 al più vicino e restituisce come numero intero e max (valore arrotondato, 0)
il df risultante ha questo aspetto:
+----------+----+----+
| date|col1|want|
+----------+----+----+
|2020-08-01| 1.2| 1|
|2020-08-02| 1.1| 1|
|2020-08-03| 5.4| 5|
|2020-08-04| 2.6| 3|
|2020-08-05| 3.5| 4|
|2020-08-06| 2.2| 2|
|2020-08-07| 2.7| 3|
|2020-08-08|-1.6| 0|
|2020-08-09| 1.3| 1|
+----------+----+----+
Risposte
Lamanus Aug 22 2020 at 03:07
Controlla la domanda duplicata che ti dà tutto.
data = [('2020-08-01',1.22),('2020-08-02',1.15),('2020-08-03',5.4),('2020-08-04',2.6),('2020-08-05',3.5),('2020-08-06',2.2),('2020-08-07',2.7),('2020-08-08',-1.6),('2020-08-09',1.3)]
df = spark.createDataFrame(data, ['date', 'col1'])
df.withColumn('want', expr('ROUND(col1, 0)').cast('int')).show()
+----------+----+----+
| date|col1|want|
+----------+----+----+
|2020-08-01|1.22| 1|
|2020-08-02|1.15| 1|
|2020-08-03| 5.4| 5|
|2020-08-04| 2.6| 3|
|2020-08-05| 3.5| 4|
|2020-08-06| 2.2| 2|
|2020-08-07| 2.7| 3|
|2020-08-08|-1.6| -2|
|2020-08-09| 1.3| 1|
+----------+----+----+
VITTALB Aug 22 2020 at 07:07
Innanzitutto, qui sto controllando se è inferiore a zero o meno. Qui stiamo usando il metodo quando nelle funzioni pyspark, prima controlliamo se il valore nella colonna è minore di zero, se lo è lo farà a zero, altrimenti prendiamo il valore effettivo nella colonna quindi cast a int da pyspark.sql import funziona come F
TEST_df.withColumn("want", F.bround(F.when(TEST_df["col1"] < 0, 0).otherwise(TEST_df["col1"])).cast("int")).show()
+----------+----+----+
| date|col1|want|
+----------+----+----+
|2020-08-01|1.22| 1|
|2020-08-02|1.15| 1|
|2020-08-03| 5.4| 5|
|2020-08-04| 2.6| 3|
|2020-08-05| 3.5| 4|
|2020-08-06| 2.2| 2|
|2020-08-07| 2.7| 3|
|2020-08-08|-1.6| 0|
|2020-08-09| 1.3| 1|
+----------+----+----+