Jak zmienić nazwy kolumn ramki danych w pyspark?


201

Pochodzę z tła pand i jestem przyzwyczajony do czytania danych z plików CSV do ramki danych, a następnie po prostu zmieniając nazwy kolumn na coś użytecznego za pomocą prostego polecenia:

df.columns = new_column_name_list

Jednak to samo nie działa w ramkach danych pyspark utworzonych za pomocą sqlContext. Jedynym rozwiązaniem, które udało mi się wymyślić, aby to zrobić z łatwością, jest:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

Jest to w zasadzie dwukrotne zdefiniowanie zmiennej i najpierw wywnioskowanie schematu, a następnie zmiana nazw kolumn, a następnie ponowne załadowanie ramki danych zaktualizowanym schematem.

Czy istnieje lepszy i bardziej wydajny sposób na zrobienie tego tak, jak robimy to w pandach?

Moja wersja Spark to 1.5.0

Odpowiedzi:


334

Można to zrobić na wiele sposobów:

  • Opcja 1. Korzystanie z selectExpr .

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
    
  • Opcja 2. Używając withColumnRenamed , zauważ, że ta metoda pozwala „nadpisać” tę samą kolumnę. Dla Python3 wymienić xrangez range.

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
    
  • Opcja 3. Używając aliasu , w Scali możesz również użyć jako .

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
  • Opcja 4. Korzystanie z narzędzia sqlContext.sql , które pozwala używać zapytań SQL DataFrameszarejestrowanych jako tabele.

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    

1
Zrobiłem to z forpętlą + withColumnRenamed, ale twoja reduceopcja jest bardzo fajna :)
Felipe Gerard

1
Cóż, ponieważ w Spark nie robi się nic, dopóki nie zostanie wywołane działanie na DF, jest to po prostu mniej elegancki kod ... Ostatecznie wynikowy DF jest dokładnie taki sam!
Felipe Gerard

2
@FelipeGerard Proszę sprawdzić ten post , złe rzeczy mogą się zdarzyć, jeśli masz wiele kolumn.
Alberto Bonsanto

1
@AlbertoBonsanto Jak wybrać kolumnę jako alias, jeśli istnieje więcej niż 100 kolumn, co jest najlepszą opcją

3
@NuValue, powinieneś najpierw uruchomićfrom functools import reduce
joaofbsm

169
df = df.withColumnRenamed("colName", "newColName")
       .withColumnRenamed("colName2", "newColName2")

Zaleta korzystania z tego sposobu: Przy długiej liście kolumn chciałbyś zmienić tylko kilka nazw kolumn. Może to być bardzo wygodne w tych scenariuszach. Bardzo przydatne podczas łączenia tabel ze zduplikowanymi nazwami kolumn.


czy istnieje wariant tego rozwiązania, który pozostawia wszystkie pozostałe kolumny bez zmian? z tą metodą i innymi pozostały tylko wyraźnie nazwane kolumny (wszystkie inne usunięte)
Quetzalcoatl

1
+1 działało dla mnie dobrze, właśnie edytowałem określoną kolumnę, pozostawiając inne bez zmian i żadnych kolumn nie usunięto.
mnis.p

2
@Quetzalcoatl To polecenie wydaje się zmieniać tylko określoną kolumnę, zachowując wszystkie pozostałe kolumny. Dlatego świetne polecenie zmiany nazwy tylko jednej z potencjalnie wielu nazw kolumn
user989762,

@ user989762: uzgodniono; moje początkowe zrozumienie było niepoprawne w tym ...!
Quetzalcoatl

62

Jeśli chcesz zmienić nazwy wszystkich kolumn, spróbuj df.toDF(*cols)


5
to rozwiązanie jest najbliższe df.columns = nowa_nazwa_kolumny_listy dla PO, zarówno pod względem zwięzłości, jak i wykonania.
Quetzalcoatl

Myślę, że należy to wybrać jako najlepszą odpowiedź
HanaKaze

Dla mnie otrzymywałem nazwy nagłówków z ramki danych pandy, więc właśnie użyłemdf = df.toDF(*my_pandas_df.columns)
Nic Scozzaro

Ta odpowiedź mnie myli. Czy nie powinno istnieć mapowanie ze starych nazw kolumn na nowe? Czy to działa, ponieważ colssą nowymi nazwami kolumn i po prostu zakładając, że kolejność nazw colsodpowiada kolejności kolumn ramki danych?
rbatt

47

Jeśli chcesz zastosować prostą transformację do wszystkich nazw kolumn, ten kod załatwi sprawę: (Zastępuję wszystkie spacje znakiem podkreślenia)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

Dzięki @ user8117731 za toDfpodstęp.


14

Jeśli chcesz zmienić nazwę jednej kolumny i zachować resztę taką, jaka jest:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

14

df.withColumnRenamed('age', 'age2')


1
Odpowiedź Pankaj Kumara i odpowiedź Alberto Bonsanto za (które są z 2016 i 2015, odpowiednio) już sugerują użyciu withColumnRenamed.
Andrew Myers,

Dzięki, tak, ale istnieje kilka różnych składni, może powinniśmy zebrać je w bardziej formalną odpowiedź? data.withColumnRenamed (oldColumns [idx], newColumns [idx]) vs data.withColumnRenamed (nazwa kolumny, nowa nazwa kolumny) Myślę, że to zależy od wersji pyspark, której używasz
Sahan Jayasumana

1
To nie jest inna składnia. Jedyna różnica polega na tym, że nazwy kolumn nie zostały zapisane w tablicy.
Ed Bordin

13

to podejście zastosowałem:

utwórz sesję pyspark:

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

utwórz ramkę danych:

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

zobacz df z nazwami kolumn:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

utwórz listę z nowymi nazwami kolumn:

newcolnames = ['NameNew','AmountNew','ItemNew']

zmień nazwy kolumn df:

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

zobacz df z nowymi nazwami kolumn:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

Stworzyłem łatwą w użyciu funkcję zmiany nazwy wielu kolumn dla ramki danych pyspark, na wypadek, gdyby ktoś chciał z niej skorzystać:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

Uważaj, obie listy muszą być tej samej długości.


1
Dobra robota. Trochę przesady za to, czego potrzebowałem. I możesz po prostu przekazać df, ponieważ old_columnsbyłby taki sam jak df.columns.
Darth Egregious

7

Inny sposób zmiany nazwy tylko jednej kolumny (przy użyciu import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

Używam tego:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
Ten fragment kodu może rozwiązać pytanie, ale wyjaśnienie naprawdę pomaga poprawić jakość posta. Pamiętaj, że w przyszłości odpowiadasz na pytanie czytelników, a ci ludzie mogą nie znać przyczyn Twojej sugestii kodu.
Isma

1

Możesz użyć następującej funkcji, aby zmienić nazwę wszystkich kolumn ramki danych.

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

Jeśli musisz zaktualizować tylko kilka nazw kolumn, możesz użyć tej samej nazwy kolumny na liście replace_with

Aby zmienić nazwę wszystkich kolumn

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

Aby zmienić nazwę niektórych kolumn

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

W przypadku zmiany nazwy pojedynczej kolumny nadal można użyć funkcji toDF (). Na przykład,

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

Możemy użyć różnych metod, aby zmienić nazwę nazwy kolumny.

Najpierw utwórzmy prosty DataFrame.

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

Teraz spróbujmy zmienić nazwę col_1 na col_3. PFB kilka podejść do tego samego.

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

Oto wynik.

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

Mam nadzieję, że to pomoże.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.