Odpowiedzi:
UPDATE: używając Pandas 0.22.0
Nowsze wersje Pandy mają nowe metody „DataFrame.isna ()” i „DataFrame.notna ()”
In [71]: df
Out[71]:
a b c
0 NaN 7.0 0
1 0.0 NaN 4
2 2.0 NaN 4
3 1.0 7.0 0
4 1.0 3.0 9
5 7.0 4.0 9
6 2.0 6.0 9
7 9.0 6.0 4
8 3.0 0.0 9
9 9.0 0.0 1
In [72]: df.isna().any()
Out[72]:
a True
b True
c False
dtype: bool
jako lista kolumn:
In [74]: df.columns[df.isna().any()].tolist()
Out[74]: ['a', 'b']
aby wybrać te kolumny (zawierające co najmniej jedną NaN
wartość):
In [73]: df.loc[:, df.isna().any()]
Out[73]:
a b
0 NaN 7.0
1 0.0 NaN
2 2.0 NaN
3 1.0 7.0
4 1.0 3.0
5 7.0 4.0
6 2.0 6.0
7 9.0 6.0
8 3.0 0.0
9 9.0 0.0
STARA odpowiedź:
Spróbuj użyć isnull () :
In [97]: df
Out[97]:
a b c
0 NaN 7.0 0
1 0.0 NaN 4
2 2.0 NaN 4
3 1.0 7.0 0
4 1.0 3.0 9
5 7.0 4.0 9
6 2.0 6.0 9
7 9.0 6.0 4
8 3.0 0.0 9
9 9.0 0.0 1
In [98]: pd.isnull(df).sum() > 0
Out[98]:
a True
b True
c False
dtype: bool
lub jak @root zaproponował jaśniejszą wersję:
In [5]: df.isnull().any()
Out[5]:
a True
b True
c False
dtype: bool
In [7]: df.columns[df.isnull().any()].tolist()
Out[7]: ['a', 'b']
aby wybrać podzbiór - wszystkie kolumny zawierające co najmniej jedną NaN
wartość:
In [31]: df.loc[:, df.isnull().any()]
Out[31]:
a b
0 NaN 7.0
1 0.0 NaN
2 2.0 NaN
3 1.0 7.0
4 1.0 3.0
5 7.0 4.0
6 2.0 6.0
7 9.0 6.0
8 3.0 0.0
9 9.0 0.0
df.columns[df.isin['xxx'].any()].tolist()
df.columns[df.eq(search_for_value).any()].tolist()
isna
, notna
?
Miałem problem polegający na tym, że miałem za dużo kolumn do wizualnej inspekcji na ekranie, więc krótka lista comp, która filtruje i zwraca naruszające kolumny to
nan_cols = [i for i in df.columns if df[i].isnull().any()]
jeśli to komuś pomoże
W zestawach danych zawierających dużą liczbę kolumn jeszcze lepiej jest sprawdzić, ile kolumn zawiera wartości null, a ile nie.
print("No. of columns containing null values")
print(len(df.columns[df.isna().any()]))
print("No. of columns not containing null values")
print(len(df.columns[df.notna().all()]))
print("Total no. of columns in the dataframe")
print(len(df.columns))
Na przykład w mojej ramce danych zawierała 82 kolumny, z których 19 zawierało co najmniej jedną wartość null.
Ponadto możesz również automatycznie usuwać kolumny i wiersze w zależności od tego, która ma więcej wartości null.
Oto kod, który robi to inteligentnie:
df = df.drop(df.columns[df.isna().sum()>len(df.columns)],axis = 1)
df = df.dropna(axis = 0).reset_index(drop=True)
Uwaga: powyższy kod usuwa wszystkie wartości null. Jeśli chcesz mieć wartości null, przetwórz je wcześniej.
To zadziałało dla mnie,
1. Aby uzyskać kolumny mające co najmniej 1 wartość null. (nazwy kolumn)
data.columns[data.isnull().any()]
2. Aby uzyskać kolumny z liczbą, z co najmniej 1 wartością zerową.
data[data.columns[data.isnull().any()]].isnull().sum()
[Opcjonalnie] 3. Aby uzyskać procent wartości zerowej.
data[data.columns[data.isnull().any()]].isnull().sum() * 100 / data.shape[0]
df.isna().any()[lambda x: x]
działa dla mnie