Chcę wiedzieć, czy można użyć to_csv()
funkcji pandy, aby dodać ramkę danych do istniejącego pliku csv. Plik csv ma taką samą strukturę jak ładowane dane.
Chcę wiedzieć, czy można użyć to_csv()
funkcji pandy, aby dodać ramkę danych do istniejącego pliku csv. Plik csv ma taką samą strukturę jak ładowane dane.
Odpowiedzi:
Możesz określić tryb zapisu python w to_csv
funkcji pandy . W przypadku dołączania jest to „a”.
W Twoim przypadku:
df.to_csv('my_csv.csv', mode='a', header=False)
Domyślnym trybem jest „w”.
df.to_csv(output_path, mode='a', header=not os.path.exists(output_path))
Możesz dołączyć do pliku CSV, otwierając plik w trybie dołączania:
with open('my_csv.csv', 'a') as f:
df.to_csv(f, header=False)
Jeśli to był twój plik CSV foo.csv
:
,A,B,C
0,1,2,3
1,4,5,6
Jeśli to czytasz, a następnie dołącz, na przykład df + 6
:
In [1]: df = pd.read_csv('foo.csv', index_col=0)
In [2]: df
Out[2]:
A B C
0 1 2 3
1 4 5 6
In [3]: df + 6
Out[3]:
A B C
0 7 8 9
1 10 11 12
In [4]: with open('foo.csv', 'a') as f:
(df + 6).to_csv(f, header=False)
foo.csv
staje się:
,A,B,C
0,1,2,3
1,4,5,6
0,7,8,9
1,10,11,12
with open(filename, 'a') as f:
df.to_csv(f, header=f.tell()==0)
mode='a'
jako parametru do to_csv
(tj.df.to_csv(f, mode='a', header=f.tell()==0)
Mała funkcja pomocnika, której używam z pewnymi zabezpieczeniami sprawdzania nagłówka, aby obsłużyć to wszystko:
def appendDFToCSV_void(df, csvFilePath, sep=","):
import os
if not os.path.isfile(csvFilePath):
df.to_csv(csvFilePath, mode='a', index=False, sep=sep)
elif len(df.columns) != len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns):
raise Exception("Columns do not match!! Dataframe has " + str(len(df.columns)) + " columns. CSV file has " + str(len(pd.read_csv(csvFilePath, nrows=1, sep=sep).columns)) + " columns.")
elif not (df.columns == pd.read_csv(csvFilePath, nrows=1, sep=sep).columns).all():
raise Exception("Columns and column order of dataframe and csv file do not match!!")
else:
df.to_csv(csvFilePath, mode='a', index=False, sep=sep, header=False)
Początkowo zaczynając od ramek danych pyspark - dostałem błędy konwersji typu (podczas konwersji do pandas df, a następnie dołączenia do csv), biorąc pod uwagę typy schematu / kolumny w moich ramkach danych pyspark
Rozwiązano problem, zmuszając wszystkie kolumny w każdym pliku df do typu ciąg, a następnie dołączając to do pliku csv w następujący sposób:
with open('testAppend.csv', 'a') as f:
df2.toPandas().astype(str).to_csv(f, header=False)
Trochę późno na imprezę, ale możesz również użyć menedżera kontekstu, jeśli otwierasz i zamykasz plik wiele razy lub logujesz dane, statystyki itp.
from contextlib import contextmanager
import pandas as pd
@contextmanager
def open_file(path, mode):
file_to=open(path,mode)
yield file_to
file_to.close()
##later
saved_df=pd.DataFrame(data)
with open_file('yourcsv.csv','r') as infile:
saved_df.to_csv('yourcsv.csv',mode='a',header=False)`