我有一个 3.5 go 的大 csv 文件,我想使用 pandas 读取它。
这是我的代码:
import pandas as pd
tp = pd.read_csv('train_2011_2012_2013.csv', sep=';', iterator=True, chunksize=20000000, low_memory = False)
df = pd.concat(tp, ignore_index=True)
我收到此错误:
pandas/parser.pyx in pandas.parser.TextReader.read (pandas/parser.c:8771)()
pandas/parser.pyx in pandas.parser.TextReader._read_rows (pandas/parser.c:9731)()
pandas/parser.pyx in pandas.parser.TextReader._tokenize_rows (pandas/parser.c:9602)()
pandas/parser.pyx in pandas.parser.raise_parser_error (pandas/parser.c:23325)()
CParserError: Error tokenizing data. C error: out of
我的 ram 的容量是 8 Go。
最佳答案
试试这个兄弟:
mylist = []
for chunk in pd.read_csv('train_2011_2012_2013.csv', sep=';', chunksize=20000):
mylist.append(chunk)
big_data = pd.concat(mylist, axis= 0)
del mylist
关于python - 标记数据时出错。 C 错误 : out of memory pandas python, 大文件 csv,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41303246/