python - 当 S3 为目标时 pandas.DataFrame.to_parquet 失败

标签 python pandas parquet pyarrow

我有一个 Pandas 数据框,我正在尝试将其作为 Parquet 文件保存到 S3 中:

dftest = pd.DataFrame({'field': [1,2,3]})
dftest.to_parquet("s3://bucket_name/test.parquet", engine='pyarrow', 
compression='gzip')

我收到:“FileNotFoundError:bucket_name/test.parquet”

最佳答案

虽然我仍然无法使 pandas.DataFrame.to_parquet 方法与 S3 一起使用,但我确实找到了似乎可行的不同解决方案:

import s3fs
from fastparquet import write
s3 = s3fs.S3FileSystem()
myopen = s3.open
write('s3://bucketname/test.parquet', dftest, compression='GZIP', open_with=myopen)

关于python - 当 S3 为目标时 pandas.DataFrame.to_parquet 失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51711213/

相关文章:

python - Pygame、Python 3 中矩形之间的色键碰撞

python - 如何使 gtk.Layout 透明

Python:幸运七人制游戏(平均掷骰子次数)

hadoop - 从非 hdfs 源读取时 namenode.LeaseExpiredException 而 df.write.parquet

python - 将 1D 数组 reshape 为矩阵 2D 矩阵

python - 如何使用 pandas 从 GitHub 读取 CSV 文件

python - 从对象转换后有没有办法解决不正确的日期?

python - 对样本大小大于 DataFrame 长度的行进行采样

hadoop - HDFS “files”是目录

python - 从 Python 编写嵌套的 Parquet 格式