csv - 从hadoop下载超过500万行的巨大csv文件

标签 csv hadoop

我必须从hadoop下载数据(使用HIVE编辑器),该数据超过500万行。我试图以csv文件格式下载,但下载的文件不允许超过一百万行。如何解决呢?

提前致谢。

最佳答案

Hue并非为下载和将大量数据流传输到浏览器而表现不佳。色相很轻。

请检查此JIRA:https://issues.cloudera.org/browse/HUE-2142

关于csv - 从hadoop下载超过500万行的巨大csv文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36860822/

相关文章:

python - 在Python中分割字典并将其写入不同的csv文件

python - 读取 block 中的 csv 文件时出现内存不足错误

hadoop - 从命令行获取配置单元配置

hadoop - 如何在 oozie 电子邮件通知中包含详细信息日志信息(hue --workflow--Editor)

hadoop - 插入覆盖本地目录启动 map reduce 作业以进行简单查询

hadoop - 如何列出目前正在使用或创建的所有配置单元数据库?

Python或bash : Merging two csv files based on several matching field values,格式化,输出CSV

android - 将信息(文本或csv)添加到android中的图像

java - 如何将从 csv 文件读取的标记放入对象数组中

amazon-web-services - AWS EMR Bootstrap添加或更新