bigdata - GoodData 数据集写入器最大行数?

标签 bigdata etl gooddata

使用 GoodData 数据集编写器在单次加载中上传的记录数是否有最大限制?我环顾四周,没有看到这方面的记录值。

最佳答案

没有指定限制! 但是,预计在 10 到 1 亿行之间,速度会明显变慢,尤其是在涉及数据关系(例如表中的键)的情况下。

关于bigdata - GoodData 数据集写入器最大行数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20764369/

相关文章:

java - Apache项目与大数据世界

hadoop - 如何将文件从 Windows 传输到 HortonWorks 沙箱?

cassandra - Cassandra 如何存储空值?

hadoop - 无法在 Spark-1.2.0 上部署工作人员

customization - 在 GoodData 中,我可以自定义仪表板选项卡的布局吗?

sql - 通过在 SSIS 中运行 excel VBA 宏来自动化流程

java - 从多种格式的文件中提取文本并将其存储在 Elasticsearch 中

java - 如何将第三方库添加到 Talend 项目中?

java - Good Data TT 代币将在不到一秒的时间内到期

datetime - 如何在 GoodData 中加载时间?