sql-server - 使用Map Reduce将大型CSV文件中的数据加载到SQL Server

标签 sql-server csv hadoop mapper reducers

我对hadoop非常天真,我想使用mapper和reducer将csv数据加载到本地sql服务器中。有可能吗?如果可以,我该怎么办?可以请您解释要遵循的步骤,或者将我引向逐步解释它的文章。

我相信如果可以单独完成mapper就足以完成这项工作。如果我错了,有人可以纠正我。

任何帮助,将不胜感激。提前致谢

最佳答案

无需使用冗长的Map reduce程序即可从本地将数据加载到SQL,您可以使用以下语法在Apache Sqoop中简单地使用export命令:

sqoop -export --connect jdbc:mysql:// localhost / db --username root --password --table --export-dir

关于sql-server - 使用Map Reduce将大型CSV文件中的数据加载到SQL Server,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43314935/

相关文章:

sql-server - SQL Server 中的 LEFT JOIN 与 LEFT OUTER JOIN

c# - 更新记录

sql - RAISERROR WITH NOWAIT 缓冲的解决方法

c++ - 从 Excel 复制后将 .txt 或 .csv 导入 C++ 时小数值丢失

java - 由于权限被拒绝,在hadoop.tmp.dir/tmp/hadoop-sha中创建临时目录时出错

sql-server - SQL使用静态日期计算一夜之间的小时数

java - 为什么此方法返回一个包含所有相同对象的 ArrayList? JAVA

excel - CSV 导出 : Preserving leading zeros

hadoop - AWS EC2 - Cloudera Manager - 停止实例

maven - 由 : java. lang.ClassNotFoundException : org. apache.hadoop.fs.CanSetDropBehind issue in eclipse 引起