hadoop - 如何加载和存储nvarchar

标签 hadoop character-encoding hive sqoop nvarchar

堆栈:使用Ambari 2.1安装了HDP-2.3.2.0-2950
我正在执行的步骤:

  • 使用Sqoop
  • 将SQL Server表加载到HDFS上
  • 在Hive中创建EXTERNAL表

  • 执行sqoop导入命令时,我没有使用任何与charset / unicode / utf-8有关的内容,并且导入成功

    在创建Hive外部表时,我想知道应该为原始sql server表中的nvarchar列选择哪种数据类型,现在我担心即使在Sqoop中导入时也需要解决。
  • 在Sqoop导入
  • 中找不到相关的字符集/ nvarchar等选项
  • 在Hive中,可以盲目使用varchar / string代替nvarchar
  • 最佳答案

    我们知道nvarchar无法理解sqoop类型,因此我们只需要将其转换为varchar例如

    select 
    CAST(col1 AS varchar )  AS col1,
    col2,
    col3,
    col4
    from table_name
    

    关于hadoop - 如何加载和存储nvarchar,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37033391/

    相关文章:

    hadoop - Vertica HCatalog连接器是否支持非标准Hive的StorageHandler?

    hadoop - 无法启动 CDH4 辅助名称节点 : Invalid URI for NameNode address

    hadoop - 识别配置单元表中缺失的分区

    php - 无法在php中显示中文字符

    C++,网络浏览器控件 : cannot change encoding/charset

    Hive:UDF 和 GROUP BY

    python - 在文件夹中使用Python库进行Hive转换

    java - Hadoop map reduce 整个文件输入格式

    sql - HIVe CLI 不支持 MySql 样式数据导入表

    ruby-on-rails-3 - Rails - US-ASCII 中的无效字节序列