hadoop - 使用超过15位数字的数值变量将sas数据写入Hive

标签 hadoop hive sas

我正在尝试使用SAS将SAS数据写入Hive。我的表中有一个ID变量,其长度> 15位,并且在将数据写入Hive时需要将该变量保持为数值。我已经尝试了以下脚本,但是它给了我以下警告,并且Hive表中的值被截断为15个数字并带有“e”。

data scr.EOB_tgt(dbtype=(nacct="BIGINT"))
;
format nacct best20.
ncust $10.
;
set lat2(keep=ncust nacct bal);
run;

NOTE: SAS variable labels, formats, and lengths are not written to DBMS tables.
WARNING: Value 1589000007877656 has more than 15 digits.  It may not be accurately inserted to the BIGINT column.

有人知道如何克服这个问题吗?

我希望能够在Hive表中获取完整的16位数字值

最佳答案

SAS将所有数字存储为8字节浮点数。因此,您不能精确表示超过15位的整数。若要查看可以精确表示的最大整数,请使用CONSTANT()函数。

data _null_;
  x=constant('exactint');
  put x 16. +1 x comma21.;
run;

结果:
9007199254740992 9,007,199,254,740,992

因此,如果您具有大于9,007,199,254,740,992的ID值,则无法将它们作为数字存储在SAS中。

为什么将ID值存储为数字?无需对ID值执行算术运算。

关于hadoop - 使用超过15位数字的数值变量将sas数据写入Hive,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58184167/

相关文章:

regex - 在 Hive 中使用 regexp_extract

hadoop - HDFS中小文件瓶颈的解决方案

scala - 在 Spark/Scala 中使用 ForEach 时的执行流程

hadoop - Hadoop Hbasee Zookeeper错误

amazon-web-services - AWS Athena 创建表和分区

java - 如何将 client_protocol 传递给 R 中的 JDBC 驱动程序?

sas - 在 SAS 中将纬度和经度映射到州/省

sas - 是否可以循环遍历 SAS 数据集?

java - 将 SAS 日期时间值转换为 Java YYYY-MM-DD HH :mm:ss

python - 如何在 python 中一次将多个文件从本地服务器移动到 HDFS?