hadoop - HDFS对非结构化数据的访问控制的粒度如何?

标签 hadoop permissions hdfs acl bigdata

我正在寻找任何技术论文,以解释如何对HDFS 提取的非结构化数据执行访问控制

  • 粒度级别可以小于POSIX级别的文件权限吗?
  • 同样,为存储组件的安全性提供抽象层的 RecordService 之类的产品(来自Cloudera)如何处理非结构化数据?


  • 例如,如果我有一个非常大的电子邮件存档文件(超过1 TB),是否可以在整个文件本身上指定比一个更细粒度的ACL?我正在考虑电子邮件标题等。

    最佳答案

  • 支持的粒度是行和列级别。 See details
  • 当前,要使RecordService正常工作,您的数据必须组织为Hive Metastore表。将来,RecordService可能会从文件本身推断结构/架构(但今天不是这种情况)。
  • 关于hadoop - HDFS对非结构化数据的访问控制的粒度如何?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37921842/

    相关文章:

    hadoop - 在 Pig 中将多个 map 组合在一起

    tomcat - 如何让 Jenkins WAR 文件在不同用户下运行?

    Hive 将 ORC 文件分割成小部分

    hadoop - Apache Hive 安装在伪分布式或多节点集群环境

    linux - bash命令检查目录是否可执行

    hadoop - hdfs-site.xml 上的配置属性是否适用于 hadoop 中的 NameNode?

    ubuntu - 安装 HBase 资源管理器

    hadoop - 在 2 台不同的计算机上连接 2 个虚拟机

    hadoop - Reducer类中的Run和Reduce方法

    linux - 如何使用 sudo 将输出重定向到我无权写入的位置?