我有一个新的 HDInisght:Spark 集群,我已启动 我想通过 Ambari 门户上传文件,但没有看到 HDFS 选项:
我错过了什么?如何将我的 .csv 上传到服务器,以便我可以开始在 Python 笔记本中使用它?
最佳答案
HDInsight 群集无法在本地 HDFS 上工作。他们改用 Azure Blob 存储。因此,上传到在创建过程中附加到集群的存储帐户。
更多信息: https://learn.microsoft.com/en-us/azure/hdinsight/hdinsight-hadoop-use-blob-storage
关于azure-hdinsight - HDInsight : Spark - how to upload a file?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40709022/