我正在尝试集成Spark和Hbase并通过python使用它,并继续获取与ClassNotFound相关的错误。 (第77行-83行)这是我正在使用的代码:https://github.com/apache/spark/blob/master/examples/src/main/python/hbase_inputformat.py#L70
它给我的错误是:
我是Java新手。我不确定Java类的目录结构,因为我无法导航到可以找到所有这些类的文件夹。无论如何,有人可以告诉我如何获取org.apache.hadoop.hbase.io.ImmutableByteWritable吗?
最佳答案
该文件是HBase的一部分。
确保已在项目中包含此依赖项(Jar,Maven Dependency)。
您可以执行mvndependency:tree并确保已包含此依赖项。
关于java - ClassNotFound:apache.hadoop.io.ImmutableBytesWritable使用Python将Spark与Hbase集成,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32791010/