scala - 使用 Databricks Connect 时如何正确访问 Scala 中的 dbutils

标签 scala databricks azure-databricks databricks-connect dbutils

我正在使用 Databricks Connect 从 IntelliJ IDEA (Scala) 本地运行 Azure Databricks 群集中的代码。

一切正常。我可以在 IDE 中本地连接、调试、检查。

我创建了一个 Databricks 作业来运行我的自定义应用程序 JAR,但它失败并出现以下异常:

19/08/17 19:20:26 ERROR Uncaught throwable from user code: java.lang.NoClassDefFoundError: com/databricks/service/DBUtils$
at Main$.<init>(Main.scala:30)
at Main$.<clinit>(Main.scala)

我的 Main.scala 类的第 30 行是

val dbutils: DBUtils.type = com.databricks.service.DBUtils

就像 this documentation page 上的描述一样

该页面展示了一种访问 DBUtils 的方法,该方法既可以在本地工作,也可以在集群中工作。但该示例仅显示 Python,而我使用的是 Scala。

在本地使用 databricks-connect 和在运行 JAR 的 Databricks 作业中访问它的正确方法是什么?

更新

似乎有两种使用 DBUtils 的方法。

1) DbUtils 类描述here 。 引用文档,该库允许您构建和编译项目,但不能运行它。这不允许您在集群上运行本地代码。

2) Databricks Connect 描述 here 。这允许您在 Databricks 集群中运行本地 Spark 代码。

问题是这两种方法有不同的设置和包名称。似乎没有办法在本地使用 Databricks Connect(集群中不可用),但随后使用通过 sbt/maven 添加的 DbUtils 类来生成 jar 应用程序,以便集群可以访问它。

最佳答案

我不知道为什么the docs you mentioned不工作。也许您正在使用不同的依赖项?

These docs有一个示例应用程序,您可以 download 。这是一个测试非常少的项目,因此它不会创建作业或尝试在集群上运行它们——但这只是一个开始。另请注意,它使用旧的 0.0.1 版本的 dbutils-api

因此,要解决您当前的问题,请尝试从其他位置导入 dbutils,而不是使用 com.databricks.service.DBUtils:

import com.databricks.dbutils_v1.DBUtilsHolder.dbutils

或者,如果您愿意的话:

import com.databricks.dbutils_v1.{DBUtilsV1, DBUtilsHolder}

type DBUtils = DBUtilsV1
val dbutils: DBUtils = DBUtilsHolder.dbutils

此外,请确保您在 SBT 中具有以下依赖项(如果 0.0.3 不起作用,也许可以尝试使用版本 - 最新的版本是 0.0.4):

libraryDependencies += "com.databricks" % "dbutils-api_2.11" % "0.0.3"

This question and answer为我指明了正确的方向。答案包含指向使用 dbutils 的工作 Github 存储库的链接:waimak 。我希望这个存储库可以帮助您解决有关 Databricks 配置和依赖项的进一步问题。

祝你好运!

<小时/>

更新

我明白了,所以我们有两个相似但不相同的 API,并且没有在本地版本和后端版本之间切换的好方法(尽管 Databricks Connect promise 它应该可以工作)。请让我提出一个解决方法。

Scala 编写适配器很方便,这很好。下面是一个应该充当桥梁的代码片段——这里定义了 DBUtils 对象,它为 API 的两个版本提供了足够的 API 抽象:com 上的 Databricks Connect 版本。 databricks.service.DBUtils 和后端 com.databricks.dbutils_v1.DBUtilsHolder.dbutils API。我们可以通过加载并随后通过反射使用com.databricks.service.DBUtils来实现这一点——我们没有对其进行硬编码导入。

package com.example.my.proxy.adapter

import org.apache.hadoop.fs.FileSystem
import org.apache.spark.sql.catalyst.DefinedByConstructorParams

import scala.util.Try

import scala.language.implicitConversions
import scala.language.reflectiveCalls


trait DBUtilsApi {
    type FSUtils
    type FileInfo

    type SecretUtils
    type SecretMetadata
    type SecretScope

    val fs: FSUtils
    val secrets: SecretUtils
}

trait DBUtils extends DBUtilsApi {
    trait FSUtils {
        def dbfs: org.apache.hadoop.fs.FileSystem
        def ls(dir: String): Seq[FileInfo]
        def rm(dir: String, recurse: Boolean = false): Boolean
        def mkdirs(dir: String): Boolean
        def cp(from: String, to: String, recurse: Boolean = false): Boolean
        def mv(from: String, to: String, recurse: Boolean = false): Boolean
        def head(file: String, maxBytes: Int = 65536): String
        def put(file: String, contents: String, overwrite: Boolean = false): Boolean
    }

    case class FileInfo(path: String, name: String, size: Long)

    trait SecretUtils {
        def get(scope: String, key: String): String
        def getBytes(scope: String, key: String): Array[Byte]
        def list(scope: String): Seq[SecretMetadata]
        def listScopes(): Seq[SecretScope]
    }

    case class SecretMetadata(key: String) extends DefinedByConstructorParams
    case class SecretScope(name: String) extends DefinedByConstructorParams
}

object DBUtils extends DBUtils {

    import Adapters._

    override lazy val (fs, secrets): (FSUtils, SecretUtils) = Try[(FSUtils, SecretUtils)](
        (ReflectiveDBUtils.fs, ReflectiveDBUtils.secrets)    // try to use the Databricks Connect API
    ).getOrElse(
        (BackendDBUtils.fs, BackendDBUtils.secrets)    // if it's not available, use com.databricks.dbutils_v1.DBUtilsHolder
    )

    private object Adapters {
        // The apparent code copying here is for performance -- the ones for `ReflectiveDBUtils` use reflection, while
        // the `BackendDBUtils` call the functions directly.

        implicit class FSUtilsFromBackend(underlying: BackendDBUtils.FSUtils) extends FSUtils {
            override def dbfs: FileSystem = underlying.dbfs
            override def ls(dir: String): Seq[FileInfo] = underlying.ls(dir).map(fi => FileInfo(fi.path, fi.name, fi.size))
            override def rm(dir: String, recurse: Boolean = false): Boolean = underlying.rm(dir, recurse)
            override def mkdirs(dir: String): Boolean = underlying.mkdirs(dir)
            override def cp(from: String, to: String, recurse: Boolean = false): Boolean = underlying.cp(from, to, recurse)
            override def mv(from: String, to: String, recurse: Boolean = false): Boolean = underlying.mv(from, to, recurse)
            override def head(file: String, maxBytes: Int = 65536): String = underlying.head(file, maxBytes)
            override def put(file: String, contents: String, overwrite: Boolean = false): Boolean = underlying.put(file, contents, overwrite)
        }

        implicit class FSUtilsFromReflective(underlying: ReflectiveDBUtils.FSUtils) extends FSUtils {
            override def dbfs: FileSystem = underlying.dbfs
            override def ls(dir: String): Seq[FileInfo] = underlying.ls(dir).map(fi => FileInfo(fi.path, fi.name, fi.size))
            override def rm(dir: String, recurse: Boolean = false): Boolean = underlying.rm(dir, recurse)
            override def mkdirs(dir: String): Boolean = underlying.mkdirs(dir)
            override def cp(from: String, to: String, recurse: Boolean = false): Boolean = underlying.cp(from, to, recurse)
            override def mv(from: String, to: String, recurse: Boolean = false): Boolean = underlying.mv(from, to, recurse)
            override def head(file: String, maxBytes: Int = 65536): String = underlying.head(file, maxBytes)
            override def put(file: String, contents: String, overwrite: Boolean = false): Boolean = underlying.put(file, contents, overwrite)
        }

        implicit class SecretUtilsFromBackend(underlying: BackendDBUtils.SecretUtils) extends SecretUtils {
            override def get(scope: String, key: String): String = underlying.get(scope, key)
            override def getBytes(scope: String, key: String): Array[Byte] = underlying.getBytes(scope, key)
            override def list(scope: String): Seq[SecretMetadata] = underlying.list(scope).map(sm => SecretMetadata(sm.key))
            override def listScopes(): Seq[SecretScope] = underlying.listScopes().map(ss => SecretScope(ss.name))
        }

        implicit class SecretUtilsFromReflective(underlying: ReflectiveDBUtils.SecretUtils) extends SecretUtils {
            override def get(scope: String, key: String): String = underlying.get(scope, key)
            override def getBytes(scope: String, key: String): Array[Byte] = underlying.getBytes(scope, key)
            override def list(scope: String): Seq[SecretMetadata] = underlying.list(scope).map(sm => SecretMetadata(sm.key))
            override def listScopes(): Seq[SecretScope] = underlying.listScopes().map(ss => SecretScope(ss.name))
        }
    }
}

object BackendDBUtils extends DBUtilsApi {
    import com.databricks.dbutils_v1

    private lazy val dbutils: DBUtils = dbutils_v1.DBUtilsHolder.dbutils
    override lazy val fs: FSUtils = dbutils.fs
    override lazy val secrets: SecretUtils = dbutils.secrets

    type DBUtils = dbutils_v1.DBUtilsV1
    type FSUtils = dbutils_v1.DbfsUtils
    type FileInfo = com.databricks.backend.daemon.dbutils.FileInfo

    type SecretUtils = dbutils_v1.SecretUtils
    type SecretMetadata = dbutils_v1.SecretMetadata
    type SecretScope = dbutils_v1.SecretScope
}

object ReflectiveDBUtils extends DBUtilsApi {
    // This throws a ClassNotFoundException when the Databricks Connection API isn't available -- it's much better than
    // the NoClassDefFoundError, which we would get if we had a hard-coded import of com.databricks.service.DBUtils .
    // As we're just using reflection, we're able to recover if it's not found.
    private lazy val dbutils: DBUtils =
        Class.forName("com.databricks.service.DBUtils$").getField("MODULE$").get().asInstanceOf[DBUtils]

    override lazy val fs: FSUtils = dbutils.fs
    override lazy val secrets: SecretUtils = dbutils.secrets

    type DBUtils = AnyRef {
        val fs: FSUtils
        val secrets: SecretUtils
    }

    type FSUtils = AnyRef {
        def dbfs: org.apache.hadoop.fs.FileSystem
        def ls(dir: String): Seq[FileInfo]
        def rm(dir: String, recurse: Boolean): Boolean
        def mkdirs(dir: String): Boolean
        def cp(from: String, to: String, recurse: Boolean): Boolean
        def mv(from: String, to: String, recurse: Boolean): Boolean
        def head(file: String, maxBytes: Int): String
        def put(file: String, contents: String, overwrite: Boolean): Boolean
    }

    type FileInfo = AnyRef {
        val path: String
        val name: String
        val size: Long
    }

    type SecretUtils = AnyRef {
        def get(scope: String, key: String): String
        def getBytes(scope: String, key: String): Array[Byte]
        def list(scope: String): Seq[SecretMetadata]
        def listScopes(): Seq[SecretScope]
    }

    type SecretMetadata = DefinedByConstructorParams { val key: String }

    type SecretScope = DefinedByConstructorParams { val name: String }
}

如果您将 Main 中提到的 val dbutils: DBUtils.type = com.databricks.service.DBUtils 替换为 val dbutils: DBUtils。 type = com.example.my.proxy.adapter.DBUtils,一切都应该作为直接替代品,无论是本地还是远程。

如果您有一些新的 NoClassDefFoundError,请尝试向 JAR 作业添加特定的依赖项,或者尝试重新排列它们、更改版本或将依赖项标记为提供的依赖项。

这个适配器并不漂亮,并且它使用反射,但我希望它作为一种解决方法应该足够好。祝你好运:)

关于scala - 使用 Databricks Connect 时如何正确访问 Scala 中的 dbutils,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58941808/

相关文章:

regex - 检查正则表达式模式匹配是否失败

scala - 如何在 Akka actor 中等待文件上传流完成

azure - 从 Python Notebook 使用 Markdown 调用 SQL Notebook 会导致 "Parse Exception"

azure - 在哪里可以找到 databricks 工作区的日志?

scala - Scala 查找数组的所有元素是否具有相同长度的方法是什么?

eclipse - Scala IDE (Kepler) 的 Playframework 2.3.0 问题

azure - 如何从Azure Databricks集群中的增量表获取行值?

azure - 如何在 Azure Databricks Notebook Run Now JSON 中提供集群名称

apache-spark - 合并数据帧并选择最新记录

databricks - 无法使用 Databricks 列出 Azure 存储 Gen 2 文件