scala - sbt 包试图下载一个路径不存在的包

标签 scala apache-spark sbt

这些是我的 build.sbt 文件的内容:

name := "WordCounter"

version := "0.1"

scalaVersion := "2.13.1"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.4.5"
)

当我尝试运行sbt package时,这是我得到的输出

[error] sbt.librarymanagement.ResolveException: Error downloading org.apache.spark:spark-core_2.13:2.4.5
[error] not found: https://repo1.maven.org/maven2/org/apache/spark/spark-core_2.13/2.4.5/spark-core_2.13-2.4.5.pom

如果我在浏览器中导航到该 URL,我可以确认它不存在,它会返回 404 代码。

我不明白的是,为什么 sbt 试图转到 spark-core_2.13 而存储库仅列出 spark-core_2.12 作为列出的最新依赖项。

我的 build.sbt 文件有问题吗?有没有办法告诉 SBT 仅针对该依赖项转到任意路径?

最佳答案

你的 scala 版本 scalaVersion := "2.13.1" 是罪魁祸首。

因为你有以上的scala版本并且你的依赖是

 "org.apache.spark" %% "spark-core" % "2.4.5"

所以它试图找出用 2.13 编译的 spark-core 2.4.5 工件,但它不存在....

请参阅此处了解 scala spark 版本兼容性

Spark runs on Java 8, Python 2.7+/3.4+ and R 3.1+. For the Scala API, Spark 2.4.5 uses Scala 2.12. You will need to use a compatible Scala version (2.12.x).

另见 mvn repo here

如果您将其更改为 2.12,它将起作用。

我认为没有与 scala 2.13 兼容的 spark 版本。 见here

enter image description here

关于scala - sbt 包试图下载一个路径不存在的包,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60346192/

相关文章:

scala - 使用 SBT 创建新的 Scala 项目?

scala - Atlassian Bamboo 5.x 是否与 Play Framework 2.x 兼容

scala - 压缩多个序列

Scala:如何按名称动态访问类属性?

scala - 如何在 IntelliJ 中找到 Scala 类的构造函数的用法?

scala - 使用 slick.jdbc.MySQLProfile 将 Slick 3.2.1 连接到 MySQL

Scala Spark 连接到远程集群

java - 无法使用Java连接到HBase

apache-spark - 打开 Spark 1.5.0 时出错

scala - 如何指定必须先构建另一个项目 B 才能构建项目 A?