Scala <控制台> :24: error: could not find implicit value for evidence parameter of type breeze. storage.DefaultArrayValue[任意]

标签 scala apache-spark

我正在使用 Spark 和 Scala(两者都是新手)。我有这个代码:

val indices: List[Int] = List()
val featValues: List[Double] = List()
...
val vector = SparseVector(100000, indices.toArray, featValues.toArray)

但我不断收到此错误:

<console>:24: error: could not find implicit value for evidence parameter of type breeze.storage.DefaultArrayValue[Any]
                      val vector = SparseVector(100000, indices.toArray, featValues.toArray)

我确信只熟悉 Scala 的人可以帮助我。 SparseVector 的文档是:

http://people.apache.org/~pwendell/catalyst-docs/api/mllib/index.html#org.apache.spark.mllib.linalg.SparseVector

我用谷歌搜索发现了这个: Could not find implicit value for evidence parameter of type scala.reflect.ClassManifest[T]

但我不知道如何解释答案。

编辑: 我实际上是从 Breeze 导入另一个 SparseVector,而我应该从 org.apache.spark.mllib.linalg.SparseVector 导入。

我再次启动交互式 shell 并输入:import org.apache.spark.mllib.linalg.SparseVector

现在,在重复上面的相同代码后,我收到错误:未找到:值 SparseVector

编辑2: 我应该清楚“...”暗示我正在初始化列表。

最佳答案

看起来您还没有初始化索引和值,因此 scala 在某些时候会尝试使用它们的默认值。另外,根据您链接的文档,您需要使用 new 创建 SparseVector (也许没有伴随对象?)

我无法测试,但我建议尝试以下操作:

 val indices = Array(1,2,3) // indices is expected to be an array of Int
 val values = Array(1.0d,2.0d,3.0d) // values is an array of doubles       
 val v2 = new SparseVector(3, indices, values)

这个有用吗?如果确实如此,问题可能出在您在 val featValues

之后省略的代码部分

关于Scala <控制台> :24: error: could not find implicit value for evidence parameter of type breeze. storage.DefaultArrayValue[任意],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23274856/

相关文章:

scala - "Overriding"遗传变异

scala - DDD功能方式: Why is it better to decouple state from the behavior when applying DDD with functional language?

scala - 登录模块控制标志在 JAAS 配置中不可用 - Scala Kafka

apache-spark - 从 Airflow SparkSubmitOperator 提交 Spark 应用程序时如何设置 YARN 队列

apache-spark - 如何实际应用保存的 RF 模型并在 Spark2 中进行预测?

python - 带有 case 语句的 for 循环

java - Spark Java DataFrame 根据列求和并删除重复项

scala - 通过 Scala IDE 使用 spark sql

scala - Spark - 将 CSV 文件加载为 DataFrame?

apache-spark - 如何在pyspark的LogisticRegressionWithLBFGS中打印预测概率