scala - Spark : how to run spark file from spark shell

标签 scala apache-spark cloudera-cdh cloudera-manager

我正在使用 CDH 5.2。我可以使用 spark-shell 运行命令。

  1. 如何运行包含spark命令的文件(file.spark)。
  2. 有没有办法在不使用 sbt 的情况下在 CDH 5.2 中运行/编译 scala 程序?

最佳答案

在命令行中,您可以使用

spark-shell -i file.scala

运行file.scala中编写的代码

关于scala - Spark : how to run spark file from spark shell,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27717379/

相关文章:

scala - 如何在 Scala 中从运行时值创建偏函数

scala - 如何在 Mockito 和 Scala 中使用隐式匹配器 stub 方法调用

java - 带有 Java 的 Apache Spark : Launching multiple app requests simultaneously

apache-spark - 来自 Kafka 检查点和确认的 Spark 结构化流

hadoop - 将数据节点从CDH移动到mapR

scala - 如何在SBT 0.10.0中获取完整的stacktrace?

java - 为什么我不能从 Package Explorer 运行所有 Java JUnit 测试? - Scala 插件问题

scala - 如何访问数组列中的值?

hadoop - CDH 5.7 上的 Streamsets solrcloud 无法连接到 Solr

hadoop - 如何防止 CDH 中的 Hue 在重启时清除作业历史记录?