linux - 由于转义字符导致找不到文件错误

标签 linux shell apache-spark-sql spark-shell

我正在尝试通过 Java 代码在 Linux 终端中执行以下 spark-shell 命令。

echo spark.sparkContext.parallelize\(1 to 3,3\).map\(x => \
(x,\"city_\"+x\)\).toDF\(\"num",\"city\"\).write.partitionBy\(\"num\"\).mode\
(SaveMode.Overwrite\).parquet\(\"/tmp/abinash\"\) | /opt/ab/cd/de/spark-shell

但即使文件存在,/tmp/abinash 也会出现“没有这样的文件或目录”错误

我尝试了很多方法来解决这个问题。但没有取得任何成功。 我假设转义字符存在问题。

谁能帮我解决我在这里做错的问题。

最佳答案

试试这个。

> echo "spark.sparkContext.parallelize(1 to 3,3).map(x => (x,\"city_\"+x)).toDF(\"num\",\"city\").write.partitionBy(\"num\").mode(SaveMode.Overwrite).parquet(\"/tmp/abinash\")"
spark.sparkContext.parallelize(1 to 3,3).map(x => (x,"city_"+x)).toDF("num","city").write.partitionBy("num").mode(SaveMode.Overwrite).parquet("/tmp/abinash")

关于linux - 由于转义字符导致找不到文件错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52704306/

相关文章:

linux - 创建 Linux 用户和组

在 git shell 中时的 GitHub 错误 "fatal: bad config file line 1 in .git/config"

shell - cron 作业的容错能力如何?

database - 用 Spark Dataframe 中另一个分类列的平均值替换列的空值

mysql - Apache Spark : How to extract only common records from a database to cluster

mysql - org.apache.spark.sql.AnalysisException : cannot recognize input near 'num' ':' '=' in expression specification;

linux - 如何保持 SOLR 在远程服务器上运行

linux - Git Bash 与 Oracle VM VirtualBox

linux - 将 Linux 系统时钟同步到 Windows NTP 服务

linux - 提取 message.log 文件中部分时间戳的 Shell 脚本程序