csv - Spark CSV 数据框加载,找不到文件

标签 csv apache-spark dataframe

如果在 spark csv 读取的给定位置找不到我的文件,如何捕获异常?

try {
    val df = sqlCxt.read.format("csv")
    .option("delimiter", "|")
    .load("C:/Users/swapnil.shirke/Downloads/dataset/u.item");

}
catch {

case ex: FileNotFoundException => {
println(" file missing exception")
}
case ex: Exception => ex.printStackTrace()
}

给定的 try catch 条件无效。

最佳答案

在 scala 中,如果文件路径不正确,则异常是 org.apache.spark.sql.AnalysisException: Path does not exist: .... 所以正确的方法是

try {
  val df = sqlCxt.read.format("csv")
    .option("delimiter", "|")
    .load("/Users/swapnil.shirke/Downloads/dataset/u.item");

}
catch {
  case ex: AnalysisException => {
    println(" file missing exception")
  }
  case ex: Exception => ex.printStackTrace()
}

希望回答对你有帮助

关于csv - Spark CSV 数据框加载,找不到文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46441971/

相关文章:

r - 如何强制 readr 考虑正确的小数/分组标记?

php - 显示结果然后提供导出到 .csv 的选项?

java - 在 Java 中查找特定长度/格式的子字符串

apache-spark - 如何将 Spark 数据集与 Thrift 结合使用

apache-spark - Spark and Hive in Hadoop 3 : Difference between metastore. catalog.default and spark.sql.catalogImplementation

dataframe - 如何将向量添加到 Julia 中某个数组的列中?

python - 基于另一列追加 Pandas DataFrame 列

r - 如何过滤数据帧以获取连续增加的值

mysql - 将 csv 文件(编码 = UCS2)加载到自制表中时出现问题

apache-spark - 调用sc.textFile (“hdfs://…”)时,spark和hdfs之间将建立多少个bt连接