python - 使用 Spark.xml 读取 XML 时,为什么我的数据框加载了空白值? (Python/数据 block )

标签 python xml apache-spark pyspark databricks

我正在Python中使用spark.xml读取XML文件,并遇到了一个看似非常具体的问题。
我能够缩小 XML 中产生问题的部分,但无法缩小问题发生的原因。

以下是读取 XML 文件的代码:

src = sqlContext.read.format("com.databricks.spark.xml").options(rowTag="root").load("file.xml")

以下是使用 Spark.xml 库从 XML 读取的架构,其中 rowTag = "root":

    root
 |-- AID: long (nullable = true)
 |-- RID: long (nullable = true)
 |-- XmlData: struct (nullable = true)
 |    |-- NC: struct (nullable = true)
 |    |    |-- RS: struct (nullable = true)
 |    |    |    |-- RD: struct (nullable = true)
 |    |    |    |    |-- CR: struct (nullable = true)
 |    |    |    |    |    |-- Addr1: string (nullable = true)
 |    |    |    |    |    |-- Addr2: string (nullable = true)
 |    |    |    |    |    |-- City: string (nullable = true)
 |    |    |    |    |    |-- InFile: string (nullable = true)
 |    |    |    |    |    |-- Name: string (nullable = true)
 |    |    |    |    |    |-- Phone: long (nullable = true)
 |    |    |    |    |    |-- State: string (nullable = true)
 |    |    |    |    |    |-- Zip: long (nullable = true)
 |    |    |    |    |-- SC: struct (nullable = true)
 |    |    |    |    |    |-- Class: string (nullable = true)
 |    |    |    |    |    |-- ClassType: string (nullable = true)
 |    |    |    |    |    |-- Message: string (nullable = true)
 |    |    |    |    |    |-- SC: long (nullable = true)
 |    |    |    |    |-- NC: long (nullable = true)
 |    |    |    |    |-- CRR: string (nullable = true)
 |    |    |    |    |-- RM: struct (nullable = true)
 |    |    |    |    |    |-- Addr1: string (nullable = true)
 |    |    |    |    |    |-- City: string (nullable = true)
 |    |    |    |    |    |-- MemberNo: string (nullable = true)
 |    |    |    |    |    |-- Name: string (nullable = true)
 |    |    |    |    |    |-- State: string (nullable = true)
 |    |    |    |    |    |-- Zip: long (nullable = true)
 |    |    |    |    |-- TL: array (nullable = true)
 |    |    |    |    |    |-- element: struct (containsNull = true)
 |    |    |    |    |    |    |-- _AvgDays: long (nullable = true)
 |    |    |    |    |    |    |-- _Comment: string (nullable = true)
 |    |    |    |    |    |    |-- _Current: long (nullable = true)
 |    |    |    |    |    |    |-- _HC: long (nullable = true)
 |    |    |    |    |    |    |-- _IndType: string (nullable = true)
 |    |    |    |    |    |    |-- _LS: long (nullable = true)
 |    |    |    |    |    |    |-- _OpenDate: long (nullable = true)
 |    |    |    |    |    |    |-- _PD120Day: long (nullable = true)
 |    |    |    |    |    |    |-- _PD30Day: long (nullable = true)
 |    |    |    |    |    |    |-- _PD60Day: long (nullable = true)
 |    |    |    |    |    |    |-- _PD90Day: long (nullable = true)
 |    |    |    |    |    |    |-- _Region: string (nullable = true)
 |    |    |    |    |    |    |-- _ReportDate: string (nullable = true)
 |    |    |    |    |    |    |-- _SourceID: long (nullable = true)
 |    |    |    |    |    |    |-- _TD: long (nullable = true)
 |    |    |    |    |    |    |-- _VALUE: string (nullable = true)
 |    |    |    |    |-- Trends: array (nullable = true)
 |    |    |    |    |    |-- element: struct (containsNull = true)
 |    |    |    |    |    |    |-- _CurrentPct: double (nullable = true)
 |    |    |    |    |    |    |-- _LineCnt: long (nullable = true)
 |    |    |    |    |    |    |-- _PD120DayPct: double (nullable = true)
 |    |    |    |    |    |    |-- _PD30DayPct: double (nullable = true)
 |    |    |    |    |    |    |-- _PD60DayPct: double (nullable = true)
 |    |    |    |    |    |    |-- _PD90DayPct: double (nullable = true)
 |    |    |    |    |    |    |-- _PD: string (nullable = true)
 |    |    |    |    |    |    |-- _TD: long (nullable = true)
 |    |    |    |    |    |    |-- _VALUE: string (nullable = true)

此模式还有更多内容,但由于某种原因,XML 解析器无法超越这一点。 我认为 XML 中的“Trends”标签存在问题,但我找不到它。

以下是“趋势”标签条目的示例:

<Trends PD="4205" LineCnt="0" TD="0" CurrentPct="0" PD30DayPct="0" PD60DayPct="0" PD90DayPct="0" PD120DayPct="0" />

据我所知,在以前版本的 XML 解析器中无法读取像这样的闭合标记,但在 Databricks 中使用它时它工作正常,并且我的其他带有闭合标记的文件也能正确读取。

下面是进一步举例说明我所解释内容的最终结果(我的 XML 中有 13 条记录):

+---------+--------+-------+
|AID      |RID     |XmlData|
+---------+--------+-------+
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
|     null|    null|   null|
+---------+--------+-------+

(这个顶级 View 很好 - 我的代码稍后会迭代“XMLData”中的结构/数组 - 但这当然需要首先填充)

有谁知道为什么这会导致架构在解析时停止加载完成?

请注意,我无法显式定义架构。这将违背我正在从事的项目的目的——我必须能够动态推断模式。这对于我正在使用的其他文件来说同样适用。

最佳答案

原因:

所以我能够弄清楚为什么会发生这种情况。当您尝试转换为数据帧的 xml 具有不一致的值时,您可能会看到此问题。例如,如下所示的内容就会出现此问题:

<?xml version="1.0"?>
<Company>
  <Employee id="1">
      <Email>tp@xyz.com</Email>
      <Measures id="id32" type="AttributesInContext">
<Dimensions value="7in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
  </Employee>
  <Employee id="2">
      <Email>tp@xyz.com</Email>
      <Measures id="id33" type="AttributesInContext">
<Dimensions value="6in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
  </Employee>
  <Employee id="3">
      <Email>tp@xyz.com</Email>
      <Measures id="id34" type="AttributesInContext">
<Dimensions value="4in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
  </Employee>
</Company>

在这里,由于每个 rowTag 条目中都有 value="",因此我们可能会在所有行的数据帧中得到 null,因为它无法推断数据类型。但是,如果您将所有 value="" 字段替换为某个实际值,您将发现不会出现此问题。

解决方案:

根据databricks link ,可以通过在读取 xml 文件时使用 option("nullValue", "") 选项来解决此问题。所以你的命令将如下所示(我在 scala 中尝试过,在 python 中应该类似):

var xmldf = sparkSession.read.format("com.databricks.spark.xml")
        .option("rowTag", rootTag).option("nullValue", "").load("/path/to/xml")

关于python - 使用 Spark.xml 读取 XML 时,为什么我的数据框加载了空白值? (Python/数据 block ),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53657861/

相关文章:

scala - 如何使用 Scala 在 Spark 中进行滑动窗口排序?

sql - 使用 xml.modify 将参数插入到 xml 列的特定元素中

python - 代码。 Pylance 无法通过 SSH 连接工作

python - Pgpass 在 unixODBC/pyodbc 中不工作

python - 关于用 python 抓取 html 的说明

html - 使用 xslt 列出 XML 文件的具有 <li><ui> 标签的项目

java - 从 XML 文件加载 requestCode

r - Sparklyr - 更改 Spark 数据框中的列名称

python - 具有多个标签的逻辑回归 PySpark MLlib 问题

Python/Django 类型错误 : relative imports require the 'package' argument