我正在Python中使用spark.xml读取XML文件,并遇到了一个看似非常具体的问题。
我能够缩小 XML 中产生问题的部分,但无法缩小问题发生的原因。
以下是读取 XML 文件的代码:
src = sqlContext.read.format("com.databricks.spark.xml").options(rowTag="root").load("file.xml")
以下是使用 Spark.xml 库从 XML 读取的架构,其中 rowTag = "root":
root
|-- AID: long (nullable = true)
|-- RID: long (nullable = true)
|-- XmlData: struct (nullable = true)
| |-- NC: struct (nullable = true)
| | |-- RS: struct (nullable = true)
| | | |-- RD: struct (nullable = true)
| | | | |-- CR: struct (nullable = true)
| | | | | |-- Addr1: string (nullable = true)
| | | | | |-- Addr2: string (nullable = true)
| | | | | |-- City: string (nullable = true)
| | | | | |-- InFile: string (nullable = true)
| | | | | |-- Name: string (nullable = true)
| | | | | |-- Phone: long (nullable = true)
| | | | | |-- State: string (nullable = true)
| | | | | |-- Zip: long (nullable = true)
| | | | |-- SC: struct (nullable = true)
| | | | | |-- Class: string (nullable = true)
| | | | | |-- ClassType: string (nullable = true)
| | | | | |-- Message: string (nullable = true)
| | | | | |-- SC: long (nullable = true)
| | | | |-- NC: long (nullable = true)
| | | | |-- CRR: string (nullable = true)
| | | | |-- RM: struct (nullable = true)
| | | | | |-- Addr1: string (nullable = true)
| | | | | |-- City: string (nullable = true)
| | | | | |-- MemberNo: string (nullable = true)
| | | | | |-- Name: string (nullable = true)
| | | | | |-- State: string (nullable = true)
| | | | | |-- Zip: long (nullable = true)
| | | | |-- TL: array (nullable = true)
| | | | | |-- element: struct (containsNull = true)
| | | | | | |-- _AvgDays: long (nullable = true)
| | | | | | |-- _Comment: string (nullable = true)
| | | | | | |-- _Current: long (nullable = true)
| | | | | | |-- _HC: long (nullable = true)
| | | | | | |-- _IndType: string (nullable = true)
| | | | | | |-- _LS: long (nullable = true)
| | | | | | |-- _OpenDate: long (nullable = true)
| | | | | | |-- _PD120Day: long (nullable = true)
| | | | | | |-- _PD30Day: long (nullable = true)
| | | | | | |-- _PD60Day: long (nullable = true)
| | | | | | |-- _PD90Day: long (nullable = true)
| | | | | | |-- _Region: string (nullable = true)
| | | | | | |-- _ReportDate: string (nullable = true)
| | | | | | |-- _SourceID: long (nullable = true)
| | | | | | |-- _TD: long (nullable = true)
| | | | | | |-- _VALUE: string (nullable = true)
| | | | |-- Trends: array (nullable = true)
| | | | | |-- element: struct (containsNull = true)
| | | | | | |-- _CurrentPct: double (nullable = true)
| | | | | | |-- _LineCnt: long (nullable = true)
| | | | | | |-- _PD120DayPct: double (nullable = true)
| | | | | | |-- _PD30DayPct: double (nullable = true)
| | | | | | |-- _PD60DayPct: double (nullable = true)
| | | | | | |-- _PD90DayPct: double (nullable = true)
| | | | | | |-- _PD: string (nullable = true)
| | | | | | |-- _TD: long (nullable = true)
| | | | | | |-- _VALUE: string (nullable = true)
此模式还有更多内容,但由于某种原因,XML 解析器无法超越这一点。 我认为 XML 中的“Trends”标签存在问题,但我找不到它。
以下是“趋势”标签条目的示例:
<Trends PD="4205" LineCnt="0" TD="0" CurrentPct="0" PD30DayPct="0" PD60DayPct="0" PD90DayPct="0" PD120DayPct="0" />
据我所知,在以前版本的 XML 解析器中无法读取像这样的闭合标记,但在 Databricks 中使用它时它工作正常,并且我的其他带有闭合标记的文件也能正确读取。
下面是进一步举例说明我所解释内容的最终结果(我的 XML 中有 13 条记录):
+---------+--------+-------+
|AID |RID |XmlData|
+---------+--------+-------+
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
| null| null| null|
+---------+--------+-------+
(这个顶级 View 很好 - 我的代码稍后会迭代“XMLData”中的结构/数组 - 但这当然需要首先填充)
有谁知道为什么这会导致架构在解析时停止加载完成?
请注意,我无法显式定义架构。这将违背我正在从事的项目的目的——我必须能够动态推断模式。这对于我正在使用的其他文件来说同样适用。
最佳答案
原因:
所以我能够弄清楚为什么会发生这种情况。当您尝试转换为数据帧的 xml 具有不一致的值时,您可能会看到此问题。例如,如下所示的内容就会出现此问题:
<?xml version="1.0"?>
<Company>
<Employee id="1">
<Email>tp@xyz.com</Email>
<Measures id="id32" type="AttributesInContext">
<Dimensions value="7in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
<Employee id="2">
<Email>tp@xyz.com</Email>
<Measures id="id33" type="AttributesInContext">
<Dimensions value="6in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
<Employee id="3">
<Email>tp@xyz.com</Email>
<Measures id="id34" type="AttributesInContext">
<Dimensions value="4in" title="Height"></Dimensions>
<Dimensions value="" title="Weight"></Dimensions></Measures>
</Employee>
</Company>
在这里,由于每个 rowTag
条目中都有 value="",因此我们可能会在所有行的数据帧中得到 null,因为它无法推断数据类型。但是,如果您将所有 value=""
字段替换为某个实际值,您将发现不会出现此问题。
解决方案:
根据databricks link ,可以通过在读取 xml 文件时使用 option("nullValue", "")
选项来解决此问题。所以你的命令将如下所示(我在 scala 中尝试过,在 python 中应该类似):
var xmldf = sparkSession.read.format("com.databricks.spark.xml")
.option("rowTag", rootTag).option("nullValue", "").load("/path/to/xml")
关于python - 使用 Spark.xml 读取 XML 时,为什么我的数据框加载了空白值? (Python/数据 block ),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53657861/