在 R 中,我们有函数 factors()
。我想通过 Spark R 以并行方式使用此函数。
我的 Spark 版本是 1.6.2,我在 documentation 中找不到对应的版本.我以为我可以用 map 来做,但我不确定我是否理解 this answer ,应该有更简单的方法。
简单来说:Spark R 中的 factors()
是什么?
最佳答案
没有直接的等价物。 Spark 使用 double 字对每种类型的变量进行编码,并使用元数据来区分不同类型。对于 ML 算法,您可以使用自动对列进行编码的公式。
关于r - Spark R - Spark R 中的 `factors()` 是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38465479/