我想更改 Spark 2.2.0 中变量 DEFAULT_MAX_TO_STRING_FIELDS 的值,因为我想在具有超过 25 个特征的数据集上应用机器学习算法。 Apache Spark 库以 Maven 依赖项的形式集成在 Spring Boot 应用程序中,因此我想从代码中更改此属性。我找到了一种显示特征数量的方法:
System.out.println(Utils.DEFAULT_MAX_TO_STRING_FIELDS());
但不幸的是我不知道如何动态改变这个值。
谢谢!!!
最佳答案
尝试以下
SparkSession.conf.set("spark.debug.maxToStringFields", maxlength)
关于java - 在 Spark 2.2.0 中设置 DEFAULT_MAX_TO_STRING_FIELDS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51876519/