java - 在 Spark 2.2.0 中设置 DEFAULT_MAX_TO_STRING_FIELDS

标签 java spring maven apache-spark

我想更改 Spark 2.2.0 中变量 DEFAULT_MAX_TO_STRING_FIELDS 的值,因为我想在具有超过 25 个特征的数据集上应用机器学习算法。 Apache Spark 库以 Maven 依赖项的形式集成在 Spring Boot 应用程序中,因此我想从代码中更改此属性。我找到了一种显示特征数量的方法:

System.out.println(Utils.DEFAULT_MAX_TO_STRING_FIELDS());

但不幸的是我不知道如何动态改变这个值。

谢谢!!!

最佳答案

尝试以下

SparkSession.conf.set("spark.debug.maxToStringFields", maxlength)

关于java - 在 Spark 2.2.0 中设置 DEFAULT_MAX_TO_STRING_FIELDS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51876519/

相关文章:

java - 在 Jetty 和 Tomcat 中运行 Web 应用程序

java - Spring Security SAML 插件 - 未配置托管服务提供商异常

Spring boot Rest API,Angular 6 SSO 社交登录

java - 无法用maven编译Impala的前端

java - Maven项目在eclipse中抛出ClassNotFoundException

java - Spring消息源,bean XML中的getMessage?

java - JUnit 测试在 H2 的 RUNSCRIPT 完成之前开始

java - 我正在编写披萨订购程序,我应该在我的面包皮类中使用枚举吗?

java - 确定 lambda 表达式在 Java 中是无状态的还是有状态的

java - 选择最佳数据结构