apache-spark - 我们如何使用 Spark 运算符设置内存和 CPU 资源限制?

标签 apache-spark kubernetes operators google-kubernetes-engine kubernetes-pod

我是 Spark-operator 的新手,我很困惑如何在 YAML 文件中设置资源请求和限制,例如在我的例子中,我为 driver pod 请求 512m 的内存,但是限制怎么样,它是无界的?

spec:
  driver:
    cores: 1
    coreLimit: 200m
    memory: 512m
    labels:
      version: 2.4.5
    serviceAccount: spark

规范: 司机: 核心数:1 核心限制:200m 内存:512m 标签: 版本:2.4.5 服务帐号:spark

最佳答案

在定义 yaml 文件时设置限制是一个很好的做法。如果您不这样做,您将面临使用节点上所有资源的风险 doc因为没有上限。


驱动程序和执行程序 Pod 的内存限制由 Spark 中的 Kubernetes 调度程序后端内部设置,并按 Spark.{driver|executor}.memory + 内存开销的值计算。

关于apache-spark - 我们如何使用 Spark 运算符设置内存和 CPU 资源限制?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61594588/

相关文章:

Azure Synapse Analytics - 高长度的列加载

python - 将pyspark数据帧转换为python字典列表

docker - Kubernetes 与 Mesos 上的 Kubernetes 对比?

python - 从 pyspark 中的 Dataframe 方法内访问广播字典

apache-spark - Spark SQL 中更新查询

mysql - 如何在 Kubernetes 中使用 PersistentVolume 存储 MySQL 数据

kubernetes - “Error: forwarding ports: Upgrade request required” kubernetes 集群 helm 错误

c++ - 放置运算符函数的一致性

operators - Kotlin:一元加/减运算符对数字有什么作用?

c++ - 使用父类的重载方法