scala - 如何在 Azure 中的 Kubernetes 中进行 scala 堆转储

标签 scala azure docker kubernetes azure-aks

我在自动堆转储到 Microsoft Azure AKS (Kubernetes) 中已安装的持久卷时遇到问题。

所以情况是这样的:

  • 使用参数 -Xmx200m 运行程序导致内存不足 异常
  • 在 AKS 中构建、推送和部署 docker 镜像之后 秒 pod 被杀死并重新启动
  • 我在已安装卷的 hello.txt 中收到消息,但没有转储文件 已创建

这种行为的原因可能是什么?

我的测试程序如下所示:

import java.io._

object Main {

  def main(args: Array[String]): Unit = {

    println("Before printing test info to file")
    val pw = new PrintWriter(new File("/borsuk_data/hello.txt"))
    pw.write("Hello, world")
    pw.close
    println("Before allocating to big Array for current memory settings")
    val vectorOfDouble = Range(0, 50 * 1000 * 1000).map(x => 666.0).toArray
    println("After creating to big Array")
  }

}

我的入口点.sh:

#!/bin/sh
java -jar /root/scala-heap-dump.jar -Xmx200m -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/data/scala-heap-dump.bin

我的 Dockerfile:

FROM openjdk:jdk-alpine

WORKDIR /root
ADD target/scala-2.12/scala-heap-dump.jar  /root/scala-heap-dump.jar
ADD etc/entrypoint.sh /root/entrypoint.sh
ENTRYPOINT ["/bin/sh","/root/entrypoint.sh"]

我的部署yaml:

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: scala-heap-dump
spec:
  replicas: 1
  template:
    metadata:
      labels:
        app: scala-heap-dump
    spec:
      containers:
        - name: scala-heap-dump-container
          image: PRIVATE_REPO_ADDRESS/scala-heap-dump:latest
          imagePullPolicy: Always
          resources:
            requests:
              cpu: 500m
              memory: "1Gi"
            limits:
              cpu: 500m
              memory: "1Gi"
          volumeMounts:
            - name: data
              mountPath: /data
      volumes:
        - name: data
          persistentVolumeClaim:
            claimName: dynamic-persistence-volume-claim
      dnsPolicy: ClusterFirst
      hostNetwork: false
      imagePullSecrets:
        - name: regsecret

更新: 正如 lawrencegripper 指出的那样,第一个问题是 pod 由于 yaml 中的内存限制而被 OOM 杀死。将内存更改为 2560Mi 或更高后(我什至在 yaml 中尝试过如此荒谬的值,如 CPU:1000m 和内存 5Gi),我不明白 OOM 被杀死的原因。但是,不会创建转储文件,并且在 LastState 终止时会出现不同类型的消息。原因是:错误。不幸的是这不是很有帮助。如果有人知道如何缩小范围,请帮忙。

更新2: 我在代码中添加了一些 println 以便更好地理解正在发生的事情。被杀死的 pod 的日志是:

Before printing test info to file
Before allocating to big Array for current memory settings
Exception in thread "main" java.lang.OutOfMemoryError: Java heap space
        at scala.reflect.ManifestFactory$DoubleManifest.newArray(Manifest.scala:153)
        at scala.reflect.ManifestFactory$DoubleManifest.newArray(Manifest.scala:151)
        at scala.collection.TraversableOnce.toArray(TraversableOnce.scala:285)
        at scala.collection.TraversableOnce.toArray$(TraversableOnce.scala:283)
        at scala.collection.AbstractTraversable.toArray(Traversable.scala:104)
        at Main$.main(Main.scala:12)
        at Main.main(Main.scala)

如您所见,程序永远不会到达:println(“创建大数组后”)。

最佳答案

我认为问题出在entrypoint.sh命令上。

> java --help
Usage: java [options] <mainclass> [args...]
       (to execute a class)
   or  java [options] -jar <jarfile> [args...]
       (to execute a jar file)

请注意,-jar 之后的任何内容都是传递给应用程序的参数,而不是传递给 JVM 的参数。

尝试:

java -Xmx200m -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/data/scala-heap-dump.bin -jar /root/scala-heap-dump.jar 

关于scala - 如何在 Azure 中的 Kubernetes 中进行 scala 堆转储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54592905/

相关文章:

具有跨国复制的 Azure 托管实例故障转移

azure - 使用 Active Directory 图形客户端删除 AAD B2C 中的用户

Dockerfile if else 条件与外部参数

Scala:版本之间的二进制不兼容

scala - 如何根据 IntelliJ IDEA 中提供的参数生成方法或构造函数参数名称

java - 使用 Apache Phoenix JDBC 驱动程序时如何配置queueSize和ThreadPoolSize?

azure - 如何从Azure应用配置中读取值

docker - 使用 nginx 的 docker certbot 容器检索证书时的用户权限问题

node.js - 使用 Azure 管道和 Docker 运行 Mocha 测试

scala - 无限可 curry 添加功能