Kubernetes livenessProbe : restarting vs destroying of the pod

标签 kubernetes kubectl

如果活性探测失败,有没有办法告诉 Kubernetes 只销毁一个 pod 并创建一个新的 pod?我现在从日志中看到:我的 node js 应用程序刚刚重新启动并在同一个 pod 中运行。

活性探针在我的 YAML 规范中定义如下:

livenessProbe:
 httpGet:
 path: /app/check/status
 port: 3000
 httpHeaders:
 - name: Accept
   value: application/x-www-form-urlencoded
 initialDelaySeconds: 60
 periodSeconds: 60

免责声明:

我完全意识到,如果活性证明失败,则重新创建一个 Pod 可能不是最好的主意,正确的方法是收到有关正在发生的事情的通知。

最佳答案

所以活性和就绪探针在 containers not pods 中定义因此,如果您的 pod 中有 1 个容器并且您指定 restartPolicyNever .然后你的 pod 将进入 Failed状态并将在某个时候根据 terminated-pod-gc-threshold 报废值(value)。

如果您的 pod 中有多个容器,它会变得更加棘手,因为您的其他容器正在运行,使 pod 仍在 Running 中。地位。您可以构建自己的自动化或尝试 Pod Readiness在撰写本文时仍处于 alpha 阶段。

关于Kubernetes livenessProbe : restarting vs destroying of the pod,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52315805/

相关文章:

python - 通过 AWS PrivateLink 从不同的 AWS 账户访问 AWS ElastiCache(Redis CLUSTER 模式)

amazon-web-services - Kubectl 无法访问 kubernetes api。 k8s 部署不可达

kubernetes - 通过 ClusterIP 访问 pod

kubernetes - kubernetes kubectl 中的生成器是什么?

Kubernetes - 如何提取 secret tar 文件?

kubernetes - 无法在外部IP Kubernetes上访问服务

kubernetes - 如何调试kube-proxy : Connection reset by peer错误

apache-spark - kubernetes的Spark集群中的CrashLoopBackOff:nohup:无法执行 '--':没有这样的文件或目录

kubernetes - 在 helm 部署中连接环境变量?

json - 解析 loadbalancer.yaml 时出错 : error converting YAML to JSON: yaml: line 4: found character that cannot start any token