docker - 在短时间内杀死/重启容器是正常的docker daemon吗?

标签 docker kubernetes

我们开始监视k8s集群中的docker事件,并注意到在很短的时间内,各种容器的Kill/Die/Stop/Destroy很多。

那是正常的吗? (我认为不是)

显然不是容量问题:

Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  OutOfDisk        False   Thu, 16 Aug 2018 11:19:30 -0300   Tue, 14 Aug 2018 14:02:37 -0300   KubeletHasSufficientDisk     kubelet has sufficient disk space available
  MemoryPressure   False   Thu, 16 Aug 2018 11:19:30 -0300   Tue, 14 Aug 2018 14:02:37 -0300   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Thu, 16 Aug 2018 11:19:30 -0300   Tue, 14 Aug 2018 14:02:37 -0300   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Thu, 16 Aug 2018 11:19:30 -0300   Fri, 11 May 2018 16:37:48 -0300   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            True    Thu, 16 Aug 2018 11:19:30 -0300   Tue, 14 Aug 2018 14:02:37 -0300   KubeletReady                 kubelet is posting ready status

所有Pod显示状态为“正在运行”

关于如何进一步调试的任何技巧?

最佳答案

您可以在运行pod的节点主机上按以下命令检查docker容器的状态。

docker inspect <container id>

更多选择是here

事件日志和日记日志对调试很有帮助。
kubectl get events

journalctl --no-pager 

关于docker - 在短时间内杀死/重启容器是正常的docker daemon吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51879385/

相关文章:

azure - 如何监视 Azure AKS 中非公开的 Kubernetes 服务的正常运行时间

Docker 将文件添加到 VOLUME

postgresql - 用于持久化PostgreSQL数据库数据的Docker卷

azure - 尝试更改 Kubernetes 集群中的最大节点数会返回错误

nginx - Dockerizing nginx 和 Flask

docker - 为使用 docker-compose 启动的 Rancher 2.x 的 cert-manager 创建 Issuer

kubernetes - 无法在 VM 上按照 CentOS 7 官方安装指南安装 Kubernetes 最新版本

docker - 如何将文件传递到Docker容器中以与该容器一起使用?

docker - Hyperledger Fabric : Orderer Client failed to connect to orderer. example.com

docker-compose "No such file or directory"用于 sh 命令