kubernetes - 配备kubeadm时重新启动kube-apiserver

标签 kubernetes

当使用kubeadmin init设置kubernetes集群时,它会创建一个集群,该集群将kube-apiserveretcdkube-controller-managerkube-scheduler进程保留在docker容器内。

每当kube-apiserver的某些配置(例如访问 token )发生更改时,我都必须重新启动相关的服务器。虽然我通常可以在其他安装上运行systemctl restart kube-apiserver.service,但是我已经杀死了该安装上的docker容器或重新启动系统以重新启动它。

那么,有没有更好的方法来重新启动kube-apiserver呢?

最佳答案

您可以删除kube-apiserver Pod。这是static Pod(如果安装了kubeadm),将立即重新创建。

如果我没有记错该安装的 list 目录是/etc/kubernetes/manifest,但是我稍后会检查并编辑此答案。只需触摸kube-apiserver.json也会重新创建Pod。

关于kubernetes - 配备kubeadm时重新启动kube-apiserver,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42674726/

相关文章:

kubernetes - 为什么 Kubernetes 使用 yaml 文件为 "resource"

kubernetes - 节点状态在高资源需求 pod 上变为未知

kubernetes - 通过minikube在本地运行Kubernetes

kubernetes - 如何测试 ClusterIssuer 求解器?

kubernetes - K8s部署Minio 如何访问控制台?

kubernetes - 提取容器 ID 时出错 - 源值不包含匹配器的 logs_path '/var/lib/docker/containers/'

docker - Kubernetes 服务无法通过具有桌面 Docker 设置的节点端口访问

kubernetes - 如何安装带有Helm的Prometheus,以便可以从浏览器中使用它?

kubernetes - ActiveMQ Artemis 消费者在崩溃后不会重新连接到同一个集群节点

ruby-on-rails - Kubernetes:自动为服务进行端口转发