📖 前言 随着 CentOS 7 即将停止维护,越来越多的企业和开发者开始将基础设施迁移至 Rocky Linux 9。作为 RHEL 的下游发行版,Rocky 9 内核更新,但也带来了一些与旧版不同的配置习惯(如 cgroup v2、防火墙管理等)。 本文将详细演示如何在 国内网络环境 下,基于
在 Kubernetes 中,HPA(Horizontal Pod Autoscaler) 用于根据负载自动调整 Pod 副本数,是生产集群的基础能力之一。本文将从 命令行快速创建 到 生产级 YAML 配置,系统梳理 CPU / Memory HPA 的常用方式与最佳实践。 一、kubectl a
问题表征: kube-system coredns-66bff467f8-6gtp8 0/1 Running 2 29d 100.86.78.200 km1 <none> <none> kube-system coredns-66bff467f8-gf6x4 0/1 Running 2 29d 10
一、背景 最近由于业务量激增,导致负责主要业务的 pod 副本数量不足,所以临时又增加了几个副本。本以为这样就 OK 了,但是没想到新增加的 pod 副本都被分配到了同一个节点上,致使该节点资源紧张最终出现异常(该节点上的 pod 副本无法正常启动)。 就此问题,下面的内容里我将介绍下我们的解决方案
gRPC实战包含一系列文章,包括原创和翻译。最终会形成一个完整的系列,后续会不断完善,增加新的内容: gRPC简介:why,what,how? gRPC服务健康检查最佳实践 Kub
文件上传出现413 too large 异常 以下配置需要加到service中,而不是ingress中 annotations: kubernetes.io/ingress.class: traefik traefik.ingress.kubernetes.io/affinit
1. 基础操作 查看资源信息 # 查看所有命名空间 kubectl get namespaces # 查看特定命名空间下的所有资源 kubectl get all -n <namespace> # 查看所有 Pod kubectl get pods -A kubectl get pods
事故前言 有一个k8s的node节点上面的pod全部无法请求k8s集群以外的IP地址。只有一个节点上的pod全部有问题,其他节点的都是正常的。 排查过程 kubectl exec -it -n sc-microservice analysis-service-7cccbd6744-z6qqs --
环境概述 在 k8s-master01 节点上,通过执行以下命令获取了当前Kubernetes集群中 ingress-nginx 命名空间下的Helm部署状态及Kubernetes版本信息: [root@k8s-master01 ~]# helm ls -n ingress-nginx NAME
环境概述 在 k8s-master01 节点上,通过执行以下命令获取了当前Kubernetes集群中 ingress-nginx 命名空间下的Helm部署状态及Kubernetes版本信息: [root@k8s-master01 ~]# helm ls -n ingress-nginx NAME