Kubernetes

Материал из ALT Linux Wiki

Kubernetes

Инструкция по работе с kubernetes.

Подготовка

Нужны несколько машин (nodes), одна из которых будет мастером. Системные требования:

  • 2GB ОЗУ или больше;
  • 2 ядра процессора или больше;
  • Все машины должны быть доступны по сети друг для друга;
  • Все машины должны успешно разрешать имена hostname друг друга (через DNS или hosts);
  • Своп должен быть выключен

Пакеты и сервисы

  1. Нужно установить следующие пакеты:
    # apt-get install kubernetes-kubeadm kubernetes-kubelet kubernetes-crio cri-tools
    
  2. И запустить сервисы crio и kubelet:
    # systemctl enable --now crio kubelet
    

Разворачивание кластера

Подготовка

Отключите подкачку:

# swapoff -a

Разворачивание

  1. На мастере нужно запустить одну из двух следующих команд для запуска кластера:
    • Для настройки сети с использованием Flannel:
      # kubeadm init --pod-network-cidr=10.244.0.0/16
      

      Для использования control plane образов на базе ALT вместо образов по умолчанию:

      # kubeadm init --pod-network-cidr=10.244.0.0/16 --kubernetes-version=1.26.3 --image-repository=registry.altlinux.org/k8s-p10
      
    • Для настройки сети с использованием Calico
      # kubeadm init --pod-network-cidr=192.168.0.0/16
      

      Для использования control plane образов на базе ALT вместо образов по умолчанию:

      # kubeadm init --pod-network-cidr=192.168.0.0/16 --kubernetes-version=1.26.3 --image-repository=registry.altlinux.org/k8s-p10
      

    Пояснение флагов:

    --pod-network-cidr=10.244.0.0/16 — внутренняя (разворачиваемая Kubernetes) сеть, данное значение рекомендуется оставить для правильной работы Flannel;
    --image-repository=registry.altlinux.org/k8s-p10 — переопределение реестра, откуда будут скачиваться control plane образы.
    --kubernetes-version=1.26.3 — использовать версию kubernetes 1.26.3 для компонентов control plane.

    В конце вывода будет строка вида:

    kubeadm join <ip адрес>:<порт> --token <токен> --discovery-token-ca-cert-hash sha256:<хэш>
    
  2. Настройка kubernetes для работы от пользователя
    1. Создать каталог ~/.kube:
      $ mkdir ~/.kube
      
    2. Скопировать конфиг:
      # cp /etc/kubernetes/admin.conf /home/<пользователь>/.kube/config
      
    3. Изменить владельца конфига:
      # chown <пользователь>: /home/<пользователь>/.kube/config
      
  3. После этого все остальные ноды нужно подключить к мастеру:
    # kubeadm join <ip адрес>:<порт> --token <токен> --discovery-token-ca-cert-hash sha256:<хэш>
    
    Проверить наличие нод можно так:
    $ kubectl get nodes -o wide
    
    Вывод примерно следующий:
    NAME     STATUS     ROLES           AGE   VERSION   INTERNAL-IP   EXTERNAL-IP   OS-IMAGE      KERNEL-VERSION         CONTAINER-RUNTIME
    master   NotReady   control-plane   19m   v1.24.8   172.16.0.8    <none>        ALT Regular   5.15.90-std-def-alt1   cri-o://1.24.3
    node     NotReady   <none>          19m   v1.24.8   172.16.0.9    <none>        ALT Regular   5.15.90-std-def-alt1   cri-o://1.24.3
    

    Обратите внисание, что ноды находятся в состоянии NotReady. Они перейдут в состояние Ready после настройки сети.

  4. Далее следует развернуть сеть. Для этого можно запустить один из следующих наборов команд:
    • Для Flannel:
    $ kubectl apply -f https://raw.githubusercontent.com/flannel-io/flannel/master/Documentation/kube-flannel.yml
    
    • Для Flannel с использованием образов на базе ALT:
    Скачиваем манифест flannel.
    $ wget https://raw.githubusercontent.com/flannel-io/flannel/master/Documentation/kube-flannel.yml
    
    Заменяем образы по умолчанию на образы ALT в манифесте.
    Вместо image: docker.io/rancher/mirrored-flannelcni-flannel-cni-plugin:v1.1.2 нужно image: registry.altlinux.org/k8s-p10/flannel-cni-plugin:v1.1.2.
    Вместо image: docker.io/rancher/mirrored-flannelcni-flannel:v0.22.0 нужно image: registry.altlinux.org/k8s-p10/flannel:v0.21.4.
    С использованием sed можно заменить образы в две команды:
    $ sed -i 's/^\([ ]*\)image: docker.io\/rancher\/mirrored-flannelcni-flannel-cni-plugin:v1.1.2/\1image: registry\.altlinux\.org\/k8s-p10\/flannel-cni-plugin:v1.1.2/g' kube-flannel.yml
    
    $ sed -i 's/^\([ ]*\)image: docker.io\/rancher\/mirrored-flannelcni-flannel:v0.22.0/\1image: registry\.altlinux\.org\/k8s-p10\/flannel:v0.21.4/g' kube-flannel.yml
    
    Применяем отредактированный манифест.
    $ kubectl apply -f kube-flannel.yml
    
    • Для Calico:
    $ kubectl apply -f https://projectcalico.docs.tigera.io/manifests/tigera-operator.yaml
    
    $ kubectl apply -f https://projectcalico.docs.tigera.io/manifests/custom-resources.yaml
    
    Проверить, что всё работает можно так:
    $ kubectl get pods --namespace kube-system
    
    Вывод должен быть примерно таким:
    NAME                          READY     STATUS    RESTARTS   AGE
    coredns-78fcdf6894-6trk7      1/1       Running   0          2h
    coredns-78fcdf6894-nwt5l      1/1       Running   0          2h
    etcd-k8s                      1/1       Running   0          2h
    kube-apiserver-k8s            1/1       Running   0          2h
    kube-controller-manager-k8s   1/1       Running   0          2h
    kube-flannel-ds-894bt         1/1       Running   0          2h
    kube-flannel-ds-kbngw         1/1       Running   0          2h
    kube-flannel-ds-n7h45         1/1       Running   0          2h
    kube-flannel-ds-tz2rc         1/1       Running   0          2h
    kube-proxy-6f4lm              1/1       Running   0          2h
    kube-proxy-f92js              1/1       Running   0          2h
    kube-proxy-qkh54              1/1       Running   0          2h
    kube-proxy-szvlt              1/1       Running   0          2h
    kube-scheduler-k8s            1/1       Running   0          2h
    

Следует обратить внимание, что coredns находятся в состоянии Running. Количество kube-flannel и kube-proxy зависит от общего числа нод (в данном случае их четыре). Если coredns находится в состоянии "crashloopbackoff", то проверьте содержимое файла /etc/resolv.conf. Для каждой ноды в резолвере должны быть указаны реальные адреса (например 192.168.3.30, при развертывании в локальной сети на виртуальных машинах)

Тестовый запуск nginx

  1. Для начала создадим Deployment:
    $ kubectl apply -f https://k8s.io/examples/application/deployment.yaml
    
  2. Затем создадим сервис, с помощью которого можно получить доступ к нашему приложению из внешней сети. Сохраним в файл nginx-service.yaml следующую кофигурацию:
    apiVersion: v1
    kind: Service
    metadata:
      name: nginx
      labels:
        app: nginx
    spec:
      type: NodePort
      ports:
      - port: 80
        targetPort: 80
      selector:
        app: nginx
    
  3. Запустим новый сервис:
    $ kubectl apply -f nginx-service.yaml
    
  4. Теперь можно узнать его порт:
    $ kubectl get svc nginx
    

    Возможный вывод:

    NAME      TYPE       CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
    nginx     NodePort   10.108.199.141   <none>        80:32336/TCP   4h
    
  5. Проверим, что всё работает:
    $ curl <ip адрес>:<порт>
    

    где

    ip адрес - это адрес любой из нод (не мастера), а порт - это порт сервиса, полученный с помощью предыдущей команды. Если использовать данные из примеров, то возможная команда: curl 10.10.3.120:32336.