Kubernetes Не удалось получить список *v1.ConfigMap :Получить

Минт не знаю (хорошо ), но как минимум две вещи проверю

  • Выполняется ли скрипт под тем же пользователем, под которым вы работаете?svn up
  • Может ли скрипт подключиться (технически )к репозиторию без вмешательства пользователя и сколько раз он пытается это сделать (ожидаемый результат :1 раз)

Вы также можете добавить жестко заданные учетные данные в svn upв крайнем случае

0
09.10.2020, 22:53
2 ответа

Если вы получаете тайм-аут при подключении к серверу Kube API, это означает, что где-то возникла проблема с маршрутизацией.

Перед установкой metallb убедитесь, что у вас есть внутренний доступ к Kube API.

Получить IP-адрес кластера службы kubernetes

kubectl get service kubernetes

Проверьте внутреннее подключение к серверу Kube API, используя IP-адрес кластера

kubectl run -i -t --attach test --restart=Never --image=ubuntu:20.04 -- bash
apt update -y && apt install -y curl
curl https://10.12.0.1:443

Убедитесь, что вы можете подключиться к серверу API Kube на каждом мастере, используя его физический IP-адрес на порту 6443

curl https://10.10.80.10:6443

Для высокой доступности вам необходимо настроить внешний балансировщик нагрузки перед инициализацией кластера kubernetes.Этот LB прослушивает порт 443, который отправляет запрос каждому мастеру через порт 6443. В идеале у вас должно быть два балансировщика нагрузки, разделяющих виртуальный IP-адрес.

Вы можете использовать haproxy с такой простой конфигурацией

listen kubernetes
    bind *:443
    mode tcp
    balance roundrobin
    server kube-master-1 10.10.80.10:6443
    server kube-master-2 10.10.80.11:6443
    server kube-master-3 10.10.80.12:6443

Теперь создайте свой кластер kube с помощью kubeadm, но укажите IP-адрес балансировщика нагрузки (VIP )и используйте порт 443

.
kubeadm init --control-plane-endpoint "MY_VIP:443" --pod-network-cidr "10.11.0.0/16" --upload-certs 

Убедитесь, что вы можете подключиться к серверу API Kube как внутри, так и снаружи, а затем установите metallb

Вам также придется обрабатывать HA для etcd, ознакомьтесь с документацией для различных вариантов

https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/high-availability/

https://github.com/kubernetes/kubeadm/blob/master/docs/ha-considerations.md

1
18.03.2021, 22:58

Я нашел проблему, это был RHEL8 с nftables и докером, похоже, он вылетает. Я решил проблему, используя RHEL7.8, в котором есть устаревшие iptables, не лучшее решение, но оно мне нужно сейчас. Спасибо!

1
18.03.2021, 22:58

Теги

Похожие вопросы