OpenShift: Jak zwiększyć rozmiar bufora pierścienia sieciowego w węzłach roboczych dla płaszczyzny sterowania
Summary: W tym artykule opisano procedurę zwiększania buforów pierścieniowych RX na interfejsach każdego węzła roboczego w klastrze hostowanej płaszczyzny sterowania (HCP) OpenShift Container Platform (OCP). ...
Instructions
Czynności przygotowawcze
W poniższych przykładach zidentyfikowaliśmy dwa interfejsy, które wymagają modyfikacji buforów RX.
eno12399np0 ens1f1np1
Zweryfikowano prawidłowe wartości buforów pierścieniowych na kartach sieciowych za pomocą atrybutu ethtool -g . Można to zrobić z zasobnika debugowania w węźle lub wyodrębnić z pakietu SOS.
# oc debug node/samplenode # chroot /host # ethtool -g eno12399np0 Ring parameters for eno12399np0: Pre-set maximums: RX: 8192 RX Mini: n/a RX Jumbo: n/a TX: 8192 Current hardware settings: RX: 4096 RX Mini: n/a RX Jumbo: n/a TX: 1024 RX Buf Len: n/a CQE Size: n/a TX Push: off TCP data split: off
Zdecydowaliśmy się na 4096 jako wartość ustawiania buforów pierścieniowych.
Wykonamy następujące kroki, aby zakończyć operację.
- Tworzenie
ButanePliki. - Konwertuj te pliki butane na
YAML. - Osadź wygenerowany plik
YAMLwconfigmapObiektu. - Utwórz plik
configmaps. - Edytuj plik
nodepoolobiektu, aby odwołać się doconfigmapsUtworzone. - Poczekaj na zakończenie aktualizacji konfiguracji.
- Sprawdź, czy aktualizacja konfiguracji została zakończona i czy zmiany zostały pomyślnie wdrożone.
Przygotuj pliki butanowe.
Utwórz dwa Butane po jednym dla każdego interfejsu.
# eno12399np0.bu
variant: openshift
version: 4.18.0
metadata:
name: 99-worker-ethtool-eno12399np0-buffer
labels:
machineconfiguration.openshift.io/role: worker
storage:
files:
- path: /etc/systemd/system/set-ethtool-eno12399np0-buffer.service
mode: 0644
overwrite: true
contents:
inline: |
[Unit]
Description=Set ethtool RX buffer size for network interface
Requires=NetworkManager.service
After=NetworkManager.service
Before=ovs-configuration.service
DefaultDependencies=no
[Service]
Type=oneshot
ExecStart=/bin/bash -c "/sbin/ethtool -G eno12399np0 rx 4096 >> /var/log/user-data.log 2>&1"
[Install]
WantedBy=multi-user.target
systemd:
units:
- name: set-ethtool-eno12399np0-buffer.service
enabled: true
# ens1f1np1.bu
variant: openshift
version: 4.18.0
metadata:
name: 99-worker-ethtool-ens1f1np1-buffer
labels:
machineconfiguration.openshift.io/role: worker
storage:
files:
- path: /etc/systemd/system/set-ethtool-ens1f1np1-buffer.service
mode: 0644
overwrite: true
contents:
inline: |
[Unit]
Description=Set ethtool RX buffer size for network interface
Requires=NetworkManager.service
After=NetworkManager.service
Before=ovs-configuration.service
DefaultDependencies=no
[Service]
Type=oneshot
ExecStart=/bin/bash -c "/sbin/ethtool -G ens1f1np1 rx 4096 >> /var/log/user-data.log 2>&1"
[Install]
WantedBy=multi-user.target
systemd:
units:
- name: set-ethtool-ens1f1np1-buffer.service
enabled: true
Przekonwertować Butane pliki do MachineConfig YAML
Pobierz plik wykonywalny Butane i uruchom konwersję.
# Download butane (example) $ curl -L -o butane https://mirror.openshift.com/pub/openshift-v4/clients/butane/butane-linux-amd64 $ chmod +x butane # Convert $ ./butane eno12399np0.bu -o eno12399np0.yaml $ ./butane ens1f1np1.bu -o ens1f1np1.yaml
Tworzenie ConfigMap Obiektów.
Zawijaj każdy wygenerowany YAML w ConfigMap O nazwie mc-worker-ethtool- -buffer W clusters Obszaru nazw.
# mc-worker-ethtool-eno12399np0-buffer.yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: mc-worker-ethtool-eno12399np0-buffer
namespace: clusters
data:
config: |
apiVersion: machineconfiguration.openshift.io/v1
kind: MachineConfig
metadata:
labels:
machineconfiguration.openshift.io/role: worker
name: 99-worker-ethtool-eno12399np0-buffer
spec:
config:
ignition:
version: 3.4.0
storage:
files:
- contents:
compression: gzip
source: data:;base64,[BASE64_CONTENT]
mode: 420
overwrite: true
path: /etc/systemd/system/set-ethtool-eno12399np0-buffer.service
systemd:
units:
- name: set-ethtool-eno12399np0-buffer.service
enabled: true
# mc-worker-ethtool-ens1f1np1-buffer.yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: mc-worker-ethtool-ens1f1np1-buffer
namespace: clusters
data:
config: |
apiVersion: machineconfiguration.openshift.io/v1
kind: MachineConfig
metadata:
labels:
machineconfiguration.openshift.io/role: worker
name: 99-worker-ethtool-ens1f1np1-buffer
spec:
config:
ignition:
version: 3.4.0
storage:
files:
- contents:
compression: gzip
source: data:;base64,[BASE64_CONTENT]
mode: 420
overwrite: true
path: /etc/systemd/system/set-ethtool-ens1f1np1-buffer.service
systemd:
units:
- name: set-ethtool-ens1f1np1-buffer.service
enabled: true
Zastosuj ConfigMaps do klastra.
$ oc apply -f mc-worker-ethtool-eno12399np0-buffer.yaml $ oc apply -f mc-worker-ethtool-ens1f1np1-buffer.yaml
Załącz ConfigMaps do puli węzłów.
Edytuj pulę węzłów i dodaj ConfigMap Imiona i nazwiska w obszarze spec.config
$ oc edit nodepool [NODEPOOL_NAME] -n clusters
Wstaw następujące wiersze w polu spec Sekcji:
spec: config: - name: mc-worker-ethtool-eno12399np0-buffer - name: mc-worker-ethtool-ens1f1np1-buffer
Weryfikacja node‑pool Aktualizacji.
$ oc get nodepool -n clusters
Potwierdź, że UPDATINGCONFIG pokazuje True i czy wersja jest zgodna z wersją klastra.
Sprawdź stan usługi na każdym węźle roboczym.
for i in $(oc get nodes -l node-role.kubernetes.io/worker= --no-headers | awk '{print $1}'); do
oc debug node/$i -- chroot /host systemctl status set-ethtool-eno12399np0-buffer.service;
done
for i in $(oc get nodes -l node-role.kubernetes.io/worker= --no-headers | awk '{print $1}'); do
oc debug node/$i -- chroot /host systemctl status set-ethtool-ens1f1np1-buffer.service;
done
Sprawdzanie poprawności ustawień bufora pierścieniowego
for i in $(oc get nodes -l node-role.kubernetes.io/worker= --no-headers | awk '{print $1}'); do
oc debug node/$i -- chroot /host ethtool -g eno12399np0;
done
for i in $(oc get nodes -l node-role.kubernetes.io/worker= --no-headers | awk '{print $1}'); do
oc debug node/$i -- chroot /host ethtool -g ens1f1np1;
done