Получите Unix, чтобы сказать мне «X подобные»

Я наконец понял, что есть два разных редактора сетевой конфигурации .

Один вызывается щелчком правой кнопкой мыши по значку сетевого подключения на панели задач и вызывает nm-connection-editor . Это изменяет информацию о конфигурации в / etc / NetworkManager . Используя его, я смог успешно настроить статический IP-адрес и DNS-серверы, и Thunderbird работает нормально. При этом используется dnsmasq , что заставляет все запросы DNS проходить через локальный сервер, а не напрямую на сервер DNS.

Другой вызывается из пункта меню Система> Администрирование> Сеть в старом меню Mint.Это вызывает network-admin , который вносит изменения в / etc / network / interfaces . Это информация о конфигурации, которую я перенес из Linux Mint 14. Хотя это, кажется, работает для большинства вещей, это конфигурация, из-за которой Thunderbird не мог получить доступ к узлам, просматриваемым через DNS.

1
12.10.2018, 09:11
1 ответ

Настройка Vagrant

Для начала вы можете использовать следующее Vagrantfileдля создания виртуальной машины:

$ cat Vagrantfile
Vagrant.configure("2") do |config|

  config.vm.box = "centos/7"
  config.vm.hostname="box-101"
  config.ssh.forward_x11 = true

  config.vm.network "private_network", ip: "192.168.56.101"
  config.vm.network "public_network", bridge: "en0: Wi-Fi (Wireless)", auto_config: false
  config.vm.network "public_network", bridge: "en0: Wi-Fi (Wireless)", auto_config: false

  config.vm.provider "virtualbox" do |vb|
    vb.memory = "2048"
  end

  config.vm.provision "shell", inline: <<-SHELL
    yum install -y git vim socat tcpdump wget sysstat
    yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
  SHELL
end

ПРИМЕЧАНИЕ.:Сетевая карта, которую я использую для своего public_network, — это устройство моего Macbook bridge: "en0: Wi-Fi (Wireless)". Если вы делаете это на чем-то еще, вам нужно изменить это на соответствующий сетевой адаптер в вашей хост-системе, где работает Vagrant/VirtualBox.

Приведенный выше файл содержит 3 сетевых адаптера, которые появятся при запуске виртуальной машины. Запустить виртуальную машину и подключиться к ней по SSH:

$ vagrant up
$ vagrant ssh

Начальная настройка сети

Если мы посмотрим на получившуюся сеть, мы увидим следующее:

$ ip a l
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 52:54:00:c0:42:d5 brd ff:ff:ff:ff:ff:ff
    inet 10.0.2.15/24 brd 10.0.2.255 scope global noprefixroute dynamic eth0
       valid_lft 85127sec preferred_lft 85127sec
    inet6 fe80::5054:ff:fec0:42d5/64 scope link
       valid_lft forever preferred_lft forever
3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 08:00:27:ce:88:39 brd ff:ff:ff:ff:ff:ff
    inet 192.168.56.101/24 brd 192.168.56.255 scope global noprefixroute eth1
       valid_lft forever preferred_lft forever
    inet6 fe80::a00:27ff:fece:8839/64 scope link
       valid_lft forever preferred_lft forever
4: eth2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 08:00:27:d7:c2:ec brd ff:ff:ff:ff:ff:ff
    inet6 fe80::df68:9ee2:4b5:ad5f/64 scope link noprefixroute
       valid_lft forever preferred_lft forever
5: eth3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 08:00:27:59:b0:69 brd ff:ff:ff:ff:ff:ff

И соответствующая маршрутизация:

$ ip r
default via 10.0.2.2 dev eth0 proto dhcp metric 100
10.0.2.0/24 dev eth0 proto kernel scope link src 10.0.2.15 metric 100
192.168.56.0/24 dev eth1 proto kernel scope link src 192.168.56.101 metric 102

Отключить NetworkManager

Для этой виртуальной машины мы собираемся отключить NetworkManager, чтобы мы могли вручную настроить связующий интерфейс + подчиненные устройства.

$ for i in NetworkManager-dispatcher NetworkManager NetworkManager-wait-online; do
    systemctl disable $i && systemctl stop $i
  done

Подтверждение отключения NM:

$ systemctl list-unit-files |grep NetworkManager
NetworkManager-dispatcher.service             disabled
NetworkManager-wait-online.service            disabled
NetworkManager.service                        disabled

Настройка интерфейса соединения

Для начала создадим 3 файла. 1 для интерфейса bond0 и по 1 для каждого из двух интерфейсов, которые мы собираемся использовать в качестве подчиненных (eth2 и eth3 ).

ifcfg -связь0

$ cat /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
Type=Bond
NAME=bond0
BONDING_MASTER=yes
BOOTPROTO=none
ONBOOT=yes
IPADDR=192.168.1.232
PREFIX=24
GATEWAY=192.168.1.2
BONDING_OPTS="mode=4 miimon=100 lacp_rate=1"

ПРИМЕЧАНИЕ:mode=4— это (802.3ad ), также известный как. ЛАКП. miimon=100— интервал проверки 100 мс, а lacp_rate=1— быстрая передача от партнера. Вы можете увидеть все параметры, которые принимает модуль соединения с помощью этой команды modinfo bonding.

эт2

$ cat /etc/sysconfig/network-scripts/ifcfg-eth2
DEVICE=eth2
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
NM_CONTROLLED=no
IPV6INIT=no
MASTER=bond0
SLAVE=yes

эт3

$ cat /etc/sysconfig/network-scripts/ifcfg-eth3
DEVICE=eth3
TYPE=Ethernet
BOOTPROTO=none
ONBOOT=yes
NM_CONTROLLED=no
IPV6INIT=no
MASTER=bond0
SLAVE=yes

ПРИМЕЧАНИЕ.:В приведенном выше примере я статически назначаю интерфейсу bond0 IP-адрес 192.168.1.232 и шлюз 192.168.1.2. Вы захотите изменить их на что-то подходящее для вашей ситуации.

Запуск интерфейса

Самый простой способ запустить сеть — перезапустить сетевую службу.:

$ systemctl restart network

Если мы посмотрим на интерфейсы и маршрутизацию:

$ ip a l
..
..
4: eth2: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond0 state UP group default qlen 1000
    link/ether 08:00:27:d7:c2:ec brd ff:ff:ff:ff:ff:ff
5: eth3: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master bond0 state UP group default qlen 1000
    link/ether 08:00:27:d7:c2:ec brd ff:ff:ff:ff:ff:ff
6: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 08:00:27:d7:c2:ec brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.232/24 brd 192.168.1.255 scope global bond0
       valid_lft forever preferred_lft forever
    inet6 fe80::a00:27ff:fed7:c2ec/64 scope link
       valid_lft forever preferred_lft forever

$ ip r
default via 10.0.2.2 dev eth0
10.0.2.0/24 dev eth0 proto kernel scope link src 10.0.2.15
169.254.0.0/16 dev eth0 scope link metric 1002
169.254.0.0/16 dev eth1 scope link metric 1003
169.254.0.0/16 dev bond0 scope link metric 1006
192.168.1.0/24 dev bond0 proto kernel scope link src 192.168.1.232
192.168.56.0/24 dev eth1 proto kernel scope link src 192.168.56.101

Детали склеивания

Мы также можем взглянуть на устройство интерфейса соединения для получения дополнительных сведений о состоянии интерфейсов:

$ cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: fast
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: 08:00:27:d7:c2:ec
Active Aggregator Info:
    Aggregator ID: 1
    Number of ports: 1
    Actor Key: 9
    Partner Key: 1
    Partner Mac Address: 00:00:00:00:00:00

Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 08:00:27:d7:c2:ec
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: none
Partner Churn State: churned
Actor Churned Count: 0
Partner Churned Count: 1
details actor lacp pdu:
    system priority: 65535
    system mac address: 08:00:27:d7:c2:ec
    port key: 9
    port priority: 255
    port number: 1
    port state: 207
details partner lacp pdu:
    system priority: 65535
    system mac address: 00:00:00:00:00:00
    oper key: 1
    port priority: 255
    port number: 1
    port state: 3

Slave Interface: eth3
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 08:00:27:59:b0:69
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: churned
Partner Churn State: churned
Actor Churned Count: 1
Partner Churned Count: 1
details actor lacp pdu:
    system priority: 65535
    system mac address: 08:00:27:d7:c2:ec
    port key: 9
    port priority: 255
    port number: 2
    port state: 199
details partner lacp pdu:
    system priority: 65535
    system mac address: 00:00:00:00:00:00
    oper key: 1
    port priority: 255
    port number: 1
    port state: 3

Проверка внешнего подключения

Ниже вы можете увидеть результат проверки связи с IP-адресом bond0, который был запущен на другом устройстве в моей сети. Как только мы перезапустили сервис network, мы видим, что он стал доступен:

$ ping 192.168.1.232
From 192.168.1.10 icmp_seq=7414 Destination Host Unreachable
From 192.168.1.10 icmp_seq=7415 Destination Host Unreachable
64 bytes from 192.168.1.232: icmp_seq=7416 ttl=64 time=886 ms
64 bytes from 192.168.1.232: icmp_seq=7417 ttl=64 time=3.58 ms
64 bytes from 192.168.1.232: icmp_seq=7418 ttl=64 time=3.52 ms
64 bytes from 192.168.1.232: icmp_seq=7419 ttl=64 time=3.46 ms
64 bytes from 192.168.1.232: icmp_seq=7420 ttl=64 time=3.15 ms
64 bytes from 192.168.1.232: icmp_seq=7421 ttl=64 time=3.50 ms

Совет по перезагрузке

В CentOS 7.x возникает ошибка/проблема с корректным запуском интерфейсов bond0 во время загрузки. Чтобы решить эту проблему, добавьте следующее в:

 $ echo "ifup bond0" >> /etc/rc.d/rc.local
 $ chmod +x /etc/rc.d/rc.local

Это гарантирует, что интерфейс bond0правильно активируется во время загрузки.

Ссылки

3
27.01.2020, 23:23

Теги

Похожие вопросы