Criação de infraestrutura de TI tolerante a falhas. Parte 1 - preparando para implantar o cluster oVirt 4.3

Os leitores são convidados a familiarizar-se com os princípios de construção de uma infraestrutura tolerante a falhas de uma pequena empresa em um data center, que será examinado em detalhes em uma curta série de artigos.


1. Introdução


Sob o DPC (Data Processing Center) pode ser entendido:


  • possuir rack em sua “sala de servidores” no território da empresa que atenda aos requisitos mínimos para fornecer equipamentos de energia e refrigeração, além de ter acesso à Internet por meio de dois provedores independentes;
  • rack alugado com seu próprio equipamento localizado neste data center - o chamado colocação, em conformidade com os padrões de Nível III ou IV, e que garante fonte de alimentação confiável, resfriamento e fornece acesso à Internet tolerante a falhas;
  • equipamento totalmente alugado em um data center de nível III ou IV.

Qual opção de acomodação escolher - em cada caso, tudo é individual e geralmente depende de vários fatores principais:


  • por que a empresa possui sua própria infraestrutura de TI;
  • o que exatamente a empresa deseja da infraestrutura de TI (confiabilidade, escalabilidade, capacidade de gerenciamento etc.);
  • a quantidade de investimento inicial em infraestrutura de TI, bem como que tipo de custos são - capital (o que significa que você compra seu equipamento) ou operação (o equipamento geralmente é alugado);
  • Planejando o horizonte da própria empresa.

Muito pode ser escrito sobre os fatores que influenciam a decisão da empresa de criar e usar sua infraestrutura de TI, mas nosso objetivo é mostrar na prática como criar essa mesma infraestrutura para que seja tolerante a falhas e que seja possível economizar dinheiro - reduzir o custo de aquisição de software comercial ou até evitá-lo.


Como mostra a prática, não vale a pena economizar em hardware, pois os avarentos pagam duas vezes e até muito mais. Mas, novamente - bom hardware, isso é apenas uma recomendação e, finalmente, o que exatamente comprar e quanto depende das capacidades da empresa e da "ganância" de seu gerenciamento. Além disso, a palavra "ganância" deve ser entendida em um bom sentido da palavra, uma vez que é melhor investir em ferro na fase inicial, para que mais tarde não haja problemas sérios em seu suporte e dimensionamento adicionais, uma vez que o planejamento inicialmente incorreto e a economia excessiva podem levar a futuros mais caro do que ao iniciar um projeto.


Portanto, os dados iniciais do projeto:


  • existe uma empresa que decidiu criar seu próprio portal da web e colocar suas atividades na Internet;
  • a empresa decidiu alugar um rack para colocar seu equipamento em um bom data center certificado de acordo com o padrão de nível III;
  • a empresa decidiu não economizar muito em hardware e, portanto, comprou o seguinte equipamento com garantias e suporte estendidos:

Lista de equipamentos
  • dois servidores físicos Dell PowerEdge R640 da seguinte maneira:
  • dois processadores Intel Xeon Gold 5120
  • 512 Gb de RAM
  • dois discos SAS em RAID1, para instalação do SO
  • placa de rede 1G de 4 portas embutida
  • duas placas de rede 10G de 2 portas
  • um FC HBA 16G de 2 portas.
  • Sistema de armazenamento com 2 controladores Dell MD3820f, conectado via FC 16G diretamente aos hosts da Dell;
  • dois comutadores do segundo nível - Cisco WS-C2960RX-48FPS-L empilhados;
  • dois switches da camada 3 - Cisco WS-C3850-24T-E, empilhados;
  • Servidores de rack, UPS, PDU, console - fornecidos pelo data center.


Como podemos ver, o equipamento existente tem boas perspectivas de escala horizontal e vertical, se a empresa puder competir com outras empresas de perfil semelhante na Internet e começar a obter lucro que pode ser investido na expansão de recursos para aumentar a concorrência e aumentar o lucro.


Que equipamento podemos adicionar se a empresa decidir aumentar o desempenho do nosso cluster de computação:


  • temos uma grande reserva para o número de portas nos switches 2960X, o que significa que você pode adicionar mais servidores de hardware;
  • compre dois comutadores FC para conectar sistemas de armazenamento e servidores adicionais a eles;
  • servidores já existentes podem ser atualizados - adicione memória, substitua os processadores por outros mais eficientes, conecte adaptadores de rede existentes a uma rede 10G;
  • Você pode adicionar prateleiras de disco adicionais ao armazenamento com o tipo de disco necessário - SAS, SATA ou SSD, dependendo da carga planejada;
  • depois de adicionar comutadores FC, você pode comprar outro sistema de armazenamento para aumentar ainda mais a capacidade do disco e, se você comprar a opção especial Replicação Remota, poderá configurar a replicação de dados entre sistemas de armazenamento no mesmo datacenter e entre datacenters (mas isso já está além o escopo do artigo);
  • também há comutadores de terceiro nível - o Cisco 3850, que pode ser usado como um núcleo tolerante a falhas da rede para roteamento de alta velocidade entre redes internas. Isso ajudará bastante no futuro, à medida que a infraestrutura interna crescer. O 3850 também possui portas 10G que podem ser ativadas posteriormente ao atualizar o equipamento de rede para 10G.

Como agora não há lugar para virtualização, é claro que estaremos na moda. Ainda mais, essa é uma ótima maneira de reduzir o custo de compra de servidores caros para certos elementos de infraestrutura (servidores da Web, bancos de dados etc.), que nem sempre são ideais usado no caso de baixa carga, e é exatamente isso que será no início do lançamento do projeto.


Além disso, a virtualização tem muitas outras vantagens que podem ser muito úteis para nós: tolerância a falhas de VM por falha do servidor de hardware, migração ao vivo entre nós de hardware do cluster para manutenção, balanceamento de carga manual ou automático entre nós do cluster, etc.


Para o hardware adquirido pela empresa, a implantação do cluster VMware vSphere altamente acessível sugere a si mesma, mas como qualquer software da VMware é conhecido por seus preços a cavalo, usaremos o software de gerenciamento de virtualização absolutamente gratuito - oVirt , com base no qual é conhecido, mas produto já comercial - RHEV .


O software oVirt é necessário para combinar todos os elementos da infraestrutura, a fim de poder trabalhar convenientemente com máquinas virtuais altamente acessíveis - bancos de dados, aplicativos da web, proxies, balanceadores, servidores para coleta de logs e análises, etc. n., ou seja, no que consiste o portal da web da nossa empresa.


Resumindo esta introdução, os seguintes artigos nos aguardam, que na prática mostrarão como implantar toda a infraestrutura de hardware e software da empresa:


Lista de Artigos
  • Parte 1. Preparação para implantação do cluster oVirt 4.3.
  • Parte 2. Instalando e configurando o cluster oVirt 4.3.
  • Parte 3. Organização do roteamento tolerante a falhas nos roteadores virtuais VyOS.
  • Parte 4. Configurando a pilha Cisco 3850, organizando o roteamento da intranet.

Parte 1. Preparando para implantar o cluster oVirt 4.3


Configuração básica do host


Instalar e configurar o sistema operacional é a etapa mais fácil. Existem muitos artigos sobre como instalar e configurar corretamente o sistema operacional, portanto, não faz sentido tentar divulgar algo exclusivo sobre isso.


Portanto, temos dois hosts Dell PowerEdge R640, nos quais você precisa instalar o sistema operacional e realizar pré-configurações, para usá-los como hipervisores para executar máquinas virtuais no cluster oVirt 4.3.


Como planejamos usar o software não comercial gratuito oVirt, o CentOS 7.7 foi escolhido para a implantação de hosts, embora outros SOs também possam ser instalados nos hosts do oVirt:


  • construção especial baseada em RHEL, o chamado oVirt Node ;
  • O sistema operacional Oracle Linux, no verão de 2019, foi anunciado o suporte para a operação do oVirt.

Antes de instalar o sistema operacional, é recomendado:


  • Configure a interface de rede iDRAC nos dois hosts
  • atualizar o firmware para BIOS e iDRAC para as versões mais recentes;
  • é desejável configurar o servidor System Profile no modo Performance;
  • configure o RAID a partir de discos locais (recomendado o RAID1) para instalar o SO no servidor.

Em seguida, instalamos o sistema operacional no disco criado anteriormente via iDRAC - o processo de instalação é normal, não há momentos especiais nele. O acesso ao console do servidor para iniciar a instalação do sistema operacional também pode ser obtido pelo iDRAC, embora não exista nada para impedir a conexão do monitor, teclado e mouse diretamente ao servidor e a instalação do sistema operacional a partir de uma unidade flash.


Depois de instalar o sistema operacional, execute suas configurações iniciais:


systemctl enable network.service systemctl start network.service systemctl status network.service 

 systemctl stop NetworkManager systemctl disable NetworkManager systemctl status NetworkManager 

 yum install -y ntp systemctl enable ntpd.service systemctl start ntpd.service 

 cat /etc/sysconfig/selinux SELINUX=disabled SELINUXTYPE=targeted 

 cat /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536 

 cat /etc/sysctl.conf vm.max_map_count = 262144 vm.swappiness = 1 

Instale o conjunto básico de software


Para a configuração inicial do sistema operacional, você precisa configurar qualquer interface de rede no servidor para poder acessar a Internet, atualizar o sistema operacional e instalar os pacotes de software necessários. Isso pode ser feito durante a instalação do sistema operacional e depois dele.


 yum -y install epel-release yum update yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

Todas as configurações acima e um conjunto de software são uma questão de preferência pessoal, e esse conjunto é apenas uma recomendação.


Como nosso host desempenhará o papel de um hypervisor, habilitaremos o perfil de desempenho desejado:


 systemctl enable tuned systemctl start tuned systemctl status tuned 

 tuned-adm profile tuned-adm profile virtual-host 

Você pode ler mais sobre o perfil de desempenho aqui: " Capítulo 4. tuned and tuned-adm ".


Depois de instalar o sistema operacional, passamos à próxima parte - configurando interfaces de rede nos hosts e na pilha de switches Cisco 2960X.


Configurando a pilha de switches Cisco 2960X


Nosso projeto usará os seguintes números de VLANs - ou domínios de difusão isolados um do outro, para separar diferentes tipos de tráfego:


VLAN 10 - Internet
VLAN 17 - Gerenciamento (iDRAC, armazenamento, gerenciamento de switches)
VLAN 32 - rede de produção VM
VLAN 33 - rede de interconexão (para contratantes externos)
VLAN 34 - rede de teste de VM
VLAN 35 - rede de desenvolvedores de VM
VLAN 40 - Rede de monitoramento


Antes de iniciar o trabalho, apresentamos um diagrama no nível L2, ao qual devemos finalmente chegar:



Para interação de rede entre os hosts oVirt e máquinas virtuais entre si, bem como para gerenciar nosso armazenamento, você precisa configurar a pilha de switches Cisco 2960X.


Os hosts Dell possuem placas de rede de 4 portas integradas; portanto, é recomendável organizar sua conexão com o Cisco 2960X usando uma conexão de rede tolerante a falhas, usando o agrupamento de portas de rede físicas em uma interface lógica e o protocolo LACP (802.3ad):


  • as duas primeiras portas no host são configuradas no modo de ligação e conectadas ao switch 2960X - nessa interface lógica, uma ponte com um endereço para gerenciar o host, monitoramento, comunicação com outros hosts no cluster oVirt será configurada e também será usada para migração ao vivo de máquinas virtuais;
  • as duas segundas portas no host também são configuradas no modo de ligação e conectadas ao 2960X - nessa interface lógica usando oVirt, serão criadas pontes posteriores (nas VLANs correspondentes) às quais as máquinas virtuais serão conectadas.
  • ambas as portas de rede, na mesma interface lógica, estarão ativas, ou seja, O tráfego neles pode ser transmitido simultaneamente, no modo de balanceamento.
  • as configurações de rede nos nós do cluster devem ser absolutamente MESMAS, com exceção dos endereços IP.

Configuração básica da pilha de switches 2960X e suas portas


Anteriormente, nossos comutadores deveriam ser:


  • montado em um rack;
  • conectado por dois cabos especiais do comprimento necessário, por exemplo, CAB-STK-E-1M;
  • conectado à fonte de alimentação;
  • conectado à estação de trabalho do administrador através da porta do console, para sua configuração inicial.

As orientações necessárias para isso estão disponíveis na página oficial do fabricante.


Após executar as etapas acima, configure os comutadores.
O significado de cada equipe não deve ser descriptografado na estrutura deste artigo; se necessário, todas as informações podem ser encontradas de forma independente.
Nosso objetivo é configurar a pilha de switches o mais rápido possível e conectar os hosts e as interfaces de gerenciamento de armazenamento a ela.


1) Conecte-se ao switch principal, entre no modo privilegiado, entre no modo de configuração e faça as configurações básicas.


Configuração básica do switch:
  enable configure terminal hostname 2960X no service pad service timestamps debug datetime msec service timestamps log datetime localtime show-timezone msec no service password-encryption service sequence-numbers switch 1 priority 15 switch 2 priority 14 stack-mac persistent timer 0 clock timezone MSK 3 vtp mode transparent ip subnet-zero vlan 17 name Management vlan 32 name PROD vlan 33 name Interconnect vlan 34 name Test vlan 35 name Dev vlan 40 name Monitoring spanning-tree mode rapid-pvst spanning-tree etherchannel guard misconfig spanning-tree portfast bpduguard default spanning-tree extend system-id spanning-tree vlan 1-40 root primary spanning-tree loopguard default vlan internal allocation policy ascending port-channel load-balance src-dst-ip errdisable recovery cause loopback errdisable recovery cause bpduguard errdisable recovery interval 60 line con 0 session-timeout 60 exec-timeout 60 0 logging synchronous line vty 5 15 session-timeout 60 exec-timeout 60 0 logging synchronous ip http server ip http secure-server no vstack interface Vlan1 no ip address shutdown exit 

Salvamos a configuração com o comando wr mem e recarregamos a pilha de switches com o comando reload no switch principal 1.


2) Configure as portas de rede do switch no modo de acesso na VLAN 17, para conectar as interfaces de gerenciamento dos servidores de armazenamento e iDRAC.


Configurações da porta de gerenciamento:
 interface GigabitEthernet1/0/5 description iDRAC - host1 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet1/0/6 description Storage1 - Cntr0/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/5 description iDRAC - host2 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/6 description Storage1 – Cntr1/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge exit 

3) Após reiniciar a pilha, verifique se ela funciona corretamente:


Verificando o funcionamento da pilha:
 2960X#show switch stack-ring speed Stack Ring Speed : 20G Stack Ring Configuration: Full Stack Ring Protocol : FlexStack 2960X#show switch stack-ports Switch # Port 1 Port 2 -------- ------ ------ 1 Ok Ok 2 Ok Ok 2960X#show switch neighbors Switch # Port 1 Port 2 -------- ------ ------ 1 2 2 2 1 1 2960X#show switch detail Switch/Stack Mac Address : 0cd0.f8e4. Mac persistency wait time: Indefinite H/W Current Switch# Role Mac Address Priority Version State ---------------------------------------------------------- *1 Master 0cd0.f8e4. 15 4 Ready 2 Member 0029.c251. 14 4 Ready Stack Port Status Neighbors Switch# Port 1 Port 2 Port 1 Port 2 -------------------------------------------------------- 1 Ok Ok 2 2 2 Ok Ok 1 1 

4) Configurando o acesso SSH à pilha 2960X


Para gerenciamento de pilha remota via SSH, usaremos o IP 172.20.1.10 configurado no SVI (switch virtual interface) VLAN17 .


Embora para fins de gerenciamento, é aconselhável usar uma porta dedicada especial no switch, mas isso é uma questão de preferência e oportunidade pessoal.


Configurando o acesso SSH à pilha do comutador:
 ip default-gateway 172.20.1.2 interface vlan 17 ip address 172.20.1.10 255.255.255.0 hostname 2960X ip domain-name hw.home-lab.ru no ip domain-lookup clock set 12:47:04 06 Dec 2019 crypto key generate rsa ip ssh version 2 ip ssh time-out 90 line vty 0 4 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh line vty 5 15 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh aaa new-model aaa authentication login default local username cisco privilege 15 secret my_ssh_password 

Configure uma senha para entrar no modo privilegiado:


 enable secret *myenablepassword* service password-encryption 

Configure o NTP:


 ntp server 85.21.78.8 prefer ntp server 89.221.207.113 ntp server 185.22.60.71 ntp server 192.36.143.130 ntp server 185.209.85.222 show ntp status show ntp associations show clock detail 

5) Configure interfaces lógicas Etherchannel e portas físicas conectadas aos hosts. Para facilitar a configuração, todas as VLANs disponíveis serão permitidas em todas as interfaces lógicas, mas geralmente é recomendável configurar apenas o que você precisa:


Configure as interfaces Etherchannel:
 interface Port-channel1 description EtherChannel with Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel2 description EtherChannel with Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel3 description EtherChannel with Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel4 description EtherChannel with Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface GigabitEthernet1/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet1/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet1/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet1/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active interface GigabitEthernet2/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet2/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet2/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet2/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active 

Configuração inicial de interfaces de rede para máquinas virtuais no Host1 e Host2


Verificamos a disponibilidade dos módulos necessários para a ligação no sistema, instalamos o módulo para gerenciar pontes:


 modinfo bonding modinfo 8021q yum install bridge-utils 

Configurando a interface lógica BOND1 para máquinas virtuais em hosts e suas interfaces físicas:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1 #DESCRIPTION - management DEVICE=bond1 NAME=bond1 TYPE=Bond IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em2 #DESCRIPTION - management DEVICE=em2 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em3 #DESCRIPTION - management DEVICE=em3 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

Depois de concluir as configurações na pilha e nos hosts 2960X , reiniciamos a rede nos hosts e verificamos a interface lógica.


  • no host:

 systemctl restart network cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2+3 (2) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 ... 802.3ad info LACP rate: fast Min links: 0 Aggregator selection policy (ad_select): stable System priority: 65535 ... Slave Interface: em2 MII Status: up Speed: 1000 Mbps Duplex: full ... Slave Interface: em3 MII Status: up Speed: 1000 Mbps Duplex: full 

  • na pilha de switches 2960X :

 2960X#show lacp internal Flags: S - Device is requesting Slow LACPDUs F - Device is requesting Fast LACPDUs A - Device is in Active mode P - Device is in Passive mode Channel group 1 LACP port Admin Oper Port Port Port Flags State Priority Key Key Number State Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D 2960X#sh etherchannel summary Flags: D - down P - bundled in port-channel I - stand-alone s - suspended H - Hot-standby (LACP only) R - Layer3 S - Layer2 U - in use N - not in use, no aggregation f - failed to allocate aggregator M - not in use, minimum links not met m - not in use, port not aggregated due to minimum links not met u - unsuitable for bundling w - waiting to be aggregated d - default port A - formed by Auto LAG Number of channel-groups in use: 11 Number of aggregators: 11 Group Port-channel Protocol Ports ------+-------------+-----------+----------------------------------------------- 1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P) 

Configuração inicial de interfaces de rede para gerenciar recursos de cluster no Host1 e Host2


Configurando a interface lógica BOND1 para gerenciamento e suas interfaces físicas nos hosts:
 cat /etc/sysconfig/network-scripts/ifcfg-bond0 #DESCRIPTION - management DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em0 #DESCRIPTION - management DEVICE=em0 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em1 #DESCRIPTION - management DEVICE=em1 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

Depois de concluir as configurações na pilha e nos hosts 2960X , reiniciamos a rede nos hosts e verificamos a interface lógica.


 systemctl restart network cat /proc/net/bonding/bond1 2960X#show lacp internal 2960X#sh etherchannel summary 

Configuramos a interface de rede de controle em cada host da VLAN 17 e a vinculamos à interface lógica BOND1:


Configurando a VLAN17 no Host1:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.163 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

Configurando a VLAN17 no Host2:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.164 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

Reiniciamos a rede nos hosts e verificamos sua visibilidade entre si.


Isso conclui a instalação da pilha de switches Cisco 2960X e, se tudo foi feito corretamente, agora temos uma conexão de rede de todos os elementos de infraestrutura entre si no nível L2.


Configurar o armazenamento Dell MD3820f


Antes de iniciar o trabalho de configuração do sistema de armazenamento, ele já deve estar conectado à pilha de switches Cisco 2960X pelas interfaces de gerenciamento, bem como aos hosts Host1 e Host2 através do FC.


O esquema geral de como o armazenamento deve ser conectado à pilha de switches foi apresentado no capítulo anterior.


O esquema de conexão do armazenamento no FC aos hosts deve ficar assim:



Durante a conexão, é necessário registrar endereços WWPN para hosts FC HBA conectados às portas FC no sistema de armazenamento - isso será necessário para a configuração subsequente da ligação de hosts a LUNs no sistema de armazenamento.


Na estação de trabalho do administrador, faça o download e instale o utilitário de gerenciamento de armazenamento Dell MD3820f - MDSM ( PowerVault Modular Disk Storage Manager ).
Nós nos conectamos a ele através de seus endereços IP padrão e, em seguida, configuramos nossos endereços da VLAN17 para controlar os controladores via TCP / IP:


Armazenamento1 :


 ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2 ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2 

Após definir os endereços, acesse a interface de gerenciamento de armazenamento e defina uma senha, defina a hora, atualize o firmware para controladores e discos, se necessário, etc.
Como isso é feito está descrito no guia de administração de armazenamento.


Depois de concluir as configurações acima, precisaremos executar apenas algumas ações:


  1. Configure os identificadores FC do host .
  2. Crie um grupo de hosts - grupo de hosts e adicione nossos dois hosts Dell.
  3. Crie um grupo de discos e discos virtuais (ou LUNs) nele, que serão apresentados aos hosts.
  4. Configure a apresentação de discos virtuais (ou LUNs) para hosts.

A adição de novos hosts e identificadores de ligação das portas FC do host a eles é feita através do menu - Mapeamentos de Host -> Definir -> Hosts ...
Os endereços WWPN dos hosts FC HBA podem ser encontrados, por exemplo, em um servidor iDRAC.


Como resultado, devemos obter algo parecido com isto:



A adição de um novo grupo de hosts e a associação de hosts é feita através do menu - Mapeamentos de Host -> Definir -> Grupo de Host ...
Para hosts, selecione o tipo de SO - Linux (DM-MP) .


Após criar o grupo de hosts, na guia Serviços de Armazenamento e Cópia , crie um grupo de discos - Grupo de Discos , com o tipo que depende dos requisitos de tolerância a falhas, por exemplo, RAID10 e nele discos virtuais do tamanho certo:



E, finalmente, a etapa final é a apresentação de discos virtuais (ou LUNs) para hosts.
Para fazer isso, através do menu - Mapeamentos de Host -> Mapeamento Lun -> Adicionar ... fazemos a ligação de discos virtuais aos hosts, atribuindo-lhes números.


Tudo deve ficar como nesta imagem:



Terminamos a configuração do sistema de armazenamento e, se tudo foi feito corretamente, os hosts devem ver os LUNs apresentados a eles por meio dos HBAs do FC.
Faça o sistema atualizar as informações sobre as unidades mapeadas:


 ls -la /sys/class/scsi_host/ echo "- - -" > /sys/class/scsi_host/host[0-9]/scan 

Vamos ver quais dispositivos são visíveis em nossos servidores:
 cat /proc/scsi/scsi Attached devices: Host: scsi0 Channel: 02 Id: 00 Lun: 00 Vendor: DELL Model: PERC H330 Mini Rev: 4.29 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 lsscsi [0:2:0:0] disk DELL PERC H330 Mini 4.29 /dev/sda [15:0:0:0] disk DELL MD38xxf 0825 - [15:0:0:1] disk DELL MD38xxf 0825 /dev/sdb [15:0:0:4] disk DELL MD38xxf 0825 /dev/sdc [15:0:0:11] disk DELL MD38xxf 0825 /dev/sdd [15:0:0:31] disk DELL Universal Xport 0825 - [18:0:0:0] disk DELL MD38xxf 0825 - [18:0:0:1] disk DELL MD38xxf 0825 /dev/sdi [18:0:0:4] disk DELL MD38xxf 0825 /dev/sdj [18:0:0:11] disk DELL MD38xxf 0825 /dev/sdk [18:0:0:31] disk DELL Universal Xport 0825 - 

Você também pode configurar o multipath nos hosts e, embora ao instalar o oVirt ele possa fazer isso sozinho, é melhor verificar o MP com antecedência.


Instale e configure o DM Multipath


 yum install device-mapper-multipath mpathconf --enable --user_friendly_names y cat /etc/multipath.conf | egrep -v "^\s*(#|$)" defaults { user_friendly_names yes find_multipaths yes } blacklist { wwid 26353900f02796769 devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^hd[az]" } 

Instale o serviço MP no início automático e execute-o:


 systemctl enable multipathd && systemctl restart multipathd 

Verificando informações sobre os módulos carregados para operação MP:
 lsmod | grep dm_multipath dm_multipath 27792 6 dm_service_time dm_mod 124407 139 dm_multipath,dm_log,dm_mirror modinfo dm_multipath filename: /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz license: GPL author: Sistina Software <dm-devel@redhat.com> description: device-mapper multipath target retpoline: Y rhelversion: 7.6 srcversion: 985A03DCAF053D4910E53EE depends: dm-mod intree: Y vermagic: 3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions signer: CentOS Linux kernel signing key sig_key: A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45 sig_hashalgo: sha256 

Consulte o resumo da configuração de caminhos múltiplos existente:


 mpathconf multipath is enabled find_multipaths is disabled user_friendly_names is disabled dm_multipath module is loaded multipathd is running 

Após adicionar um novo LUN ao armazenamento e apresentá-lo ao host, é necessário fazer uma varredura nele conectado ao host HBA.


 systemctl reload multipathd multipath -v2 

E, finalmente, verificamos se todos os LUNs foram apresentados no armazenamento para hosts e se todos têm dois caminhos.


Verifique a operação MP:
 multipath -ll 3600a098000e4b4b3000003175cec1840 dm-2 DELL ,MD38xxf size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:1 sdb 8:16 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:1 sdi 8:128 active ready running 3600a098000e4b48f000002ab5cec1921 dm-6 DELL ,MD38xxf size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 18:0:0:11 sdk 8:160 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 15:0:0:11 sdd 8:48 active ready running 3600a098000e4b4b3000003c95d171065 dm-3 DELL ,MD38xxf size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:4 sdc 8:32 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:4 sdj 8:144 active ready running 

Como você pode ver, todos os três discos virtuais no sistema de armazenamento são visíveis de duas maneiras. Assim, todo o trabalho preparatório foi concluído, o que significa que podemos prosseguir para a parte principal - a configuração do cluster oVirt, que será discutido no próximo artigo.

Source: https://habr.com/ru/post/pt483980/


All Articles