Création d'une infrastructure informatique tolérante aux pannes. Partie 1 - Préparation du déploiement du cluster oVirt 4.3

Les lecteurs sont invités à se familiariser avec les principes de construction d'une infrastructure tolérante aux pannes d'une petite entreprise au sein d'un centre de données, qui seront examinés en détail dans une courte série d'articles.


Présentation


Sous le DPC (Data Processing Center) on peut comprendre:


  • propre rack dans sa «salle de serveurs» sur le territoire de l'entreprise qui rĂ©pond aux exigences minimales pour fournir des Ă©quipements d'alimentation et de refroidissement, ainsi que d'avoir accès Ă  Internet via deux fournisseurs indĂ©pendants;
  • rack louĂ© avec son propre Ă©quipement situĂ© dans ce centre de donnĂ©es - le soi-disant la colocalisation, conforme Ă  la norme Tier III ou IV, qui garantit une alimentation Ă©lectrique, un refroidissement et un accès Internet Ă  tolĂ©rance de pannes fiables;
  • Ă©quipement entièrement louĂ© dans un centre de donnĂ©es de niveau III ou IV.

Quelle option d'hébergement choisir - dans chaque cas, tout est individuel et dépend généralement de plusieurs facteurs principaux:


  • pourquoi l'entreprise a-t-elle sa propre infrastructure informatique;
  • ce que l'entreprise attend exactement de l'infrastructure informatique (fiabilitĂ©, Ă©volutivitĂ©, facilitĂ© de gestion, etc.);
  • le montant de l'investissement initial dans l'infrastructure informatique, ainsi que le type de coĂ»ts qu'il s'agit - en capital (ce qui signifie que vous achetez votre Ă©quipement) ou en fonctionnement (l'Ă©quipement est gĂ©nĂ©ralement louĂ©);
  • Horizon de planification de l'entreprise elle-mĂŞme.

Beaucoup de choses peuvent être écrites sur les facteurs qui influencent la décision de l'entreprise de créer et d'utiliser son infrastructure informatique, mais notre objectif est de montrer dans la pratique comment créer cette infrastructure afin qu'elle soit à la fois tolérante aux pannes et qu'il soit possible d'économiser de l'argent - réduire le coût d'acquisition de logiciels commerciaux, voire les éviter.


Comme le montre la longue pratique, cela ne vaut pas la peine d'économiser sur le matériel, car l'avare paie deux fois, et bien plus encore. Mais là encore - bon matériel, ce n'est qu'une recommandation, et finalement quoi acheter exactement et pour combien dépend des capacités de l'entreprise et de la «cupidité» de sa gestion. En outre, le mot «cupidité» doit être compris dans le bon sens du terme, car il vaut mieux investir dans le fer au stade initial, de sorte que plus tard, il n'y a pas de problèmes sérieux dans son soutien et sa mise à l'échelle, car une planification initialement incorrecte et des économies excessives peuvent conduire à l'avenir. plus cher que lors du démarrage d'un projet.


Ainsi, les données initiales du projet:


  • il y a une entreprise qui a dĂ©cidĂ© de crĂ©er son propre portail Web et de mettre ses activitĂ©s sur Internet;
  • la sociĂ©tĂ© a dĂ©cidĂ© de louer un rack pour placer son Ă©quipement dans un bon centre de donnĂ©es certifiĂ© selon la norme Tier III;
  • l'entreprise a dĂ©cidĂ© de ne pas Ă©conomiser beaucoup sur le matĂ©riel et a donc achetĂ© l'Ă©quipement suivant avec des garanties et un support Ă©tendus:

Liste des Ă©quipements
  • deux serveurs physiques Dell PowerEdge R640 comme suit:
  • deux processeurs Intel Xeon Gold 5120
  • 512 Go de RAM
  • deux disques SAS en RAID1, pour l'installation du système d'exploitation
  • carte rĂ©seau 1G 4 ports intĂ©grĂ©e
  • deux cartes rĂ©seau 10G Ă  2 ports
  • un FC HBA 16G Ă  2 ports.
  • Système de stockage Ă  2 contrĂ´leurs Dell MD3820f, connectĂ© via FC 16G directement aux hĂ´tes Dell;
  • deux commutateurs du deuxième niveau - Cisco WS-C2960RX-48FPS-L empilĂ©s;
  • deux commutateurs de couche 3 - Cisco WS-C3850-24T-E, empilĂ©s;
  • Rack, UPS, PDU, serveurs de console - fournis par le centre de donnĂ©es.


Comme nous pouvons le voir, l'équipement existant a de bonnes perspectives de mise à l'échelle horizontale et verticale, si l'entreprise peut concurrencer d'autres entreprises de profil similaire sur Internet et commence à réaliser un profit qui peut être investi dans l'expansion des ressources pour une concurrence accrue et une croissance des bénéfices.


Quel équipement pouvons-nous ajouter si l'entreprise décide d'augmenter les performances de notre cluster informatique:


  • nous avons une grande rĂ©serve pour le nombre de ports sur les commutateurs 2960X, ce qui signifie que vous pouvez ajouter plus de serveurs matĂ©riels;
  • acheter deux commutateurs FC pour y connecter des systèmes de stockage et des serveurs supplĂ©mentaires;
  • les serveurs dĂ©jĂ  existants peuvent ĂŞtre mis Ă  niveau - ajoutez de la mĂ©moire, remplacez les processeurs par des plus efficaces, connectez les adaptateurs rĂ©seau existants Ă  un rĂ©seau 10G;
  • Vous pouvez ajouter des Ă©tagères de disques supplĂ©mentaires au stockage avec le type de disques nĂ©cessaire - SAS, SATA ou SSD, en fonction de la charge prĂ©vue;
  • après avoir ajoutĂ© des commutateurs FC, vous pouvez acheter un autre système de stockage pour ajouter encore plus de capacitĂ© de disque, et si vous lui achetez l'option spĂ©ciale de rĂ©plication Ă  distance, vous pouvez configurer la rĂ©plication des donnĂ©es entre les systèmes de stockage Ă  la fois dans le mĂŞme centre de donnĂ©es et entre les centres de donnĂ©es (mais cela dĂ©passe dĂ©jĂ  la portĂ©e de l'article);
  • il existe Ă©galement des commutateurs de troisième niveau - le Cisco 3850, qui peut ĂŞtre utilisĂ© comme cĹ“ur tolĂ©rant aux pannes du rĂ©seau pour le routage Ă  grande vitesse entre les rĂ©seaux internes. Cela contribuera grandement Ă  l'avenir, Ă  mesure que l'infrastructure interne se dĂ©veloppera. Le 3850 possède Ă©galement des ports 10G qui peuvent ĂŞtre activĂ©s ultĂ©rieurement lors de la mise Ă  niveau de l'Ă©quipement rĂ©seau vers 10G.

Puisqu'il n'y a plus nulle part sans virtualisation, alors bien sûr nous serons à la mode, d'autant plus que c'est un excellent moyen de réduire le coût d'achat de serveurs coûteux pour certains éléments d'infrastructure (serveurs web, bases de données, etc.), qui ne sont pas toujours optimaux utilisé en cas de faible charge, et c'est exactement ce qui sera au début du lancement du projet.


De plus, la virtualisation présente de nombreux autres avantages qui peuvent nous être très utiles: tolérance aux pannes de VM suite à une défaillance du serveur matériel, migration en direct entre les nœuds matériels du cluster pour leur maintenance, équilibrage de charge manuel ou automatique entre les nœuds du cluster, etc.


Pour le matériel acquis par l'entreprise, le déploiement du cluster VMware vSphere hautement accessible se suggère, mais comme tout logiciel de VMware est connu pour ses prix à cheval, nous utiliserons un logiciel de gestion de la virtualisation absolument gratuit - oVirt , sur la base duquel le célèbre mais produit déjà commercial - RHEV .


Le logiciel oVirt est nécessaire pour combiner tous les éléments de l'infrastructure afin de pouvoir travailler facilement avec des machines virtuelles hautement accessibles - ce sont des bases de données, des applications Web, des proxys, des équilibreurs, des serveurs pour collecter des journaux et des analyses, etc. n., c'est-à-dire en quoi consiste le portail Web de notre entreprise.


Pour résumer cette introduction, les articles suivants nous attendent, qui en pratique montreront comment déployer l'intégralité de l'infrastructure matérielle et logicielle de l'entreprise:


Liste d'articles
  • Partie 1. PrĂ©paration du dĂ©ploiement du cluster oVirt 4.3.
  • Partie 2. Installation et configuration du cluster oVirt 4.3.
  • Partie 3. Organisation du routage tolĂ©rant aux pannes sur les routeurs virtuels VyOS.
  • Partie 4. Configuration de la pile Cisco 3850, organisation du routage intranet.

Partie 1. Préparation du déploiement du cluster oVirt 4.3


Configuration de base de l'hĂ´te


L'installation et la configuration du système d'exploitation est l'étape la plus simple. Il y a beaucoup d'articles sur la façon d'installer et de configurer correctement le système d'exploitation, donc cela n'a aucun sens d'essayer de donner quelque chose d'exclusif à ce sujet.


Nous avons donc deux hôtes Dell PowerEdge R640, sur lesquels vous devez installer le système d'exploitation et effectuer des préconfigurations, pour les utiliser comme hyperviseurs pour exécuter des machines virtuelles dans le cluster oVirt 4.3.


Comme nous prévoyons d'utiliser le logiciel gratuit non commercial oVirt, CentOS 7.7 a été choisi pour le déploiement des hôtes, bien que d'autres systèmes d'exploitation puissent également être installés sur les hôtes pour oVirt:


  • construction spĂ©ciale basĂ©e sur RHEL, la soi-disant oVirt Node ;
  • OS Oracle Linux, Ă  l'Ă©tĂ© 2019, le support pour le fonctionnement de oVirt sur celui-ci a Ă©tĂ© annoncĂ© .

Avant d'installer le système d'exploitation, il est recommandé:


  • Configurer l'interface rĂ©seau iDRAC sur les deux hĂ´tes
  • mettre Ă  jour le firmware du BIOS et de l'iDRAC vers les dernières versions;
  • il est souhaitable de configurer le serveur System Profile en mode Performance;
  • configurer le RAID Ă  partir de disques locaux (RAID1 recommandĂ©) pour installer le système d'exploitation sur le serveur.

Ensuite, nous installons le système d'exploitation sur le disque créé précédemment via iDRAC - le processus d'installation est normal, il n'y a pas de moments spéciaux. L'accès à la console du serveur pour commencer l'installation du système d'exploitation peut également être obtenu via iDRAC, bien que rien ne vous empêche de connecter le moniteur, le clavier et la souris directement au serveur et d'installer le système d'exploitation à partir d'un lecteur flash.


Après avoir installé le système d'exploitation, effectuez ses réglages initiaux:


systemctl enable network.service systemctl start network.service systemctl status network.service 

 systemctl stop NetworkManager systemctl disable NetworkManager systemctl status NetworkManager 

 yum install -y ntp systemctl enable ntpd.service systemctl start ntpd.service 

 cat /etc/sysconfig/selinux SELINUX=disabled SELINUXTYPE=targeted 

 cat /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536 

 cat /etc/sysctl.conf vm.max_map_count = 262144 vm.swappiness = 1 

Installer l'ensemble de logiciels de base


Pour la configuration initiale du système d'exploitation, vous devez configurer n'importe quelle interface réseau sur le serveur afin de pouvoir accéder à Internet, mettre à jour le système d'exploitation et installer les packages logiciels nécessaires. Cela peut être fait à la fois pendant l'installation du système d'exploitation et après.


 yum -y install epel-release yum update yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

Tous les paramètres ci-dessus et un ensemble de logiciels sont une question de préférence personnelle, et cet ensemble n'est qu'une recommandation.


Puisque notre hébergeur jouera le rôle d'un hyperviseur, nous activerons le profil de performance souhaité:


 systemctl enable tuned systemctl start tuned systemctl status tuned 

 tuned-adm profile tuned-adm profile virtual-host 

Vous pouvez en savoir plus sur le profil de performance ici: " Chapitre 4. tuned et tuned-adm ".


Après avoir installé le système d'exploitation, nous passons à la partie suivante - la configuration des interfaces réseau sur les hôtes et la pile de commutateurs Cisco 2960X.


Configuration de la pile de commutateurs Cisco 2960X


Notre projet utilisera les nombres suivants de VLAN - ou domaines de diffusion isolés les uns des autres, afin de séparer différents types de trafic:


VLAN 10 - Internet
VLAN 17 - Gestion (iDRAC, stockage, gestion des commutateurs)
VLAN 32 - RĂ©seau de production de VM
VLAN 33 - réseau d'interconnexion (à des sous-traitants externes)
VLAN 34 - RĂ©seau de test VM
VLAN 35 - Réseau de développeurs VM
VLAN 40 - RĂ©seau de surveillance


Avant de commencer les travaux, nous présentons un schéma au niveau L2, auquel nous devrions enfin arriver:



Pour l'interaction réseau entre les hôtes oVirt et les machines virtuelles entre eux, ainsi que pour gérer notre stockage, vous devez configurer la pile de commutateurs Cisco 2960X.


Les hôtes Dell ont des cartes réseau à 4 ports intégrées, il est donc conseillé d'organiser leur connexion au Cisco 2960X à l'aide d'une connexion réseau à tolérance de pannes, en utilisant le regroupement des ports réseau physiques dans une interface logique et le protocole LACP (802.3ad):


  • les deux premiers ports de l'hĂ´te sont configurĂ©s en mode de liaison et connectĂ©s au commutateur 2960X - sur cette interface logique, un pont avec une adresse pour gĂ©rer l'hĂ´te, la surveillance, la communication avec les autres hĂ´tes du cluster oVirt sera configurĂ©, il sera Ă©galement utilisĂ© pour la migration en direct des machines virtuelles;
  • les deux seconds ports de l'hĂ´te sont Ă©galement configurĂ©s en mode liaison et connectĂ©s au 2960X - sur cette interface logique utilisant oVirt, des ponts ultĂ©rieurs seront crĂ©Ă©s (dans les VLAN correspondants) auxquels les machines virtuelles seront connectĂ©es.
  • les deux ports rĂ©seau, au sein de la mĂŞme interface logique, seront actifs, c'est-Ă -dire Le trafic sur eux peut ĂŞtre transmis simultanĂ©ment, en mode d'Ă©quilibrage.
  • les paramètres rĂ©seau sur les nĹ“uds du cluster doivent ĂŞtre absolument identiques, Ă  l'exception des adresses IP.

Configuration de base de la pile de commutateurs 2960X et de ses ports


Auparavant, nos commutateurs devaient ĂŞtre:


  • montĂ© dans un rack;
  • connectĂ©s par deux câbles spĂ©ciaux de la longueur souhaitĂ©e, par exemple CAB-STK-E-1M;
  • connectĂ© Ă  l'alimentation;
  • connectĂ© au poste de travail de l'administrateur via le port console, pour leur configuration initiale.

Les conseils nécessaires à cet effet sont disponibles sur la page officielle du fabricant.


Après avoir effectué les étapes ci-dessus, configurez les commutateurs.
Ce que signifie chaque équipe n'est pas censé être décrypté dans le cadre de cet article; si nécessaire, toutes les informations peuvent être trouvées indépendamment.
Notre objectif est de configurer la pile de commutateurs le plus rapidement possible et d'y connecter les hĂ´tes et les interfaces de gestion du stockage.


1) Connectez-vous au commutateur principal, passez en mode privilégié, puis passez en mode de configuration et effectuez les réglages de base.


Configuration de commutation de base:
  enable configure terminal hostname 2960X no service pad service timestamps debug datetime msec service timestamps log datetime localtime show-timezone msec no service password-encryption service sequence-numbers switch 1 priority 15 switch 2 priority 14 stack-mac persistent timer 0 clock timezone MSK 3 vtp mode transparent ip subnet-zero vlan 17 name Management vlan 32 name PROD vlan 33 name Interconnect vlan 34 name Test vlan 35 name Dev vlan 40 name Monitoring spanning-tree mode rapid-pvst spanning-tree etherchannel guard misconfig spanning-tree portfast bpduguard default spanning-tree extend system-id spanning-tree vlan 1-40 root primary spanning-tree loopguard default vlan internal allocation policy ascending port-channel load-balance src-dst-ip errdisable recovery cause loopback errdisable recovery cause bpduguard errdisable recovery interval 60 line con 0 session-timeout 60 exec-timeout 60 0 logging synchronous line vty 5 15 session-timeout 60 exec-timeout 60 0 logging synchronous ip http server ip http secure-server no vstack interface Vlan1 no ip address shutdown exit 

Nous enregistrons la configuration avec la commande wr mem et rechargeons la pile de commutateurs avec la commande reload sur le commutateur principal 1.


2) Configurez les ports réseau du commutateur en mode d'accès dans VLAN 17, pour connecter les interfaces de gestion des serveurs de stockage et iDRAC.


Paramètres du port de gestion:
 interface GigabitEthernet1/0/5 description iDRAC - host1 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet1/0/6 description Storage1 - Cntr0/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/5 description iDRAC - host2 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/6 description Storage1 – Cntr1/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge exit 

3) Après avoir redémarré la pile, vérifiez qu'elle fonctionne correctement:


VĂ©rification du fonctionnement de la pile:
 2960X#show switch stack-ring speed Stack Ring Speed : 20G Stack Ring Configuration: Full Stack Ring Protocol : FlexStack 2960X#show switch stack-ports Switch # Port 1 Port 2 -------- ------ ------ 1 Ok Ok 2 Ok Ok 2960X#show switch neighbors Switch # Port 1 Port 2 -------- ------ ------ 1 2 2 2 1 1 2960X#show switch detail Switch/Stack Mac Address : 0cd0.f8e4. Mac persistency wait time: Indefinite H/W Current Switch# Role Mac Address Priority Version State ---------------------------------------------------------- *1 Master 0cd0.f8e4. 15 4 Ready 2 Member 0029.c251. 14 4 Ready Stack Port Status Neighbors Switch# Port 1 Port 2 Port 1 Port 2 -------------------------------------------------------- 1 Ok Ok 2 2 2 Ok Ok 1 1 

4) Configuration de l'accès SSH à la pile 2960X


Pour la gestion à distance de la pile via SSH, nous utiliserons IP 172.20.1.10 configuré sur SVI (switch virtual interface) VLAN17 .


Bien qu'à des fins de gestion, il est conseillé d'utiliser un port dédié spécial sur le commutateur, mais c'est une question de préférence personnelle et d'opportunité.


Configuration de l'accès SSH à la pile de commutateurs:
 ip default-gateway 172.20.1.2 interface vlan 17 ip address 172.20.1.10 255.255.255.0 hostname 2960X ip domain-name hw.home-lab.ru no ip domain-lookup clock set 12:47:04 06 Dec 2019 crypto key generate rsa ip ssh version 2 ip ssh time-out 90 line vty 0 4 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh line vty 5 15 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh aaa new-model aaa authentication login default local username cisco privilege 15 secret my_ssh_password 

Configurez un mot de passe pour entrer en mode privilégié:


 enable secret *myenablepassword* service password-encryption 

Configurer NTP:


 ntp server 85.21.78.8 prefer ntp server 89.221.207.113 ntp server 185.22.60.71 ntp server 192.36.143.130 ntp server 185.209.85.222 show ntp status show ntp associations show clock detail 

5) Configurez les interfaces logiques Etherchannel et les ports physiques connectés aux hôtes. Pour faciliter la configuration, tous les VLAN disponibles seront autorisés sur toutes les interfaces logiques, mais il est généralement recommandé de configurer uniquement ce dont vous avez besoin:


Configurer les interfaces Etherchannel:
 interface Port-channel1 description EtherChannel with Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel2 description EtherChannel with Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel3 description EtherChannel with Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel4 description EtherChannel with Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface GigabitEthernet1/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet1/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet1/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet1/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active interface GigabitEthernet2/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet2/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet2/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet2/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active 

Configuration initiale des interfaces réseau pour les machines virtuelles sur Host1 et Host2


Nous vérifions la disponibilité des modules nécessaires au collage dans le système, installons le module de gestion des ponts:


 modinfo bonding modinfo 8021q yum install bridge-utils 

Configuration de l'interface logique BOND1 pour les machines virtuelles sur les hĂ´tes et ses interfaces physiques:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1 #DESCRIPTION - management DEVICE=bond1 NAME=bond1 TYPE=Bond IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em2 #DESCRIPTION - management DEVICE=em2 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em3 #DESCRIPTION - management DEVICE=em3 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

Après avoir terminé les réglages sur la pile et les hôtes 2960X , nous redémarrons le réseau sur les hôtes et vérifions l'interface logique.


  • sur l'hĂ´te:

 systemctl restart network cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2+3 (2) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 ... 802.3ad info LACP rate: fast Min links: 0 Aggregator selection policy (ad_select): stable System priority: 65535 ... Slave Interface: em2 MII Status: up Speed: 1000 Mbps Duplex: full ... Slave Interface: em3 MII Status: up Speed: 1000 Mbps Duplex: full 

  • sur la pile de commutateurs 2960X :

 2960X#show lacp internal Flags: S - Device is requesting Slow LACPDUs F - Device is requesting Fast LACPDUs A - Device is in Active mode P - Device is in Passive mode Channel group 1 LACP port Admin Oper Port Port Port Flags State Priority Key Key Number State Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D 2960X#sh etherchannel summary Flags: D - down P - bundled in port-channel I - stand-alone s - suspended H - Hot-standby (LACP only) R - Layer3 S - Layer2 U - in use N - not in use, no aggregation f - failed to allocate aggregator M - not in use, minimum links not met m - not in use, port not aggregated due to minimum links not met u - unsuitable for bundling w - waiting to be aggregated d - default port A - formed by Auto LAG Number of channel-groups in use: 11 Number of aggregators: 11 Group Port-channel Protocol Ports ------+-------------+-----------+----------------------------------------------- 1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P) 

Configuration initiale des interfaces réseau pour la gestion des ressources de cluster sur Host1 et Host2


Configuration de l'interface logique BOND1 pour la gestion et ses interfaces physiques sur les hĂ´tes:
 cat /etc/sysconfig/network-scripts/ifcfg-bond0 #DESCRIPTION - management DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em0 #DESCRIPTION - management DEVICE=em0 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em1 #DESCRIPTION - management DEVICE=em1 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

Après avoir terminé les réglages sur la pile et les hôtes 2960X , nous redémarrons le réseau sur les hôtes et vérifions l'interface logique.


 systemctl restart network cat /proc/net/bonding/bond1 2960X#show lacp internal 2960X#sh etherchannel summary 

Nous configurons l'interface réseau de contrôle sur chaque hôte du VLAN 17 et la lions à l'interface logique BOND1:


Configuration de VLAN17 sur Host1:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.163 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

Configuration de VLAN17 sur Host2:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.164 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

Nous redémarrons le réseau sur les hôtes et vérifions leur visibilité entre eux.


Ceci termine la configuration de la pile de commutateurs Cisco 2960X, et si tout a été fait correctement, nous avons maintenant une connexion réseau de tous les éléments d'infrastructure les uns aux autres au niveau L2.


Configurer le stockage Dell MD3820f


Avant de commencer les travaux de configuration du système de stockage, il doit déjà être connecté à la pile de commutateurs Cisco 2960X par les interfaces de gestion, ainsi qu'aux hôtes Host1 et Host2 via FC.


Le schéma général de la façon dont le stockage doit être connecté à la pile de commutateurs a été donné dans le chapitre précédent.


Le schéma de connexion du stockage sur FC aux hôtes devrait ressembler à ceci:



Pendant la connexion, il est nécessaire d'enregistrer les adresses WWPN pour les hôtes HBA FC connectés aux ports FC du système de stockage - cela sera nécessaire pour la configuration ultérieure de la liaison des hôtes aux LUN sur le système de stockage.


Sur le poste de travail de l'administrateur, téléchargez et installez l'utilitaire de gestion du stockage Dell MD3820f - PowerVault Modular Disk Storage Manager ( MDSM ).
Nous nous y connectons via ses adresses IP par défaut, puis configurons nos adresses à partir de VLAN17 pour contrôler les contrôleurs via TCP / IP:


Stockage1 :


 ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2 ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2 

Après avoir défini les adresses, accédez à l'interface de gestion du stockage et définissez un mot de passe, définissez l'heure, mettez à jour le micrologiciel des contrôleurs et des disques, si nécessaire, etc.
La procédure à suivre est décrite dans le guide d'administration du stockage.


Après avoir terminé les paramètres ci-dessus, nous devrons effectuer quelques actions:


  1. Configurez les identificateurs FC hĂ´te .
  2. Créez un groupe d'hôtes - Groupe d' hôtes et ajoutez-y nos deux hôtes Dell.
  3. Créez-y un groupe de disques et des disques virtuels (ou LUN) qui seront présentés aux hôtes.
  4. Configurez la présentation des disques virtuels (ou LUN) pour les hôtes.

L'ajout de nouveaux hĂ´tes et la liaison des identifiants des ports FC hĂ´tes se fait via le menu - Mappages d'hĂ´tes -> DĂ©finir -> HĂ´tes ...
Les adresses WWPN des hôtes FC HBA peuvent être trouvées, par exemple, sur un serveur iDRAC.


En conséquence, nous devrions obtenir quelque chose comme ceci:



L'ajout d'un nouveau groupe d'hĂ´tes et la liaison d'hĂ´tes Ă  celui-ci se fait via le menu - Host Mappings -> Define -> Host Group ...
Pour les hôtes, sélectionnez le type de système d'exploitation - Linux (DM-MP) .


Après avoir créé le groupe d'hôtes, via l'onglet Storage & Copy Services , créez un groupe de disques - Disk Group , dont le type dépend des exigences de tolérance aux pannes, par exemple, RAID10, et des disques virtuels de la bonne taille:



Et enfin, la dernière étape est la présentation des disques virtuels (ou LUN) pour les hôtes.
Pour ce faire, via le menu - Mappages d'hôtes -> Mappage lunaire -> Ajouter ... nous faisons la liaison des disques virtuels aux hôtes, en leur attribuant des numéros.


Tout devrait se passer comme dans cette capture d'Ă©cran:



Nous en avons terminé avec la configuration des systèmes de stockage, et si tout a été fait correctement, les hôtes devraient voir les LUN qui leur sont présentés via leurs HBA FC.
Demandez au système de mettre à jour les informations sur les lecteurs mappés:


 ls -la /sys/class/scsi_host/ echo "- - -" > /sys/class/scsi_host/host[0-9]/scan 

Voyons quels appareils sont visibles sur nos serveurs:
 cat /proc/scsi/scsi Attached devices: Host: scsi0 Channel: 02 Id: 00 Lun: 00 Vendor: DELL Model: PERC H330 Mini Rev: 4.29 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 lsscsi [0:2:0:0] disk DELL PERC H330 Mini 4.29 /dev/sda [15:0:0:0] disk DELL MD38xxf 0825 - [15:0:0:1] disk DELL MD38xxf 0825 /dev/sdb [15:0:0:4] disk DELL MD38xxf 0825 /dev/sdc [15:0:0:11] disk DELL MD38xxf 0825 /dev/sdd [15:0:0:31] disk DELL Universal Xport 0825 - [18:0:0:0] disk DELL MD38xxf 0825 - [18:0:0:1] disk DELL MD38xxf 0825 /dev/sdi [18:0:0:4] disk DELL MD38xxf 0825 /dev/sdj [18:0:0:11] disk DELL MD38xxf 0825 /dev/sdk [18:0:0:31] disk DELL Universal Xport 0825 - 

Vous pouvez également configurer le multichemin sur les hôtes, et bien que lors de l'installation de oVirt, il puisse le faire lui-même, il est préférable de vérifier le MP par vous-même à l'avance.


Installer et configurer DM Multipath


 yum install device-mapper-multipath mpathconf --enable --user_friendly_names y cat /etc/multipath.conf | egrep -v "^\s*(#|$)" defaults { user_friendly_names yes find_multipaths yes } blacklist { wwid 26353900f02796769 devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^hd[az]" } 

Installez le service MP en démarrage automatique et exécutez-le:


 systemctl enable multipathd && systemctl restart multipathd 

Vérification des informations sur les modules chargés pour le fonctionnement MP:
 lsmod | grep dm_multipath dm_multipath 27792 6 dm_service_time dm_mod 124407 139 dm_multipath,dm_log,dm_mirror modinfo dm_multipath filename: /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz license: GPL author: Sistina Software <dm-devel@redhat.com> description: device-mapper multipath target retpoline: Y rhelversion: 7.6 srcversion: 985A03DCAF053D4910E53EE depends: dm-mod intree: Y vermagic: 3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions signer: CentOS Linux kernel signing key sig_key: A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45 sig_hashalgo: sha256 

Voir le résumé de la configuration multichemin existante:


 mpathconf multipath is enabled find_multipaths is disabled user_friendly_names is disabled dm_multipath module is loaded multipathd is running 

Après avoir ajouté un nouveau LUN au stockage et l'avoir présenté à l'hôte, il est nécessaire de le scanner connecté à l'hôte HBA.


 systemctl reload multipathd multipath -v2 

Et enfin, nous vérifions si tous les LUN ont été présentés sur le stockage pour les hôtes, et si tous ont deux chemins.


VĂ©rifier le fonctionnement du MP:
 multipath -ll 3600a098000e4b4b3000003175cec1840 dm-2 DELL ,MD38xxf size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:1 sdb 8:16 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:1 sdi 8:128 active ready running 3600a098000e4b48f000002ab5cec1921 dm-6 DELL ,MD38xxf size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 18:0:0:11 sdk 8:160 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 15:0:0:11 sdd 8:48 active ready running 3600a098000e4b4b3000003c95d171065 dm-3 DELL ,MD38xxf size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:4 sdc 8:32 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:4 sdj 8:144 active ready running 

Comme vous pouvez le voir, les trois disques virtuels du système de stockage sont visibles de deux manières. Ainsi, tous les travaux préparatoires ont été achevés, ce qui signifie que nous pouvons passer à la partie principale - la mise en place du cluster oVirt, qui sera discutée dans le prochain article.

Source: https://habr.com/ru/post/fr483980/


All Articles