Les lecteurs sont invités à se familiariser avec les principes de construction d'une infrastructure tolérante aux pannes d'une petite entreprise au sein d'un centre de données, qui seront examinés en détail dans une courte série d'articles.
Présentation
Sous le DPC (Data Processing Center) on peut comprendre:
- propre rack dans sa «salle de serveurs» sur le territoire de l'entreprise qui répond aux exigences minimales pour fournir des équipements d'alimentation et de refroidissement, ainsi que d'avoir accès à Internet via deux fournisseurs indépendants;
- rack loué avec son propre équipement situé dans ce centre de données - le soi-disant la colocalisation, conforme à la norme Tier III ou IV, qui garantit une alimentation électrique, un refroidissement et un accès Internet à tolérance de pannes fiables;
- équipement entièrement loué dans un centre de données de niveau III ou IV.
Quelle option d'hébergement choisir - dans chaque cas, tout est individuel et dépend généralement de plusieurs facteurs principaux:
- pourquoi l'entreprise a-t-elle sa propre infrastructure informatique;
- ce que l'entreprise attend exactement de l'infrastructure informatique (fiabilité, évolutivité, facilité de gestion, etc.);
- le montant de l'investissement initial dans l'infrastructure informatique, ainsi que le type de coûts qu'il s'agit - en capital (ce qui signifie que vous achetez votre équipement) ou en fonctionnement (l'équipement est généralement loué);
- Horizon de planification de l'entreprise elle-mĂŞme.
Beaucoup de choses peuvent être écrites sur les facteurs qui influencent la décision de l'entreprise de créer et d'utiliser son infrastructure informatique, mais notre objectif est de montrer dans la pratique comment créer cette infrastructure afin qu'elle soit à la fois tolérante aux pannes et qu'il soit possible d'économiser de l'argent - réduire le coût d'acquisition de logiciels commerciaux, voire les éviter.
Comme le montre la longue pratique, cela ne vaut pas la peine d'économiser sur le matériel, car l'avare paie deux fois, et bien plus encore. Mais là encore - bon matériel, ce n'est qu'une recommandation, et finalement quoi acheter exactement et pour combien dépend des capacités de l'entreprise et de la «cupidité» de sa gestion. En outre, le mot «cupidité» doit être compris dans le bon sens du terme, car il vaut mieux investir dans le fer au stade initial, de sorte que plus tard, il n'y a pas de problèmes sérieux dans son soutien et sa mise à l'échelle, car une planification initialement incorrecte et des économies excessives peuvent conduire à l'avenir. plus cher que lors du démarrage d'un projet.
Ainsi, les données initiales du projet:
- il y a une entreprise qui a décidé de créer son propre portail Web et de mettre ses activités sur Internet;
- la société a décidé de louer un rack pour placer son équipement dans un bon centre de données certifié selon la norme Tier III;
- l'entreprise a décidé de ne pas économiser beaucoup sur le matériel et a donc acheté l'équipement suivant avec des garanties et un support étendus:
Liste des équipements- deux serveurs physiques Dell PowerEdge R640 comme suit:
- deux processeurs Intel Xeon Gold 5120
- 512 Go de RAM
- deux disques SAS en RAID1, pour l'installation du système d'exploitation
- carte réseau 1G 4 ports intégrée
- deux cartes réseau 10G à 2 ports
- un FC HBA 16G Ă 2 ports.
- Système de stockage à 2 contrôleurs Dell MD3820f, connecté via FC 16G directement aux hôtes Dell;
- deux commutateurs du deuxième niveau - Cisco WS-C2960RX-48FPS-L empilés;
- deux commutateurs de couche 3 - Cisco WS-C3850-24T-E, empilés;
- Rack, UPS, PDU, serveurs de console - fournis par le centre de données.
Comme nous pouvons le voir, l'équipement existant a de bonnes perspectives de mise à l'échelle horizontale et verticale, si l'entreprise peut concurrencer d'autres entreprises de profil similaire sur Internet et commence à réaliser un profit qui peut être investi dans l'expansion des ressources pour une concurrence accrue et une croissance des bénéfices.
Quel équipement pouvons-nous ajouter si l'entreprise décide d'augmenter les performances de notre cluster informatique:
- nous avons une grande réserve pour le nombre de ports sur les commutateurs 2960X, ce qui signifie que vous pouvez ajouter plus de serveurs matériels;
- acheter deux commutateurs FC pour y connecter des systèmes de stockage et des serveurs supplémentaires;
- les serveurs déjà existants peuvent être mis à niveau - ajoutez de la mémoire, remplacez les processeurs par des plus efficaces, connectez les adaptateurs réseau existants à un réseau 10G;
- Vous pouvez ajouter des étagères de disques supplémentaires au stockage avec le type de disques nécessaire - SAS, SATA ou SSD, en fonction de la charge prévue;
- après avoir ajouté des commutateurs FC, vous pouvez acheter un autre système de stockage pour ajouter encore plus de capacité de disque, et si vous lui achetez l'option spéciale de réplication à distance, vous pouvez configurer la réplication des données entre les systèmes de stockage à la fois dans le même centre de données et entre les centres de données (mais cela dépasse déjà la portée de l'article);
- il existe également des commutateurs de troisième niveau - le Cisco 3850, qui peut être utilisé comme cœur tolérant aux pannes du réseau pour le routage à grande vitesse entre les réseaux internes. Cela contribuera grandement à l'avenir, à mesure que l'infrastructure interne se développera. Le 3850 possède également des ports 10G qui peuvent être activés ultérieurement lors de la mise à niveau de l'équipement réseau vers 10G.
Puisqu'il n'y a plus nulle part sans virtualisation, alors bien sûr nous serons à la mode, d'autant plus que c'est un excellent moyen de réduire le coût d'achat de serveurs coûteux pour certains éléments d'infrastructure (serveurs web, bases de données, etc.), qui ne sont pas toujours optimaux utilisé en cas de faible charge, et c'est exactement ce qui sera au début du lancement du projet.
De plus, la virtualisation présente de nombreux autres avantages qui peuvent nous être très utiles: tolérance aux pannes de VM suite à une défaillance du serveur matériel, migration en direct entre les nœuds matériels du cluster pour leur maintenance, équilibrage de charge manuel ou automatique entre les nœuds du cluster, etc.
Pour le matériel acquis par l'entreprise, le déploiement du cluster VMware vSphere hautement accessible se suggère, mais comme tout logiciel de VMware est connu pour ses prix à cheval, nous utiliserons un logiciel de gestion de la virtualisation absolument gratuit - oVirt , sur la base duquel le célèbre mais produit déjà commercial - RHEV .
Le logiciel oVirt est nécessaire pour combiner tous les éléments de l'infrastructure afin de pouvoir travailler facilement avec des machines virtuelles hautement accessibles - ce sont des bases de données, des applications Web, des proxys, des équilibreurs, des serveurs pour collecter des journaux et des analyses, etc. n., c'est-à -dire en quoi consiste le portail Web de notre entreprise.
Pour résumer cette introduction, les articles suivants nous attendent, qui en pratique montreront comment déployer l'intégralité de l'infrastructure matérielle et logicielle de l'entreprise:
Liste d'articles- Partie 1. Préparation du déploiement du cluster oVirt 4.3.
- Partie 2. Installation et configuration du cluster oVirt 4.3.
- Partie 3. Organisation du routage tolérant aux pannes sur les routeurs virtuels VyOS.
- Partie 4. Configuration de la pile Cisco 3850, organisation du routage intranet.
Partie 1. Préparation du déploiement du cluster oVirt 4.3
Configuration de base de l'hĂ´te
L'installation et la configuration du système d'exploitation est l'étape la plus simple. Il y a beaucoup d'articles sur la façon d'installer et de configurer correctement le système d'exploitation, donc cela n'a aucun sens d'essayer de donner quelque chose d'exclusif à ce sujet.
Nous avons donc deux hôtes Dell PowerEdge R640, sur lesquels vous devez installer le système d'exploitation et effectuer des préconfigurations, pour les utiliser comme hyperviseurs pour exécuter des machines virtuelles dans le cluster oVirt 4.3.
Comme nous prévoyons d'utiliser le logiciel gratuit non commercial oVirt, CentOS 7.7 a été choisi pour le déploiement des hôtes, bien que d'autres systèmes d'exploitation puissent également être installés sur les hôtes pour oVirt:
- construction spéciale basée sur RHEL, la soi-disant oVirt Node ;
- OS Oracle Linux, à l'été 2019, le support pour le fonctionnement de oVirt sur celui-ci a été annoncé .
Avant d'installer le système d'exploitation, il est recommandé:
- Configurer l'interface réseau iDRAC sur les deux hôtes
- mettre à jour le firmware du BIOS et de l'iDRAC vers les dernières versions;
- il est souhaitable de configurer le serveur System Profile en mode Performance;
- configurer le RAID à partir de disques locaux (RAID1 recommandé) pour installer le système d'exploitation sur le serveur.
Ensuite, nous installons le système d'exploitation sur le disque créé précédemment via iDRAC - le processus d'installation est normal, il n'y a pas de moments spéciaux. L'accès à la console du serveur pour commencer l'installation du système d'exploitation peut également être obtenu via iDRAC, bien que rien ne vous empêche de connecter le moniteur, le clavier et la souris directement au serveur et d'installer le système d'exploitation à partir d'un lecteur flash.
Après avoir installé le système d'exploitation, effectuez ses réglages initiaux:
systemctl enable network.service systemctl start network.service systemctl status network.service
systemctl stop NetworkManager systemctl disable NetworkManager systemctl status NetworkManager
yum install -y ntp systemctl enable ntpd.service systemctl start ntpd.service
cat /etc/sysconfig/selinux SELINUX=disabled SELINUXTYPE=targeted
cat /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536
cat /etc/sysctl.conf vm.max_map_count = 262144 vm.swappiness = 1
Installer l'ensemble de logiciels de base
Pour la configuration initiale du système d'exploitation, vous devez configurer n'importe quelle interface réseau sur le serveur afin de pouvoir accéder à Internet, mettre à jour le système d'exploitation et installer les packages logiciels nécessaires. Cela peut être fait à la fois pendant l'installation du système d'exploitation et après.
yum -y install epel-release yum update yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet
Tous les paramètres ci-dessus et un ensemble de logiciels sont une question de préférence personnelle, et cet ensemble n'est qu'une recommandation.
Puisque notre hébergeur jouera le rôle d'un hyperviseur, nous activerons le profil de performance souhaité:
systemctl enable tuned systemctl start tuned systemctl status tuned
tuned-adm profile tuned-adm profile virtual-host
Vous pouvez en savoir plus sur le profil de performance ici: " Chapitre 4. tuned et tuned-adm ".
Après avoir installé le système d'exploitation, nous passons à la partie suivante - la configuration des interfaces réseau sur les hôtes et la pile de commutateurs Cisco 2960X.
Configuration de la pile de commutateurs Cisco 2960X
Notre projet utilisera les nombres suivants de VLAN - ou domaines de diffusion isolés les uns des autres, afin de séparer différents types de trafic:
VLAN 10 - Internet
VLAN 17 - Gestion (iDRAC, stockage, gestion des commutateurs)
VLAN 32 - Réseau de production de VM
VLAN 33 - réseau d'interconnexion (à des sous-traitants externes)
VLAN 34 - Réseau de test VM
VLAN 35 - Réseau de développeurs VM
VLAN 40 - Réseau de surveillance
Avant de commencer les travaux, nous présentons un schéma au niveau L2, auquel nous devrions enfin arriver:

Pour l'interaction réseau entre les hôtes oVirt et les machines virtuelles entre eux, ainsi que pour gérer notre stockage, vous devez configurer la pile de commutateurs Cisco 2960X.
Les hôtes Dell ont des cartes réseau à 4 ports intégrées, il est donc conseillé d'organiser leur connexion au Cisco 2960X à l'aide d'une connexion réseau à tolérance de pannes, en utilisant le regroupement des ports réseau physiques dans une interface logique et le protocole LACP (802.3ad):
- les deux premiers ports de l'hôte sont configurés en mode de liaison et connectés au commutateur 2960X - sur cette interface logique, un pont avec une adresse pour gérer l'hôte, la surveillance, la communication avec les autres hôtes du cluster oVirt sera configuré, il sera également utilisé pour la migration en direct des machines virtuelles;
- les deux seconds ports de l'hôte sont également configurés en mode liaison et connectés au 2960X - sur cette interface logique utilisant oVirt, des ponts ultérieurs seront créés (dans les VLAN correspondants) auxquels les machines virtuelles seront connectées.
- les deux ports réseau, au sein de la même interface logique, seront actifs, c'est-à -dire Le trafic sur eux peut être transmis simultanément, en mode d'équilibrage.
- les paramètres réseau sur les nœuds du cluster doivent être absolument identiques, à l'exception des adresses IP.
Configuration de base de la pile de commutateurs 2960X et de ses ports
Auparavant, nos commutateurs devaient ĂŞtre:
- monté dans un rack;
- connectés par deux câbles spéciaux de la longueur souhaitée, par exemple CAB-STK-E-1M;
- connecté à l'alimentation;
- connecté au poste de travail de l'administrateur via le port console, pour leur configuration initiale.
Les conseils nécessaires à cet effet sont disponibles sur la page officielle du fabricant.
Après avoir effectué les étapes ci-dessus, configurez les commutateurs.
Ce que signifie chaque équipe n'est pas censé être décrypté dans le cadre de cet article; si nécessaire, toutes les informations peuvent être trouvées indépendamment.
Notre objectif est de configurer la pile de commutateurs le plus rapidement possible et d'y connecter les hĂ´tes et les interfaces de gestion du stockage.
1) Connectez-vous au commutateur principal, passez en mode privilégié, puis passez en mode de configuration et effectuez les réglages de base.
Configuration de commutation de base: enable configure terminal hostname 2960X no service pad service timestamps debug datetime msec service timestamps log datetime localtime show-timezone msec no service password-encryption service sequence-numbers switch 1 priority 15 switch 2 priority 14 stack-mac persistent timer 0 clock timezone MSK 3 vtp mode transparent ip subnet-zero vlan 17 name Management vlan 32 name PROD vlan 33 name Interconnect vlan 34 name Test vlan 35 name Dev vlan 40 name Monitoring spanning-tree mode rapid-pvst spanning-tree etherchannel guard misconfig spanning-tree portfast bpduguard default spanning-tree extend system-id spanning-tree vlan 1-40 root primary spanning-tree loopguard default vlan internal allocation policy ascending port-channel load-balance src-dst-ip errdisable recovery cause loopback errdisable recovery cause bpduguard errdisable recovery interval 60 line con 0 session-timeout 60 exec-timeout 60 0 logging synchronous line vty 5 15 session-timeout 60 exec-timeout 60 0 logging synchronous ip http server ip http secure-server no vstack interface Vlan1 no ip address shutdown exit
Nous enregistrons la configuration avec la commande wr mem et rechargeons la pile de commutateurs avec la commande reload sur le commutateur principal 1.
2) Configurez les ports réseau du commutateur en mode d'accès dans VLAN 17, pour connecter les interfaces de gestion des serveurs de stockage et iDRAC.
Paramètres du port de gestion: interface GigabitEthernet1/0/5 description iDRAC - host1 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet1/0/6 description Storage1 - Cntr0/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/5 description iDRAC - host2 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/6 description Storage1 – Cntr1/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge exit
3) Après avoir redémarré la pile, vérifiez qu'elle fonctionne correctement:
Vérification du fonctionnement de la pile: 2960X#show switch stack-ring speed Stack Ring Speed : 20G Stack Ring Configuration: Full Stack Ring Protocol : FlexStack 2960X#show switch stack-ports Switch # Port 1 Port 2 -------- ------ ------ 1 Ok Ok 2 Ok Ok 2960X#show switch neighbors Switch # Port 1 Port 2 -------- ------ ------ 1 2 2 2 1 1 2960X#show switch detail Switch/Stack Mac Address : 0cd0.f8e4. Mac persistency wait time: Indefinite H/W Current Switch# Role Mac Address Priority Version State ---------------------------------------------------------- *1 Master 0cd0.f8e4. 15 4 Ready 2 Member 0029.c251. 14 4 Ready Stack Port Status Neighbors Switch# Port 1 Port 2 Port 1 Port 2 -------------------------------------------------------- 1 Ok Ok 2 2 2 Ok Ok 1 1
4) Configuration de l'accès SSH à la pile 2960X
Pour la gestion à distance de la pile via SSH, nous utiliserons IP 172.20.1.10 configuré sur SVI (switch virtual interface) VLAN17 .
Bien qu'à des fins de gestion, il est conseillé d'utiliser un port dédié spécial sur le commutateur, mais c'est une question de préférence personnelle et d'opportunité.
Configuration de l'accès SSH à la pile de commutateurs: ip default-gateway 172.20.1.2 interface vlan 17 ip address 172.20.1.10 255.255.255.0 hostname 2960X ip domain-name hw.home-lab.ru no ip domain-lookup clock set 12:47:04 06 Dec 2019 crypto key generate rsa ip ssh version 2 ip ssh time-out 90 line vty 0 4 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh line vty 5 15 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh aaa new-model aaa authentication login default local username cisco privilege 15 secret my_ssh_password
Configurez un mot de passe pour entrer en mode privilégié:
enable secret *myenablepassword* service password-encryption
Configurer NTP:
ntp server 85.21.78.8 prefer ntp server 89.221.207.113 ntp server 185.22.60.71 ntp server 192.36.143.130 ntp server 185.209.85.222 show ntp status show ntp associations show clock detail
5) Configurez les interfaces logiques Etherchannel et les ports physiques connectés aux hôtes. Pour faciliter la configuration, tous les VLAN disponibles seront autorisés sur toutes les interfaces logiques, mais il est généralement recommandé de configurer uniquement ce dont vous avez besoin:
Configurer les interfaces Etherchannel: interface Port-channel1 description EtherChannel with Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel2 description EtherChannel with Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel3 description EtherChannel with Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel4 description EtherChannel with Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface GigabitEthernet1/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet1/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet1/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet1/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active interface GigabitEthernet2/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet2/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet2/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet2/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active
Configuration initiale des interfaces réseau pour les machines virtuelles sur Host1 et Host2
Nous vérifions la disponibilité des modules nécessaires au collage dans le système, installons le module de gestion des ponts:
modinfo bonding modinfo 8021q yum install bridge-utils
Configuration de l'interface logique BOND1 pour les machines virtuelles sur les hĂ´tes et ses interfaces physiques: cat /etc/sysconfig/network-scripts/ifcfg-bond1 #DESCRIPTION - management DEVICE=bond1 NAME=bond1 TYPE=Bond IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em2 #DESCRIPTION - management DEVICE=em2 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em3 #DESCRIPTION - management DEVICE=em3 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no
Après avoir terminé les réglages sur la pile et les hôtes 2960X , nous redémarrons le réseau sur les hôtes et vérifions l'interface logique.
systemctl restart network cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2+3 (2) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 ... 802.3ad info LACP rate: fast Min links: 0 Aggregator selection policy (ad_select): stable System priority: 65535 ... Slave Interface: em2 MII Status: up Speed: 1000 Mbps Duplex: full ... Slave Interface: em3 MII Status: up Speed: 1000 Mbps Duplex: full
- sur la pile de commutateurs 2960X :
2960X#show lacp internal Flags: S - Device is requesting Slow LACPDUs F - Device is requesting Fast LACPDUs A - Device is in Active mode P - Device is in Passive mode Channel group 1 LACP port Admin Oper Port Port Port Flags State Priority Key Key Number State Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D 2960X#sh etherchannel summary Flags: D - down P - bundled in port-channel I - stand-alone s - suspended H - Hot-standby (LACP only) R - Layer3 S - Layer2 U - in use N - not in use, no aggregation f - failed to allocate aggregator M - not in use, minimum links not met m - not in use, port not aggregated due to minimum links not met u - unsuitable for bundling w - waiting to be aggregated d - default port A - formed by Auto LAG Number of channel-groups in use: 11 Number of aggregators: 11 Group Port-channel Protocol Ports ------+-------------+-----------+----------------------------------------------- 1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P)
Configuration initiale des interfaces réseau pour la gestion des ressources de cluster sur Host1 et Host2
Configuration de l'interface logique BOND1 pour la gestion et ses interfaces physiques sur les hĂ´tes: cat /etc/sysconfig/network-scripts/ifcfg-bond0 #DESCRIPTION - management DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em0 #DESCRIPTION - management DEVICE=em0 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em1 #DESCRIPTION - management DEVICE=em1 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no
Après avoir terminé les réglages sur la pile et les hôtes 2960X , nous redémarrons le réseau sur les hôtes et vérifions l'interface logique.
systemctl restart network cat /proc/net/bonding/bond1 2960X#show lacp internal 2960X#sh etherchannel summary
Nous configurons l'interface réseau de contrôle sur chaque hôte du VLAN 17 et la lions à l'interface logique BOND1:
Configuration de VLAN17 sur Host1: cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.163 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public
Configuration de VLAN17 sur Host2: cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.164 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public
Nous redémarrons le réseau sur les hôtes et vérifions leur visibilité entre eux.
Ceci termine la configuration de la pile de commutateurs Cisco 2960X, et si tout a été fait correctement, nous avons maintenant une connexion réseau de tous les éléments d'infrastructure les uns aux autres au niveau L2.
Configurer le stockage Dell MD3820f
Avant de commencer les travaux de configuration du système de stockage, il doit déjà être connecté à la pile de commutateurs Cisco 2960X par les interfaces de gestion, ainsi qu'aux hôtes Host1 et Host2 via FC.
Le schéma général de la façon dont le stockage doit être connecté à la pile de commutateurs a été donné dans le chapitre précédent.
Le schéma de connexion du stockage sur FC aux hôtes devrait ressembler à ceci:

Pendant la connexion, il est nécessaire d'enregistrer les adresses WWPN pour les hôtes HBA FC connectés aux ports FC du système de stockage - cela sera nécessaire pour la configuration ultérieure de la liaison des hôtes aux LUN sur le système de stockage.
Sur le poste de travail de l'administrateur, téléchargez et installez l'utilitaire de gestion du stockage Dell MD3820f - PowerVault Modular Disk Storage Manager ( MDSM ).
Nous nous y connectons via ses adresses IP par défaut, puis configurons nos adresses à partir de VLAN17 pour contrôler les contrôleurs via TCP / IP:
Stockage1 :
ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2 ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2
Après avoir défini les adresses, accédez à l'interface de gestion du stockage et définissez un mot de passe, définissez l'heure, mettez à jour le micrologiciel des contrôleurs et des disques, si nécessaire, etc.
La procédure à suivre est décrite dans le guide d'administration du stockage.
Après avoir terminé les paramètres ci-dessus, nous devrons effectuer quelques actions:
- Configurez les identificateurs FC hĂ´te .
- Créez un groupe d'hôtes - Groupe d' hôtes et ajoutez-y nos deux hôtes Dell.
- Créez-y un groupe de disques et des disques virtuels (ou LUN) qui seront présentés aux hôtes.
- Configurez la présentation des disques virtuels (ou LUN) pour les hôtes.
L'ajout de nouveaux hôtes et la liaison des identifiants des ports FC hôtes se fait via le menu - Mappages d'hôtes -> Définir -> Hôtes ...
Les adresses WWPN des hôtes FC HBA peuvent être trouvées, par exemple, sur un serveur iDRAC.
En conséquence, nous devrions obtenir quelque chose comme ceci:

L'ajout d'un nouveau groupe d'hĂ´tes et la liaison d'hĂ´tes Ă celui-ci se fait via le menu - Host Mappings -> Define -> Host Group ...
Pour les hôtes, sélectionnez le type de système d'exploitation - Linux (DM-MP) .
Après avoir créé le groupe d'hôtes, via l'onglet Storage & Copy Services , créez un groupe de disques - Disk Group , dont le type dépend des exigences de tolérance aux pannes, par exemple, RAID10, et des disques virtuels de la bonne taille:

Et enfin, la dernière étape est la présentation des disques virtuels (ou LUN) pour les hôtes.
Pour ce faire, via le menu - Mappages d'hôtes -> Mappage lunaire -> Ajouter ... nous faisons la liaison des disques virtuels aux hôtes, en leur attribuant des numéros.
Tout devrait se passer comme dans cette capture d'écran:

Nous en avons terminé avec la configuration des systèmes de stockage, et si tout a été fait correctement, les hôtes devraient voir les LUN qui leur sont présentés via leurs HBA FC.
Demandez au système de mettre à jour les informations sur les lecteurs mappés:
ls -la /sys/class/scsi_host/ echo "- - -" > /sys/class/scsi_host/host[0-9]/scan
Voyons quels appareils sont visibles sur nos serveurs: cat /proc/scsi/scsi Attached devices: Host: scsi0 Channel: 02 Id: 00 Lun: 00 Vendor: DELL Model: PERC H330 Mini Rev: 4.29 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 lsscsi [0:2:0:0] disk DELL PERC H330 Mini 4.29 /dev/sda [15:0:0:0] disk DELL MD38xxf 0825 - [15:0:0:1] disk DELL MD38xxf 0825 /dev/sdb [15:0:0:4] disk DELL MD38xxf 0825 /dev/sdc [15:0:0:11] disk DELL MD38xxf 0825 /dev/sdd [15:0:0:31] disk DELL Universal Xport 0825 - [18:0:0:0] disk DELL MD38xxf 0825 - [18:0:0:1] disk DELL MD38xxf 0825 /dev/sdi [18:0:0:4] disk DELL MD38xxf 0825 /dev/sdj [18:0:0:11] disk DELL MD38xxf 0825 /dev/sdk [18:0:0:31] disk DELL Universal Xport 0825 -
Vous pouvez également configurer le multichemin sur les hôtes, et bien que lors de l'installation de oVirt, il puisse le faire lui-même, il est préférable de vérifier le MP par vous-même à l'avance.
Installer et configurer DM Multipath
yum install device-mapper-multipath mpathconf --enable --user_friendly_names y cat /etc/multipath.conf | egrep -v "^\s*(#|$)" defaults { user_friendly_names yes find_multipaths yes } blacklist { wwid 26353900f02796769 devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^hd[az]" }
Installez le service MP en démarrage automatique et exécutez-le:
systemctl enable multipathd && systemctl restart multipathd
Vérification des informations sur les modules chargés pour le fonctionnement MP: lsmod | grep dm_multipath dm_multipath 27792 6 dm_service_time dm_mod 124407 139 dm_multipath,dm_log,dm_mirror modinfo dm_multipath filename: /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz license: GPL author: Sistina Software <dm-devel@redhat.com> description: device-mapper multipath target retpoline: Y rhelversion: 7.6 srcversion: 985A03DCAF053D4910E53EE depends: dm-mod intree: Y vermagic: 3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions signer: CentOS Linux kernel signing key sig_key: A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45 sig_hashalgo: sha256
Voir le résumé de la configuration multichemin existante:
mpathconf multipath is enabled find_multipaths is disabled user_friendly_names is disabled dm_multipath module is loaded multipathd is running
Après avoir ajouté un nouveau LUN au stockage et l'avoir présenté à l'hôte, il est nécessaire de le scanner connecté à l'hôte HBA.
systemctl reload multipathd multipath -v2
Et enfin, nous vérifions si tous les LUN ont été présentés sur le stockage pour les hôtes, et si tous ont deux chemins.
Vérifier le fonctionnement du MP: multipath -ll 3600a098000e4b4b3000003175cec1840 dm-2 DELL ,MD38xxf size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:1 sdb 8:16 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:1 sdi 8:128 active ready running 3600a098000e4b48f000002ab5cec1921 dm-6 DELL ,MD38xxf size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 18:0:0:11 sdk 8:160 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 15:0:0:11 sdd 8:48 active ready running 3600a098000e4b4b3000003c95d171065 dm-3 DELL ,MD38xxf size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:4 sdc 8:32 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:4 sdj 8:144 active ready running
Comme vous pouvez le voir, les trois disques virtuels du système de stockage sont visibles de deux manières. Ainsi, tous les travaux préparatoires ont été achevés, ce qui signifie que nous pouvons passer à la partie principale - la mise en place du cluster oVirt, qui sera discutée dans le prochain article.