إنشاء بنية تحتية لتكنولوجيا المعلومات تتحمل الأخطاء. الجزء 1 - التحضير لنشر مجموعة 4.3 vVirt

القراء مدعوون إلى التعرف على مبادئ إنشاء بنية تحتية متسامحة مع الأخطاء في مؤسسة صغيرة داخل مركز بيانات واحد ، والتي سيتم فحصها بالتفصيل في سلسلة قصيرة من المقالات.


بادرة


تحت DPC (مركز معالجة البيانات) يمكن فهمه:


  • رف خاص في "غرفة الخوادم" على أراضي المؤسسة التي تلبي الحد الأدنى من المتطلبات لتوفير معدات الطاقة والتبريد ، وكذلك الوصول إلى الإنترنت من خلال اثنين من مقدمي الخدمات المستقلين ؛
  • رف مستأجر مع معداته الخاصة الموجودة في مركز البيانات هذا - ما يسمى التجميع ، الذي يتوافق مع معيار المستوى الثالث أو الرابع ، والذي يضمن موثوق إمدادات الطاقة والتبريد ويوفر الوصول إلى الإنترنت تتسامح مع الأعطال ؛
  • المعدات المؤجرة بالكامل في مركز بيانات المستوى الثالث أو الرابع.

أي خيار من أماكن الإقامة يختار - في كل حالة ، كل شيء فردي ، وعادة ما يعتمد على عدة عوامل رئيسية:


  • لماذا تمتلك المؤسسة بنية تحتية لتكنولوجيا المعلومات الخاصة بها؟
  • ما الذي تريده المؤسسة بالضبط من البنية التحتية لتكنولوجيا المعلومات (الموثوقية ، التدرجية ، الإدارة ، إلخ) ؛
  • مقدار الاستثمار الأولي في البنية التحتية لتكنولوجيا المعلومات ، وأي نوع من التكاليف هو - رأس المال (مما يعني شراء المعدات الخاصة بك) ، أو التشغيل (عادة ما يتم استئجار المعدات) ؛
  • أفق التخطيط للمشروع نفسه.

يمكن كتابة الكثير عن العوامل التي تؤثر على قرار المؤسسة بإنشاء واستخدام البنية التحتية لتكنولوجيا المعلومات الخاصة بها ، ولكن هدفنا هو أن نوضح في الممارسة العملية كيفية إنشاء هذه البنية التحتية بحيث تكون متسامحة مع الأخطاء ، وسيكون من الممكن توفير المال - تقليل تكلفة الحصول على البرامج التجارية ، أو حتى تجنبها.


كما تظهر الممارسة الطويلة ، لا يستحق التوفير على الأجهزة ، حيث أن الأذى يدفع مرتين ، بل وأكثر من ذلك بكثير. ولكن مرة أخرى - إنها أجهزة جيدة ، إنها مجرد توصية ، وفي النهاية ما يجب عليك شراؤه بالضبط والمدى الذي يعتمد على قدرات المؤسسة ، و "الجشع" في إدارتها. علاوة على ذلك ، ينبغي فهم كلمة "الجشع" بمعنى جيد للكلمة ، لأنه من الأفضل الاستثمار في الحديد في المرحلة الأولية ، بحيث لا توجد في وقت لاحق أية مشاكل خطيرة في دعمها وتوسيع نطاقها ، لأن التخطيط غير الصحيح في البداية والادخار المفرط يمكن أن يؤدي إلى المستقبل أغلى من عند بدء المشروع.


لذلك ، البيانات الأولية للمشروع:


  • هناك مؤسسة قررت إنشاء بوابة الويب الخاصة بها ووضع أنشطتها على الإنترنت ؛
  • قررت الشركة استئجار رف لوضع معداتها في مركز بيانات جيد معتمد وفقًا لمعيار Tier III ؛
  • قررت الشركة عدم توفير الكثير على الأجهزة ، وبالتالي اشترت المعدات التالية مع ضمانات ودعم موسعين:

قائمة المعدات
  • خادمان فعليان من Dell PowerEdge R640 كما يلي:
  • معالجات Intel Xeon Gold 5120
  • 512 جيجابايت من ذاكرة الوصول العشوائي
  • قرصين SAS في RAID1 ، لتثبيت نظام التشغيل
  • المدمج في بطاقة شبكة 1G 4 منافذ
  • بطاقتي شبكة 10G 2 الميناء
  • واحد 2 ميناء FC HBA 16G.
  • نظام تخزين من وحدتي تحكم Dell MD3820f ، متصل عبر FC 16G مباشرة بمضيفي Dell ؛
  • مفتاحان من المستوى الثاني - Cisco WS-C2960RX-48FPS-L مكدسة ؛
  • مفتاحان من الطبقة الثالثة - Cisco WS-C3850-24T-E ، مكدسة ؛
  • رف ، UPS ، PDU ، خوادم وحدة التحكم - مقدمة من مركز البيانات.


كما نرى ، تتمتع المعدات الحالية بفرص جيدة للتوسع الأفقي والرأسي ، إذا كانت الشركة قادرة على التنافس مع شركات أخرى ذات ملف تعريف مماثل على الإنترنت ، وبدأت في جني الأرباح التي يمكن استثمارها في توسيع الموارد لزيادة المنافسة وزيادة نمو الأرباح.


ما المعدات التي يمكن أن نضيفها إذا قررت المؤسسة زيادة أداء نظام الحوسبة الخاص بنا:


  • لدينا احتياطي كبير لعدد المنافذ على مفاتيح 2960X ، مما يعني أنه يمكنك إضافة المزيد من خوادم الأجهزة ؛
  • شراء اثنين من مفاتيح FC للاتصال أنظمة التخزين والخوادم الإضافية لهم ؛
  • يمكن ترقية الخوادم الموجودة بالفعل - إضافة ذاكرة ، واستبدال المعالجات بأخرى أكثر كفاءة ، وتوصيل محولات الشبكة الحالية بشبكة 10G ؛
  • يمكنك إضافة أرفف أقراص إضافية إلى وحدة التخزين باستخدام نوع الأقراص الضروري - SAS أو SATA أو SSD ، اعتمادًا على الحمل المخطط ؛
  • بعد إضافة مفاتيح تبديل FC ، يمكنك شراء نظام تخزين آخر لإضافة المزيد من سعة القرص ، وإذا قمت بشراء خيار النسخ المتماثل البعيد الخاص به ، فيمكنك تكوين النسخ المتماثل للبيانات بين أنظمة التخزين داخل نفس مركز البيانات وبين مراكز البيانات (ولكن هذا يتجاوز بالفعل نطاق المقال) ؛
  • هناك أيضًا محولات من المستوى الثالث - Cisco 3850 ، والتي يمكن استخدامها كنواة تتسامح مع الأعطال في الشبكة لتوجيه عالي السرعة بين الشبكات الداخلية. هذا سوف يساعد كثيرا في المستقبل ، مع نمو البنية التحتية الداخلية. يحتوي 3850 أيضًا على منافذ 10G يمكن تنشيطها لاحقًا عند ترقية معدات الشبكة إلى 10G.

بما أنه لا يوجد الآن أي مكان بدون المحاكاة الافتراضية ، فبالتأكيد سنكون في الاتجاه ، وكل هذا يمثل طريقة رائعة لتقليل تكلفة شراء خوادم باهظة الثمن لعناصر بنية أساسية معينة (خوادم الويب وقواعد البيانات وما إلى ذلك) ، والتي ليست دائمًا مثالية المستخدمة في حالة انخفاض الحمل ، وهذا هو بالضبط ما سيكون في بداية إطلاق المشروع.


بالإضافة إلى ذلك ، تتميز المحاكاة الافتراضية بالعديد من المزايا الأخرى التي قد تكون مفيدة للغاية بالنسبة لنا: التسامح مع الأعطال VM من فشل خادم الأجهزة ، الترحيل المباشر بين عقد الأجهزة من الكتلة لصيانتها ، موازنة التحميل اليدوي أو التلقائي بين عقد نظام المجموعة ، إلخ.


بالنسبة للأجهزة التي حصلت عليها المؤسسة ، يوحي نشر مجموعة VMware vSphere التي يمكن الوصول إليها بشكل كبير ، ولكن نظرًا لأن أي برنامج من VMware معروف بعلامات سعر ظهور الخيل الخاصة به ، فإننا سوف نستخدم برنامج إدارة المحاكاة الافتراضية المجاني تمامًا - oVirt ، على أساسه برنامج معروف جيدًا ولكن المنتج التجاري بالفعل - RHEV .


يعد برنامج oVirt ضروريًا للجمع بين جميع عناصر البنية الأساسية معًا حتى تتمكن من العمل بشكل مريح مع الأجهزة الظاهرية التي يمكن الوصول إليها بشكل كبير - مثل قواعد البيانات وتطبيقات الويب والوكلاء والموازنات والخوادم لجمع السجلات والتحليلات ، إلخ. n. ، وهذا هو ، ما تتكون منه البوابة الإلكترونية لمؤسستنا.


في ما يلي ملخص لهذه المقدمة ، تنتظرنا المقالات التالية ، والتي ستوضح في الممارسة العملية كيفية نشر البنية الأساسية للأجهزة والبرامج بالكامل للشركة:


قائمة المواد
  • الجزء 1. التحضير لنشر الكتلة vVirt 4.3.
  • الجزء 2. تثبيت وتكوين الكتلة vVirt 4.3.
  • الجزء 3. تنظيم التوجيه المتسامحة مع الأخطاء على أجهزة التوجيه الافتراضية VyOS.
  • الجزء 4. تكوين مكدس Cisco 3850 ، وتنظيم توجيه الإنترانت.

الجزء 1. التحضير لنشر مجموعة 4.3 vVirt


التكوين المضيف الأساسي


يعد تثبيت نظام التشغيل وتكوينه أسهل الخطوات. هناك الكثير من المقالات حول كيفية تثبيت نظام التشغيل وتكوينه بشكل صحيح ، لذلك لا معنى لمحاولة إعطاء شيء حصري حول هذا.


لذلك ، لدينا مضيفان PowerEdge R640 من Dell ، تحتاج إليهما تثبيت نظام التشغيل وإجراء التكوينات المسبقة ، لاستخدامهما كمراقبين لتشغيل أجهزة افتراضية في نظام مجموعة oVirt 4.3.


نظرًا لأننا نعتزم استخدام البرنامج المجاني غير التجاري على vVirt ، فقد تم اختيار CentOS 7.7 لنشر المضيفين ، على الرغم من أنه يمكن أيضًا تثبيت أنظمة تشغيل أخرى على المضيفين لـ oVirt:


  • بناء خاص على أساس RHEL ، ما يسمى العقدة
  • OS Oracle Linux ، في صيف عام 2019 ، تم الإعلان عن دعم تشغيل vVirt عليه.

قبل تثبيت نظام التشغيل ، يوصى بما يلي:


  • قم بتكوين واجهة شبكة iDRAC على كلا المضيفين
  • تحديث البرامج الثابتة لنظام BIOS و iDRAC إلى أحدث الإصدارات ؛
  • من المستحسن تكوين خادم "ملف تعريف النظام" في وضع الأداء ؛
  • قم بتكوين RAID من الأقراص المحلية (يوصى بـ RAID1) لتثبيت نظام التشغيل على الخادم.

ثم نقوم بتثبيت نظام التشغيل على القرص الذي تم إنشاؤه مسبقًا عبر iDRAC - عملية التثبيت طبيعية ، ولا توجد لحظات خاصة فيه. يمكن أيضًا الوصول إلى وحدة تحكم الخادم لبدء تثبيت نظام التشغيل من خلال iDRAC ، على الرغم من أنه لا يوجد ما يمنعك من توصيل الشاشة ولوحة المفاتيح والماوس بالملقم مباشرة وتثبيت نظام التشغيل من محرك أقراص فلاش.


بعد تثبيت نظام التشغيل ، قم بإجراء إعداداته الأولية:


systemctl enable network.service systemctl start network.service systemctl status network.service 

 systemctl stop NetworkManager systemctl disable NetworkManager systemctl status NetworkManager 

 yum install -y ntp systemctl enable ntpd.service systemctl start ntpd.service 

 cat /etc/sysconfig/selinux SELINUX=disabled SELINUXTYPE=targeted 

 cat /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536 

 cat /etc/sysctl.conf vm.max_map_count = 262144 vm.swappiness = 1 

قم بتثبيت المجموعة الأساسية من البرنامج


لإعداد نظام التشغيل الأولي ، تحتاج إلى تكوين أي واجهة شبكة على الخادم بحيث يمكنك الوصول إلى الإنترنت ، لتحديث نظام التشغيل وتثبيت حزم البرامج اللازمة. يمكن القيام بذلك أثناء تثبيت نظام التشغيل وبعده.


 yum -y install epel-release yum update yum -y install bind-utils yum-utils net-tools git htop iotop nmon pciutils sysfsutils sysstat mc nc rsync wget traceroute gzip unzip telnet 

جميع الإعدادات المذكورة أعلاه ومجموعة من البرامج هي مسألة تفضيل شخصي ، وهذه المجموعة هي مجرد توصية.


نظرًا لأن مضيفنا سيلعب دور برنامج hypervisor ، فسنقوم بتمكين ملف تعريف الأداء المطلوب:


 systemctl enable tuned systemctl start tuned systemctl status tuned 

 tuned-adm profile tuned-adm profile virtual-host 

يمكنك قراءة المزيد حول ملف تعريف الأداء هنا: " الفصل 4. ضبطها وضبطها ".


بعد تثبيت نظام التشغيل ، ننتقل إلى الجزء التالي - تكوين واجهات الشبكة على المضيفين ، ومجموعة تبديل Cisco 2960X.


توصيف Cisco 2960X Switch Stack


سيستخدم مشروعنا الأرقام التالية من شبكات VLAN - أو مجالات البث المعزولة عن بعضها البعض ، لفصل أنواع مختلفة من حركة المرور:


شبكة محلية ظاهرية 10 - الإنترنت
VLAN 17 - الإدارة (iDRAC ، التخزين ، إدارة المفاتيح)
VLAN 32 - شبكة إنتاج VM
VLAN 33 - شبكة ربط (للمقاولين الخارجيين)
VLAN 34 - شبكة اختبار VM
VLAN 35 - شبكة مطور VM
VLAN 40 - شبكة الرصد


قبل بدء العمل ، نقدم مخططًا على مستوى L2 ، والذي يجب أن نصل إليه في النهاية:



لتفاعل الشبكة بين مضيفي oVirt والأجهزة الظاهرية مع بعضهم البعض ، وكذلك لإدارة التخزين لدينا ، تحتاج إلى تكوين مكدس المحول Cisco 2960X.


يحتوي مضيفو Dell على بطاقات شبكة مدمجة بأربعة منافذ ، لذلك ، يُنصح بتنظيم اتصالهم مع Cisco 2960X باستخدام اتصال شبكة يتحمل الأخطاء ، باستخدام تجميع منافذ الشبكة الفعلية في واجهة منطقية وبروتوكول LACP (802.3ad):


  • تم تكوين أول منفذين على المضيف في وضع الترابط ومتصلين بمحول 2960X - على هذه الواجهة المنطقية ، سيتم تكوين جسر مع عنوان لإدارة المضيف ، والرصد ، والتواصل مع المضيفين الآخرين في مجموعة oVirt ، كما سيتم استخدامه للانتقال المباشر للأجهزة الافتراضية ؛
  • يتم أيضًا تكوين المنفذين الثانيين على المضيف في وضع الترابط ومتصلين بـ 2960X - على هذه الواجهة المنطقية باستخدام oVirt ، سيتم إنشاء جسور لاحقة (في شبكات VLAN المقابلة) التي سيتم توصيل الأجهزة الافتراضية بها.
  • سيكون كلا منفذي الشبكة ، داخل نفس الواجهة المنطقية ، نشطين ، أي يمكن أن تنتقل حركة المرور عليها في وقت واحد ، في وضع التوازن.
  • يجب أن تكون إعدادات الشبكة على عقد الكتلة على الإطلاق ، باستثناء عناوين IP.

التكوين الأساسي لمكبس المحول 2960X ومنافذه


في السابق ، يجب أن تكون مفاتيحنا:


  • شنت في رف.
  • متصلة بواسطة كبلين خاصين من الطول المطلوب ، على سبيل المثال ، CAB-STK-E-1M ؛
  • متصلا امدادات الطاقة.
  • متصلاً بمحطة عمل المسؤول من خلال منفذ وحدة التحكم ، لتكوينها الأولي.

الإرشادات اللازمة لذلك متوفرة على صفحة الشركة المصنعة الرسمية .


بعد تنفيذ الخطوات المذكورة أعلاه ، قم بتكوين المفاتيح.
ما يفترض أن يعنيه كل فريق هو أن يتم فك تشفيره في إطار هذه المقالة ؛ إذا لزم الأمر ، يمكن العثور على جميع المعلومات بشكل مستقل.
هدفنا هو تكوين مكدس التبديل في أسرع وقت ممكن وتوصيل المضيفين واجهات إدارة التخزين به.


1) اتصل بالمفتاح الرئيسي ، وانتقل إلى الوضع المميز ، ثم انتقل إلى وضع التكوين وقم بإجراء الإعدادات الأساسية.


التكوين التبديل الأساسية:
  enable configure terminal hostname 2960X no service pad service timestamps debug datetime msec service timestamps log datetime localtime show-timezone msec no service password-encryption service sequence-numbers switch 1 priority 15 switch 2 priority 14 stack-mac persistent timer 0 clock timezone MSK 3 vtp mode transparent ip subnet-zero vlan 17 name Management vlan 32 name PROD vlan 33 name Interconnect vlan 34 name Test vlan 35 name Dev vlan 40 name Monitoring spanning-tree mode rapid-pvst spanning-tree etherchannel guard misconfig spanning-tree portfast bpduguard default spanning-tree extend system-id spanning-tree vlan 1-40 root primary spanning-tree loopguard default vlan internal allocation policy ascending port-channel load-balance src-dst-ip errdisable recovery cause loopback errdisable recovery cause bpduguard errdisable recovery interval 60 line con 0 session-timeout 60 exec-timeout 60 0 logging synchronous line vty 5 15 session-timeout 60 exec-timeout 60 0 logging synchronous ip http server ip http secure-server no vstack interface Vlan1 no ip address shutdown exit 

نقوم بحفظ التكوين باستخدام الأمر wr mem وإعادة تحميل مكدس التبديل بأمر reload على المفتاح الرئيسي 1.


2) قم بتكوين منافذ الشبكة للمحول في وضع الوصول في VLAN 17 ، لتوصيل واجهات إدارة التخزين وخوادم iDRAC.


إعدادات منفذ الإدارة:
 interface GigabitEthernet1/0/5 description iDRAC - host1 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet1/0/6 description Storage1 - Cntr0/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/5 description iDRAC - host2 switchport access vlan 17 switchport mode access spanning-tree portfast edge interface GigabitEthernet2/0/6 description Storage1 – Cntr1/Eth0 switchport access vlan 17 switchport mode access spanning-tree portfast edge exit 

3) بعد إعادة تشغيل المكدس ، تحقق من أنه يعمل بشكل صحيح:


التحقق من عمل المكدس:
 2960X#show switch stack-ring speed Stack Ring Speed : 20G Stack Ring Configuration: Full Stack Ring Protocol : FlexStack 2960X#show switch stack-ports Switch # Port 1 Port 2 -------- ------ ------ 1 Ok Ok 2 Ok Ok 2960X#show switch neighbors Switch # Port 1 Port 2 -------- ------ ------ 1 2 2 2 1 1 2960X#show switch detail Switch/Stack Mac Address : 0cd0.f8e4. Mac persistency wait time: Indefinite H/W Current Switch# Role Mac Address Priority Version State ---------------------------------------------------------- *1 Master 0cd0.f8e4. 15 4 Ready 2 Member 0029.c251. 14 4 Ready Stack Port Status Neighbors Switch# Port 1 Port 2 Port 1 Port 2 -------------------------------------------------------- 1 Ok Ok 2 2 2 Ok Ok 1 1 

4) تكوين SSH الوصول إلى المكدس 2960X


لإدارة المكدس عن بعد عبر SSH ، سنستخدم IP 172.20.1.10 الذي تم تكوينه على SVI (واجهة التبديل الافتراضية) VLAN17 .


على الرغم من أنه من المستحسن استخدام منفذ مخصص على المحول لأغراض الإدارة ، إلا أنها مسألة تفضيل شخصي وفرصة.


تكوين وصول SSH إلى مكدس التبديل:
 ip default-gateway 172.20.1.2 interface vlan 17 ip address 172.20.1.10 255.255.255.0 hostname 2960X ip domain-name hw.home-lab.ru no ip domain-lookup clock set 12:47:04 06 Dec 2019 crypto key generate rsa ip ssh version 2 ip ssh time-out 90 line vty 0 4 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh line vty 5 15 session-timeout 60 exec-timeout 60 0 privilege level 15 logging synchronous transport input ssh aaa new-model aaa authentication login default local username cisco privilege 15 secret my_ssh_password 

قم بتكوين كلمة مرور للدخول إلى الوضع المميز:


 enable secret *myenablepassword* service password-encryption 

تكوين NTP:


 ntp server 85.21.78.8 prefer ntp server 89.221.207.113 ntp server 185.22.60.71 ntp server 192.36.143.130 ntp server 185.209.85.222 show ntp status show ntp associations show clock detail 

5) تكوين واجهات Etherchannel المنطقية والمنافذ المادية المتصلة المضيفين. لسهولة التكوين ، سيتم السماح لجميع شبكات VLAN المتاحة على جميع الواجهات المنطقية ، ولكن يوصى عادة بتكوين ما تحتاج إليه فقط:


تكوين واجهات Etherchannel:
 interface Port-channel1 description EtherChannel with Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel2 description EtherChannel with Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel3 description EtherChannel with Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface Port-channel4 description EtherChannel with Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk spanning-tree portfast edge trunk interface GigabitEthernet1/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet1/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet1/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet1/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active interface GigabitEthernet2/0/1 description Host1-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 1 mode active interface GigabitEthernet2/0/2 description Host2-management switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 2 mode active interface GigabitEthernet2/0/3 description Host1-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 3 mode active interface GigabitEthernet2/0/4 description Host2-VM switchport trunk allowed vlan 10,17,30-40 switchport mode trunk channel-protocol lacp channel-group 4 mode active 

التكوين الأولي لواجهات الشبكة للأجهزة الافتراضية على Host1 و Host2


نتحقق من توفر الوحدات اللازمة للترابط في النظام ، ونثبت الوحدة النمطية لإدارة الجسور:


 modinfo bonding modinfo 8021q yum install bridge-utils 

تكوين الواجهة المنطقية BOND1 للأجهزة الافتراضية على الأجهزة المضيفة والواجهات المادية:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1 #DESCRIPTION - management DEVICE=bond1 NAME=bond1 TYPE=Bond IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em2 #DESCRIPTION - management DEVICE=em2 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em3 #DESCRIPTION - management DEVICE=em3 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond1 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

بعد الانتهاء من الإعدادات على المكدس والمضيفين 2960X ، نقوم بإعادة تشغيل الشبكة على المضيفين والتحقق من الواجهة المنطقية.


  • على المضيف:

 systemctl restart network cat /proc/net/bonding/bond1 Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2+3 (2) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 ... 802.3ad info LACP rate: fast Min links: 0 Aggregator selection policy (ad_select): stable System priority: 65535 ... Slave Interface: em2 MII Status: up Speed: 1000 Mbps Duplex: full ... Slave Interface: em3 MII Status: up Speed: 1000 Mbps Duplex: full 

  • على مكدس التبديل 2960X :

 2960X#show lacp internal Flags: S - Device is requesting Slow LACPDUs F - Device is requesting Fast LACPDUs A - Device is in Active mode P - Device is in Passive mode Channel group 1 LACP port Admin Oper Port Port Port Flags State Priority Key Key Number State Gi1/0/1 SA bndl 32768 0x1 0x1 0x102 0x3D Gi2/0/1 SA bndl 32768 0x1 0x1 0x202 0x3D 2960X#sh etherchannel summary Flags: D - down P - bundled in port-channel I - stand-alone s - suspended H - Hot-standby (LACP only) R - Layer3 S - Layer2 U - in use N - not in use, no aggregation f - failed to allocate aggregator M - not in use, minimum links not met m - not in use, port not aggregated due to minimum links not met u - unsuitable for bundling w - waiting to be aggregated d - default port A - formed by Auto LAG Number of channel-groups in use: 11 Number of aggregators: 11 Group Port-channel Protocol Ports ------+-------------+-----------+----------------------------------------------- 1 Po1(SU) LACP Gi1/0/1(P) Gi2/0/1(P) 

التكوين الأولي لواجهات الشبكة لإدارة موارد نظام المجموعة على Host1 و Host2


تكوين الواجهة المنطقية BOND1 للإدارة والواجهات المادية على المضيفين:
 cat /etc/sysconfig/network-scripts/ifcfg-bond0 #DESCRIPTION - management DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes IPV6INIT=no ONBOOT=yes USERCTL=no NM_CONTROLLED=no BOOTPROTO=none BONDING_OPTS='mode=4 lacp_rate=1 xmit_hash_policy=2' cat /etc/sysconfig/network-scripts/ifcfg-em0 #DESCRIPTION - management DEVICE=em0 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no cat /etc/sysconfig/network-scripts/ifcfg-em1 #DESCRIPTION - management DEVICE=em1 TYPE=Ethernet BOOTPROTO=none ONBOOT=yes MASTER=bond0 SLAVE=yes USERCTL=no NM_CONTROLLED=no 

بعد الانتهاء من الإعدادات على المكدس والمضيفين 2960X ، نقوم بإعادة تشغيل الشبكة على المضيفين والتحقق من الواجهة المنطقية.


 systemctl restart network cat /proc/net/bonding/bond1 2960X#show lacp internal 2960X#sh etherchannel summary 

نقوم بتهيئة واجهة شبكة التحكم على كل مضيف في VLAN 17 ، ونربطها بالواجهة المنطقية BOND1:


تكوين VLAN17 على Host1:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.163 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

تكوين VLAN17 على Host2:
 cat /etc/sysconfig/network-scripts/ifcfg-bond1.17 DEVICE=bond1.17 NAME=bond1-vlan17 BOOTPROTO=none ONBOOT=yes USERCTL=no NM_CONTROLLED=no VLAN=yes MTU=1500 IPV4_FAILURE_FATAL=yes IPV6INIT=no IPADDR=172.20.1.164 NETMASK=255.255.255.0 GATEWAY=172.20.1.2 DEFROUTE=yes DNS1=172.20.1.8 DNS2=172.20.1.9 ZONE=public 

نعيد تشغيل الشبكة على المضيفين ونتحقق من وضوحها فيما بينها.


يكمل هذا إعداد مكدس المحول Cisco 2960X ، وإذا كان كل شيء قد تم بشكل صحيح ، فلدينا الآن اتصال شبكة من جميع عناصر البنية الأساسية مع بعضها البعض على مستوى L2.


قم بتهيئة Dell MD3820f Storage


قبل بدء العمل على إعداد نظام التخزين ، يجب أن يكون متصلاً بالفعل بمجموعة المحولات Cisco 2960X بواسطة واجهات الإدارة ، وكذلك المضيفين Host1 و Host2 من خلال FC.


تم إعطاء المخطط العام لكيفية توصيل التخزين بمكدس التبديل في الفصل السابق.


يجب أن يبدو مخطط ربط التخزين على FC بالمضيفين كما يلي:



أثناء الاتصال ، من الضروري تسجيل عناوين WWPN لمضيفي FC HBA المتصلين بمنافذ FC على نظام التخزين - سيكون ذلك ضروريًا للتكوين اللاحق لربط المضيفين مع LUNs على نظام التخزين.


على محطة عمل المسؤول ، قم بتنزيل وتثبيت الأداة المساعدة لإدارة التخزين Dell MD3820f - PowerVault Modular Disk Storage Manager ( MDSM ).
نحن نتصل به من خلال عناوين IP الافتراضية الخاصة به ، ثم نقوم بتهيئة عناويننا من VLAN17 للتحكم في وحدات التحكم عبر TCP / IP:


التخزين 1 :


 ControllerA IP - 172.20.1.13, MASK - 255.255.255.0, Gateway - 172.20.1.2 ControllerB IP - 172.20.1.14, MASK - 255.255.255.0, Gateway - 172.20.1.2 

بعد تعيين العناوين ، انتقل إلى واجهة إدارة التخزين وتعيين كلمة مرور ، وضبط الوقت ، وتحديث البرنامج الثابت لوحدات التحكم والأقراص ، إذا لزم الأمر ، إلخ.
تم توضيح كيفية القيام بذلك في دليل إدارة التخزين.


بعد الانتهاء من الإعدادات المذكورة أعلاه ، سنحتاج إلى القيام ببعض الإجراءات فقط:


  1. تكوين معرفات FC المضيف .
  2. قم بإنشاء مجموعة مضيف - مجموعة مضيف وأضف مضيفينا من Dell إليها.
  3. قم بإنشاء مجموعة أقراص وأقراص افتراضية (أو LUNs) فيها ، وسيتم تقديمها إلى المضيفين.
  4. تكوين العرض التقديمي للأقراص الظاهرية (أو LUNs) للمضيفين.

تتم إضافة مضيفين جدد ومعرفات ربط لمنافذ FC المضيفة لهم من خلال القائمة - تعيينات المضيف -> تعريف -> المضيفين ...
يمكن العثور على عناوين WWPN لمضيفي FC HBA ، على سبيل المثال ، في خادم iDRAC.


نتيجة لذلك ، يجب أن نحصل على شيء مثل هذا:



تتم إضافة مجموعة مضيف جديدة ومضيفات ربط لها من خلال القائمة - تعيينات المضيف -> تعريف -> مضيف مجموعة ...
للمضيفين ، حدد نوع نظام التشغيل - Linux (DM-MP) .


بعد إنشاء المجموعة المضيفة ، من خلال علامة التبويب Storage & Copy Services ، قم بإنشاء مجموعة أقراص - Disk Group ، مع اعتماد النوع على متطلبات تحمل الأخطاء ، على سبيل المثال ، RAID10 ، وفيه الأقراص الافتراضية بالحجم الصحيح:



وأخيرًا ، تتمثل المرحلة الأخيرة في تقديم الأقراص الافتراضية (أو LUNs) للمضيفين.
للقيام بذلك ، من خلال القائمة - تعيينات المضيف -> تعيين Lun -> إضافة ... نجعل ربط الأقراص الافتراضية للمضيفين ، مع تخصيص أرقام لهم.


يجب أن يتحول كل شيء كما في لقطة الشاشة هذه:



لقد انتهينا من تكوين أنظمة التخزين ، وإذا كان كل شيء قد تم بشكل صحيح ، عندها يجب على المضيفين رؤية LUNs المقدمة لهم من خلال FC HBAs الخاصة بهم.
اجعل النظام يقوم بتحديث المعلومات الخاصة بمحركات الأقراص المعينة:


 ls -la /sys/class/scsi_host/ echo "- - -" > /sys/class/scsi_host/host[0-9]/scan 

لنرى أي الأجهزة مرئية على خوادمنا:
 cat /proc/scsi/scsi Attached devices: Host: scsi0 Channel: 02 Id: 00 Lun: 00 Vendor: DELL Model: PERC H330 Mini Rev: 4.29 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi15 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 00 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 01 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 04 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 11 Vendor: DELL Model: MD38xxf Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 Host: scsi18 Channel: 00 Id: 00 Lun: 31 Vendor: DELL Model: Universal Xport Rev: 0825 Type: Direct-Access ANSI SCSI revision: 05 lsscsi [0:2:0:0] disk DELL PERC H330 Mini 4.29 /dev/sda [15:0:0:0] disk DELL MD38xxf 0825 - [15:0:0:1] disk DELL MD38xxf 0825 /dev/sdb [15:0:0:4] disk DELL MD38xxf 0825 /dev/sdc [15:0:0:11] disk DELL MD38xxf 0825 /dev/sdd [15:0:0:31] disk DELL Universal Xport 0825 - [18:0:0:0] disk DELL MD38xxf 0825 - [18:0:0:1] disk DELL MD38xxf 0825 /dev/sdi [18:0:0:4] disk DELL MD38xxf 0825 /dev/sdj [18:0:0:11] disk DELL MD38xxf 0825 /dev/sdk [18:0:0:31] disk DELL Universal Xport 0825 - 

يمكنك أيضًا تهيئة تعدد المسارات على المضيفين ، وعلى الرغم من أنه عند تثبيت vVirt يمكنه القيام بذلك بنفسه ، فمن الأفضل أن تتحقق من النائب مقدماً.


تثبيت وتكوين DM Multipath


 yum install device-mapper-multipath mpathconf --enable --user_friendly_names y cat /etc/multipath.conf | egrep -v "^\s*(#|$)" defaults { user_friendly_names yes find_multipaths yes } blacklist { wwid 26353900f02796769 devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*" devnode "^hd[az]" } 

قم بتثبيت خدمة MP في التشغيل التلقائي وتشغيلها:


 systemctl enable multipathd && systemctl restart multipathd 

التحقق من المعلومات حول الوحدات المحملة لتشغيل MP:
 lsmod | grep dm_multipath dm_multipath 27792 6 dm_service_time dm_mod 124407 139 dm_multipath,dm_log,dm_mirror modinfo dm_multipath filename: /lib/modules/3.10.0-957.12.2.el7.x86_64/kernel/drivers/md/dm-multipath.ko.xz license: GPL author: Sistina Software <dm-devel@redhat.com> description: device-mapper multipath target retpoline: Y rhelversion: 7.6 srcversion: 985A03DCAF053D4910E53EE depends: dm-mod intree: Y vermagic: 3.10.0-957.12.2.el7.x86_64 SMP mod_unload modversions signer: CentOS Linux kernel signing key sig_key: A3:2D:39:46:F2:D3:58:EA:52:30:1F:63:37:8A:37:A5:54:03:00:45 sig_hashalgo: sha256 

راجع ملخص تكوين المسارات المتعددة الحالي:


 mpathconf multipath is enabled find_multipaths is disabled user_friendly_names is disabled dm_multipath module is loaded multipathd is running 

بعد إضافة LUN جديد إلى وحدة التخزين وتقديمه إلى المضيف ، من الضروري إجراء مسح ضوئي عليه متصل بمضيف HBA.


 systemctl reload multipathd multipath -v2 

وأخيرًا ، نتحقق لمعرفة ما إذا كانت جميع LUNs قد تم تقديمها على وحدة التخزين للمضيفين ، وما إذا كانت جميعها لها مساران.


تحقق العملية النائب:
 multipath -ll 3600a098000e4b4b3000003175cec1840 dm-2 DELL ,MD38xxf size=2.0T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:1 sdb 8:16 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:1 sdi 8:128 active ready running 3600a098000e4b48f000002ab5cec1921 dm-6 DELL ,MD38xxf size=10T features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 18:0:0:11 sdk 8:160 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 15:0:0:11 sdd 8:48 active ready running 3600a098000e4b4b3000003c95d171065 dm-3 DELL ,MD38xxf size=150G features='3 queue_if_no_path pg_init_retries 50' hwhandler='1 rdac' wp=rw |-+- policy='service-time 0' prio=14 status=active | `- 15:0:0:4 sdc 8:32 active ready running `-+- policy='service-time 0' prio=9 status=enabled `- 18:0:0:4 sdj 8:144 active ready running 

كما ترون ، فإن الأقراص الافتراضية الثلاثة على نظام التخزين مرئية بطريقتين. وبالتالي ، تم الانتهاء من جميع الأعمال التحضيرية ، مما يعني أنه يمكننا المضي قدما في الجزء الرئيسي - إنشاء مجموعة vVirt ، والتي سيتم مناقشتها في المقالة التالية.

Source: https://habr.com/ru/post/ar483980/


All Articles