كيف تم إنشاء مركز بيانات الولاية الإقليمي

كيف تم إنشاء مركز بيانات الولاية الإقليمي
"إنه ليس مكانًا يرسم شخصًا ، بل شخصًا - مكانًا"

نرى جميعًا بانتظام مراجعات لأنواع مختلفة من مراكز معالجة البيانات (DPCs): كبيرة ، صغيرة ، تحت الماء ، القطب الشمالي ، مبتكرة ، منتجة ، إلخ. ومع ذلك ، لا توجد عمليًا أي مراجعات لتلك الأبطال غير المرئيين ، أنها تعمل لصالحنا في زنزانات الدولة ، وأكثر من ذلك في المناطق. لذلك ، أود أن أشارك تجربتي الخاصة في إنشاء مركز بيانات في إقليم ستافروبول.

التعارف


كان يوم صيف دافئ ، كما أتذكر الآن - 18 يونيو 2012. في ذلك اليوم ، عندما دخلت إلى جدران مركز البيانات المستقبلي ، رأيت هذه الصورة بالضبط ، والتي ، بصراحة ، أوقعتني في صدمة صغيرة. تلبية GKU SK "المركز الإقليمي لتكنولوجيا المعلومات" في فجر وجودها. جميع الصور قابلة للنقر. بدا وكأنه الرف الوحيد داخل مركز البيانات المستقبلي في يونيو 2012. كانت منظمة شابة إلى حد ما. كانت مهمتها الرئيسية في وقت بداية نشاطي دعم إدارة الوثائق الإلكترونية للسلطات العامة (OGV).

بدا وكأنه الرف الوحيد داخل مركز البيانات المستقبلي في يونيو 2012.




كان هدفي إنشاء مركز بيانات ومنظمة تخدمه. يجب أن تنتقل جميع أنظمة معلومات الحالة الحالية إلى مركز البيانات ، بالإضافة إلى جميع الأنظمة التي تم إنشاؤها حديثًا. في ذلك الوقت ، كان هناك نمو سريع للخدمات العامة الإلكترونية والأتمتة العامة للسلطات العامة.

في ذلك الوقت ، لم يكن هناك فهم خاص لماهية الحكومة الإلكترونية. كان الشيء الرئيسي هو فهم أنه "ليس المكان الذي يلون الشخص ، ولكن الشخص - المكان". كان لدي فريق صغير ، يتألف مني ، لكن هذا كان كافيًا للبدء ، خاصة وأن أتمتة العمليات الروتينية تتجنب الانتفاخ غير الضروري للموظفين. وهذا ما بدا عليه مركز البيانات قبل مغادرتي يوليو 2014.

وهذا ما بدا عليه مركز البيانات قبل مغادرتي يوليو 2014.


قبل الانضمام إلى هذه المنظمة ، عملت كأخصائي رائد في قسم الدعم في أحد البنوك الكبرى. وكانت هذه التجربة مفيدة للغاية للتنفيذ في OGV . بشكل عام ، لقد أحببت حقًا القطاع المصرفي من وجهة نظر تكنولوجيا المعلومات ، لكن هذه قصة مختلفة. هنا ، كان علي أن أنجز إلى حد ما وظائف "الكاردينال الرمادي": كبير المهندسين الذي كان غائباً عن الموظفين.

يجب ألا يكون مركز البيانات الذي أقوم بإنشائه موثوقًا به فحسب ، بل يجب أن يكون كارثيًا ومنتجًا ورخيصًا. يبدو لي لهذا السبب دُعيت للعمل هنا ، لأنه كان علي أولاً تحقيق الاستخدام الفعال لما هو موجود بالفعل. ولم يكن لدى شركات الدمج سوى اقتراح واحد: إذا أعطيتني المزيد من المال ... بما في ذلك هذا هو السبب في أنني لم ألجأ إلى خدمات شركات الدمج ، إلخ.

نظرًا لأن جميع الموارد انتقلت بالفعل إلى "السحابة" لدينا - كان علي أن أعرض مفهوم "السحابة العامة الخاصة" ، نظرًا لأن الجهاز المفاهيمي الحالي ، الذي يتكون من "سحابة" عامة "و" خاصة "، لم يلبي تمامًا منطق تقديم الموارد. خارجها كانت "سحابة خاصة" ، من الداخل كانت "سحابة عامة" ، ولكن فقط لـ UGA. في هذا الصدد ، كانت هناك بعض ميزات ترخيص البرامج.

تمكنت من اتخاذ قرار بشأن بعض اللحظات المفاهيمية قبل مجيئي إلى المنظمة ، وكان لا بد من أخذها كأمر مسلم به. تم تطوير المشروع بالتعاون الوثيق مع IBM و Microsoft و Cisco. لماذا بالضبط هؤلاء البائعين؟ بالنسبة لي - هكذا حدث تاريخيا. هل أنا نادم على ذلك؟ لا على الاطلاق! هل يمكن استخدام البائعين الآخرين؟ بالطبع ، على سبيل المثال ، DELL أو HP أو أي دولة أخرى ، بالإضافة إلى مجموعاتها التعسفية.

كما تم شراء منصة الافتراضية - VMWare ، في ذلك الوقت 5 إصدارات. هنا ، أعتقد ، سيوافق الجميع على أن الخيار لا جدال فيه عمليا ، لأنه البعض الآخر لم يقدم قدرات مشابهة للتسامح مع الأخطاء.

أثناء المراجعة الأولية للسعة المتاحة في الرفوف حول المدينة ، وجدت زوجًا من هيكل IBM BladeCenter: E و H. تم تجهيز الهيكل بشفرات HS22 ، التي كانت بعيدة عن الأسوأ ، وسط صعب في ذلك الوقت. كانت الحالة ، بالطبع ، مؤسفة إلى حد ما ؛ مؤشرات خطأ الحرق كانت مزعجة بشكل خاص. منظر لأحد الرفوف المتاحة في يونيو 2012. انتبه إلى تركيب المعدات "من خلال الصندوق" ، وخاصة معدات Cisco.

2012  .      « »,   Cisco.


كنظام تخزين ، تم تثبيت رف DS3512 ، متصل بصريًا ، مع تثبيت محركات أقراص 2 تيرابايت ، في موقع واحد. في موقع آخر ، تم تثبيت الرف DS3512 و DS3524.

على موقع النسخ الاحتياطي ، تم تخصيص المساحة الحرة بحيث لا يبدأ برنامج VMWare بدون تدخل يدوي: فقد اكتشف نسخًا أخرى مثبتة وتوقف ، فقط بدءًا من المفتاح المطابق ساعد. ذهب التوزيع نفسه وفقًا للمبدأ: لكل جهاز افتراضي LUN خاص به. عندما كان من الضروري تخصيص مساحة إضافية للجهاز الظاهري ، ولكن على LUN الحالي لم يكن ...

تم ربط المواقع بين بعضها البعض بواسطة شبكة بيانات رقيقة بعرض 1 جيجابت / ثانية. لم تكن هناك شبكة مخصصة لنفس المحاكاة الافتراضية وحركة الخدمة.

بعد مراجعة وتدقيق البنية التحتية لتكنولوجيا المعلومات لفترة وجيزة (وكان ذلك موجزًا ​​، نظرًا لعدم وجود أي بنية تحتية عمليًا) ، استنتج أن لدي مثالًا كلاسيكيًا لكيفية القيام بذلك. لم تكن هناك مخططات ، ولا وثائق مصاحبة ، حتى كلمات مرور المسؤول لم تكن معروفة ، كان يجب إعادة ضبطها واستعادتها.

أنا جاهز للعمل بشكل حازم.

ابدأ الرحلة


في مثل هذه المنظمة الجادة في المستقبل ، في وقت وصولي من البنية التحتية لتكنولوجيا المعلومات ، لم يكن هناك شيء على الإطلاق: مفتاح ذكي وحيد ، وشبكة نظير إلى نظير ، وموارد مشتركة في كل مكان عمل ... بشكل عام ، كل شيء تمامًا كما تتخيل الوضع في المنطقة.

وبناء على ذلك ، تم إنشاء البنية التحتية للمؤسسة بسرعة في البداية. لما أمر بكل شيء كان متاحًا في ذلك الوقت. مسلحة بفاحص للشبكة ، وجدت كل الأسلاك ووقعت عليها. لأن في وقت الأسلاك ، لم تكن هناك خطة للوظائف - في مكان ما ، بدلاً من الهواتف ، كانت هناك أجهزة كمبيوتر ، وفي مكان ما لم يكن هناك ما يكفي من الأسلاك والعديد من "السحر" القياسي الآخر.

لسوء الحظ ، عند تصميم غرفة الخادم لمركز البيانات المستقبلي ، لم يقم أحد بعمل أرضية مرتفعة أو درج سلكي تحت السقف. بطبيعة الحال ، لم يعد هناك أي أموال لأي منهما ، لذلك كان عليّ أن أحمل الجمال بمفردي.

نظرًا لأنه لم يسمح لي أحد باختصار الأسلاك ببساطة في تلك اللحظة: "فجأة عليك نقل الرف إلى الزاوية البعيدة من الغرفة ، فماذا بعد ذلك؟" - كان علي أن أجعل الصليب 110 تحت السقف ، الذي خفض بالفعل الأسلاك إلى الرف. لذلك في حالة حركة الحامل ، يمكن إزالة الأسلاك القصيرة من الصليب ، وتثبيت أسلاك أطول هناك. منظر للجدار 110 لوحة عرضية أثناء التثبيت ، بالإضافة إلى سكين لإنهاء الأسلاك.

110-     ,      .


كما تم تحديده على الفور أن أسلاك التصحيح ستكون مشفرة بالألوان ، حيث لم يكن هناك سوى كبل أزرق وأحمر ، وكان يجب أن يكون الهاتف أحمر ، وكان كل شيء عن الشبكة أزرق. نوع الرف قبل وبعد التثبيت. في الرف ، وجدت مكتب PBX من باناسونيك KX-NCP500 مزودًا بـ 4 مدن و 8 خطوط تمديد. كنت أقل اهتمامًا بخطوط الهاتف الداخلية ، على الرغم من أنها كانت IP PBX: لقد نقلت كل شيء تدريجيًا إلى VOIP. نظرًا لأنه لم يكن لدي خبرة جادة في إنشاء PBX ، كان علي أن العبث قليلاً. مجرد فهم الحاجة إلى رفع خادم STUN الخاص بك كان يستحق ذلك ...

.






على هذا النحو ، لم يكن لدى المنظمة شبكة خاصة بها ؛ كانت جميع أجهزة الكمبيوتر موجودة على إنترانت كبيرة واحدة. أنا ، كشخص لم يكن لديه معرفة مباشرة بأمن المعلومات ، لم أكن سعيدًا بذلك: على حافة الشبكة قمت بتثبيت وتكوين جهاز توجيه يستند إلى FreeBSD ، وتقسيم الشبكة نفسها لإمكانية التحكم الكامل في التشغيل البيني. مع هذا النهج ، عادة ما يعاني جزء واحد فقط.

حول شبكة OGV نفسها ، كان من الواضح فقط أنها موجودة في مكان ما. اضطررت إلى استعادة طوبولوجيا الشبكة بالكامل استنادًا إلى تكوينات المعدات والرسم والتخطيط بعناية. أخذت Configs تدريجياً شكلًا بشريًا ؛ ظهر الوصف والمنطق.

بعد ما يقرب من ستة أشهر ، وجدت أخيرًا وثائق على شبكة OGV. ولكن ، لسوء الحظ ، كانت 90 ٪ غير متسقة مع ما هو في الواقع. تم صنعها بجودة عالية للغاية ، كانت واحدة من الوثائق القليلة التي كان من الممكن العمل عليها. ولكن لا أحد ، بالحكم على الإعدادات ، نجح.

عندما تم فحص الشبكة ، أحضرت جميع العقد محدثة ، حيث أن جميع المعدات تقريبًا تحتوي على برامج قديمة جدًا. في مكان ما لم يكن هذا ضروريًا ، ولكن في مكان ما تم إصلاح المشكلات القائمة. العرض القديم (الأيسر 2012) والجديد (اليمين 2016) للصفحة الرئيسية للموقع.

(, 2012 )   (, 2016 )    .


كما تم تطوير موقع ، في الوقت الذي تم فيه رفع خوادم الأسماء الخاصة بهم ، والاستضافة الافتراضية ، وخدمة البريد. إنني متشكك للغاية في المنظمات حيث يكون للموظفين عناوين بريدية على خدمات البريد العامة بشكل واضح ، خاصة في الوكالات الحكومية.

بشكل عام ، لقد مرت الأشهر القليلة الأولى من العمل ، مثمرة للغاية.

المرحلة الأولى


في البداية ، لم يعد مركز البيانات يستخدم ، باستثناء عمل سير العمل بين الأقسام ، لأي شيء. مما لا شك فيه أن إدارة الوثائق هي واحدة من أهم أجزاء عمل سلطات الدولة. في كثير من الأحيان ، على وجه التحديد بسبب تعقيد سير العمل ، تنشأ العديد من المشاكل في عمل دولتنا ، وهو تدفق العمل الإلكتروني هو المخرج من هذا الوضع.

أعتقد أن السؤال الأكثر إثارة للاهتمام هو: ما الذي تعمل عليه الحكومة الإلكترونية في مركز البيانات؟

يتكون مركز البيانات نفسه من عدة مواقع موزعة جغرافياً ، وبالتالي يتم تنفيذ مفهوم تحمل الكوارث ، والعمل مستمر 24/7/365. كانت المواقع مترابطة مع الجذع الرئيسي المكون من 32 ألياف أحادية النمط.

جوهر مركز البيانات هو شفرات IBM HS22 و HS23 (الآن Lenovo) ، والتي يتم توزيعها في أزواج عبر الأنظمة الأساسية. يستوعب كل هيكل 14 شفرة ؛ في المرحلة الأولية ، تم تركيب خمس شفرات.

تحتوي كل شفرة على معالجين ، إذا لم أكن مخطئًا ، E5650 (6 نوى ، ذاكرة تخزين مؤقت 12 ميجابايت) ، ذاكرة الوصول العشوائي إلى مقل العيون 192 جيجابايت. شفرات بدون أقراص ، وقررت من الداخل تثبيت فلاش USB مع صورة VMWare لزيادة الفصل بين الأداء والتخزين إلى أقصى حد ، وكتابة السجلات إلى وحدة تخزين مشتركة ، والوصلة الصاعدة لكل شفرة تبلغ 2 جيجابت / ثانية. يمكن رفع الوصلة الصاعدة إلى 10 جيجابت / ثانية عن طريق تثبيت المفتاح المناسب في الهيكل وبطاقة الشبكة في كل شفرة. لدينا جذع رئيسي من الألياف 32.

32-  .


كما OS - VMWare vSphere (عندما غادرت كان 5.5) قياسي. في إصدار أكثر تقدمًا ، لم أر النقطة: كانت الوظيفة المقترحة كافية بما فيه الكفاية. وما هو مفقود - يمكنك كتابة نفسك.

في المستقبل ، تم زيادة عدد الشفرات بسبب خوادم IBM HS23 الأكثر قوة قليلاً.

كان تكرار الطاقة في كل موقع مختلفًا ، ولكن ليس أقل من مصدرين للطاقة. أيضًا ، في كل رف يوجد وحدات UPS مثبتة بشكل إضافي تغذي الحامل ، في أزواج: يتم تزويد مصادر الطاقة للأجهزة بالطاقة من مصادر مختلفة. قد يكون ذلك غير ضروري ، ولكن كانت هناك بضع لحظات عندما جاءت عمليات الإنقاذ UPS المثبتة على الرف إلى الإنقاذ. لا يوجد الكثير ، ولكن ليس هناك الكثير من التكرار في هذه الأنظمة.

كان التبريد متنوعًا أيضًا. في الموقع الرئيسي ، كانت هذه مكيفات هواء صناعية مثبتة على الحائط مع وحدة موازنة. تم الحفاظ على درجة الحرارة عند 21 درجة. في موقع آخر ، كانت هذه مكيفات أرضية صناعية وإمدادات هواء تحت الأرض. وIBM في SVC . تحكم نظام التخزين لدينا. نظام التخزين قابل للتطوير ، استنادًا إلى وحدة تحكم IBM SVC ، والتي سمحت بتحقيق تكرار لنفس RAID 6 + 1 ، والتكرار على عدة مسارات ، والاتصال بين الوحدات عبر بصريات 8Gb / s للوصلة الصاعدة. يمكن لأي جزء من مركز البيانات الدخول في أي وقت إلى عملية قائمة بذاتها في حالة وقوع حادث أو صيانة روتينية. تتم تقريبًا جميع الموارد المادية بشكل افتراضي في مركز بيانات فعال: يتم تخزين التخزين افتراضيًا على أساس IBM

IBM SVC.    .




SVC ؛ تتم معالجة موارد المعالج وذاكرة الوصول العشوائي بشكل افتراضي بناءً على برنامج VMWare vSphere. إذا أخذنا المحاكاة الافتراضية لاستخدام VLAN في المحولات ، فيمكننا أن نفترض أن البنية التحتية للشبكة هي أيضًا افتراضية.

تقريبا جميع المعدات التي تدعم جهاز التحكم عن بعد ، أنا متصل بالشبكة وتكوينها. في المواقع البعيدة ، يعمل كل شيء ، بما في ذلك من خلال المنافذ الكهربائية التي يتم التحكم فيها (ظهرت في وقت لاحق ، في المرحلة الثانية) ، وبالتالي ، في حالة فشل أي جهاز بدون جهاز تحكم عن بعد ، يمكن إعادة ضبطه بالطاقة.

تم إنشاء مركز البيانات على عدة مراحل. تضمنت المرحلة الأولى ترتيب وإنشاء البنية التحتية السحابية. كان الهدف الأصلي هو إنشاء طبقة تخزين افتراضية تستند إلى IBM SVC .

أثناء تنفيذ الخطة ، بدأت الخوادم التي كانت موجودة سابقًا في مؤسسات جهات خارجية في الانتقال إلى موقعنا. لذلك قمنا بنقل العديد من خوادم IBM القديمة مع خدمات العمل التي استهلكت وسخنت أكثر من هيكل BladeCenter. بالطبع ، انتقلت خدماتهم تدريجياً إلى "السحابة". نوع الرفوف في المحرر. أول شيء هو الخطة. وبحلول ذلك الوقت ، كان بإمكاني العمل بالفعل كما رأيت مناسبًا (على الرغم من كل ذلك ، كانت هناك بالفعل بعض المشاريع المكتملة ، وقد اكتسبت بالفعل الثقة بأن هناك أعمالًا بدون فشل). لذلك ، قمت في البداية بتجميع الرفوف في المحرر ، ومناقشتها ومناقشتها معًا في نفس الوقت. عملية تركيب المعدات في الرف.

.




.


تم التثبيت وفقًا للمعايير وأفضل الممارسات والتوصيات الموضحة ، بما في ذلك في IBM RedBook. بالطبع ، لأول مرة ضحكت "دعنا نقرأ الوثائق" ، ولكن بعد "طريقة النتوء العلمي" رفضت الخوادم أن تسقط في مكانها لأن المسافة بين الأدلة كبيرة جدًا ، ومن ناحية أخرى فهي صغيرة جدًا - وجدت في الأحجام القياسية redbook لتجميع الرفوف ، بعد ذلك اجتمع كل شيء معًا في المرة الأولى. المرحلة الأولى لمركز البيانات يونيو 2013. في الخلفية هناك الدف للمدير الأعلى.

,  2013 .      .


وبحلول ذلك الوقت ، مضى عام تقريباً منذ أن عملت في هذه المنظمة لصالح الدولة. لهذا العام ، لم نلجأ أبدًا إلى خدمات شركات التكامل أو أي مقاولين آخرين. لن أتفكك ، عدة مرات طلبت المساعدة من زملائي من شركة IBM في طرح أسئلة حول معداتهم وقمنا بشكل مشترك بحل المشاكل التي ظهرت ، والتي شكرها كثيرون لهم.

أصبح مركز البيانات بالفعل في هذه المرحلة إرشاديًا واستقبل الزوار بانتظام لإثبات كيفية عمل البنية التحتية لتكنولوجيا المعلومات ومظهرها. لا ينبغي أن يبدو هذا مثل البنية التحتية لتكنولوجيا المعلومات. تم التقاط الصورة في اليوم الثاني من عملي 2012.

.        , 2012 .


في عملية تنفيذ مركز البيانات ، اتضح لي أن الموارد تحتاج إلى توصيلها بكفاءة إلى المستهلكين - الهيئات الحكومية. علاوة على ذلك ، فإن بعض أنظمة المعلومات المكتوبة "الأصلية" التي انتقلت إلى السحابة دفعت كميات كبيرة جدًا من المعلومات عبر الشبكة.

لا يبدو أن الوصول عبر الإنترنت حصريًا فكرة جيدة ، لأنها لا توفر سرعة وصول كافية. وتوسيع الاتصال بالإنترنت في جميع المجموعات العامة إجراء مكلف للغاية. لذلك ، تقرر نشر شبكتنا الخاصة: اقتصاديًا ، من وجهة نظر أمنية ، تبين أن هذا أكثر ربحية من تأجير قنوات الاتصال من Rostelecom.

لماذا لم يتم ذلك في البداية؟ الجواب بسيط: لم يكن هناك متخصصون مؤهلون لهذا العمل ، فقط مقاولون خارجيون. ويسعون إلى الاستعانة بمصادر خارجية.

عند هذه النقطة ، كان علي أن أخطط وبناء البنية التحتية للمزود. في الوقت نفسه ، كان لا بد من تدقيق العديد من شبكات OGV . بالطبع ، في بعض OGVs كانت هناك خدمات قوية لتكنولوجيا المعلومات (على سبيل المثال ، في وزارة المالية ، في وزارة الدفاع ، في الأجهزة الحكومية وغيرها). ولكن كانت هناك أيضًا نقاط ضعف بصراحة ، حيث لم يتمكنوا حتى من ضغط السلك. كان عليّ أن آخذ مثل هذا تمامًا تحت جناحي ، حيث سمح التأهيل.

لذلك ، على وجه الخصوص ، كان عليّ تطوير بنية شبكة نموذجية لـ OGVالذي كان على المرء أن يسعى من أجله. التوحيد والتصنيف هما مفتاح التشغيل الفعال. وفقًا لحساباتي الأولية ، كان يجب أن يكون هناك 100-150 كائن إداري على الأقل لكل شخص في مؤسستنا. أحد مستلزمات معدات Cisco. بالطبع ، في الشبكة قيد الإنشاء ، بالإضافة إلى تقنيات VLAN الواضحة ، تم استخدام تقنيات حديثة أخرى لتسهيل الإدارة: OSPF ، VTP ، PVST ، MSTP ، HSRP ، QoS ، إلخ. بالطبع ، كنت أرغب في زيادة التكرار الحكومي ، ولكن للأسف ، لم يكن لدى ASR موارد كافية من الأجهزة. لسوء الحظ ، لم يعمل للوصول إلى MPLS. نعم ، ولم تكن هناك حاجة. مع توسع الشبكة ، بدأت في السيطرة على معدات OGV

Cisco.




، في وقت واحد تعديله كما ينبغي. في عملية ربط الإدارات في جميع أنحاء المنطقة ، اضطررت لإجراء التوعية والعمل التعليمي ومساعدة الزملاء في الإدارات الإقليمية والريفية.

كانت الوصلة الصاعدة الإجمالية بين المواقع في المرحلة الأولى مجرد عدد قليل من الجيجابت. ولكن قمت بالفعل بتخصيص قناة لتشغيل vSphere.
اتضح أن الشبكة نفسها موزعة بشكل كبير جغرافيًا ، بما في ذلك عدد كبير إلى حد ما من العقد البعيدة المتصلة عبر L2 / L3 VPN.

يمكن بالطبع حل الكثير من خلال الاستثمارات المالية الجادة ، لكنني تمكنت من تحقيق ما لدي. في كثير من الأحيان تم استخدام المعدات المتاحة بشكل غير فعال ، لذلك وجدت للتو أماكن أفضل لها. خاصة في السنة الأولى من الحياة ، كان الجميع متشككين للغاية بشأن آفاق تنفيذ هذا المشروع.

ولكن بعد السنة الأولى ، عندما تم عرض وفورات الميزانية المباشرة وغير المباشرة لعشرات الملايين من الروبل ، بفضل منظمتنا ، وتغير الموقف بشكل كبير. أحد مخططات الشبكة. يتم إخفاء معظم العقد لأسباب واضحة.

.       .


المرحلة الثانية


في المرحلة الثانية ، كان علينا بالفعل زيادة سعة الأجهزة لمركز البيانات الخاص بنا. يتطلب توسيع السعات تغيير الهيكل من الطراز E إلى H ، وإعادة تركيب الرفوف الموجودة. تم زيادة مساحة القرص عن طريق زيادة عدد الرفوف من الأقراص الصلبة. أرفف بمحركات IBM DS3512 الصلبة ورف DS3524 مرئية في الأعلى. تم نقل العديد من الخوادم المادية إلينا. زاد عدد الأجهزة الافتراضية بشكل ملحوظ. تمت إضافة أداة النسخ الاحتياطي استناداً إلى مكتبة الأشرطة IBM TS3200. توجد في المقدمة مكتبة الأشرطة IBM TS3200. بطبيعة الحال ، بدأت في تركيب معدات جديدة مع التخطيط الأولي. هنا كان علينا بالفعل تصميم رفوف على كلا الجانبين. التخطيط لتوسيع مركز البيانات.

أرفف بمحركات IBM DS3512 الصلبة ورف DS3524 مرئية في الأعلى.






توجد في المقدمة مكتبة الأشرطة IBM TS3200.




التخطيط لتوسيع مركز البيانات.


تم الانتهاء من الخطوة في أقرب وقت ممكن. نظرًا لأنه في ذلك الوقت كانت المحاكاة الافتراضية تعمل بالكامل ، كانت عملية النقل غير محسوسة تمامًا ، لأنه قبل نقل المعدات وفصلها في أحد المواقع ، انتقلت جميع الخوادم الافتراضية إلى موقع آخر ، وفي نهاية العمل - عاد كل شيء إلى طبيعته.

بالطبع ، بالإضافة إلى الموقع الرئيسي ، تم وضع الطلب أيضًا على الموقع المحمي. في الوقت نفسه ، بفضل نظام النسخ الاحتياطي الذي يعمل بشكل كامل ، كان من الممكن أخيرًا استعادة النظام هناك. نوع الرفوف بعد توسيع المورد ، 2014.

نوع الرفوف بعد توسيع المورد ، 2014.


ومنذ ذلك الوقت أصبح مركز البيانات الخاص بنا مثاليًا بالفعل ، قررت الانتباه إلى التفاصيل: تم تغطية الوحدات المجانية المتاحة بإطارات سوداء ، وحيث كانت هناك حاجة إلى التهوية ، تم تثبيت الحواف المثقبة. حتى مسامير التثبيت التي تثبت المعدات في الرف ، قمت بإزالة وطلاء الأسود من علبة الرش. تافه ، ولكن لطيف. نوع الرفوف في موقع الحجز أثناء التثبيت (يسار) وفي النهاية (يمين). من أجل التخلص من محولات الوسائط الكاذبة في كل مكان ، تم شراء زوج من هيكل D-Link DMC-1000 ، بما في ذلك توفير محولات وسائط طاقة احتياطية بسبب زوج من مصادر الطاقة.

نوع الرفوف في موقع الحجز أثناء التثبيت (يسار) وفي النهاية (يمين).




في الوقت نفسه ، كان العمل جارًا لتحديث الشبكة. أغلقت حلقة جوهر شبكة نقل البيانات بسرعة 20 جيجابت / ثانية بين المواقع. من خلال تحسين المعدات الموجودة ، حصلت شبكة الخدمة لتشغيل البنية التحتية الافتراضية على ارتباط علوي بسرعة 10 جيجابت / ثانية ، مما جعل من الممكن ترحيل جميع الشفرات تقريبًا في نفس الوقت ، مع عرض نطاق ترددي كافٍ.

اتضح أن توافق معدات SNR مع معدات Cisco و Brocade الحالية ممتع للغاية. بالطبع ، في وقت من الأوقات كان وجود معدات Brocade في الهيكل مفاجأة غير سارة بالنسبة لي ، لأنني لم أكن مضطرًا للعمل معها من قبل. لكن لحسن الحظ ، سمحت لنا معرفة مبادئ الشبكة بالتعامل معها بسرعة.

جزء مهم من العمل ، أعتبر دقة التنفيذ. لا يجب أن يعمل كل شيء بشكل جيد فحسب ، بل يجب أن يبدو جيدًا أيضًا. كلما زاد الترتيب في العمل ، زادت الموثوقية. لقد كان من حسن الحظ أنه لم يكن لدى أحد مني مثل هذا النهج للعمل ، لذلك ، مع أحد زملائنا في الرفوف ، تم ترتيبهم ، على ما أعتقد ، بترتيب مثالي. يجب أن يكون هناك طلب في كل مكان.

يجب أن يكون هناك طلب في كل مكان.


في هذه الأثناء


بالتوازي مع الإنشاء المادي لمركز البيانات وشبكة OGV ، كان هناك تطوير برمجيات لأداء الحكومة الإلكترونية ، والتي أتيحت لي فيها أيضًا فرصة المشاركة. سواء من حيث التنفيذ والنشر ، ومن حيث الدعم الإيديولوجي. لدعم إيديولوجية حقيقية ، جزيل الشكر للقيادة آنذاك.

اضطررت بانتظام إلى تدقيق قواعد البيانات ، ودفع المطورين إلى استخدام الفهارس في قواعد البيانات ، والتقاط الاستعلامات كثيفة الموارد وتحسين الاختناقات. لم يعد هناك أي فهارس في أحد الأنظمة باستثناء المفاتيح الأساسية. النتيجة - في بداية العملية المكثفة ، بدأ أداء قاعدة البيانات في التدهور بشكل حاد ، واضطر إلى زرع الفهارس بمفردها.

بفضل التدخل في الوقت المناسب في عملية التطوير ، تم عمل جميع أنظمة الدولة المتقدمة عبر الأنظمة الأساسية. وحيث لم تكن هناك حاجة ملحة لاستخدام Windows كقاعدة ، عمل كل شيء تحت سيطرة عائلة أنظمة Linux. كما اتضح ، كانت العقبة الرئيسية التي تحول دون إنشاء تطبيقات عبر الأنظمة الأساسية استخدام تدوين غير عالمي في كتابة المسارات. في كثير من الأحيان ، بعد استبدال خط مائل بآخر ، أصبح نظام الدولة فجأة عبر منصة.

غطت الشبكة التي تم إنشاؤها بطريقة أو بأخرى كل OGV تقريبًا ، وكنت على استعداد لبدء توفير الاتصال بالإنترنت ، وتصفية حركة المرور ، وحماية مكافحة الفيروسات ، ومنع الهجمات من خارج وداخل OGV. على وجه الخصوص ، كان من المفترض أن يوفر هذا توفيرًا كبيرًا في الميزانية بسبب الاستخدام الأكثر كفاءة لعرض النطاق الترددي للقناة.

بعد أن أنشأت خدمة دعم فني موحدة لـ OGV ، خططت لخلق وظائف ذات تقنية عالية ، لتركز داخل مؤسستنا القوى الرئيسية لدعم الوظائف المؤهلة ، وترك الفنيين في هذا المجال ، وفي الوقت نفسه تحسين مستوى المتخصصين في المجال من خلال تنظيم المؤتمرات والندوات عبر الإنترنت ، والخلوات ...

كانت المرحلة الثالثة من تحديث مركز البيانات هي الأكثر إثارة للاهتمام بالنسبة لي. بحلول نهاية المرحلة الثانية ، تم إنشاء حوار مع Elbrus ، مطور المعالجات المحلية ، وتم الوصول إلى منصة الاختبار ، وأصبح من الواضح أنه يمكن نقل ثلث وظائف أنظمة التشغيل على الأقل إلى منصة الأجهزة المحلية! في اليوم التالي فقط ، 2015 ، سيتم إصدار إصدار جديد من الأجهزة للمعالج المحلي ... تضمنت ميزانية العام المقبل مبلغًا لشراء الخوادم ...

فقط للأمام فقط للأمام ...

لتلخيص


لكن أحلامي في نقل الخدمات العامة إلى منصة الأجهزة المحلية لم تتحقق (مثل الخطط الأخرى) ، لأنني اضطررت إلى تغيير وظيفتي إلى ما لا يقل عن الاهتمام ، ولكن بأجر أعلى. إنه لأمر مؤسف ، بالطبع ، أعتقد أنه يمكنني عمل زخم جيد لتنفيذ النظام الأساسي للأجهزة المحلية. علاوة على ذلك ، كان هذا قبل موجة استبدال الواردات.

في نهاية مهنتي في هذه المؤسسة على أساس مركز البيانات الخاص بنا ، تمكنت من التخطيط أو الإنشاء أو النشر أو المشاركة في إنشاء:
  • Datacenter وشبكة OGV ( http://cit-sk.ru/ ) ؛
  • البوابة الإقليمية للدولة والخدمات البلدية ( http://gosuslugi26.ru/ ) ؛
  • « » (http://control26.ru/, );
  • ;
  • (http://stavregion.ru/);
  • IP- (Asterisk);
  • (VipNET);
  • . («»);
  • (@stavregion.ru);
  • ( );
  • «»;
  • ;
  • VDS- ( );
  • ;
  • ();
  • ;
  • ;
  • خدمات WSUS وتحديثات مكافحة الفيروسات المركزية ؛
  • مراقبة العقدة وجمع الإحصاءات ؛
  • الخ.


في المجموع ، كان أكثر من 120 خادمًا افتراضيًا يعملون على أزواجنا السبعة من الخوادم الفعلية ، باستخدام حوالي 30-40 ٪ من موارد وحدة المعالجة المركزية وذاكرة الوصول العشوائي ، حوالي 50 ٪ من نظام التخزين. إجمالاً ، كان عدد موظفينا في ذلك الوقت حوالي 30-35 شخصًا ، بما في ذلك جميع الموظفين الإداريين والإداريين ، خدمة معالجة المكالمات.

أنا متأكد من كفاءة الاستخدام على الوجه.

في الواقع ، لا يزال بإمكانك معرفة الكثير من التفاصيل حول تشكيل كل خدمة تقريبًا ، ثم تحصل على حجم كبير من الذكريات.

شكر وتقدير


  • اولا اليك عزيزي القارئ للقراءة على هذا المكان.
  • زوجتي للمساعدة والدعم.
  • إلى إدارة المؤسسة العامة للدولة SK "المركز الإقليمي لتكنولوجيا المعلومات" للثقة الممنوحة.
  • إدارة وزارة الصناعة والطاقة والاتصالات في إقليم ستافروبول للدعم الإداري.
  • جميع الزملاء الذين كانوا محظوظين للعمل بعد ذلك.

Source: https://habr.com/ru/post/ar395197/


All Articles