تحسين هندسة الذكاء الاصطناعي: يبدأ السباق

مع تحسن هندسة الذكاء الاصطناعي وانخفاض التكاليف ، يقول الخبراء أن المزيد والمزيد من الشركات سوف تتقن هذه التقنيات ، مما سيعطي قوة دفع للابتكارات ويحقق أرباحًا كبيرة لكل من الشركات ومطوري الذكاء الاصطناعي.

غالبًا ما تعمل تطبيقات الذكاء الاصطناعي على أساس بنى مختلفة تمامًا عن تطبيقات المؤسسات التقليدية. في المقابل ، يرغب الموردون في فعل الكثير لتقديم مكونات جديدة يتزايد الطلب عليها.

قال كيث سترير ، خبير الذكاء الاصطناعي في EY: "تشهد صناعة الحوسبة تغييرات كبيرة - إن اهتمام الشركات بالذكاء الاصطناعي يعطي زخماً للابتكارات التي ستساعد على إتقان ونشر الذكاء الاصطناعي على أي نطاق". يستثمر المستثمرون الكثير من المال في الشركات الناشئة التي تعمل على تحسين الذكاء الاصطناعي ، وبدأ المصنعون الكبار في تقديم ليس فقط الرقائق والتخزين ، ولكن أيضًا الشبكة والخدمات السحابية اللازمة للنشر ".
.
ووفقًا له ، فإن المهمة الرئيسية لمديري تكنولوجيا المعلومات الآن هي اختيار بنية الذكاء الاصطناعي المناسبة لاحتياجات الشركة.

يقول Streer أنه نظرًا لأن الذكاء الاصطناعي هو الرياضيات على نطاق غير مسبوق ، فإن تنفيذ هذه التكنولوجيا يتطلب شروطًا تقنية وأدوات أمان مختلفة تمامًا عن أعباء العمل المألوفة للشركات. للاستفادة الكاملة من الذكاء الاصطناعي ، سيحتاج المورّدون إلى توفير البنية التحتية التقنية والخدمات السحابية والخدمات الأخرى اللازمة للذكاء الاصطناعي ، والتي بدونها ستكون هذه الحسابات المعقدة مستحيلة.

لكننا في طريقنا بالفعل إلى ذلك ، وفي المستقبل ستكون هناك بنيات أكثر تقدمًا للذكاء الاصطناعي. يعتقد Streer أن توفير المرونة والقوة والسرعة لبنى الحوسبة لن يقتصر على الشركات الصغيرة لتطوير الحوسبة عالية الأداء ، ولكن أيضًا الممثلين الآخرين لصناعة الحوسبة عالية الأداء ، بما في ذلك الشركات الناشئة لإنشاء الرقائق الدقيقة والخدمات السحابية التي تسعى إلى وضع معايير عالية للذكاء الاصطناعي- الحوسبة.

مع ظهور المزيد من المتخصصين والمطورين في مجال الذكاء الاصطناعي ، ستصبح هذه التكنولوجيا أكثر سهولة في الوصول إليها ، مما سيعطي زخمًا جيدًا للابتكارات ويحقق أرباحًا ملحوظة - للشركات والموردين.

في هذه الأثناء ، يجب على مديري تكنولوجيا المعلومات أن يتعرفوا على الصعوبات المرتبطة بإنشاء بنية ذكاء اصطناعي لاستخدام الشركات من أجل الاستعداد لحلها.

تطوير الرقائق


كان أهم شرط للانتقال من معماريات الحوسبة التقليدية إلى الذكاء الاصطناعي هو تطوير المعالجات الرسومية والدوائر المتكاملة المنطقية القابلة للبرمجة (FPGAs) ورقائق الذكاء الاصطناعي المتخصصة. سيساعد تكاثر البنى القائمة على وحدات معالجة الرسومات ووحدات FPGA على زيادة إنتاجية ومرونة أنظمة الحوسبة والتخزين ، مما سيمكن موفري الحلول من تقديم مجموعة من الخدمات المتقدمة لتطبيقات الذكاء الاصطناعي وتعلم الآلة.

تقول Surya Varanasi ، المؤسس والمدير التنفيذي لشركة Vexata Inc.: "هذه هي هندسة الرقائق التي تطلق الكثير من الميزات المتقدمة من الحمل [مثل تدريب الذكاء الاصطناعي] وتساعد في تنفيذ مجموعة محسنة للحوسبة والتخزين توفر أداء وكفاءة لا مثيل لهما". مزود حلول إدارة البيانات.

ولكن في حين أن الدوائر المصغرة الجديدة ليست قادرة على شيء أكثر تعقيدًا. من أجل اختيار البنية المثالية لأحمال عمل الذكاء الاصطناعي ، من الضروري إجراء حسابات واسعة النطاق تتطلب إنتاجية عالية ولا يمكن الاستغناء عنها. مفتاح النجاح هنا هو الشبكات عالية السرعة. ولكن يجب أن تنتظر العديد من خوارزميات الذكاء الاصطناعي حتى يتم كتابة المجموعة التالية من البيانات ، لذلك يجب ألا تغيب عن التأخير.

بالإضافة إلى ذلك ، عند عبور حدود الخادم أو النقل من الخوادم إلى التخزين ، تمر البيانات من خلال عدة بروتوكولات. لتبسيط هذه العمليات ، قد يحاول خبراء البيانات تحديد موقع البيانات محليًا حتى يتمكن خادم واحد من معالجة أجزاء كبيرة من البيانات دون انتظار الآخرين. يساعد التكامل المحسن بين وحدات معالجة الرسومات ووحدات التخزين أيضًا على توفير المال. يبحث بائعون آخرون عن طرق لتبسيط تصميم خوادم الذكاء الاصطناعي لضمان التوافق بحيث يمكن استخدام نفس الخوادم لأحمال العمل المختلفة.

ذاكرة غير متطايرة لمعالجة أعباء العمل بالذكاء الاصطناعي


يوجد في قلب العديد من الحلول التي تستند إلى GPU محرك أقراص متصل (DAS) ، مما يعقد بشكل كبير التعلم الموزع وتشكيل الاستنتاجات المنطقية للذكاء الاصطناعي. ونتيجة لذلك ، أصبح تثبيت وإدارة خطوط البيانات هذه للتعلم العميق مهمة معقدة وتستغرق وقتًا طويلاً.

لحل هذه المشكلة ، تعد الذاكرة غير المتطايرة (NVM) مناسبة ، والتي تم تصميمها في الأصل لتوفير اتصال عالي الجودة بين محركات الأقراص ذات الحالة الصلبة (SSD) وخوادم الشركات التقليدية. غالبًا ما يتم تضمين هذا النوع من الذاكرة في مصفوفات الإدخال / الإخراج لتحسين أحمال عمل الذكاء الاصطناعي.

خلاصة القول هي أن NVMe over Fabrics (NVMeF) - ما يسمى هذه الواجهات - ستساعد في تقليل تكلفة التحويل بين بروتوكولات الشبكة والتحكم في خصائص كل نوع من SSD. سيسمح ذلك لمدراء تقنية المعلومات بتبرير تكلفة تطبيقات الذكاء الاصطناعي التي تستخدم مجموعات بيانات كبيرة.

واجهات NVMeF تنطوي على مخاطرها ، بما في ذلك الحاجة إلى تكاليف عالية للتقنيات المتقدمة. بالإضافة إلى ذلك ، لا يزال هناك اعتماد على موردي NVMeF في هذه الصناعة ، لذا يجب على مديري تكنولوجيا المعلومات محاولة تجنب العلاقات الخاصة بالبائع عند اختيار المنتج.
يعتقد فاراناسي أن تطبيق NVMeF سيسمح لك باتخاذ خطوة أخرى نحو تحسين هندسة الشركات للذكاء الاصطناعي.

يقول فاراناسي: "على الرغم من حقيقة أن توسيع بنية NVMe فوق الأقمشة على نطاق صناعي يمكن أن يستغرق عامًا أو عامًا ونصف آخر ، إلا أننا لدينا بالفعل المكونات الرئيسية ، وقد بدأ الرواد بالفعل في تحقيق نتائج واعدة".


يمكن لمدراء تقنية المعلومات الذين يرغبون في تطوير تطبيقات الذكاء الاصطناعي محاولة إنشاء مجموعة تخزين مشتركة محسنة للذكاء الاصطناعي لـ NVMeF إذا كان بإمكانهم استبدال شبكات التخزين الحالية بنجاح على المدى القصير. ولكن إذا انتظرت حتى يتوافق NVMeF مع الإصدارات السابقة ، فقد تخسر الكثير.

تقليل حركة البيانات


عند التخطيط لمختلف مراحل نشر الذكاء الاصطناعي ، تحتاج إلى إيلاء اهتمام خاص لتكلفة نقل البيانات. تتطلب مشاريع الذكاء الاصطناعي ، بما في ذلك تلك الخاصة بمعالجة البيانات وتحويلها ، بالإضافة إلى خوارزميات التدريب ، كميات هائلة من البيانات.

يمكن للأجهزة والموارد البشرية اللازمة لإكمال هذه المهام ، بالإضافة إلى الوقت المستغرق لنقل البيانات نفسها ، أن تجعل مشروعات الذكاء الاصطناعي مكلفة للغاية. إذا تمكن مديرو تقنية المعلومات من تجنب نقل البيانات بين المراحل ، فمن المحتمل أنهم سيكونون قادرين على تطوير بنية تحتية قابلة للتطبيق للذكاء الاصطناعي تلبي هذه الاحتياجات ، قال Haris Pozidis ، دكتوراه ، مدير أخصائي تكنولوجيا تسريع التخزين في IBM Research. يعمل المصنعون بالفعل على هذه المشكلة.

على سبيل المثال ، تقوم IBM بتجربة العديد من خيارات تحسين الأجهزة والبرامج لتقليل حركة البيانات لتطبيقات الذكاء الاصطناعي على نطاق واسع في المختبرات في زيوريخ. وقد ساعدت هذه التحسينات 46 مرة على زيادة أداء البرنامج النصي للاختبار لأداة تحليل النقرات الشائعة. يقول Pozidis أن التعلم الموزع وتسريع GPU هما في صميم هذا العمل ، مما يحسن دعم هياكل البيانات المتفرقة.

التزامن هو عنصر مهم آخر في تسريع أعباء العمل بالذكاء الاصطناعي. للتدريب الموزع ، من الضروري إجراء تغييرات على مستوى الأجهزة والبرامج ، مما سيحسن كفاءة المعالجة لخوارزميات معالج الرسومات المتوازي. ابتكر باحثو IBM نظامًا أوليًا للنموذج مع موازاة للبيانات ، والذي يسمح لك بالتوسع والتعلم على كميات كبيرة من البيانات التي تتجاوز مقدار الذاكرة على جهاز واحد. هذا مهم جدا للتطبيقات واسعة النطاق. ساعدت منصة جديدة محسنة لتعلم الاتصال وتوفير مكان البيانات على تقليل حركة البيانات.

على مستوى الأجهزة ، استخدم باحثو IBM NVMeF لتحسين الاتصال البيني لوحدة معالجة الرسومات ووحدة المعالجة المركزية ومكونات الذاكرة على الخوادم ، وكذلك بين الخوادم والتخزين.

"يمكن تقييد أداء أحمال عمل الذكاء الاصطناعي المختلفة باختناقات الشبكة وعرض النطاق الترددي للذاكرة وعرض النطاق الترددي بين وحدة المعالجة المركزية ووحدة معالجة الرسومات. ولكن إذا قمت بتطبيق خوارزميات وبروتوكولات اتصال أكثر كفاءة في جميع أجزاء النظام ، فيمكنك اتخاذ خطوة كبيرة نحو تطوير تطبيقات ذكاء اصطناعي أسرع.


الحوسبة المركبة

اليوم ، تستخدم معظم أحمال العمل قاعدة بيانات مسبقة التكوين محسنة لهندسة أجهزة معينة.


يقول تشاد مايلي ، نائب رئيس المنتجات والحلول التحليلية في Teradata ، إن السوق تتجه نحو الأجهزة التي تعتمد على البرمجيات ، والتي ستسمح للمؤسسات بتوزيع المعالجة بذكاء عبر وحدات معالجة الرسومات ووحدات المعالجة المركزية اعتمادًا على المهمة الحالية.


تكمن الصعوبة في حقيقة أن الشركات تستخدم محركات حوسبة مختلفة للوصول إلى خيارات تخزين مختلفة. تفضل الشركات الكبيرة تخزين البيانات القيمة التي تحتاج إلى الوصول المنتظم ، على سبيل المثال ، معلومات حول العملاء ، والتمويل ، وسلسلة التوريد ، والمنتجات والمكونات الأخرى ، باستخدام بيئات الإدخال والإخراج عالية الأداء. في المقابل ، يتم تخزين مجموعات البيانات التي نادرًا ما تستخدم ، مثل قراءات المستشعر ومحتوى الويب والوسائط المتعددة ، في التخزين السحابي منخفض التكلفة.

أحد أهداف الحوسبة المركبة هو استخدام الحاويات لتحسين أداء مثيلات مثل محركات SQL ، ومحركات الرسوم البيانية ، والتعلم الآلي ، ومحركات التعلم العميق التي تصل إلى البيانات الموزعة عبر مستودعات مختلفة. يسمح نشر العديد من محركات الحوسبة التحليلية باستخدام نماذج المعالجات المتعددة التي تستخدم البيانات من محركات مختلفة ، وكقاعدة عامة ، تحقق نتائج أفضل.

يبتعد بائعو تكنولوجيا المعلومات مثل Dell Technologies و Hewlett Packard Enterprise و Liquid تدريجياً عن البنى التقليدية التي تحدد أعباء العمل على مستوى الحوسبة. بدلاً من ذلك ، يسعون إلى تعيين أحمال عمل AI لنظام كامل يتكون من وحدات المعالجة المركزية ووحدات معالجة الرسومات والذاكرة وأجهزة التخزين. لمثل هذا الانتقال ، من الضروري إتقان مكونات الشبكة الجديدة ، مما يزيد من السرعة ويقلل من التأخير عند توصيل مكونات النظام المختلفة.

على سبيل المثال ، تستخدم العديد من مراكز البيانات السحابية إيثرنت لتوصيل مكونات الحوسبة والتخزين ، حيث يبلغ التأخير حوالي 15 ميكروثانية. يمكن لشبكة الكمبيوتر المحولة عالية السرعة من InfiniBand ، والتي يتم استخدامها في العديد من البنى التحتية المتقاربة ، أن تقلل من الكمون بما يصل إلى 1.5 ميكروثانية. ابتكر Liquid مجموعة من الأدوات لربط العقد المختلفة باستخدام PCI Express (PCIE) ، مما يقلل من التأخير إلى 150 نانو ثانية.

بالإضافة إلى ذلك ، يقترح بعض الخبراء زيادة حجم الذاكرة لوحدات معالجة الرسومات المستخدمة للتعامل مع الأحمال الكبيرة ذات التوصيلات السريعة. على سبيل المثال ، غالبًا ما يتم استخدام DDR4 مع ذاكرة الوصول العشوائي ، مما يقلل التأخير إلى 14 نانو ثانية. لكن هذا يعمل فقط مع الأجزاء الصغيرة التي يبلغ حجمها بضع بوصات.

يعتقد Little Marrek ، مؤسس ومطور خدمة إدارة ClusterOne AI ، أن هناك حاجة إلى مزيد من العمل لضمان توافق أحمال عمل الذكاء الاصطناعي في بيئة البرامج. على الرغم من حقيقة أن بعض الشركات تحاول بالفعل ضمان التوافق مع Docker و Kubernetes ، فمن السابق لأوانه تطبيق نفس النهج على وحدات معالجة الرسومات.

يقول ماريك: "بشكل عام ، تشغيل أحمال عمل GPU ومراقبتها ليس بالأمر السهل. "لا يوجد حل عالمي يسمح بمراقبة جميع الأنظمة."



التخزين وجرافيك


طريقة أخرى هي استخدام معالج رسومات لمعالجة البيانات مسبقًا لتقليل الكمية المطلوبة لنوع معين من التحليل ، والمساعدة في تنظيم البيانات وتعيين تسميات لها. سيسمح لك هذا بإعداد مجموعة بيانات مناسبة للعديد من وحدات معالجة الرسومات المشاركة في المعالجة ، بحيث يمكن أن تعمل الخوارزمية من داخل الذاكرة بدلاً من نقل البيانات من المخازن عبر الشبكات البطيئة.

قال أليكس سانت جون ، مدير تقنية المعلومات ومؤسس شركة Nyriad Ltd. ، وهي شركة برمجيات تخزين ظهرت في "نحن نعتبر التخزين والحوسبة والذاكرة كمكونات منفصلة للحل ، والتي تطورت تاريخياً ، وبالتالي نحاول زيادة أحجام المعالجة". نتيجة البحث عن أكبر تلسكوب راديوي في العالم - تلسكوب مع صفيف هوائي من الكيلومتر المربع (SKA).
كلما كبرت كميات البيانات ، زادت صعوبة نقلها إلى مكان ما للمعالجة.

احتاج تلسكوب SKA إلى كميات كبيرة من الطاقة لمعالجة 160 تيرابايت من بيانات الإشارات اللاسلكية في الوقت الحقيقي ، والتي كانت العقبة الرئيسية أمام الباحثين. ونتيجة لذلك ، قرروا التخلي عن مخازن RAID التي يتم استخدامها غالبًا في مراكز البيانات ونشر نظام ملفات كتلة متوازية ، مثل BeeGFS ، والذي يبسط إعداد البيانات لأحمال عمل الذكاء الاصطناعي.

يجب على مديري تكنولوجيا المعلومات الذين يعملون على الإستراتيجية المثلى لهندسة الذكاء الاصطناعي إيلاء اهتمام خاص لقابلية الاستخدام. إذا كان بإمكان المطورين والمتخصصين في البيانات وفرق التطوير والدمج في العمليات إتقان التكنولوجيا الجديدة بسرعة ، فيمكنهم استثمار وقتهم وطاقتهم في إنشاء منطق تجاري ناجح بدلاً من حل مشكلات النشر وخطوط البيانات.

بالإضافة إلى ذلك ، تحتاج المؤسسات إلى النظر بعناية في مقدار الجهد والوقت الذي ستستغرقه لبناء بنية ذكاء اصطناعي جديدة في النظام البيئي الحالي.

يقول Asaf Someh ، المؤسس والرئيس التنفيذي لشركة Iguazio: "قبل تنفيذ البنى التحتية الجديدة وتخطيط أعباء العمل الضخمة ، يحتاج مديرو المعلومات إلى تقييم عدد الموارد القابلة للنفاذ المطلوبة".

Source: https://habr.com/ru/post/ar415929/


All Articles