على الرغم من التحسينات المستمرة والتقدم التدريجي في كل جيل جديد ، لم تحدث تغييرات جوهرية في صناعة المعالجات لفترة طويلة. كانت الخطوة الكبيرة إلى الأمام هي الانتقال من الفراغ إلى الترانزستورات ، وكذلك الانتقال من المكونات الفردية إلى الدوائر المتكاملة. ومع ذلك ، من بعدهم ، لم تحدث تحولات نموذجية خطيرة من نفس الحجم.
نعم ، أصبحت الترانزستورات أصغر ، وأسرع في الرقائق ، وزاد الأداء مئات المرات ، لكننا بدأنا نرى الركود ...
هذا هو الجزء الرابع والأخير من سلسلة من المقالات حول تطوير وحدة المعالجة المركزية التي تتحدث عن تصميم وتصنيع المعالجات. بدءًا من المستوى العالي ، تعلمنا كيفية تجميع رمز الكمبيوتر في لغة التجميع ، ثم في الإرشادات الثنائية التي تفسرها وحدة المعالجة المركزية. ناقشنا كيفية تصميم بنية المعالج ويقومون بمعالجة التعليمات. ثم نظرنا إلى الهياكل المختلفة التي تشكل المعالج.
أعمق قليلاً في هذا الموضوع ، رأينا كيف يتم إنشاء هذه الهياكل ، وكيف تعمل بلايين الترانزستورات معًا داخل المعالج. درسنا عملية التصنيع المادي للمعالجات من السيليكون الخام. لقد تعلمنا حول خصائص أشباه الموصلات وكيف تبدو الأجزاء الداخلية للرقاقة. إذا فاتتك أي موضوع ، فإليك قائمة بالمقالات في السلسلة:
الجزء 1: أساسيات هندسة الكمبيوتر (هندسة مجموعة التعليمات ، التخزين المؤقت ، خطوط الأنابيب ، التشعب)
الجزء 2: عملية تصميم وحدة المعالجة المركزية (الدوائر الكهربائية ، الترانزستورات ، عناصر المنطق ، التزامن)
الجزء 3: تخطيط والتصنيع المادي للرقاقة (VLSI وتصنيع السيليكون)
الجزء 4: الاتجاهات الحالية والاتجاهات المستقبلية الهامة في هندسة الكمبيوتر (بحر من المعجلات ، والتكامل ثلاثي الأبعاد ، FPGA ، بالقرب من حوسبة الذاكرة)
دعنا ننتقل إلى الجزء الرابع. لا تتقاسم شركات التطوير مع الجمهور أبحاثهم أو تفاصيل التقنيات الحديثة ، لذلك من الصعب علينا أن نتخيل بوضوح ما هو بالضبط داخل وحدة المعالجة المركزية للكمبيوتر. ومع ذلك ، يمكننا إلقاء نظرة على الأبحاث الحديثة ومعرفة الاتجاه الذي تسير فيه الصناعة.
واحدة من الصور الشهيرة لصناعة المعالجات هو قانون مور. تقول أن عدد الترانزستورات في الشريحة يتضاعف كل 18 شهرًا. لفترة طويلة ، كانت قاعدة التجربة هذه عادلة ، لكن النمو بدأ في التباطؤ. تصبح الترانزستورات صغيرة جدًا بحيث نبدأ في الاقتراب من حدود الأحجام المادية القابلة للتحقيق. بدون تكنولوجيا جديدة ثورية ، سيتعين علينا استكشاف إمكانيات أخرى لنمو الإنتاجية في المستقبل.
قانون مور لمدة 120 سنة. يصبح هذا الرسم أكثر إثارة للاهتمام إذا علمت أن آخر 7 نقاط تتعلق بجرافيك نفيديا ، وليس بمعالجات للأغراض العامة. ستيف Jarvetson التوضيحاستنتاج واحد يأتي من هذا التحليل: لزيادة الإنتاجية ، بدأت الشركات في زيادة عدد النوى بدلاً من التردد. لهذا السبب ، نحن نلاحظ كيف يتم استخدام المعالجات ثمانية النواة على نطاق واسع ، بدلاً من المعالجات ثنائية النواة بتردد 10 جيجا هرتز. ليس لدينا مجال كبير للنمو ، باستثناء إضافة نوى جديدة.
من ناحية أخرى ، يعد مجال
الحوسبة الكمومية بمساحة هائلة للنمو في المستقبل. لست متخصصًا ، وحيث أن تقنياتها لا تزال قيد التطوير ، فلا يزال هناك عدد قليل من "المتخصصين" الحقيقيين في هذا المجال. لتبديد الخرافات ، سأقول أن الحوسبة الكمومية لن تكون قادرة على توفير 1000 لقطة في الثانية في عرض واقعي ، أو شيء من هذا القبيل. الميزة الأساسية لأجهزة الكمبيوتر الكمومية حتى الآن هي أنها تسمح باستخدام خوارزميات أكثر تعقيدًا لم يكن من الممكن الوصول إليها من قبل.
أحد النماذج الأولية لأجهزة كمبيوتر الكم IBMفي أجهزة الكمبيوتر التقليدية ، يتم تشغيل الترانزستور أو إيقاف تشغيله ، وهو ما يتوافق مع 0 أو 1. في الكمبيوتر الكمومي ، يكون
التراكب ممكنًا ، أي أنه يمكن أن يكون قليلاً في نفس الوقت في حالات 0 و 1. وبفضل هذه الميزة الجديدة ، يمكن للعلماء تطوير طرق حسابية جديدة من أجل سيكونون قادرين على حل المشكلات التي لا نزال نمتلك قوة حسابية كافية. النقطة المهمة ليست أن أجهزة الكمبيوتر الكمومية أسرع ، ولكنها نموذج حوسبة جديد يتيح لنا حل أنواع أخرى من المشاكل.
لا يزال هناك عقد أو عقدين من الزمن قبل التقديم الشامل لهذه التكنولوجيا ، فما هي الاتجاهات التي بدأنا نراها في المعالجات الحقيقية اليوم؟ تجري الآن عشرات الأبحاث النشطة ، لكنني سأتطرق فقط إلى بعض المجالات التي سيكون لها ، في رأيي ، أكبر الأثر.
الاتجاه المتزايد هو تأثير
الحوسبة غير المتجانسة . تتكون هذه التقنية من دمج العديد من عناصر الحوسبة المختلفة في نظام واحد. معظمنا يستفيد من هذا النهج كوحدات معالجة منفصلة منفصلة في أجهزة الكمبيوتر. يتميز المعالج المركزي بمرونة عالية ويمكنه بسرعة عالية من أداء مجموعة واسعة من مهام الحوسبة. من ناحية أخرى ، تم تصميم وحدات معالجة الرسومات خصيصًا للحوسبة الرسومية ، مثل ضرب المصفوفة. إنهم يتعاملون جيدًا مع هذا الأمر ويعد حجم الطلبات أسرع من وحدة المعالجة المركزية في مثل هذه الأنواع من التعليمات. نقل جزء من الحسابات الرسومية من وحدة المعالجة المركزية إلى GPU ، يمكننا تسريع العمليات الحسابية. يمكن لأي مبرمج تحسين البرنامج عن طريق تغيير الخوارزمية ، ولكن تحسين الجهاز أكثر صعوبة بكثير.
لكن وحدة معالجة الرسومات ليست المجال الوحيد الذي أصبحت فيه المعجلات أكثر شعبية. تحتوي معظم الهواتف الذكية على العشرات من مسرعات الأجهزة المصممة لتسريع مهام محددة للغاية. يُطلق على هذا النمط من الحوسبة اسم
Sea of Accelerators ، ومن الأمثلة على ذلك معالجات التشفير ومعالجات الصور ومسرعات التعلم الآلي وأجهزة تشفير / فك ترميز الفيديو والمعالجات البيومترية والمزيد.
أصبحت الأحمال أكثر وأكثر تخصصًا ، لذلك يقوم المصممون بتضمين المزيد من المعجلات في رقائقهم. بدأ مزودو الخدمات السحابية ، مثل AWS ، في تزويد المطورين ببطاقات FPGA لتسريع الحوسبة السحابية الخاصة بهم. على عكس عناصر الحوسبة التقليدية مثل وحدات المعالجة المركزية ووحدات معالجة الرسومات ، التي تتميز ببنية داخلية ثابتة ، فإن FPGAs مرنة. هذا هو تقريبا المعدات القابلة للبرمجة التي يمكن تخصيصها لتناسب احتياجات الشركة.
إذا احتاج شخص ما إلى التعرف على الصور ، فسيقوم بتنفيذ هذه الخوارزميات في الجهاز. إذا أراد شخص ما محاكاة عمل بنية الأجهزة الجديدة ، فقبل التصنيع يمكن اختباره على FPGA. يوفر FPGA أداءً وكفاءة طاقة أكبر من وحدة معالجة الرسومات ، ولكن لا يزال أقل من ASIC (دائرة متكاملة خاصة بالتطبيقات - دائرة متكاملة متعددة الأغراض). تقوم شركات أخرى ، مثل Google و Nvidia ، بتطوير أسيك للتعلم الآلي منفصلة لتسريع التعرف على الصور وتحليلها.
لقطات بلورية من المعالجات المحمولة الشعبية التي تبين هيكلها.عند النظر إلى الصور الكريستالية المتعلقة بالمعالجات الحديثة ، يمكنك أن ترى أن النواة نفسها لا تشغل بالفعل غالبية منطقة وحدة المعالجة المركزية. مختلف المعجلات تأخذ حصة أكبر. هذا جعل من الممكن تسريع الحسابات المتخصصة للغاية ، وكذلك تقليل استهلاك الطاقة بشكل كبير.
في السابق ، عندما كان من الضروري إضافة نظام معالجة الفيديو ، كان على المطورين تثبيت شريحة جديدة به. ومع ذلك ، فإنه غير فعال للغاية من حيث استهلاك الطاقة. في كل مرة تحتاج فيها إشارة ما إلى الخروج من شريحة عبر موصل مادي إلى شريحة أخرى ، يلزم توفير كمية هائلة من الطاقة لكل بت. لا يبدو أن الجزء الصغير من جول نفسه مضيعة كبيرة للغاية ، لكن نقل البيانات داخل الشريحة وخارجها يمكن أن يكون أكثر فعالية من 3 إلى 4 أوامر. بفضل تكامل هذه المعجلات مع وحدة المعالجة المركزية ، شهدنا مؤخرًا زيادة في عدد الرقائق مع استهلاك طاقة منخفض للغاية.
ومع ذلك ، فإن المعجلات ليست مثالية. وكلما أضفناها إلى الدائرة ، كلما أصبحت الشريحة أقل مرونة وبدأنا في التضحية بالأداء العام لصالح أعلى أداء للأنواع المتخصصة من الحوسبة. في مرحلة ما ، تتحول الشريحة بالكامل إلى مجموعة من المعجلات وتتوقف عن أن تكون وحدة المعالجة المركزية مفيدة. دائماً ما يتم ضبط التوازن بين أداء الحوسبة المتخصصة والأداء العام بعناية فائقة. ويسمى هذا التناقض بين المعدات للأغراض العامة والأحمال
المتخصصة فجوة التخصص .
على الرغم من أن بعض الناس يعتقدون. نظرًا لأننا في ذروة فقاعة GPU / Machine Learning ، فمن المحتمل أن نتوقع أن يتم نقل المزيد والمزيد من الحوسبة إلى مسرعات متخصصة. تستمر الحوسبة السحابية و الذكاء الاصطناعي في التطور ، لذلك تبدو وحدات معالجة الرسومات هي الحل الأفضل لتحقيق مستوى الحوسبة الحجمية المطلوبة.
المجال الآخر الذي يبحث فيه المصممون عن طرق لزيادة الإنتاجية هو الذاكرة. تقليديا ، كانت القراءة والكتابة القيم دائما واحدة من أخطر الاختناقات في المعالجات. يمكن أن تساعدنا ذاكرات التخزين المؤقت السريعة والكبيرة ، لكن القراءة من ذاكرة الوصول العشوائي أو SSD قد تستغرق عشرات الآلاف من دورات الساعة. لذلك ، غالباً ما يرى المهندسون أن الوصول إلى الذاكرة أغلى من الحسابات بأنفسهم. إذا أراد المعالج إضافة رقمين ، فعليه أولاً حساب عناوين الذاكرة التي يتم تخزين الأرقام بها ، ومعرفة مستوى التسلسل الهرمي للذاكرة الموجود في هذه البيانات ، وقراءة البيانات في السجلات ، وإجراء العمليات الحسابية ، وحساب عنوان المستقبل ، وكتابة القيمة في المكان المناسب. للحصول على تعليمات بسيطة ، والتي قد تستغرق دورة أو دورتين ، فإن هذا غير فعال للغاية.
الفكرة الجديدة التي يتم استكشافها بنشاط هي تقنية تسمى
Near Memory Computing . بدلاً من استرجاع أجزاء صغيرة من البيانات وحسابها بمعالج سريع ، قام الباحثون بقلب العمل رأسًا على عقب. وهم يقومون بتجربة إنشاء معالجات صغيرة مباشرة في وحدات تحكم ذاكرة RAM أو SSD. نظرًا لحقيقة أن الحسابات تقترب من الذاكرة ، هناك احتمال لتحقيق وفورات هائلة في الطاقة والوقت ، لأن البيانات لم تعد بحاجة إلى نقلها كثيرًا. تتمتع وحدات الحوسبة بوصول مباشر إلى البيانات التي تحتاجها ، لأنها في الذاكرة مباشرة. لا تزال هذه الفكرة في مهدها ، لكن النتائج تبدو واعدة.
واحدة من العقبات التي يجب التغلب عليها من أجل الحوسبة القريبة من الذاكرة هي القيود المفروضة على عملية التصنيع. كما هو مذكور في
الجزء الثالث ، فإن عملية إنتاج السيليكون معقدة للغاية وتتضمن عشرات المراحل. عادةً ما تكون هذه العمليات متخصصة لتصنيع عناصر منطقية سريعة أو عناصر تخزين كثيفة المسافات. إذا حاولت إنشاء شريحة ذاكرة باستخدام عملية تصنيع مُحسّنة للحوسبة ، فستحصل على شريحة ذات كثافة منخفضة للغاية من العناصر. إذا حاولنا إنشاء معالج باستخدام عملية تصنيع محرك الأقراص ، فسنحصل على أداء منخفض للغاية وتوقيت كبير.
مثال تكامل ثلاثي الأبعاد يوضح التوصيلات الرأسية بين طبقات الترانزستور.أحد الحلول المحتملة لهذه المشكلة هو
التكامل ثلاثي الأبعاد . المعالجات التقليدية لديها طبقة واحدة واسعة جدا من الترانزستورات ، ولكن هذا له حدوده. كما يوحي الاسم ، فإن التكامل ثلاثي الأبعاد هو عملية ترتيب عدة طبقات من الترانزستورات فوق بعضها البعض لزيادة الكثافة وتقليل التأخير. يمكن بعد ذلك استخدام الأعمدة الرأسية المنتجة في عمليات التصنيع المختلفة للربط بين الطبقات. تم اقتراح هذه الفكرة منذ وقت طويل ، لكن الصناعة فقدت الاهتمام بها بسبب الصعوبات الخطيرة في تنفيذها. في الآونة الأخيرة ، نشهد ظهور تكنولوجيا تخزين 3D NAND وإحياء هذا المجال من البحوث.
بالإضافة إلى التغييرات الفيزيائية والمعمارية ، سيؤثر اتجاه آخر بقوة على صناعة أشباه الموصلات بأكملها - وهو التركيز الأكبر على الأمن. حتى وقت قريب ، فكرت سلامة المعالج في اللحظة الأخيرة تقريبًا. هذا مشابه لكيفية تطوير الإنترنت والبريد الإلكتروني والعديد من الأنظمة الأخرى التي نستخدمها بنشاط اليوم دون أي اعتبار للأمان. تم "فك ثقل" جميع التدابير الوقائية الحالية عند وقوع الحوادث ، حتى نشعر بالأمان. في مجال المعالجات ، أضرت مثل هذه التكتيكات الشركات ، وخاصة إنتل.
يعد Bugs Specter و Meltdown من أشهر الأمثلة على كيفية قيام المصممين بإضافة ميزات تسرع المعالج بشكل كبير ، ولا يدركون تمامًا مخاطر الأمان المرتبطة بذلك. في تطوير المعالجات الحديثة ، يتم إيلاء المزيد من الاهتمام للأمن كجزء أساسي من الهندسة المعمارية. عند تحسين الأمان ، غالباً ما يعاني الأداء ، ولكن نظرًا للأضرار التي قد تسببها الأخطاء الأمنية الخطيرة ، يمكن القول بأمان أنه من الأفضل التركيز على الأمان بنفس القدر على الأداء.
في الأجزاء السابقة من السلسلة ، تطرقنا إلى تقنيات مثل التوليف عالي المستوى ، والذي يسمح للمصممين بوصف الهيكل أولاً بلغة عالية المستوى ، ثم السماح للخوارزميات المعقدة بتحديد التكوين الأمثل للأجهزة للوظيفة. مع كل جيل ، أصبحت دورات التصميم أكثر تكلفة ، لذلك يبحث المهندسون عن طرق لتسريع عملية التطوير. من المتوقع أن يزداد هذا الاتجاه في تصميم الأجهزة مع البرامج في المستقبل.
بالطبع ، لسنا قادرين على التنبؤ بالمستقبل ، لكن الأفكار ومجالات البحث التي بحثناها في المقالة يمكن أن تكون بمثابة إرشادات للتوقعات في تصميم المعالجات المستقبلية. يمكننا القول بثقة أننا نقترب من نهاية التحسينات المعتادة لعملية التصنيع. للاستمرار في زيادة الإنتاجية في كل جيل ، سيتعين على المهندسين ابتكار حلول أكثر تعقيدًا.
نأمل أن حفزت سلسلة المقالات الأربعة لدينا اهتمامك بدراسة تصميم المعالجات والتحقق منها وإنتاجها. يوجد عدد لا حصر له من المواد حول هذا الموضوع ، وإذا حاولنا الكشف عنها جميعًا ، فيمكن أن تتحول كل مادة إلى مادة جامعية كاملة. آمل أن تكون قد تعلمت شيئًا جديدًا وأن تفهم الآن بشكل أفضل كيف تكون أجهزة الكمبيوتر المتطورة في كل مستوى.