"قانون قياس دينارد وقانون مور ماتا ، والآن ماذا؟" - مسرحية في أربعة أعمال ديفيد باترسون"نحرق الجسور التي نندفع إليها هنا ، وليس لدينا أي دليل آخر على حركتنا ، باستثناء ذكريات رائحة الدخان وافتراض أنها تسببت في الدموع" - "مات روزنكرانتز وجيلدنستيرن" ، مسرحية عبثية لتوم ستوباردفي 15 مارس ، خاطب الدكتور ديفيد باترسون جمهورًا من حوالي 200 مهندس أكل البيتزا. أخبرهم الطبيب لفترة وجيزة بتاريخ نصف قرن من بناء أجهزة الكمبيوتر من المدرجات في غرفة المؤتمرات الكبيرة في المبنى E في حرم Texas Instruments في سانتا كلارا خلال محاضرة IEEE بعنوان "50 عامًا من هندسة الكمبيوتر: من وحدات المعالجة المركزية إلى DNN TPU و Open RISC-V". هذه قصة صعود وهبوط عشوائيين ، وتراجع وثقوب سوداء ابتلعت بنى كاملة.
بدأ باترسون في الستينيات بمشروع IBM System / 360 الرائد ، استنادًا إلى أعمال البرمجة الدقيقة التي قام بها موريس ويلكس في عام 1951. وفقًا لمعايير تكنولوجيا المعلومات ، كان منذ وقت طويل ... بالقرب من نهاية الخطاب ، أظهر باترسون رسمًا بيانيًا مذهلاً. إنه يوضح بوضوح كيف أن موت قانون دينارد للتحجيم ، متبوعًا بوفاة قانون مور ، قد غير أساليب التصميم لأنظمة الكمبيوتر تمامًا. وفي النهاية ، شرح العواقب التكنولوجية بعد هذه الصدمات.
من الجيد دائمًا أن ترى كيف ينخرط سيد حقيقي في حرفته المفضلة ، وباترسون هو بالفعل خبير في هندسة الكمبيوتر والقوى التي تحكمه. قام بتدريس هذا الموضوع منذ عام 1976 وشارك في تأليف أحد أكثر الكتب مبيعًا
، وهو هندسة الكمبيوتر. النهج الكمي " مع الدكتور جون هينيسي. الكتاب نجا مؤخرا من الطبعة السادسة. لذا كان باترسون أمرًا بحجم أكبر من علامة 10000 ساعة التي صاغها
مالكولم جلادويل لتحقيق إتقان في أي موضوع. وهو مرئي.
لفت باترسون انتباه الجمهور لمدة 75 دقيقة ، وقسم الأداء إلى أربعة أعمال. مثل مسرحية توم ستوبارد العبثية "Rosencrantz و Guildenstern ماتوا" ، يبدو أنه لا يوجد شيء في هذه القصة - لا شيء على الإطلاق - يسير على النحو المخطط له.
الدكتور ديفيد باترسون في قسم IEEE Santa Clara Valley في 15 مارس 2018 ، قبل منحه جائزة ACM Turing لعام 2017. المصدر: Steve Leibsonالفصل الأول: IBM System / 360 و DEC VAX و CISC Prelude
في الخمسينات والستينات من القرن الماضي ، أجريت تجارب فخمة مع معماريات مجموعة الأوامر (ISA) لأجهزة الكمبيوتر المركزية (في ذلك الوقت ، لم يتم تصميم أي أجهزة كمبيوتر تقريبًا باستثناء أجهزة الكمبيوتر المركزية). تقريبا كل حاسب مركزي لديه ISA "جديد ومحسن". بحلول أوائل الستينيات ، أصدرت شركة IBM فقط أربعة أسطر من أجهزة الكمبيوتر: 650 و 701 و 702 و 1401 ، مصممة لتطبيقات الأعمال والعلوم والتطبيقات في الوقت الفعلي. كلهم مع بنيات مجموعة أوامر غير متوافقة مع بعضها البعض. تعني أربع معايير دولية غير متوافقة أن شركة IBM كانت تطور وتحافظ على أربع مجموعات مستقلة تمامًا من الأجهزة الطرفية (محركات الأشرطة ، والأقراص / محركات الأقراص ، والطابعات) ، بالإضافة إلى أربع مجموعات من أدوات تطوير البرامج (المجمعات ، والمترجمون ، وأنظمة التشغيل ، وما إلى ذلك). .
من الواضح أن الوضع لا يبدو مستقرا. لذلك ، راهن IBM كبير. وقررت تطوير مجموعة تعليمات ثنائية متوافقة لجميع أجهزتها. مجموعة تعليمات واحدة مستقلة عن كل شيء. قام كبير المهندسين المعماريين جين أمدل وفريقه بتطوير بنية النظام / 360 ، المصممة ليتم تنفيذها في النطاق من سلسلة منخفضة التكلفة إلى سلسلة باهظة الثمن مع حافلات البيانات 8 و 16 و 32 و 64 بت.
لتبسيط تطوير المعالج لنظام IBM System / 360 ، قرر فريق التطوير استخدام الرمز الصغير لمنطق التحكم الصعب التصميم. اخترع موريس ويلكس الرمز الصغير في عام 1951 ، وتم استخدامه لأول مرة لأجهزة الكمبيوتر EDSAC 2 في عام 1958. بطريقة ما ، كان الرمز الصغير بالفعل تقنية مثبتة في الوقت الذي تم فيه إطلاق مشروع System / 360. وأثبت مرة أخرى قيمته.
انعكس الرمز الصغير للمعالج على الفور في تصميم الإطار الرئيسي ، خاصة عندما قامت رقائق ذاكرة أشباه الموصلات بإثبات قانون مور. ربما يكون أعظم مثال على الاستخدام المكثف للرمز الصغير هو DEC VAX ، الذي تم تقديمه في عام 1977. أصبح VAX 11/780 ، الكمبيوتر الصغير المبتكر القائم على TTL ورقائق الذاكرة ، المعيار للأداء حتى نهاية القرن.
قام مهندسو DEC بإنشاء ISA لـ VAX في وقت سادت فيه برمجة المجمّع ، ويرجع ذلك جزئيًا إلى القصور الهندسي ("فعلنا ذلك دائمًا") ، وجزئيًا لأن المترجمين البدائيين رفيعي المستوى في ذلك الوقت ولّدوا رمزًا لآلة تم فقدانه في الملخص المختصر المكتوب يدويًا رمز التجميع. دعمت تعليمات VAX ISA عددًا كبيرًا من أوضاع العنونة الصديقة للمبرمجين وتضمنت تعليمات منفصلة للآلة تؤدي عمليات معقدة ، مثل إدراج / حذف قائمة انتظار وحساب كثيرات الحدود. كان مهندسو VAX سعداء بتطوير الأجهزة التي جعلت الحياة أسهل للمبرمجين. جعل الرمز الصغير من السهل إضافة تعليمات جديدة إلى ISA - وتم تضخيم عنصر تحكم البرنامج الثابت لـ 99 بت VAX إلى 4096 كلمة.
أثبت هذا التركيز على زيادة عدد التعليمات باستمرار لجعل الحياة أسهل للمبرمجين التجميعيين أنها ميزة تنافسية حقيقية لـ VAX من DEC. يحب المبرمجون أجهزة الكمبيوتر التي تجعل عملهم أسهل. بالنسبة للعديد من مؤرخي الكمبيوتر ، يشير VAX 11/780 إلى ولادة بنية معالج CISC (مع مجموعة كاملة من التعليمات).
الفصل الثاني: النجاح العشوائي والفشل الكبير
بلغ كمبيوتر DEC VAX 11/780 ذروته عندما بدأ ازدهار المعالج. كانت جميع المعالجات الدقيقة تقريبًا من آلات CISC ، لأن تخفيف الحمل على المبرمج ظل ميزة تنافسية حتى عندما تم ضغط الكمبيوتر إلى شريحة واحدة. تم تكليف جوردون مور من إنتل ، الذي صاغ قانون مور في فيرتشايلد ، بتطوير ISA التالية ليحل محل ISA المشهورة بطريق الخطأ لـ Intel 8080/8085 (و Z80). أخذ جزء واحد من مشروع IBM System / 360 الناجح للغاية (واحد ISA لإدارة كل شيء) والآخر من خط DEC من الحواسيب الصغيرة CISC من DEC ، حاول Gordon Moore أيضًا تطوير بنية مجموعة تعليمات عالمية - Intel Intel واحد ، والذي سيعيش حتى النهاية قرون.
في ذلك الوقت ، كانت المعالجات الدقيقة 8 بت تعمل في مساحة عنوان 16 بت ، وتحتوي بنية مجموعة تعليمات Intel ISA الجديدة على مساحة عنوان 32 بت وحماية مدمجة للذاكرة. دعمت التعليمات بأي طول يبدأ بقليل. وتم برمجتها بأحدث وأكبر لغة عالية المستوى: Ada.
كان من المفترض أن يكون هذا ISA جزءًا من معالج Intel iAPX 432 ، وكان مشروعًا كبيرًا جدًا وطموحًا للغاية لشركة Intel.
إذا درست تاريخ iAPX 432 "الثوري" ، فستجد أنها انتهت بفشل رهيب. الأجهزة المطلوبة لبنية IAPX 432 معقدة للغاية. ونتيجة لذلك ، تم تحرير الشريحة بتأخير كبير. (تطلبت دورة تطوير لمدة 6 سنوات وظهرت فقط في عام 1981.) وعندما ظهر المعالج الدقيق أخيرًا ، اتضح أنه بطيء بشكل استثنائي.
أدرك مور في بداية المشروع أن تطوير iAPX 432 سيستغرق الكثير من الوقت ، لذلك في عام 1976 أطلق مشروعًا موازيًا لتطوير معالج 16 بت أقل طموحًا ، بناءً على تمديد ISA 8 بت الناجح من 8080 ، مع التوافق على مستوى المصدر كود. لم يكن لدى المطورين سوى عام واحد لإطلاق الشريحة ، لذلك تم منحهم ثلاثة أسابيع فقط لتطوير ISA. وكانت النتيجة معالج 8086 و ISA عالمي واحد ، على الأقل للعقود القليلة القادمة.
كانت هناك مشكلة فقط: وفقًا لوصف المطلعين على شركة إنتل ، فإن المعالج 8086 جاء ضعيفًا جدًا.
تأخر أداء Intel 8086 عن أداء أقرب منافسيها: Motorola 68000 الأنيق (معالج 32 بت في ملابس 16 بت) و 16 بت Zilog Z8000. على الرغم من الأداء الضعيف ، اختارت شركة IBM Intel 8086 لمشروع IBM PC ، لأن مهندسي Intel في إسرائيل قاموا بتطوير متغير 8088 - هو 8086 مع ناقل 8 بت. يعمل المعالج الدقيق 8088 بشكل أبطأ قليلاً من 8086 ، ولكن يبدو أن ناقله 8 بت أكثر توافقًا مع الرقائق الطرفية الموجودة وخفض تكلفة تصنيع اللوحة الأم للكمبيوتر الشخصي.
وفقًا لتوقعات شركة IBM ، كان من المخطط بيع حوالي 250.000 جهاز كمبيوتر شخصي من IBM. بدلاً من ذلك ، تجاوزت المبيعات 100 مليون ، وكانت Intel 8088 ناجحة بشكل عشوائي ولكن مطلق.
الفصل الثالث: ولادة RISC ، VLIW وغرق "Itanika"
في عام 1974 ، فور ظهور أول المعالجات الدقيقة التجارية ، حاول IBM John Kok تطوير معالج تحكم للوحة مفاتيح الهاتف الإلكترونية. ويقدر أن معالج التحكم يحتاج إلى تنفيذ حوالي 10 ملايين تعليمات في الثانية (MIPS) لتلبية متطلبات التطبيق. كانت المعالجات الدقيقة في ذلك الوقت ترتيبًا أبطأ من حيث الحجم ، وحتى المركزية IBM System / 370 لم تكن مناسبة لهذه المهمة: فقد ولدت حوالي 2 MIPS.
لذا ، قام فريق Kok ، في إطار المشروع 801 ، بتطوير بنية معالج حديثة بشكل جذري مع ناقل ناقل ودائرة تحكم سريعة بدون رمز مصغر - وقد تم ذلك عن طريق تقليل عدد التعليمات إلى الحد الأدنى لتبسيط الإدارة. (سميت الآلة IBM 801 لأنه تم تطويرها في مبنى 801 لمركز أبحاث Thomas J. Watson IBM Research Center). للمرة الأولى ، نفذت IBM 801 بنية RISC (مجموعة تعليمات مخفضة).
تم تصميم الكمبيوتر النموذجي 801 على رقائق صغيرة Motorola MECL 10K ، والتي أعطت معًا أداء غير مسبوق لـ 15 MIPS وتناسب بسهولة المتطلبات الفنية. نظرًا لأن مجموعة التعليمات المختصرة أقل ملاءمة للمبرمج من مجموعة تعليمات CISC ، كان على فريق Coca تطوير مترجمين محسنين. لقد تحملوا العبء الإضافي لإنشاء رمز آلة فعال من خوارزميات معقدة مكتوبة بلغات عالية المستوى.
بعد ذلك ، أصبح كوك يعرف باسم "والد RISC". لم تطرح شركة IBM مطلقًا مفتاحًا هاتفيًا ، لكن المعالج 801 تطور وأصبح في النهاية أساسًا لخط IBM الكبير من معالجات RISC ، المستخدمة على نطاق واسع في أجهزة الكمبيوتر المركزية والخوادم.
في وقت لاحق ، وجد العديد من المهندسين في DEC أن حوالي 20 ٪ من تعليمات CISC من VAX تحتل حوالي 80 ٪ من الرمز الصغير ، ولكن فقط 0.2 ٪ من إجمالي وقت تنفيذ البرنامج. مثل هذه التكلفة! بالنظر إلى نتائج مشروع IBM 801 ونتائج مهندسي DEC ، يمكن افتراض أن بنية CISC ليست رائعة.
تم تأكيد الافتراض.
في عام 1984 ، نشر الأستاذ في جامعة ستانفورد جون هينيسي مقالًا بارزًا في مجلة
IEEE Transactions on Computers بعنوان
"هندسة معالجات VLSI" ، حيث أثبت تفوق البنايات و ISA على RISC لعمليات تنفيذ معالجات VLSI. لخص باترسون برهان هينيسي في حديثه: RISC هو بحكم تعريفه أسرع لأن آلات CISC تتطلب دورات تعليمية أكثر بـ 6 مرات من آلات RISC. على الرغم من أن جهاز CISC يحتاج إلى إكمال نصف الإرشادات للمهمة نفسها ، إلا أن كمبيوتر RISC أسرع ثلاث مرات من CISC.
لذلك ، يبدو أن معالجات x86 في أجهزة الكمبيوتر الحديثة لا تنفذ إلا تعليمات البرامج المتوافقة مع CISC ، ولكن بمجرد دخول هذه التعليمات من ذاكرة الوصول العشوائي الخارجية إلى المعالج ، يتم تقطيعها / تقطيعها على الفور إلى أجزاء من "أوامر صغيرة" أبسط (كما تطلب Intel تعليمات RISC) ، والتي ثم طابور وتنفيذها في العديد من خطوط أنابيب RISC. أصبحت معالجات x86 اليوم أسرع ، وتحولت إلى آلات RISC.
قرر العديد من مطوري هندسة المعالج تطوير ISA ، والتي ستكون أفضل بكثير من RISC أو CISC. بمساعدة تعليمات الآلة الطويلة جدًا (VLIW) ، أصبح من الممكن تجميع العديد من العمليات المتوازية في تعليمات آلة واحدة ضخمة. أطلق المهندسون المعماريون على هذا الإصدار من ISA اسم VLIW (كلمة تعليمات طويلة جدًا). تقوم ماكينات VLIW باستعارة أحد مبادئ تشغيل RISC ، وتكليف المترجم بمهمة التخطيط والتعبئة في كود الماكينة تعليمات VLIW الناتجة من كود المصدر عالي المستوى.
قررت إنتل أن بنية VLIW تبدو جذابة للغاية - وبدأت في تطوير معالج VLIW ، والذي سيصبح تطبيقه لدخول العالم القادم الذي لا مفر منه من معالجات 64 بت. أطلقت شركة Intel على VLIW ISA IA-64. كالعادة ، قامت Intel بتطوير تسميتها الخاصة وأسمائها للمصطلحات المألوفة. في Intel Jargon ، تطورت VLIW إلى EPIC (حوسبة التعليمات الموازية بشكل صريح). لا يجب أن تستند بنية EPIC إلى مجموعة تعليمات x86 ، وذلك جزئيًا لمنع AMD من النسخ.
في وقت لاحق ، قرر مهندسو HP PA-RISC أيضًا أن إمكانات تطوير RISC قد استنفدت تقريبًا - وأصبحوا أيضًا مصابين بـ VLIW. في عام 1994 ، تعاونت HP مع Intel لتطوير بنية VLIW / EPIC 64 بت مشتركة. سيتم استدعاء النتيجة Itanium. تم الإعلان عن الهدف بإطلاق أول معالج إيتانيوم في عام 1998.
ومع ذلك ، سرعان ما أصبح من الواضح أنه سيكون من الصعب تطوير معالجات ومجمعي VLIW. لم تعلن Intel عن اسم Itanium حتى عام 1999 (أطلق الخفة في Usenet على الفور اسم المعالج "Itanik") ، وتم إصدار أول معالج يعمل فقط في عام 2001. انتهى الأمر بـ Itanic غرق بأمان في عام 2017 عندما أعلنت Intel عن الانتهاء من العمل على IA-64. (راجع
"Intel غرقت Itanium: ربما أغلى مشروع معالج فاشل في العالم." )
أصبحت هندسة EPIC أيضًا فشلًا ملحميًا - إصدار معالج دقيق من JJ Jinx من Star Wars. على الرغم من أنها بدت في وقت من الأوقات فكرة جيدة.
توفي معالجات Itanium و EPIC و VLIW لعدة أسباب ، يقول باترسون:
- الفروع غير المتوقعة التي تعقد التخطيط وتغليف العمليات المتوازية في كلمات أمر VLIW.
- أخطأت ذاكرة التخزين المؤقت غير المتوقعة في إبطاء التنفيذ وأدت إلى تأخيرات متغيرة في التنفيذ.
- تضخم مجموعات تعليمات VLIW مقدار التعليمات البرمجية.
- اتضح أنه من الصعب جدًا إنشاء مجمعات تحسين جيدة لآلات VLIW.
ربما لاحظ أشهر المتخصصين في العالم في خوارزميات الكمبيوتر دونالد كنوث: "نهج Itanium ... بدا رائعًا جدًا - حتى اتضح أن المترجمين المطلوبين كان من المستحيل في الأساس الكتابة".
يبدو أن المترجمين يقومون بعمل أفضل مع البنى البسيطة مثل RISC.
لم تصنع معماريات VLIW معالجات دقيقة عالمية. لكن فيما بعد وجدوا دعوتهم ، التي تأخذنا إلى الفصل الرابع من المسرحية.
القانون الرابع: قانون دينارد للقياس وقانون مور مات ، لكن DSA و TPU و Open RISC-V على قيد الحياة
في مسرحية توم ستوبارد ، Rosencrantz و Guildenstern ماتوا ، شخصان غير مهمين تم انتزاعهما من شكسبير هاملت يفهمان أخيرًا في نهاية الفصل الأخير أنهم ماتوا طوال المسرحية. في الفصل الأخير من تاريخ المعالج ، توفي باترسون بسبب قانون دينارد للتحجيم وقانون مور. فيما يلي رسم من أحدث طبعة من كتاب Hennessey و Patterson ، والذي يوضح القصة الكاملة بيانيًا:
المصدر: John Hennessey and David Patterson، "Computer Architecture. النهج الكمي "، الطبعة السادسة. 2018يوضح الرسم البياني أن المعالجات الدقيقة RISC قدمت ما يقرب من عشرين عامًا من النمو السريع للإنتاجية من 1986 إلى 2004 ، حيث تطورت وفقًا لقانون مور (ضعف عدد الترانزستورات في كل جولة جديدة من تكنولوجيا العملية) وقانون دينارد للتحجيم (مضاعفة السرعة مع انخفاض مزدوج في استهلاك الطاقة لكل ترانزستور من خلال كل فرع جديد من تكنولوجيا العملية). ثم مات قانون تحجيم Dennard - وتوقف المعالجات الفردية عن التسارع. توقف استهلاك الطاقة للترانزستور أيضًا عن النصف في كل مرحلة.
عوضت الصناعة عن ذلك من خلال الاعتماد فقط على قانون مور لمضاعفة عدد الترانزستورات - وزيادة عدد المعالجات على الشريحة بسرعة ، ودخول عصر متعدد النواة. زادت فترة مضاعفة الإنتاجية من 1.5 إلى 3.5 سنة خلال هذه الحقبة ، والتي استمرت أقل من عشر سنوات ، قبل دخول قانون أمدال حيز التنفيذ (أعيدت صياغته على أنه "هناك استغلال محدود للتوازي في كل تطبيق"). يمكن لعدد قليل من التطبيقات تحميل عشرات المعالجات بالكامل.
ثم مات قانون مور أيضا.
وفقًا لـ Patterson ، فإن النتيجة هي أنه منذ عام 2015 انخفض نمو أداء المعالج إلى 3٪ في السنة. قانون مور تضاعف يحدث الآن في 1.5 ولا حتى 3.5 سنة. الآن
عمرها عشرين سنة .
نهاية اللعبة؟ يقول باترسون: "لا". في هندسة المعالج ، يمكنك تجربة بعض الأشياء الأكثر إثارة للاهتمام.
أحد الأمثلة: البنيات الخاصة بالمجال (DSAs) هي معالجات مصممة خصيصًا تحاول تسريع تنفيذ عدد صغير من المهام لتطبيقات معينة. لا تعتبر معماريات VLIW مناسبة للمعالجات العالمية ، ولكنها منطقية لتطبيقات DSP ذات الفروع الأقل بكثير. مثال آخر: Google TPU (وحدة معالجة Tensor) ، تسريع تنفيذ DNN (Deep Neural Network ، باستخدام كتلة 65 536 وحدة من إضافة الضرب (MAC) على شريحة واحدة.
اتضح أن حوسبة المصفوفة بدقة منخفضة هي المفتاح لتحقيق أسماء DNN سريعة حقًا. تعمل 65.536 كتلة MAC ذات ثمانية بت في Google TPU على 700 ميجاهرتز وتقدم 92 أداء TOPS (عمليات في الثانية). هذا أسرع بنحو 30 مرة من وحدة المعالجة المركزية للخادم و 15 مرة أسرع من وحدة معالجة الرسومات.
اضرب في نصف استهلاك الطاقة في 28 نانومتر TPU مقارنة بخادم وحدة المعالجة المركزية أو وحدة معالجة الجرافيكس - واحصل على ميزة في الطاقة / الطاقة بنسبة 60 و 30 مرة على التوالي.بمصادفة غريبة ، استقال البروفيسور ديفيد باترسون مؤخرًا من جامعة كاليفورنيا في بيركلي بعد التدريس والعمل هناك لمدة 40 عامًا. وهو الآن يشغل منصب "مهندس مشرف" في Google لمشروع تطوير TPU.شيء آخر مثير للاهتمام هو إنشاء معماريات ISA مفتوحة المصدر ، كما يقول باترسون. مثل هذه المحاولات السابقة ، بما في ذلك OpenRISC و OpenSPARC ، لم تنطلق ، لكن باترسون تحدث عن ISA جديد مفتوح المصدر تمامًا - هذا هو RISC-Vالتي ساعد في تطويرها في بيركلي. يقول باترسون ، انظر إلى SoC ، وسترى العديد من المعالجات ذات معايير التدقيق الدولية المختلفة. "لماذا؟" يسأل سؤالاً.لماذا نحتاج إلى ISA عالمي ، ISA آخر لمعالجة الصور ، وكذلك ISA لمعالجة الفيديو ، لمعالجة الصوت و ISA DSP على شريحة واحدة؟ لماذا لا تصنع معيارًا واحدًا أو أكثر من معايير التدقيق الدولية البسيطة (ومجموعة واحدة من أدوات تطوير البرمجيات) التي يمكن إعادة استخدامها لتطبيقات معينة؟ لماذا لا تجعل ISA مفتوحة المصدر حتى يتمكن الجميع من استخدام هذه البنية مجانًا وتحسينها؟ جواب باترسون الوحيد على هذه الأسئلة هو RISC-V ISA. مؤسسة RISC-V التيتم تشكيلها مؤخرًامماثلة في المفهوم لمؤسسة لينكس الناجحة. وقد شمل بالفعل أكثر من 100 شركة ، وتولى عمل توحيد RISC-V ISA. تتمثل مهمة الصندوق في المساهمة في تنفيذ RISC-V ISA وتطويره في المستقبل. من قبيل الصدفة ، الدكتور ديفيد باترسون ، "المتقاعد" ، هو نائب رئيس مؤسسة RISC-V.مثل Rosencrantz و Guildenstern ، ينتهي قانون تحجيم Dennard وقانون Moore في نهاية مسرحية Patterson التاريخية ، ولكن الأحداث المثيرة للاهتمام في هندسة الكمبيوتر بدأت للتو.وقالت المسرحية "لا يوجد شيء غير مقنع أكثر من الموت غير المقنع".الخاتمة: في 21 مارس ، بعد أسبوع واحد فقط من التحدث في IEEE ، اعترفت جمعية تكنولوجيا الحوسبة (ACM) بمساهمة باترسون وهينيسي في هندسة الكمبيوتر من خلال منحهم جائزة ACM Turing لعام 2017 "لمنهج حاسوبي مبتكر ومنهجي لتصميم وتقييم بنيات الكمبيوتر التي وفرت تأثير دائم على صناعة المعالجات الدقيقة ".