الجزء 1: 1976-1995الجزء 2: 3Dfx الفودوالجزء 3: توحيد السوق ، بداية عصر المنافسة بين نفيديا و ATIقبل وصول DirectX 10 ، لم تكن هناك فائدة من إضافة التعقيد الاختياري إلى الرقاقات ، مما أدى إلى توسيع مساحة الرقاقة ، مما زاد من وظائف تظليل vertex ، فضلاً عن دقة معالجة أرقام الفاصلة العائمة لتظليل البيكسلات من 24 إلى 32 بت لتلبية متطلبات عمليات vertex. بعد ظهور DX10 ، احتفظ تظليل الرأس والبيكسل بمستوى عالٍ من الوظائف الكلية ، وبالتالي فإن الانتقال إلى التظليل المعمم وفر الكثير من التكرار غير الضروري لوحدات المعالجة. أول GPU لاستخدام هذه الهندسة المعمارية كان G80 الأسطوري من Nvidia.
بفضل أربع سنوات من التطوير و 475 مليون دولار ، تم تصنيع وحش بـ 681 مليون الترانزستور ومساحة 484 مم مربع ، تم إصداره لأول مرة على الرائد
8800 GTX و 8800 GTS 640MB في 8 نوفمبر 2006. كانت GTX فيركلوكيد 8800 Ultra قمة قوة G80 ؛ تم إصداره بين اثنين من المنتجات الأقل أهمية: 320 ميغابايت GTS في فبراير و GTS 640MB / 112 مع إصدار محدود في 19 نوفمبر 2007.
GTX ، المجهزة بخوارزمية جديدة للتغطية على نماذج التغطية ، CSAA ، بفضل أدائها الذي لا يضاهى ، فقد هزم جميع المنافسين بشريحة واحدة ورقبتين. على الرغم من هذا النجاح ، فقد خسرت الشركة في الربع الرابع ثلاثة في المائة من سوق الرسومات المنفصلة ، والذي يرجع إلى قوة عقود تصنيع المعدات الأصلية إلى AMD.
غيفورسي 8800 GTX في MSIتحققت المكونات المتبقية لاستراتيجية أعمال نفيديا G80 في فبراير ويونيو 2007. تم إصدار منصة CUDA المستندة إلى مجموعة أدوات تطوير البرامج SDK (لغة تطوير البرامج) كإصدار تجريبي ، مما يسمح للنظام الإيكولوجي باستخدام الطبيعة المتوازية للغاية لجرافيك. تستخدم منصة CUDA محرك فيزياء Nvidia PhysX ، بالإضافة إلى مشاريع الحوسبة الموزعة ، والتصور الاحترافي ، و OptiX ، محرك تتبع أشعة Nvidia.
يقوم كل من Nvidia و ATI (AMD الآن) بدمج وظائف الحوسبة الدائمة التوسع في خط أنابيب الرسومات. قررت ATI / AMD الاعتماد على المطورين واللجان لاختيار مسار OpenCL ، في حين أن نفيديا لديها خطط أوثق ، تعتزم استخدام CUDA والحوسبة عالية الأداء.
للقيام بذلك ، في شهر يونيو ، أصدرت Nvidia مجموعة من معالجات Tesla الرياضية ، والتي تستند أساسًا إلى نفس مجموعة G80 التي تم استخدامها في GeForce و Quadro FX 4600/5600. بعد تطور طويل ، تم خلاله تنفيذ مرحلتين خطيرتين على الأقل (وربما ثلاثة) ، أصدرت AMD R600 في مايو.
دفعت الضجة الإعلامية AMD إلى توقع استجابة 8800 GTX ، ولكن
HD 2900 XT الذي صدر كان مخيبا للآمال. كانت هذه خريطة للجزء العلوي من قطاع السعر المتوسط مع استهلاك الطاقة على مستوى منتج احترافي: لقد استهلك طاقة أكبر من جميع الأنظمة الحديثة.
كان لحجم الخطأ R600 تأثير كبير على ATI ، مما اضطر الشركة إلى تغيير استراتيجيتها للوفاء بمزيد من الصرامة بالمواعيد النهائية وزيادة الفرص عند إطلاق منتجات جديدة. تم تحسين الأداء في RV770 (الخضرة) ، وكذلك في سلسلة الجزر الشمالية والجنوبية.
جنبا إلى جنب مع حقيقة أن R600 كان أكبر وحدة معالجة الرسومات ATI / AMD في ذلك الوقت (420 ملم مربع) ، فقد سجل سجلات أخرى بين وحدات معالجة الرسومات. كانت أول شريحة AMD مع دعم DirectX 10 ، أول GPU والوحيد مع ناقل ذاكرة 512 بت ، وأول رقاقة سطح مكتب مع كتلة التغطية بالفسيفساء (التي لم تستخدم مطلقًا بسبب عدم مبالاة مطوري الألعاب وعدم وجود دعم DirectX) دعم الصوت عبر HDMI ، وكذلك المنتج الأول باستخدام بنية VLIW. أيضًا ، للمرة الأولى منذ إصدار Radeon 7500 ، لم تدخل ATI / AMD السوق للحصول على أقوى البطاقات ، مقارنةً بالسعر والأداء مع المنافسين.
قامت AMD بترقية R600 إلى RV670 ، مما قلل من تقنية معالجة TSMC 80nm إلى 55nm ، واستبدل ناقل ذاكرة الحلقة ثنائية الاتجاه 512 بت مع ناقل 256 بت قياسي أكثر. أدى ذلك إلى خفض مساحة كريستال R600 إلى النصف ، والتي احتوت في نفس الوقت على نفس العدد من الترانزستورات (666 مليون مقارنة بـ 700 مليون R600). قامت AMD أيضًا بترقية وحدة معالجة الرسومات لدعم DX10.1 وإضافة دعم إضافي لـ PCI Express 2.0 ؛ كان كل هذا كافياً لإكمال سلسلة HD 2000 والتنافس مع GeForce 8800 GT السائد ، بالإضافة إلى البطاقات الأقل قوة.
في غياب وحدة معالجة الرسومات (GPU) المتطورة ، أصدرت AMD بطاقتي GPU مزدوجتين في يناير 2008 ، بالإضافة إلى بطاقات الميزانية القائمة على RV620 / 635. تم طرح HD 3850 X2 للبيع في أبريل ، وأحدث بطاقة All-In-Wonder ، HD 3650 ، في يونيو. أثارت بطاقات GPU المزدوجة ، المزودة ببرامج تشغيل عالية الجودة ، إعجاب النقاد والعملاء.
كان HD 3870 X2 أسرع بطاقة فردية ، ولم يكن HD 3850 X2 أبطأ بكثير من ذلك. على عكس نظام SLI الخاص بنفيديا ، طبقت AMD دعم Crossfiring مع ASICs القياسيين.
Radeon HD 3870 X2 مع اثنين من وحدات معالجة الرسومات على بطاقة واحدةبناءً على نجاح G80 ، في 29 أكتوبر ، أصدرت Nvidia G92 على الموديل 8800 GT ، والذي حظي بقبول جيد من قبل العديد من المواقع التقنية ، ويرجع ذلك أساسًا إلى الأسعار التنافسية للغاية. توفر هذه البطاقة التي تبلغ سعتها 512 ميغا بايت أداءً مما جعل شراء 8800 GTS استنادًا إلى G80 لا طائل منه ، وقد تم اكتشافها في نطاق سعري يتراوح بين 199 و 149 دولارًا. بشكل أساسي ، لقد تجاوزت HD 2900 XT و HD 3870 ، التي تم إصدارها بعد ثلاثة أشهر من GT ووصلت إلى حوالي 80 ٪ من سرعة GTX. ليس من المستغرب أن السوق بعد بضعة أسابيع بدأت تعاني من نقص 8800 GT. سمح الطلب القوي على منتج جديد من Nvidia و "إخوانها" 8600 GS / GT للشركة باكتساب 71٪ من سوق البطاقات المنفصلة بنهاية العام.
مباشرة بعد GT ، في 11 ديسمبر ، أصدرت Nvidia
8800 GTS 512MB على أساس G92 . على الرغم من أن نسبة السعر / الأداء بشكل عام كانت أسوأ مقارنةً بشركة GT ، فقد تم توفير نظام GTS من خلال استخدام وحدات معالجة رسومات أكثر قوة ، مما أدى في الأساس إلى موازنة GTX فيركلوكيد مع جهاز 8800 Ultra الثمين.
سيكون تاريخ سلسلة GeForce 8 غير مكتمل بدون حاشية غير سارة ، أي استخدام جندى عالي الرصاص في BGA لبعض وحدات معالجة الرسومات G86 و G84 و G84 و G73 و G72 / 72M ، بالإضافة إلى شرائح الرسومات C51 و MCP67. هذا ، إلى جانب ملء درجة حرارة منخفضة ، والتبريد غير الكافي ووضع التبريد المكثف للتدفئة ، تسبب في حدوث عدد كبير غير عادي من حالات فشل البطاقة.
في منتصف عام 2008 ، تحولت نفيديا إلى لحام هيتاشي سهل القصدير المستخدم من قبل AMD وإعادة تصميم مبرد 8800 GT ، مضيفًا المزيد من الشفرات ورفع مستوى الهيكل لتحسين النفخ. كان يشتبه أيضًا في أن G92 قد تأثرت بمشكلة الفيضان ، على الرغم من أن الأجهزة المزدوجة القائمة على 8800 GTS 512M والبطاقات المزودة بمبردات غير مرجعية لم تهمها حقًا.
بسبب هذه المشكلة ،
خسرت الشركة
ما مجموعه 475.9 مليون ، مما تسبب في رد فعل سلبي قوي من قبل المستهلكين تجاه أجهزة الكمبيوتر المحمولة المصنعة من شركاء تصنيع Nvidia - كانوا يعرفون المشكلة قبل وقت طويل من إعلانها. سوف يرتبط مكان نفيديا في الصناعة إلى الأبد بهذه أسوأ لحظة في تاريخها.
إذا كانت السلسلة 8 عبارة عن انتصار تكنولوجي لـ Nvidia ، فإن السلسلة 9 تبشر بفترة من الركود. كانت النقطة المضيئة في التشكيلة هي النموذج الأول الذي تم إصداره في فبراير 2008. استندت سيارة 9600 GT إلى سيارة G94 "الجديدة" ، والتي كانت في الحقيقة عبارة عن سيارة G92 التي تم قصها في العام الماضي ، والتي بنيت على نفس تقنية معالجة TSMC 65nm.
خفضت أسعار AMD العدوانية على HD 3870 و HD 3850 جنبًا إلى جنب مع انخفاض قيمة 8800 GS و GT Nvidia نفسها التي أجبرت على إعادة صياغة العلامة التجارية المتبقية من السلسلة 9.
تم تعديل أول 9800 GTs مع 8800 GT ، وأصبح 8800 GTS (G92) 9800 GTX. أدى الانتقال إلى تقنية معالجة TSMC مقاس 55 نانومتر إلى تقليل مساحة الرقاقة بنسبة 20٪ وسمح بزيادة طفيفة في تردد الساعة لإنشاء 9800 GTX + ، وهو مطابق لـ OEM GTS 150 ، بالإضافة إلى GTS 250 ، التي دخلت قنوات البيع بالتجزئة بعد خمسة عشر شهراً من البطاقة الأولى من السلسلة 8.
نظرًا للتأخر في ظهور GT200 الرائد وحقيقة أن AMD HD 3870 X2 أصبحت الآن رائدة في سباق البطاقة المفردة ، عادت نفيديا مرة أخرى إلى تقليدها القديم وضاعفت عدد الجرافيك ، حيث شغلت سيارتي 9800 GTX ، مما أدى إلى إنشاء 9800 GX2. على الرغم من أن المنتج فاز بالمنافسة من حيث المعايير ، إلا أن معظم المراقبين لاحظوا بسرعة أن بيع سيارة GT 9800 المزدوجة بسعر ثلاث سيارات 9800 GT لم تكن جذابة للغاية بالنسبة للمشتري.
نفيديا G200 GPU على GTX 260بحلول شهر يونيو ، أصدرت Nvidia GTX 260 و GTX 280 مع GT200 GPU (576 مم²) - أكبر رقاقة GPU في ذلك الوقت (كانت مساحة إنتل لارابي حوالي 600-700 مم مربع) وأكبر رقاقة إنتاج بين جميع المنتجات التي تنتجها TSMC.
كانت GT200 محاولة أخرى من جانب نفيديا للفت الانتباه إلى GPGPU: لقد طبقت معدات مخصصة للدقة المزدوجة (FP64) والحوسبة. كانت التغييرات المعمارية التي تستهدف الألعاب أكثر تواضعا ، ولكن هذا لم يمنع نفيديا من تحديد سعر 280 دولارًا عند 649 دولارًا وإطلاق برامج تشغيل الرؤية ثلاثية الأبعاد (للألعاب ثلاثية الأبعاد والفيديو) إلى جانب النظارات ثلاثية الأبعاد والباعث بالأشعة تحت الحمراء - وهي مجموعة مكلفة للغاية.
نفيديا GTX 200 سلسلة التكنولوجيا التجريبيانخفضت الأسعار بشكل كبير بعد إصدار HD 4870 و 4850 - انخفض GTX 280 بنسبة 38 ٪ وكلف 400 دولار ، في حين انخفض GTX 260 بنسبة 25 ٪ (299 دولار).
ردت AMD على GT200 و G92 بإصدار RV770. تم إصدار البطاقة الأولى (التي تستهدف الشريحة السائدة المنخفضة من HD 4730) في 8 يونيو ، وفي 25 يونيو تبعتها HD 4850 و 4870 ، المصممة للأسواق الرئيسية وعالية المستوى. لم تشكل مشكلة البطاقات مشكلة كبيرة ، لأن المواصفات "تسربت" في وقت سابق وبدأت المتاجر في بيع HD 4850 قبل أسبوع من انتهاء صلاحية NDA - يحدث هذا غالبًا اليوم ، ولكن ليس في عام 2008.
كانت 4870 و 4850 أول بطاقات رسومات GDDR5 للمستهلكين نفذتها نفيديا بعد ثمانية عشر شهرًا على GT 240 استنادًا إلى GT215.
تستحق HD 4870 و 4850 مراجعات إيجابية للغاية ، والسبب في ذلك كان قائمة واسعة من الميزات - 7.1 LPCM الصوت عبر HDMI ، والأداء العام والتدرج مع GPUs متعددة ، وكذلك ، بالطبع ، السعر. كان العيب الوحيد للبطاقة هو ميلها إلى إنشاء درجات حرارة محلية عالية في مناطق مكونات ضبط الجهد على اللوحات المرجعية ، مما تسبب في حدوث حالات فشل وتجميد عالية بشكل غير متناسب ، خاصة عند تشغيل تطبيقات محملة للغاية مثل Furmark.
مع الحفاظ على تقليد الأجيال السابقة والشعور بالحاجة إلى إنهاء قيادة GTX 280 لمدة شهرين ، أصدرت AMD HD 4870 X2 في أغسطس. انتهى الأمر بسرعة في أعلى خطوط المعايير لمختلف الفئات ، بما في ذلك الأداء. في الوقت نفسه ، نظرًا لتصميم مروحة المنفاخ ، فهي للأسف رائدة في فئة توليد الضوضاء وتبديد الحرارة.
Radeon HD 4870 X2 (أعلى) و Radeon HD 4870في يناير 2009 ، أظهرت تشكيلة Nvidia نموًا طفيفًا بفضل نقل GT 200 إلى تقنية معالجة TSMC التي تبلغ 55 نانومتر. تم استخدام 55 نانومتر في شرائح إصدار B3 ، والتي ظهرت لأول مرة في سبتمبر من العام السابق كإصدار من بطاقات Core 216 GTX 260. وأصدرت الشركة GTX 295 ، والتي استخدمت بطاقتي GT200-B3.
تم إصدار تباين لبطاقة GPU أحادية في أبريل تحت اسم GTX 275. وكانت إجابة AMD هي: HD 4890 المطورة على أساس RV790XT و HD 4770 (RV740) ، والتي أصبحت أيضًا أول بطاقة 40nm من AMD.
على الرغم من أن HD 4770 لم يكن منتجًا مهمًا بحد ذاته ، إلا أنه منح AMD تجربة لا تقدر بثمن في العمل مع تقنية معالجة TSMC ذات 40 نانومتر المشكل ، والتي أحدثت تباينًا كبيرًا في التسرب الحالي ، بالإضافة إلى مستوى عالٍ من الرفض بسبب التوصيلات غير المكتملة بين الطبقات المعدنية في بلورة GPU. بفضل هذه التجربة ، تمكنت AMD من تحسين عملية التصنيع والقضاء على المشكلات التي واجهتها Nvidia أثناء تطوير بنية Fermi - المشكلات التي لم تظهر في وحدات معالجة الرسومات Nvidia الأربعون نانومتر الأولى.
أصدرت نفيديا أول 40nm من المنتجات في يوليو. تم استخدام GT216 و GT218 المنخفضة الجودة في GeForce 205 و 210 و GT 220 ، والتي كانت عبارة عن منتجات مصنّعة للمعدات الأصلية (OEM) حتى شهر أكتوبر (تشرين الأول) ، عندما تم بيع التجزئة الأخيرين. كانت رائعة فقط لأنها أصبحت أول بطاقات Nvidia مع دعم DX10.1 - AMD احتلت هذه القمة في HD 4870/4850 ؛ بالإضافة إلى ذلك ، فقد عززوا ميزات الصوت مع 7.1 صوت ، LPCM ضياع ، دولبي TrueHD / DTS-HD / -HD-MA bitstream ، والصوت عبر HDMI. كانت السلسلة موجهة نحو سوق المسرح المنزلي ، وفي فبراير 2010 تم تغيير اسمها إلى فئة 300 سلسلة.
في الأشهر الأربعة من سبتمبر 2009 إلى فبراير 2010 ، أصدرت AMD المجموعة الكاملة لأربعة وحدات معالجة الرسومات (Cypress و Juniper و Redwood و Cedar) التي تتكون من عائلة Evergreen. بدأ الخط بقطعة HD 5870 الراقية ، وبعد ذلك ظهر أسبوع HD 5850 في أعلى مستوى متوسط السعر.
منعت تقنية معالجة TSMC المضطربة ذات 40 نانومتر AMD من الاستفادة من غياب Nvidia's Fermi لأن الطلب الكبير تجاوز العرض. ويعزى ذلك إلى حد كبير إلى قدرة AMD على تحديد موعد إصدار Evergreen مع ظهور Windows 7 وتعميم DirectX 11.
على الرغم من أن DX11 استغرق بعض الوقت لإظهار مكاسب كبيرة في الأداء على Evergreen ، إلا أن ميزة أخرى تم طرحها في HD 5000 كان لها على الفور تأثير في شكل Eyefinity ، والتي تعتمد بالكامل على مرونة DisplayPort لتوفير ما يصل إلى ستة خطوط أنابيب للعرض لكل لوحة. تمت إعادة توجيههم إلى DAC قياسي أو إلى مجموعة من أجهزة الإرسال TMDS و DisplayPort الداخلية.
عادةً ما تستخدم بطاقات الرسومات السابقة مجموعة من VGA و DVI وأحيانًا HDMI ، ويتطلب كل إخراج مصدرًا منفصلًا على مدار الساعة. زاد هذا من تعقيد وحجم وعدد دبابيس GPU. ألغى DisplayPort الحاجة إلى سرعات ساعة مستقلة وفتح AMD القدرة على دمج ما يصل إلى ستة خطوط أنابيب العرض في المعدات دون التضحية بأداء برنامج المستخدم. في الوقت نفسه ، تم تعويض الإطارات عند الحواف وتم تمديد الشاشة على طول الشاشة بدقة مثالية.
Eyefinity: تقنية العرض المتعدد ATI القابلة للتطويرأصبحت سلسلة Evergreen رائدة في فئتها بين جميع اللوحات الأم (إذا كنت لا تتذكر مشاكل تصفية الملمس): جذبت HD 5850 و HD 5770 نسبة كبيرة من لاعبي الميزانية ، و HD 5870 و HD 5970 مع توفر وحدات معالجة الرسومات المزدوجة مستوى لا يضاهى من الأداء.
بعد ستة أشهر ، في 12 أبريل ، أصدرت شركة Nvidia أخيرًا أول لوحات Fermi تحت أسماء GTX 470 و 480. لم تعمل أي من بلورات الشركة بالكامل (حدث نفس الشيء مع GF104 اللاحق) ، وبالتالي فإن سرعة قلب Fermi كانت تقليل استهلاك الطاقة جعله محافظًا بدرجة كافية ، وكان عرض النطاق الترددي للذاكرة أقل بسبب نقص خبرة Nvidia مع GDDR5 I / O.
إن النتائج البعيدة عن النتائج المثلى لتكنولوجيا معالجة TSMC 40 نانومتر ، والتي أدت بالفعل إلى مشاكل في تزويد AMD ، زادت بشكل كبير بسبب حجم بلورة GF100 Fermi (529 مم²). يرتبط حجم البلورة بحجم الرفض ومتطلبات الطاقة وتبديد الحرارة ، وبالتالي فإن سلسلة Nvidia 400 مقارنة بخط AMD المدفوع مقابل الأداء في الألعاب.
عانى GF100 في متغيرات Quadro و Tesla بدرجة أقل بسبب النظام البيئي الذي تم إنشاؤه بالفعل في الأسواق المهنية. كان أحد الجوانب الجيدة للبطاقات التي تم إصدارها ظهور تكنولوجيا تحل محل الشفافية (TrSSAA) ، والتي كان من المقرر استخدامها مع التغطية الحالية التي تم أخذ عينات منها AA (CSAA).
على الرغم من أن GTX 480 قد تم استيفائه ببرودة إلى حد ما ، إلا أن شريحة Nvidia Fermi الثانية ، وهي GF104 السائدة على
GTX 460 ، حققت نجاحًا كبيرًا. لقد وفر أداءً جيدًا بسعر رائع ، وتم بيع 192bit / 768 ميجابايت مقابل 199 دولارًا ، بينما تم بيع 256bit / 1GB مقابل 229 دولارًا. أصدرت الشركة العديد من البطاقات غير المرجعية ورفع تردد التشغيل مع إمكانيات كبيرة لرفع تردد التشغيل بفضل الترددات المحافظة التي تستخدمها نفيديا لتقليل استهلاك الطاقة.
كان الاستقبال الحار جزئياً 460 بسبب انخفاض التوقعات بعد إصدار GF100. قالوا إن GF104 لن يكون أكثر من نصف GF100 وسيصبح باهتًا مقارنةً بـ GPU من AMD. لكن ذلك لم يكن كذلك. كان المدونون "الخبراء" و AMD يتوقعون مفاجأة ثانية: في نوفمبر ، أصدرت نفيديا نسخة محدثة من GF100 - GF110.
تمكن المنتج الذي تمت ترقيته من تحقيق ما لم يتمكن سلفه من التعامل معه - لاستخدام كامل مساحة الشريحة. كانت GTX 570 و 580 الناتجة عن ذلك عبارة عن سلسلة 400 الأصلية.
في أكتوبر ، ظهر بارتس ، أول GPU في سلسلة جزر AMD الشمالية. كان أقرب إلى التطور التطوري لـ Evergreen وصمم لتقليل تكاليف تصنيع رقائق السرو. لم تقدم زيادة كبيرة في الأداء: كانت وحدة معالجة الرسومات (GPU) مساوية تقريبًا لـ HD 5830 و HD 5850 السابقة ، ولكنها خفضت الحجم بشكل كبير. تقوم AMD بخفض عدد معالجات الدفق (تظليل) ، وإعادة وحدة التحكم في الذاكرة وتغيير حجمها الفعلي (وفقًا لذلك ، تقليل سرعة الذاكرة) ، ورفضت القدرة على إجراء العمليات الحسابية بدقة مزدوجة. ومع ذلك ، فقد تحسن بارتس التغطية بالفسيفساء مقارنة دائمة الخضرة.
على الرغم من أن الزيادة في الأداء لم تكن ملحوظة للغاية ، إلا أن AMD حسنت تقنية العرض. تمت ترقية DisplayPort إلى الإصدار 1.2 (القدرة على التحكم في شاشات متعددة من منفذ واحد وتحديث بتردد 120 هرتز لشاشات عالية الدقة وصوت بت دفق) ، HDMI - إلى الإصدار 1.4a (تشغيل الفيديو ثلاثي الأبعاد بدقة 1080 بكسل ودقة شاشة 4K) . كما أضافت الشركة وحدة فك ترميز فيديو محدثة مع دعم DivX.
بالإضافة إلى ذلك ، قامت AMD بتحسين إمكانات السائقين عن طريق إضافة التشويش المانع للصقل (MLAA) ، وهو مرشح طمس بعد المعالجة كانت وظيفته (خاصة في وقت الإصدار) بعيدة عن المثالية.
أضافت HD 6970 و HD 6950 وضع تجانس يسمى EQAA (جودة محسنة AA) إلى برنامج تشغيل Catalyst ؛
بالإضافة إلى ذلك ، طبقت AMD أيضًا الدعم البدئي لـ HD3D ، والذي كان غريب الأطوار في أحسن الأحوال ، واستهلاك الطاقة الديناميكي ، هذه المرة مع PowerTune.بشكل عام ، كانت منتجات Cayman أفضل من الجيل الأول من رقائق Fermi. كان من المفترض أن يفوزوا عليهم ، لكنهم كانوا عدة في المئة وراء الجيل الثاني (سلسلة GTX 500) ، والإصدار اللاحق للسائقين من كلتا الشركتين زاد من حدة التقلبات.تم تأجيل إصدار شهر نوفمبر من Cayman لمدة شهر ، وفي 15 ديسمبر ، ظهر HD 6970 و 6950 ، مبتعدًا (مؤقتًا) عن بنية VLIW5 ، التي استخدمتها ATI / AMD منذ سلسلة R300. بدلاً من ذلك ، استخدمت الشركة VLIW4 ، حيث لم يكن هناك كتلة "الوظيفة الخاصة" (أو Transendental) الخامسة في كل كتلة معالجة مؤشر الترابط.كان هذا مطلوبًا لإزالة الزيادة المفرطة في الموارد المخصصة للألعاب بموجب DX9 (والأقدم) ، وفي الوقت نفسه لإعادة تنظيم خط أنابيب الرسومات.المنتجات الأخرى الوحيدة التي تعتمد على VLIW4 هي رقائق الرسومات المدمجة لسلسلة APU Trinity و Richland ؛ استند أحدث تصميم للرسومات من AMD إلى GCN (Graphics Core Next) ، وظلت VLIW5 في سلسلة HD 8000 ، والتي تم تغيير اسمها إلى GPU Evergreen ذات المستوى الأدنى.تكرار تاريخ GF100 / GF110 ، ظهر سليل GTX 460 - GTX 560 Ti - في يناير 2011. بناءً على GF114 ، احتوت البطاقة على GF104 تمت ترقيته تعمل بكامل طاقتها ، وثبت أنها موثوقة ومتعددة الاستخدامات مثل سابقتها. على أساسها ، تم إصدار العديد من الإصدارات غير المرجعية مع أو بدون رفع تردد التشغيل في المصنع.استجابت AMD على الفور لهذا من خلال خفض تكلفة HD 6950 و 6870 ، مما جعل ميزة أداء السعر GTX 560 Ti تختفي. بفضل الخصومات التي يقدمها معظم شركاء اللوحة الأم ، أصبح HD 6950 ، وخاصة إصداره مع 1 جيجابايت من الذاكرة ، عملية شراء أكثر جاذبية.لوحة مرجعية Nvidia GeForce GTX 590 بدأالإصدار الثاني الواسع النطاق من منتجات Nvidia في عام 2011 ، أي 26 مارس ، مع انفجار. في GTX 590 ، تم دمج اثنين من GF110s كامل المواصفات على لوحة واحدة.يتم التحكم في الألواح بواسطة برنامج تشغيل لم ينفذ بشكل صحيح قيود الطاقة ، وكان لديه BIOS يسمح بتطبيق الجهد العالي. أدى هذا الخلل إلى الجهد الزائد العدوانية التي تسبب أعطال MOSFET. قام Nvidia بتصحيح الموقف من خلال إنشاء BIOS وبرنامج تشغيل أكثر صرامة ، لكن الإصدار كان مصحوبًا بمراجعات مهينة. فيما يتعلق بالأداء ، لم يصل GTX 590 إلا إلى بطاقة AMD HD 6990 المزدوجة ، التي صدرت قبل أسبوعين.في 9 كانون الثاني (يناير) ، تم إطلاق الإصدار المخطط لأحفاد جزر AMD الشمالية - الجزر الجنوبية ، وكان أولها HD 7970. كانت هذه البطاقة الأولى ل PCI-E 3.0 ، التي استخدمت لأول مرة بنية GCN من AMD ، والتي بنيت على تقنية معالجة TSMC ذات 28 نانومتر. بعد ثلاثة أسابيع فقط ، انضمت بطاقة HD 7950 الثانية التي تستند إلى تاهيتي إلى 7970 ، تليها البطاقات الرئيسية في الرأس الأخضر في 15 فبراير. ضربت بطاقات الأداء المستندة إلى GPU بيتكيرن رفوف البيع بالتجزئة في مارس.تبين أن البطاقات كانت جيدة ، لكنها لم تقدم تحسينات كبيرة مقارنةً بلوحات 40 نانومتر السابقة. هذا ، بالإضافة إلى أسعار أقل تنافسية ، والتي أصبحت قياسية لـ AMD مع سلسلة HD 2000 ، وغياب برامج تشغيل WHQL لمدة شهرين ومحرك ترميز الفيديو غير الفعال (VCE) خفف من حماسة العديد من المستخدمين والمراجعين المحتملين.كانت مكافأة منتجات Tahiti هي التأكيد على أن AMD تركت هامشًا كبيرًا من الأداء ، والذي يمكن الحصول عليه بسبب رفع تردد التشغيل. كان حلا وسطا بين استهلاك الطاقة ، بالوعة الحرارة ، وسرعة الساعة ، لكنه أدى إلى الترددات الأساسية والذاكرة المحافظة. ربما تأثر هذا أيضًا بالحاجة إلى الحد من الزواج والتقليل من شأن Nvidia GTX 680/670 استنادًا إلى Kepler.واصلت نفيديا لتوسيع قدراتها GPU مع إطلاق بنية كبلر.في الأجيال السابقة ، بدأت نفيديا مع الشريحة الأكثر تطورا لإرضاء اللاعبين المستهلكين في مكانة الراقية ، ثم واصلت عملية الاختبار المطولة للنماذج المهنية (تسلا / كوادرو). في الأجيال القليلة الماضية ، لم يكن هذا النهج مناسبًا جدًا ، لذا فإن GK107 الأكثر تواضعًا والأداء الموجه نحو الأداء GK104 لهما الأولوية على GK110 القوية.من المفترض أن Gv107 كانت مطلوبة من قِبل Nvidia ، لأن الشركة لديها عقود واسعة النطاق مع مصنعي المعدات الأصلية المتنقلين ، وكانت بحاجة إلى GK104 لشريحة سطح المكتب العليا. تم شحن كلا GPUs كرقائق A2. بدأت Mobile GK107 (GT 640M / 650M ، GTX 660M) في الشحن لشركاء OEM في فبراير ، وتم الإعلان عنها رسميًا في 22 مارس ، وهو نفس اليوم الذي أطلقت فيه Nvidia GTX 680 على أساس GK104.كان هناك اختلاف آخر عن أحدث بنيات GPU في Nvidia ، وهي أن وحدات التظليل تعمل بنفس التردد مثل النواة. بدءًا من سلسلة GeForce 8 ، تعمل وحدات التظليل بتردد يبلغ ضعف أو أكثر من التردد الأساسي - 2.67 مرة أكثر من النواة في السلسلة 9 ، ومرتين بالضبط ما يصل إلى 400 و 500.كان معنى هذا التغيير هو أن نفيديا حولت تركيزها (على سوق سطح المكتب / الهاتف المحمول) من الأداء الخام إلى نسبة الأداء لكل واط. المزيد من النوى التي تعمل بسرعات منخفضة أكثر فعالية في الحوسبة المتوازية من عدد أقل من النوى ذات التردد المزدوج. في الواقع ، كان هذا تطورًا أكبر للفرق بين نماذج GPU ووحدة المعالجة المركزية (العديد من النوى والترددات المنخفضة والنفاذية العالية والتأخير في مواجهة عدد صغير من النوى والتردد العالي وأقل نفاذية وتأخير).بالإضافة إلى ذلك ، أدى انخفاض وتيرة وحدات التظليل إلى انخفاض في استهلاك الطاقة ؛ بالإضافة إلى ذلك ، أنقذت Nvidia أكثر في التصميم ، مما قلل إلى حد كبير عدد الوحدات بدقة مزدوجة على الرقاقة ، بالإضافة إلى تضييق عرض الحافلة إلى 256 بت أكثر انتشارًا. تم تضخيم هذه التغييرات ، جنبًا إلى جنب مع سرعة أساسية متواضعة نسبيًا ، من خلال وظيفة التعزيز الديناميكي (رفع تردد التشغيل عند الطلب) ، مما أدى إلى ظهور منتج أكثر توازناً ، وإن كان ذلك على حساب قدرات الحوسبة المخفضة. ومع ذلك ، إذا احتفظت Nvidia بوظيفة الحوسبة وتصميم النطاق الترددي Fermi ، فستكون النتيجة تصميمًا كبيرًا ساخنًا مع استهلاك طاقة عالي. حولت قوانين الفيزياء مرة أخرى تصميم الرقائق إلى فن توفيقي.نفيديا وضعت مرة أخرى لوحة GPU مزدوجة. تحولت GTX 690 بشكل أساسي إلى جهازي GTX 680 متصلين بـ SLI. الفرق الوحيد هو أن الحد الأقصى لتردد النواة البالغ 690 (أثناء رفع تردد التشغيل) هو 52 MHz أقل. على الرغم من أن الأداء لا يزال يعتمد على تحديد ملامح برنامج SLI ، إلا أن وظائف البطاقة كانت ممتازة وكان مظهرها يستحق العلامة التجارية المحدودة للنسخة التي ارتدتها.تمثل شريحة GK 110 خروجًا عن ممارسة نفيديا المعتادة المتمثلة في إطلاق أول وحدات معالجة الرسومات في السلسلة تحت شعار غيفورسي. كانت بطاقة Tesla K20 ، التي ظهرت عليها هذه الشريحة لأول مرة ، مطلوبة بشكل كبير في مجال أجهزة الكمبيوتر العملاقة: هناك حاجة إلى أكثر من 22000 وحدة لأنظمة ORNL Cray XK7 Titan و NCSA Blue Waters و Swiss CSCS Todi و Piz Daint.كان على المستهلكين العاديين الانتظار ستة أشهر أخرى حتى يظهر GK110 على بطاقة غيفورسي. تم تسمية البطاقة GTX Titan - عدم وجود رقم طراز عددي يعزز رغبة نفيديا في رؤية هذا المنتج كنموذج منفصل عن سلسلة Kepler الحالية (والمستقبلية). بسعر 999 دولارًا ، كان Titan يهدف إلى سوق الرسومات المتحمسين. زادت Nvidia أيضًا من جاذبية خطها للباحثين ومحترفي الميزانية - ولأول مرة ، سمحت الشركة لبطاقة GeForce بالاحتفاظ بنفس وظائف الحوسبة مثل Tesla و Quadro الاحترافية.Nvidia GeForce GTX Titan, super-sampled antialiasing. Nvidia OpenCL Gaming Evolved AMD Titan.
AMD , HD 7970 GHz Edition, 75 50 ( , Nvidia). GHz Edition , , , .
لسوء الحظ بالنسبة إلى AMD ، قرر الجمهور المستهدف لهذا المنتج بالفعل أن النموذج القياسي بسبب رفع تردد التشغيل كان قادرًا عادةً على نفس مستوى الأداء (إن لم يكن الأفضل) ، وفي الوقت نفسه ، كان هناك انخفاض كبير في السعر والجهد الأساسي. أصدرت AMD HD 7950 Boost للإصدار HD 7970 GHz.