L'histoire des processeurs vidéo, partie 4: l'avènement du GPU à usage général

image

Partie 1: 1976-1995

Partie 2: 3Dfx Voodoo

Partie 3: consolidation du marché, début de l'ère de la concurrence entre Nvidia et ATI

Avant l'arrivée de DirectX 10, il était inutile d'ajouter une complexité facultative aux puces, d'élargir la zone des puces, ce qui augmentait la fonctionnalité des vertex shaders, ainsi que la précision du traitement des nombres à virgule flottante pour les pixel shaders de 24 à 32 bits pour répondre aux exigences des opérations de vertex. Après l'apparition de DX10, les vertex et pixel shaders ont conservé un haut niveau de fonctionnalité globale, de sorte que la transition vers des shaders généralisés a permis d'économiser beaucoup de duplication inutile des unités de traitement. Le premier GPU à utiliser cette architecture a été le légendaire G80 de Nvidia.

Grâce à quatre années de développement et à 475 millions de dollars, un monstre a été réalisé avec 681 millions de transistors et une surface de 484 mm², sorti pour la première fois sur les modèles phares 8800 GTX et 8800 GTS 640 Mo le 8 novembre 2006. Le GTX overclocké appelé 8800 Ultra était le summum de la puissance du G80; il est sorti entre deux produits moins importants: le 320MB GTS en février et le GTS 640MB / 112 avec une édition limitée le 19 novembre 2007.

GTX, équipé du nouvel algorithme CSAA (Coverage Sample anti-aliasing), grâce à ses performances incomparables, a battu tous les concurrents avec une et deux puces. Malgré ce succès, la société a perdu au quatrième trimestre trois pour cent du marché des cartes graphiques discrètes, qui, en raison de la force des contrats OEM, sont passés à AMD.


GeForce 8800 GTX chez MSI

Les autres éléments de la stratégie commerciale G80 de Nvidia se sont réalisés en février et juin 2007. La plateforme CUDA basée sur le SDK (Software Development Kit) en langage C a été publiée en version bêta, permettant à l'écosystème d'utiliser la nature hautement parallélisée du GPU. La plateforme CUDA utilise le moteur physique Nvidia PhysX, ainsi que des projets informatiques distribués, une visualisation professionnelle, et OptiX, le moteur de traçage des rayons Nvidia.

Nvidia et ATI (maintenant AMD) intègrent des fonctionnalités informatiques en constante expansion dans le pipeline graphique. ATI / AMD a décidé de s'appuyer sur les développeurs et les comités pour choisir la voie OpenCL, tandis que Nvidia avait des plans plus proches, envisageant d'utiliser CUDA et l'informatique haute performance.

Pour ce faire, en juin, Nvidia a publié une gamme de coprocesseurs mathématiques Tesla, basés à l'origine sur le même cœur G80 que celui utilisé dans les GeForce et Quadro FX 4600/5600. Après un long développement, au cours duquel au moins deux (et peut-être trois) étapes de débogage sérieuses ont été effectuées, AMD a sorti le R600 en mai.

Le battage médiatique a conduit AMD à s'attendre à une réponse de 8800 GTX, mais le HD 2900 XT publié a été une déception. Il s'agissait d'une carte de la partie supérieure du segment de prix moyen avec une consommation d'énergie au niveau d'un produit professionnel: il consommait plus d'énergie que tous les systèmes modernes.

L'ampleur du bug R600 a eu un grand impact sur ATI, forçant l'entreprise à changer sa stratégie pour respecter plus strictement les délais et maximiser les opportunités lors de la sortie de nouveaux produits. Les performances se sont améliorées dans le RV770 (Evergreen), ainsi que dans la série des îles du Nord et du Sud.

Parallèlement au fait que le R600 était le plus grand GPU ATI / AMD à l'époque (420 mm²), il a établi d'autres records parmi les GPU. C'était la première puce AMD avec prise en charge de DirectX 10, le premier et le seul GPU avec un bus mémoire 512 bits, la première puce de bureau avec un bloc de pavage (qui n'a presque jamais été utilisé en raison de l'indifférence des développeurs de jeux et le manque de prise en charge de DirectX), le premier GPU avec intégré prise en charge de l'audio via HDMI, ainsi que le premier produit utilisant l'architecture VLIW. De plus, pour la première fois depuis la sortie de la Radeon 7500, ATI / AMD n'est pas entrée sur le marché des cartes les plus puissantes, comparables en termes de prix et de performances avec leurs concurrents.

AMD a mis à niveau le R600 vers RV670, réduisant la technologie de traitement 80 nm du TSMC à 55 nm et remplaçant également le bus de mémoire en anneau bidirectionnel 512 bits par un bus 256 bits plus standard. Cela a réduit de moitié la surface du cristal R600, qui contenait en même temps à peu près le même nombre de transistors (666 millions contre 700 millions de R600). AMD a également mis à niveau le GPU pour prendre en charge DX10.1 et ajouté la prise en charge de PCI Express 2.0; tout cela a suffi pour compléter la série HD 2000 et rivaliser avec la GeForce 8800 GT grand public, ainsi qu'avec des cartes moins puissantes.

En l'absence d'un GPU haut de gamme, AMD a sorti deux cartes double GPU en janvier 2008, ainsi que des cartes économiques basées sur le RV620 / 635. La HD 3850 X2 a été mise en vente en avril, et la dernière carte All-In-Wonder, la HD 3650, en juin. Les deux cartes GPU, fournies avec des pilotes de haute qualité, ont instantanément impressionné les critiques et les clients. La HD 3870 X2 était la carte unique la plus rapide, et la HD 3850 X2 n'était pas beaucoup plus lente qu'elle. Contrairement au système SLI de Nvidia, AMD a implémenté le support Crossfiring avec des ASIC standard.


Radeon HD 3870 X2 avec deux GPU sur une seule carte

Fort du succès du G80, Nvidia a sorti le 29 octobre le G92 sur la 8800 GT, bien accueilli par de nombreux sites techniques, principalement grâce à des prix très compétitifs. Pris dans la fourchette de prix de 199-249 $, cette carte de 512 mégaoctets a fourni des performances, ce qui a rendu inutile l'achat du 8800 GTS basé sur le G80. Fondamentalement, il a dépassé les HD 2900 XT et HD 3870, sortis trois mois après la GT et atteignant environ 80% de la vitesse de la GTX. Il n'est pas surprenant qu'après quelques semaines, le marché ait commencé à connaître une pénurie de 8800 GT. La forte demande pour un nouveau produit de Nvidia et de ses «frères» 8600 GS / GT a permis à l'entreprise de gagner 71% du marché des cartes discrètes d'ici la fin de l'année.

Immédiatement après la GT, le 11 décembre, Nvidia a sorti le 8800 GTS 512 Mo basé sur le G92 . Bien que dans l'ensemble le rapport prix / performances était pire par rapport à la GT, la GTS a été sauvée par l'utilisation de GPU plus puissants, qui égalisaient essentiellement la GTX overclockée avec la 8800 Ultra chère.

L'histoire de la série GeForce 8 serait incomplète sans un post-scriptum désagréable, à savoir l'utilisation de soudure à haute teneur en plomb dans le BGA de certains GPU G86, G84, G84, G73, G72 / 72M, ainsi que des chipsets graphiques C51 et MCP67. Ceci, associé au remplissage à basse température, au refroidissement inadéquat et au mode de chauffage-refroidissement intensif, a provoqué un nombre anormalement élevé de défaillances de carte.

À la mi-2008, Nvidia est passé à la soudure eutectique à haute teneur en étain Hitachi utilisée par AMD et a repensé la 8800 GT, ajoutant plus de pales et améliorant le châssis pour améliorer le flux d'air. Le G92 était également soupçonné d'être affecté par le problème des inondations, bien que les appareils doubles basés sur le 8800 GTS 512M et les cartes avec des refroidisseurs non référencés ne le préoccupent pas vraiment.

En raison de ce problème, la société a perdu un total de 475,9 millions , ce qui a provoqué une forte réaction négative des consommateurs envers les partenaires OEM de Nvidia fabriquant des ordinateurs portables - ils connaissaient le problème bien avant qu'il ne devienne public. La place de Nvidia dans l'industrie sera à jamais associée à ce pire moment de son histoire.

Si la série 8 est un triomphe technologique pour Nvidia, la série 9 annonce une période de stagnation. Un point brillant dans la gamme a été le premier modèle sorti en février 2008. La 9600 GT était basée sur le «nouveau» G94, qui en fait était le G92 de l’année dernière, construit sur la même technologie de processus TSMC 65 nm.

Les baisses de prix agressives d'AMD sur les HD 3870 et HD 3850 ainsi que la baisse de valeur de 8800 GS et GT Nvidia ont elles-mêmes forcé de renommer le reste de la série 9.

Les premières 9800 GT ont été modifiées avec la 8800 GT, et la 8800 GTS (G92) est devenue la 9800 GTX. Le passage à la technologie de traitement TSMC 55 nanomètres a réduit la surface de la puce de 20% et a permis une légère augmentation de la fréquence d'horloge pour créer le 9800 GTX +, qui est identique à l'OEM GTS 150, ainsi que le GTS 250, qui est entré dans les canaux de vente au détail quinze mois après la première carte de la série 8.

En raison de l'apparition tardive du GT200 phare et du fait que l'AMD HD 3870 X2 était désormais le leader de la course à carte unique, Nvidia est de nouveau revenue à sa vieille tradition et a doublé le nombre de GPU, prenant en sandwich deux 9800 GT, créant ainsi le 9800 GX2. Bien que le produit ait remporté la compétition dans les benchmarks, la plupart des observateurs ont rapidement remarqué que vendre une double 9800 GT au prix de trois 9800 GT distinctes n'était pas très attrayant pour l'acheteur.


GPU Nvidia G200 sur GTX 260

En juin, Nvidia a sorti les GTX 260 et GTX 280 avec le GPU GT200 (576 mm²) - la plus grande puce GPU de l'époque (Intel Larrabee avait une superficie d'environ 600-700 mm²) et la plus grande puce de production parmi toutes celles produites par TSMC.

Le GT200 était une autre tentative de Nvidia pour attirer l'attention sur le GPGPU: il implémentait des équipements dédiés à la double précision (FP64) et à l'informatique. Les changements architecturaux visant les jeux étaient plus modestes, mais cela n'a pas empêché Nvidia de fixer le prix de 280 $ à 649 $ et de libérer des pilotes 3D Vision (pour les jeux 3D et la vidéo) avec des lunettes 3D et un émetteur IR - un kit très cher.


Démo de la technologie Nvidia GTX 200

Les prix ont chuté considérablement après la sortie des HD 4870 et 4850 - la GTX 280 a chuté de 38% et a coûté 400 $, tandis que la GTX 260 a chuté de 25% (299 $).

AMD a répondu aux GT200 et G92 avec la sortie du RV770. La première carte (destinée au segment grand public inférieur du HD 4730) a été lancée le 8 juin, et le 25 juin elle a été suivie par les HD 4850 et 4870, destinées aux marchés grand public et de haut niveau. Le problème des cartes n'a pas fait grand bruit, car les spécifications ont "fuité" plus tôt et les magasins ont commencé à vendre HD 4850 une semaine avant l'expiration de la NDA - cela arrive souvent aujourd'hui, mais pas en 2008.

Les 4870 et 4850 ont été les premières cartes graphiques grand public GDDR5 que Nvidia a implémentées dix-huit mois plus tard sur la GT 240 basée sur la GT215.

Les HD 4870 et 4850 méritaient des critiques très positives, la raison en étant une large liste de fonctionnalités - audio 7.1 LPCM via HDMI, performances générales et mise à l'échelle avec plusieurs GPU, ainsi que, bien sûr, le prix. Le seul inconvénient de la carte était sa tendance à créer des températures locales élevées dans les domaines des composants de réglage de la tension sur les cartes de référence, ce qui provoquait des pannes et des gels disproportionnellement élevés, en particulier lors de l'exécution d'applications telles que Furmark.

Gardant la tradition des générations précédentes et ressentant le besoin de mettre fin au leadership de deux mois de la GTX 280, AMD a sorti le HD 4870 X2 en août. La carte s'est rapidement retrouvée dans les premières lignes de référence pour diverses catégories, y compris les performances. En même temps, en raison de la conception du ventilateur soufflant, il est, malheureusement, le leader dans la catégorie de génération de bruit et de dissipation thermique.


Radeon HD 4870 X2 (en haut) et Radeon HD 4870

En janvier 2009, la gamme Nvidia a connu une légère croissance grâce au transfert de la GT 200 à la technologie de process TSMC 55 nanomètres. 55 nanomètres ont été utilisés dans les puces de la version B3, qui est apparue pour la première fois en septembre de l'année précédente comme la version des cartes Core 216 GTX 260. La société a sorti la GTX 295, qui utilisait deux GT200-B3 tronquées.

Une variante d'une seule carte GPU a été lancée en avril sous le nom de GTX 275. La réponse d'AMD était la suivante: la HD 4890 améliorée basée sur les RV790XT et HD 4770 (RV740), qui est également devenue la première carte AMD de 40 nm.

Le HD 4770, bien qu'il ne soit pas un produit particulièrement important en soi, a donné à AMD une expérience inestimable de travail avec la technologie de processus TSMC problématique de 40 nanomètres, qui a créé une grande variabilité dans les fuites de courant, ainsi qu'un niveau de rejet élevé en raison de connexions incomplètes entre les couches métalliques dans le cristal GPU. Grâce à cette expérience, AMD a pu améliorer le processus de fabrication et éliminer les problèmes rencontrés par Nvidia lors du développement de l'architecture Fermi, problèmes qui n'apparaissaient pas dans les premiers GPU Nvidia de 40 nanomètres.

Nvidia a lancé ses premiers produits 40 nm en juillet. Les GT216 et GT218 bas de gamme ont été utilisés dans les GeForce 205, 210 et GT 220, qui étaient des produits OEM jusqu'en octobre, lorsque les deux derniers ont été commercialisés. Elles ne sont remarquables que parce qu'elles sont devenues les premières cartes Nvidia prenant en charge DX10.1 - AMD a pris ce sommet dans le HD 4870/4850; en outre, ils avaient des fonctionnalités sonores améliorées avec un son 7.1, un LPCM sans perte, un flux binaire Dolby TrueHD / DTS-HD / -HD-MA et un audio HDMI. La série était destinée au marché du cinéma maison et, en février 2010, elle a été rebaptisée 300 series.

Au cours des quatre mois de septembre 2009 à février 2010, AMD a publié la gamme complète de quatre GPU (Cypress, Juniper, Redwood et Cedar) qui composent la famille Evergreen. La ligne a commencé avec le segment haut de gamme HD 5870, après quoi une semaine plus tard, le HD 5850 est apparu au sommet du niveau de prix moyen.

La technologie de processus TSMC de 40 nanomètres en difficulté a empêché AMD de profiter de l'absence de Fermi à Nvidia car la forte demande dépassait l'offre. Cela était largement dû à la capacité d'AMD à chronologiser la sortie d'Evergreen avec l'avènement de Windows 7 et la popularisation de DirectX 11.

Bien que le DX11 ait mis un certain temps à afficher des gains de performances significatifs sur Evergreen, une autre fonctionnalité introduite dans le HD 5000 a immédiatement eu un impact sous la forme d'Eyefinity, qui repose entièrement sur la flexibilité de DisplayPort pour fournir jusqu'à six pipelines d'affichage par carte. Ils ont été redirigés vers un DAC standard ou vers une combinaison d'émetteurs internes TMDS et DisplayPort.

Les cartes graphiques précédentes utilisaient généralement une combinaison de VGA, DVI et parfois HDMI, et chaque sortie nécessitait une source d'horloge distincte. Cela a augmenté la complexité, la taille et le nombre de broches GPU. DisplayPort a éliminé le besoin de vitesses d'horloge indépendantes et a permis à AMD d'intégrer jusqu'à six pipelines d'affichage dans l'équipement sans sacrifier les performances du logiciel utilisateur. Dans le même temps, les images ont été compensées sur les bords et l'affichage a été étiré le long des écrans avec une résolution optimale.


Eyefinity: technologie multi-affichage évolutive ATI

La série Evergreen est devenue le leader de sa catégorie parmi toutes les cartes mères (si vous ne vous souvenez pas des problèmes de filtrage de texture): les HD 5850 et HD 5770 ont attiré un grand pourcentage de joueurs à petit budget, et les HD 5870 et HD 5970 avec deux GPU ont fourni un niveau de performance incomparable.

Six mois plus tard, le 12 avril, Nvidia a finalement publié ses premières cartes Fermi appelées GTX 470 et 480. Aucun des cristaux de la société n'était entièrement fonctionnel (la même chose s'est produite avec le GF104 suivant), donc les vitesses de base de Fermi pour réduire la consommation d'énergie ont été rendu assez conservateur, et la bande passante mémoire était plus faible en raison du manque d'expérience de Nvidia avec les E / S GDDR5.

Les résultats loin d'être optimaux de la technologie de traitement TSMC 40 nanomètres, qui ont déjà entraîné des problèmes d'approvisionnement pour AMD, ont considérablement augmenté en raison de la taille du cristal GF100 Fermi (529 mm²). La taille du cristal est associée à la quantité de rejets, aux besoins en énergie et à la dissipation thermique, de sorte que la série Nvidia 400 par rapport à la ligne AMD a payé pour les performances dans les jeux.

Le GF100 dans les variantes Quadro et Tesla a beaucoup moins souffert en raison de l'écosystème déjà établi sur les marchés professionnels. L'un des bons aspects des cartes publiées a été l'émergence de la technologie d'anticrénelage à suréchantillonnage transparent (TrSSAA), qui devait être utilisée avec la couverture déjà échantillonnée AA (CSAA).

Bien que la GTX 480 ait été accueillie assez froidement, la deuxième puce Nvidia Fermi, la GF104 grand public de la GTX 460 , a été un énorme succès. Il a fourni de bonnes performances à un prix avantageux, le 192 bits / 768 Mo vendu pour 199 $ et le 256 bits / 1 Go vendu pour 229 $. La société a publié de nombreuses cartes non référencées et overclockées avec des capacités d'overclocking importantes grâce aux fréquences conservatrices que Nvidia utilise pour réduire la consommation d'énergie.

La réception partiellement chaleureuse 460 a été causée par de faibles attentes après la sortie du GF100. Ils ont déclaré que le GF104 ne représentera pas plus de la moitié du GF100 et se révélera pâle par rapport au GPU Cypress d'AMD. Mais ce n'était pas le cas. Les blogueurs «experts» et AMD attendaient une seconde surprise: en novembre, Nvidia a sorti une version mise à jour du GF100 - GF110.

Le produit amélioré a réussi à atteindre ce que son prédécesseur ne pouvait pas gérer: utiliser toute la zone de la puce. Les GTX 570 et 580 résultantes étaient ce que la série 400 d'origine aurait dû être.

En octobre, Barts, le premier GPU de la série AMD Northern Islands, est apparu. Il était plus proche du développement évolutif d'Evergreen et a été conçu pour réduire les coûts de fabrication des puces Cypress. Il n'a pas fourni une augmentation significative des performances: le GPU était à peu près égal aux précédents HD 5830 et HD 5850, mais a considérablement réduit la taille. AMD a réduit le nombre de processeurs de flux (shaders), refait le contrôleur de mémoire et changé sa taille physique (en conséquence, réduisant la vitesse de la mémoire), et a refusé la possibilité d'effectuer des calculs avec une double précision. Cependant, Barts avait amélioré la tessellation par rapport à Evergreen.


Bien que l'augmentation des performances ne soit pas si perceptible, AMD a amélioré la technologie d'affichage. DisplayPort a été mis à niveau vers la version 1.2 (possibilité de contrôler plusieurs moniteurs à partir d'un port, une mise à jour avec une fréquence de 120 Hz pour les affichages haute résolution et l'audio à flux binaire), HDMI - vers la version 1.4a (lecture vidéo 3D en 1080p, résolution d'écran 4K) . La société a également ajouté un décodeur vidéo mis à jour avec prise en charge DivX.

De plus, AMD a amélioré les capacités des pilotes en ajoutant un anticrénelage morphologique (MLAA), un filtre de flou de post-traitement dont la fonctionnalité (en particulier au moment de la sortie) était loin d'être idéale.

HD 6970 et HD 6950 ont ajouté un mode de lissage appelé EQAA (Enhanced Quality AA) au pilote Catalyst;en outre, AMD a également mis en œuvre le support rudimentaire pour HD3D, qui était au mieux fantaisiste, et la consommation d'énergie dynamique, cette fois profilée avec PowerTune.

Dans l'ensemble, les produits Cayman étaient meilleurs que la première génération de puces Fermi. Ils étaient censés les battre, mais ils étaient à plusieurs pour cent derrière la deuxième génération (série GTX 500), et la sortie ultérieure des pilotes des deux sociétés a intensifié les fluctuations.

La version de novembre de Cayman a été reportée d'un mois et le 15 décembre, les HD 6970 et 6950 sont apparus, s'écartant (temporairement) de l'architecture VLIW5, utilisée par ATI / AMD depuis la série R300. Au lieu de cela, la société a utilisé VLIW4, où il n'y avait pas de cinquième bloc de fonction spéciale (ou transendental) dans chaque bloc de traitement de thread.

Cela était nécessaire afin de supprimer la surabondance de ressources destinées aux jeux sous DX9 (et plus anciens), et en même temps de réorganiser le pipeline graphique.

Les seuls autres produits basés sur VLIW4 sont les puces graphiques intégrées des séries APU Trinity et Richland; La nouvelle architecture graphique d'AMD était basée sur GCN (Graphics Core Next), et VLIW5 est resté dans la série HD 8000, renommé en tant que GPU Evergreen de plus bas niveau.

Reprenant l'histoire du GF100 / GF110, le descendant de la GTX 460 - GTX 560 Ti - est apparu en janvier 2011. Basée sur le GF114, la carte contenait un GF104 entièrement fonctionnel mis à niveau et s'est avérée aussi fiable et polyvalente que son prédécesseur. Sur cette base, de nombreuses versions non référencées ont été publiées avec et sans overclocking d'usine.

AMD a immédiatement réagi à cela en réduisant le coût de ses HD 6950 et 6870, ce qui a fait disparaître l'avantage de la GTX 560 Ti en termes de rapport qualité-prix. Grâce aux remises proposées par la plupart des partenaires de la carte mère, le HD 6950, et surtout sa version avec 1 Go de mémoire, est devenu un achat plus attractif.


Carte de référence Nvidia GeForce GTX 590 La

deuxième version à grande échelle des produits Nvidia en 2011, à savoir le 26 mars, a commencé par une explosion. Dans la GTX 590, deux GF110 complets ont été combinés sur une même carte.

Les cartes étaient contrôlées par un pilote qui n'implémentait pas correctement la limitation de puissance et avait un BIOS qui permettait d'appliquer une haute tension. Cette faille a conduit à une surtension agressive provoquant des dysfonctionnements du MOSFET. Nvidia a corrigé la situation en créant un BIOS et un pilote plus rigoureux, mais la publication a été accompagnée de critiques désobligeantes. En termes de performances, la GTX 590 n'a atteint la parité avec la double carte AMD HD 6990, sortie deux semaines auparavant.

Le 9 janvier, la libération prévue des descendants des processeurs AMD Northern Islands - Southern Islands a commencé, la première étant le produit phare HD 7970. Il s'agissait de la première carte pour PCI-E 3.0, qui utilisait pour la première fois l'architecture GCN d'AMD, basée sur la technologie de processus TSMC de 28 nanomètres. Trois semaines plus tard, la deuxième carte basée à Tahiti, la HD 7950, a rejoint la 7970, suivie des cartes grand public au Cap-Vert le 15 février. Les cartes de performance basées sur le GPU de Pitcairn ont été commercialisées en mars.


Les cartes se sont avérées bonnes, mais n'ont pas apporté d'améliorations significatives par rapport aux précédentes cartes de 40 nanomètres. Cela, ainsi que des prix moins compétitifs, qui sont devenus la norme pour AMD avec la série HD 2000, l'absence de pilotes WHQL pendant deux mois et le moteur de codec vidéo (VCE) inopérant ont tempéré l'enthousiasme de nombreux utilisateurs et examinateurs potentiels.

Le bonus des produits Tahiti était la confirmation qu'AMD laissait une large marge de performance, qui pouvait être obtenue grâce à l'overclocking. C'était un compromis entre la consommation d'énergie, le dissipateur de chaleur et la vitesse d'horloge, mais cela a conduit à des fréquences de mémoire et de cœur conservatrices. Peut-être que cela a également été influencé par la nécessité de réduire le mariage et la sous-estimation de la Nvidia GTX 680/670 basée sur Kepler.

Nvidia a continué d'étendre ses capacités GPU avec la sortie de l'architecture Kepler.

Dans les générations précédentes, Nvidia a commencé avec la puce la plus sophistiquée pour satisfaire les acteurs grand public dans le créneau haut de gamme, puis a poursuivi le long processus de test des modèles professionnels (Tesla / Quadro). Au cours des dernières générations, cette approche n'était pas très pratique, donc le GK107 plus modeste et le GK104 axé sur les performances ont eu la priorité sur le puissant GK110.

, GK107 Nvidia, OEM-, GK104 . GPU A2. GK107 (GT 640M/650M, GTX 660M) OEM- , 22 — , Nvidia GTX 680 GK104.

GPU Nvidia , , . GeForce 8 , — 2,67 , , 9, 400 500.

Le sens de ce changement était que Nvidia a déplacé son attention (sur le marché des ordinateurs de bureau / mobiles) de la performance brute au rapport de la performance par watt. Plus de cœurs fonctionnant à des vitesses inférieures sont plus efficaces dans le calcul parallèle que moins de cœurs à double fréquence. En fait, il s'agissait d'un développement supplémentaire de la différence entre les paradigmes GPU et CPU (nombreux cœurs, basses fréquences, haute transmittance et retard par rapport à un petit nombre de cœurs, haute fréquence, moins de transmittance et de retard).

, ; , Nvidia , , 256 . , , dynamic boost ( ), , . Nvidia Fermi, , . .

Nvidia a de nouveau développé une carte double GPU. La GTX 690 s'est avérée être essentiellement deux GTX 680 connectées par SLI. La seule différence est que la fréquence maximale du cœur de 690 (pendant l'overclocking) est inférieure de 52 MHz. Bien que les performances dépendent toujours du profilage du pilote SLI, la fonctionnalité de la carte était excellente et son apparence valait la marque en édition limitée qu'elle portait.

La puce GK 110 a marqué un départ par rapport à la pratique habituelle de Nvidia consistant à sortir les premiers GPU de la série sous la bannière de la GeForce. La carte Tesla K20, sur laquelle cette puce est apparue pour la première fois, était très demandée dans le créneau des superordinateurs: plus de 22000 unités étaient nécessaires pour les systèmes ORNL Cray XK7 Titan, NCSA Blue Waters, Swiss CSCS Todi et Piz Daint.

GK110 GeForce . GTX Titan — Nvidia , ( ) Kepler. 999 Titan . Nvidia — GeForce , Tesla Quadro.


Nvidia GeForce GTX Titan

, super-sampled antialiasing. Nvidia OpenCL Gaming Evolved AMD Titan.

AMD , HD 7970 GHz Edition, 75 50 ( , Nvidia). GHz Edition , , , .

Malheureusement pour AMD, le public cible de ce produit a déjà déterminé que le modèle standard, en raison de l'overclocking, était généralement capable du même niveau de performance (sinon le meilleur), et avait en même temps un prix et une tension de base nettement inférieurs. AMD a sorti le HD 7950 Boost pour l'édition HD 7970 GHz.

Source: https://habr.com/ru/post/fr479950/


All Articles