L'histoire des processeurs vidéo, partie 3: la consolidation du marché, le début de l'ère de la concurrence entre Nvidia et ATI

image

Partie 1: 1976-1995

Partie 2: 3Dfx Voodoo

La chute de 3Dfx et la montée de deux géants


Au tournant du siècle, l'industrie graphique a montré des tendances vers une consolidation plus poussée.

IXMICRO a complètement quitté le marché professionnel, et NEC et Hewlett-Packard ont sorti leurs derniers produits - les séries TE5 et VISUALIZE FX10. Après la vente de RealVision, Evans & Sutherland a également quitté l'industrie, se concentrant sur les systèmes de projection pour les planétariums.

Sur le marché des graphiques grand public, ATI a annoncé l'acquisition d'ArtX Inc. en février 2000. pour 400 millions de dollars. ArtX a développé le GPU, nom de code Project Dolphin (appelé plus tard «Flipper») pour le Nintendo GameCube, ce qui a considérablement augmenté le bénéfice annuel d'ATI.


GPU ATI pour GameCube

Toujours en février, 3dfx a annoncé une réduction de 20% de ses effectifs , et immédiatement après, il a acheté Gigapixel pour 186 millions et a obtenu sa technologie de rendu basée sur des tuiles.

Pendant ce temps, S3 et Nvidia ont achevé leurs guerres massives de brevets et signé un accord de licence croisée de sept ans.

Vers avril-mai, VIA a pris le contrôle de S3, qui a elle-même achevé le processus de restructuration après l'acquisition de Number Nine. Dans le cadre de la restructuration de S3, la société a conclu une fusion avec Diamond Multimedia grâce à un échange d’actions de 165 millions de dollars. Le département FireGL graphique professionnel haut de gamme de Diamond a été renommé SONICblue et vendu à ATI pour 10 millions d'euros en mars 2001.

En avril, 3DLabs a acquis Intgraph3D d'Intergraph, et vers la fin de l'année, la dernière action du drame 3dfx a eu lieu, bien que la société nourrissait l'espoir d'un avenir radieux, car le Voodoo 5 5500 tant attendu attendait presque ses débuts en juin. Ce dernier a riposté avec la GeForce 256 DDR et a remporté le concours en haute résolution.

3dfx était une référence pour les performances brutes, mais maintenant l'accent était mis sur la qualité de l'image avec l'anti-crénelage plein écran. Voodoo 5 a introduit la technologie T-buffer, une alternative aux transformations et à l'éclairage standard: en fait, il a fallu plusieurs images rendues et assemblées en une seule image. Dans ce cas, une image légèrement floue a été créée, qui dans la séquence d'images a lissé le mouvement de l'animation.

La technologie 3dfx est devenue l'ancêtre de nombreuses techniques modernes pour améliorer la qualité d'image comme les ombres et les reflets doux, le flou de mouvement et la profondeur de champ du flou.

Le Swan Song 3dfx - Voodoo 4 4500 - est apparu après plusieurs retards le 19 octobre. En revanche, les 4200 et 4800 n'ont jamais été publiés. Initialement, la carte devait être publiée au printemps , en parallèle avec son concurrent Nvidia TNT2, mais elle devait à la place rivaliser avec l'emblématique GeForce 256 DDR, ainsi qu'avec les GeForce 2 GTS et ATI Radeon DDR beaucoup plus puissantes.

Le 14 novembre, 3dfx a annoncé avoir tardivement réduit la production et les ventes de cartes sous sa propre marque. Les rumeurs circulent depuis longtemps, mais ont été largement sous-estimées. Ajout de carburant au feu et nouvelle que les cartes mères du futur Pentium 4 ne prendront pas en charge la transmission AGP 3.3V requise par la série Voodoo 5.


Voodoo5 5500 AGP Box Design

Le glas de la mort pour 3dfx est survenu un mois plus tard lorsque Nvidia a acquis son portefeuille de propriété intellectuelle pour 70 millions de dollars plus un million d'actions. Les têtes brillantes d'Internet ont remarqué que plus tard, l'équipe d'ingénieurs 3dfx, qui est passée à Nvidia, l'a "vengée" et a montré son potentiel en publiant tardivement le faible graphique NV30 pour les cartes FX 5700 et FX 5800.

Le début de l'ère de la lutte de Nvidia et ATI


Avant la sortie de Voodoo 5, ATI a annoncé la sortie de Radeon DDR , "le GPU de bureau le plus puissant". Les examens préliminaires de la carte ont été publiés le 25 avril, et seulement vingt-quatre heures plus tard, Nvidia a répondu en annonçant la sortie de la GeForce 2 GTS (GigaTexel Shader). La dernière version a été ajoutée à la propre version de Nvidia de l’architecture ATI Pixel Tapestry, appelée Nvidia Shading Rasterizer. Il a permis de mettre en œuvre des effets tels que l'ombrage du miroir, les explosions volumétriques, les réfractions, les ondes, le mélange des sommets, les volumes d'ombre, le relief texturé et les cartes de hauteur pour chaque pixel du matériel.

On pensait que cette fonctionnalité était apparue dans la puce NV10 précédente (GeForce 256), mais a été désactivée en raison de problèmes matériels. De plus, GTS a fait écho au Charisma Engine ATI, fournissant un support GPU pour le calcul de toutes les transformations, troncatures et éclairage. Malgré cela, ATI a fait un autre pas en avant en ajoutant un habillage de sommet pour un mouvement de polygone plus fluide et une interpolation des images clés: il a suffi aux développeurs de créer le maillage d'animation initial et final, et le noyau Charisma a calculé des maillages intermédiaires.


ATI Radeon DDR

ATI Radeon DDR est sorti dans le commerce de détail en août 2000. Radeon DDR, qui avait une excellente implémentation T&L et un support pour certaines des fonctions du futur DirectX 8, ainsi que la GeForce 2 GTS, a inauguré une ère d'utilisation des sorties DVI en raison de l'intégration de l'interface dans la puce elle-même. Cependant, la sortie DVI était plus courante dans les cartes OEM, car les produits de vente au détail étaient généralement équipés de connecteurs VIVO.

L'inconvénient de Radeon DDR était qu'au lieu des 200 MHz et 183 MHz promis, les fréquences du cœur et de la mémoire étaient réduites. De plus, au moment de la sortie, les pilotes étaient encore loin d'être optimaux. Il y a eu des problèmes de couleurs 16 bits et des échecs de compatibilité avec les chipsets VIA, mais cela n'a pas empêché la carte de dominer parmi les concurrents dans des résolutions supérieures à 1024x768x32. Le prix de 399 dollars pour la version à 64 Mo était en bon accord avec 349 à 399 dollars pour la GeForce 2 GTS 64 Mo, qu'il a dépassé de 10 à 20% en benchmarks, ce qui a permis à ATI de conserver sa première place sur le marché graphique.

Nvidia ne faisait pas si mal non plus. La société a annoncé un bénéfice net de 98,5 millions pour l'exercice et un chiffre d'affaires record de 735,3 millions, principalement dû à sa stratégie de segmentation du marché: une version affaiblie de la carte MX a été lancée en juin, et un modèle Ultra avec une fréquence accrue en août. Ce dernier a retiré Radeon du trône de la carte la plus productive, mais cela a coûté 499 $. Le modèle Pro est apparu en décembre.

En plus de publier des versions de la carte GeForce 2 pour chaque segment de prix, du budget MX au Quadro 2 professionnel, Nvidia a également publié sa première puce mobile GeForce2 Go.

Alors que 3dfx était à l'agonie en novembre, Imagination Tech (anciennement VideoLogic) et ST Micro ont tenté de pénétrer le marché du budget avec de gros volumes de vente en lançant la série PowerVR 3 KYRO. La carte, qui se vendait entre 80 $ et 110 $ (selon la taille de la mémoire tampon), était une bonne affaire pour jouer dans des résolutions de 1024x768 et moins. Si la GeForce2 MX sortait plus tard, elle deviendrait plus populaire ou n'aurait pas un prix aussi agressif.

Le KYRO II est apparu en avril 2001, par rapport à l'original, les fréquences d'horloge ont été augmentées et la carte elle-même a été produite en utilisant la technologie de traitement ST Micro 180 nanomètres plus petite. Mais la carte a de nouveau fait face à une forte concurrence de la GeForce 2 MX. Nvidia a changé le nom de la carte en MX200 et a baissé de 40% de son prix, tout en libérant le MX400 avec une fréquence accrue et le même prix que le Kyro II.

Lorsque PowerVR n'est pas parvenu à maintenir son leadership dans le rendu basé sur des mosaïques et que ST Micro a fermé ses activités graphiques au début de 2002, Imagination Technologies est passée du graphisme de bureau au graphisme mobile et a utilisé son expérience pour développer un système sur puce graphique. La société a autorisé la série 5 / 5XT / 6 à être utilisée dans les processeurs ARM sur les marchés des appareils ultraportables et des smartphones.

Au début de 2001, un monopole de deux sociétés s'était développé sur le marché des cartes graphiques discrètes pour PC, en plus duquel Intel fournissait une large gamme de chipsets avec carte graphique intégrée.

Pendant ce temps, Matrox et S3 / VIA se sont accrochés aux vestiges de leurs marchés traditionnels.

Profitant de l'élan créé par la série GeForce 2, Nvidia a annoncé la sortie de GeForce 3 le 27 février 2001, au prix compris entre 339 $ et 449 $. Cette carte est devenue le nouveau roi de la montagne, mais en pleine force, elle n'a été révélée que dans la résolution maximale de 1600x1200 et avec l'anti-crénelage plein écran.


Carte standard Nvidia GeForce 3

Les premiers pilotes étaient buggés, en particulier dans certains jeux OpenGL. Ce que la nouvelle GeForce a réellement apporté, c'est la prise en charge de DirectX 8, du multi-échantillonnage AA, du quincunx AA (essentiellement 2xMSAA + post-traitement du flou), du filtrage anisotrope 8x, de la capacité inégalée de gérer le filtrage trilinéaire 8xAF +, ainsi que d'un vertex shader programmable qui a permis plus contrôler avec précision le mouvement des maillages polygonaux et fournir une séquence fluide d'images d'animation.

Sur la carte apparaissait également le support de LMA (Lightspeed Memory Architecture) - en fait, c'était une version d'HyperZ développée par Nvidia. Elle a coupé les pixels qui apparaissaient à l'écran derrière les autres (élimination des occlusions Z), ainsi que les données compressées et décompressées pour optimiser l'utilisation du bus (compression Z).

Enfin, dans le cadre du contrôleur de mémoire Crossbar, Nvidia a implémenté des algorithmes d'équilibrage de charge. Le contrôleur de mémoire Crossbar était composé de quatre sous-contrôleurs de mémoire indépendants, ce qui permettait d'envoyer les demandes de mémoire entrantes plus efficacement (à l'époque, un contrôleur était la norme de l'industrie).


Nvidia NV2A dans Microsoft Xbox

Plus tard, NV2A a été ajouté à la gamme de produits Nvidia - une version de GeForce 3 avec les attributs de GeForce4, qui était utilisée dans la console de jeu Microsoft Xbox.

À ce stade, Nvidia contrôlait 31% du marché graphique, Intel - 26% et ATI - 17%.

Alors que Nvidia a complété la gamme GF3 avec le Ti 200 affaibli et le Ti 500 overclocké, ATI était pressé de sortir la Radeon 8500. La carte a été construite sur la base du GPU R200 utilisant la technologie de processus TSMC 150 nanomètres (la même chose a été utilisée dans la carte NV20 GeForce 3). La puce a été annoncée en août et ils l'attendaient avec impatience, car le logiciel d'identification John Carmack a déclaré que le nouveau Doom 3 fonctionnerait "deux fois plus vite" sur celui-ci que sur GeForce 3.

L'annonce officielle par ATI du développement du R8500 a rencontré le même enthousiasme . Mais la réalité s'est avérée cruelle - après la sortie de la carte en octobre, il s'est avéré que dans les jeux, elle se manifeste au niveau du GF3 Ti 200 affaibli. Les pilotes bruts et l'absence de lissage Smoothvision ont influencé en douceur les notes du R8500 dans les premières critiques. À la veille des fêtes, une deuxième série de critiques est apparue, montrant que les conducteurs se sont améliorés en augmentant les performances du R8500 et en le plaçant entre le Ti 200 et le GF3 standard.

Comparaison des spécifications

Fréquence de base (MHz)Le nombre de pipelines de pixelsVitesse de remplissage (Mpix / s)Le nombre d'unités de texture par pipeline de pixelsVitesse de remplissage (Mtex / s)Fréquence mémoire (MHz)Largeur du bus mémoire (bit)Bande passante mémoire (Go / s)
GeForce3 Ti 2001754700214004001286,4
GeForce32004800216004601287.4
GeForce3 Ti 5002404960219205001288.0
Radeon 64MB DDR1832366311003661285,9
Radeon 850027541100222005501288.8

Néanmoins, des prix très compétitifs et un éventail de fonctions plus large (qualité d'image 2D, lecture vidéo, performances de lissage) ont fait de la carte un concurrent digne des GF3 et Ti 500.

Le chiffre d'affaires annuel d'ATI est tombé à 1,04 milliard et a enregistré une perte totale de 54,2 millions. L'entreprise a commencé à vendre des licences partenaires pour la création et la vente de cartes graphiques, réorientant ses ressources vers la conception et la fabrication de puces.


ATI Xilleon Board

ATI a également fait ses débuts avec Set-Top-Wonder Xilleon, une plate-forme de développement basée sur le Soille Xilleon 220, qui comprenait un processeur complet, des graphiques, des E / S, de la vidéo et de l'audio pour les décodeurs intégrés dans la conception des téléviseurs numériques.

Pour compléter Xilleon, ATI a acquis en juin 2002 pour 20 millions de communications NxtWave. Cette entreprise s'est spécialisée dans le traitement du signal numérique et les applications pour les décodeurs et les réseaux numériques terrestres.

Fidèle à son cycle de lancement de produits, Nvidia a lancé la GeForce en février 2002. La gamme originale comprenait trois modèles MX, trois modèles mobiles basés sur MX et deux modèles Titanium productifs (Ti 4400 et Ti 4600). Tous ont été construits sur la technologie de processus TSMC 150 nm. En fait, GeForce 4 était prêt à sortir deux mois auparavant, mais il a été reporté afin de ne pas interférer avec les ventes de GeForce 3 pendant la période des fêtes.

La série MX était destinée au segment budgétaire, mais n'était pas attrayante, car elle était basée sur l'architecture GeForce 2 obsolète. Ils ont ajouté le décodage MPEG2, mais les cartes, comme la précédente ligne MX GF2, sont revenues pour prendre en charge uniquement DirectX 7.0 / 7.1. La fourchette de prix de 99 $ à 179 $ reflétait la gamme limitée d'options.

D'un autre côté, les modèles Titanium avaient d'excellentes performances, et dans certains cas, ils ont dépassé de plus de 50% la GeForce3 Ti 500. En un jour, le Ti 4600 est devenu le champion des performances, dépassant facilement la Radeon 8500, et le Ti 4200 à 199 $ offrant le meilleur rapport prix. et la qualité.

Cependant, la Radeon 9700 Pro est apparue , laissant instantanément derrière toutes les autres cartes.


ATI Radeon 9700 Pro (FIC A97P)

Le GPU ATI R300, développé par une équipe qui était auparavant le cœur d'ArtX, a fait beaucoup de bruit et est sorti très bientôt. Il a d'abord introduit la prise en charge de DirectX 9.0, et il est devenu la première architecture à prendre en charge le modèle de shader 2.0, le vertex shader 2.0 et le pixel shader 2.0. Autres réalisations notables de la puce: elle est devenue la deuxième série de GPU avec prise en charge AGP 8x - la première était la ligne SiS Xabre 80/200/400, et le premier GPU avec une configuration à puce inversée.

À propos de la disposition des puces dans le GPU: dans les générations précédentes de puces graphiques et autres circuits intégrés, la méthode de câblage était utilisée. Avec cette technique, la puce est située sur la carte avec des blocs logiques situés sous les couches métalliques, dont les plots de contact sont connectés par des conducteurs minces menant le long des bords de la puce aux fils ou contacts à billes à l'arrière. Flip - chip vous permet de vous débarrasser des conducteurs grâce à des contacts (généralement soudés dans un ensemble de broches à billes) situés directement sur le "haut" de la puce, qui est ensuite retourné (flip) de sorte que les points de soudure soient en contact direct avec le substrat ou la carte. Ensuite, la puce est soumise à un chauffage localisé (fusion) pour faire fondre la soudure, qui forme une connexion avec les contacts inférieurs sur la carte.

ATI a complété la gamme en octobre avec un prix non professionnel de 9 700 au prix de 299 $ pour ceux qui n'étaient pas disponibles avec le modèle le plus puissant pour 399 $. Pendant ce temps, les 9500 Pro (199 $) et 9500 (179 $) dépouillés se sont précipités dans les segments de marché traditionnels, et FireGL Z1 / X1 a rempli la niche des graphiques professionnels avec une fourchette de prix de 550 à 950 dollars. Toujours en décembre, le All-In-Wonder 9700 Pro (449 $) est apparu.

Les ventes d'ATI sont susceptibles d'augmenter en raison du fait que de nombreuses cartes pourraient être modifiées pour des versions plus chères. Par exemple, vous pouvez utiliser une carte de référence pour transformer une carte 9500 en carte 9700 et une carte 9800 Pro en XT. Un patch pour le pilote a été écrit pour ce dernier afin de vérifier s'il serait perçu par la modification, qui consistait à souder une résistance ou à régler la puce de contrôle de tension du GPU et la mémoire avec un crayon. Parmi les modifications matérielles, il y avait également la conversion de divers modèles 9800 en FireGL X2, et le pilote Omega corrigé pourrait transformer le 9800 SE 256 Mo pour 250 $ en 9800 Pro 256 Mo pour 499 $.

En plus des cartes discrètes, ATI a publié des graphiques et des chipsets intégrés au bureau. Il s'agit de l'A3 / IGP 320, conçu pour fonctionner avec les processeurs AMD, RS200 / IGP 330 et 340 pour les puces Intel, ainsi que la série mobile U1 / IGP 320M pour les plates-formes AMD et RS200M pour le Pentium 4-M. Tous ont été complétés par des ponts sud ATI, à savoir IXP200 / 250.

Entre les versions GeForce4 et R300, SiS a annoncé le lancement de la gamme Xabre. Les cartes étaient constamment plus lentes que les produits Nvidia et ATI dans les mêmes gammes de prix, et étaient affaiblies par l'absence de pipelines de vertex shader. Pour cette raison, les cartes étaient fortement tributaires des pilotes et des développeurs de jeux qui devaient tirer le meilleur parti de l'émulation logicielle; par conséquent, SiS s'est à peine maintenu sur le marché des graphiques 3D discrets de bureau.

La ligne Xabre a également mis en œuvre la «Turbo Texturing»: une technologie grâce à laquelle les fréquences d'images ont été considérablement augmentées en réduisant la qualité des textures et l'absence de filtrage anisotrope. Tout cela n'a pas accru l'amour des critiques pour ces cartes.

La ligne Xabre a été la dernière sortie sous la bannière SiS, car quelques mois plus tard, en juin, la société a séparé son département graphique (qui s'appelait XGI) et a fusionné avec Trident Graphics.

La première carte de la série Nvidia FX est apparue le 27 janvier 2003; c'était le fameux FX 5800 surnommé «l'aspirateur» («Dustbuster») et le FX 5800 Ultra légèrement plus rapide (lire: moins lent). Comparé au champion actuel, l'ATI Radeon 9700 Pro (et la version non-Pro), le FX était beaucoup plus fort, offrant des performances de filtrage anisotrope (AF) et d'anti-aliasing (AA) médiocres, et était généralement beaucoup plus lent. ATI était tellement en avance que la meilleure carte Radeon 9700, sortie cinq mois plus tôt, dépassait facilement l'Ultra, et en même temps c'était 100 dollars moins cher (299 contre 399 dollars).

Il était supposé que la puce NV30 serait publiée en août, à peu près en même temps que la Radeon 9700, mais les problèmes de charge et le taux de rejet élevé dans la technologie de processus TSMC Low-K de 130 nanomètres ont forcé Nvidia à ralentir. Quelqu'un a affirmé que la société manquait de ressources d'ingénierie car de nombreux développeurs étaient impliqués dans la création de la puce NV2A pour la console Xbox, SoundStorm APU , ainsi que des chipsets pour les cartes mères.

Dans un effort pour aller de l'avant, Nvidia s'est lancé dans un projet de fabrication de plusieurs puces de la série FX en utilisant la technologie de traitement à plus faible teneur en K de verre fluorosilicaté (FSG) de 130 nanomètres plus standard.

En mars, ATI a mis à jour sa gamme de cartes, en commençant par le 9800 Pro, qui avait le GPU R350, qui était essentiellement le R300 avec quelques améliorations dans les instructions de mise en cache et de compression Hyper-Z.

En avril, il a été suivi par les RV350 et RV280. , Radeon 9600, 130- low-K TSMC, Nvidia, RV280, Radeon 9200, RV250 Radeon 9000 AGP 8x.


GPU Xbox 360 (ATI C1 / Xenos)

ATI Nintendo , GPU Hollywood Nintendo Wii. ATI , Microsoft GPU Xbox 360 .

FX 5800 Nvidia NV35 (FX 5900 FX 5900 Ultra). Detonator FX AA AF, ATI. 5900 , 5800. ATI Radeon 9800 Pro , 499 .

, ATI , 9800 XT. , DX9-, XT Nvidia, ATI . 9700 Pro , FX 5700 Ultra 199 « 200».

2002 47,5 ATI , 2003 35,2 . 9800 9600. , FX 5200 Nvidia 75% DirectX 9.


Source DirectX 9.0, Radeon 9800 XT 9600 XT

XGI - Xabre. , Volari, V3 49 GPU Duo V8 Ultra. , V3 Trident Blade XP4 DX 8.1, (V5 and V8) SiS Xabre DX9.0.

, V3 , GeForce FX 5200 Ultra Radeon 9200. Duo V8 Ultra 20% , Radeon 9800 Pro 128MB, 9600XT .

Volari XGI 2005 8300, Radeon X300SE/GeForce 6200 49 , Z9/Z11 XP10. 2010 SiS.

, , S3. , VIA 208 60 , .

DeltaChrome, S3 S4 S8 . 2003 : DirectX 9, 16x AF, HD 1080p .

, , S3 . S3 , ATI Nvidia .

DeltaChrome 2005 GammaChrome.

2005 Nvidia ATI . Nvidia GDDR3 ( FX 5700 Ultra), GeForce 6 6800 high-end. 6800 (299 ), GT (399 ), Ultra (499 ) Ultra Extreme (549 ), ATI X800 XT Platinum Edition. ATI.

14 2005 6800 Ultra 512MB, 899 ; BFG 999 . 6600 .

6000 DirectX 9.0c, shader model 3.0 ( ), PureVideo SLI — GPU, 3dfx.


: SLI

SLI 3dfx ; Nvidia . (split frame rendering, SFR), GPU , (alternate frame rendering, AFR), GPU , SLI, .

, GPU nForce4, . , .

; , (, 6600 GT SLI, 398 ) . . SLI ATI CrossFire , , : .

Nvidia : Gigabyte 6600 GT SLI ( 3D1 ), 6600 ( 3D1-XL ) 6800 GT ( 3D1-68GT ). nF4, Gigabyte.

GPU high-end, 6800 Ultra X800 XT/XT PE , , . . , 6800 Ultra Nvidia ; , .

6800 GT X800 Pro 399 , 6600 GT 199 .

Nvidia ATI: 204,8 2 .

6600 GT : PCI Express, , PCI-E Intel, Pentium 4. AMD, , , AGP.

7000 Nvidia , 6000. 7800 GTX , 6800 GS . 7800 GPU G70, 110- TSMC, 7900 G71, 90- TSMC.

NV G, NV40 GeForce 6000. , NV40-45 (334 ²), G70 ( 302 ), 50% . G70 , GS GTX 512MB 3 4 .

7100 GS TurboCache ( ), — GeForce 6200 TC.


Nvidia GeForce 7800 GTX

7800 GTX 256MB 22 599 , . ATI GPU, X1800 XT, Nvidia 512- 7800 GTX .

ATI X1900 XTX, Nvidia. , 650 . 512- , dual link DVI 2560x1600 32- .


Conception originale d'ATI CrossFire, qui nécessitait l'utilisation d'un câble externe en forme de Y

En mai 2005, ATI a annoncé le développement de sa technologie pour plusieurs cartes Crossfire, qui sont devenues disponibles après la sortie en septembre du chipset Xpress 200 Crossfire Edition et de la carte mère X850 XT Crossfire Master. En raison du mode unique de TMDS, la résolution et le taux de rafraîchissement étaient initialement limités à 1600x1200 et 60 Hz, mais il a rapidement été remplacé par TMDS avec mode double, offrant une résolution de 2560x1600.

Contrairement à la solution Nvidia avec deux cartes communiquant via un connecteur de pont, ATI a implémenté une carte maître avec un récepteur TMDS qui recevait les données entrantes d'une carte esclave via un appareil externe et une puce de composition Xilinx.

Comme le SLI de Nvidia, CrossFire fournissait un rendu d'image alternatif (AFR) et un rendu d'image partiel (SFR), mais avait également une technique de rendu appelée SuperTiling. Il a augmenté les performances dans certaines applications, mais ne fonctionnait pas avec OpenGL et ne prenait pas en charge le traitement accéléré de la géométrie. Comme SLI, Crossfire a rencontré des problèmes de pilote.

ATI avait initialement l'intention de publier des cartes basées sur R520 (les premières cartes de la société avec Shader Model 3.0) en juin-juillet, mais un bogue détecté tard dans la bibliothèque de cellules a causé un retard de 4 mois.

Les premiers étaient le X1800 XL / XT avec le noyau R520, les cartes budgétaires X1300 avec le RV515, qui avait essentiellement un quart des pipelines graphiques R520, et le X1600 Pro / XT basé sur le RV530, qui était similaire au RV515, mais avait un taux de transfert de données accru de shaders et vertex pipelines en texturing blocks et raster operations pipelines.

En raison du retard initial dans la sortie du R520, ce GPU et ses dérivés n'ont été remplacés qu'après trois mois et demi par la série X1900 basée sur le R580, qui utilisait la nouvelle technologie de processus TSMC 80 nanomètres. Le RV570 avait la moitié des ressources des pipelines graphiques (cartes X1650 GT / XT et X1950 GT / Pro), et le RV530 tronqué s'est transformé en RV535, qui était utilisé dans le X1650 Pro, ainsi que dans le X1300 XT.

Le chiffre d'affaires annuel d'ATI a atteint un record de 2,2 milliards, le plus élevé de l'histoire de l'entreprise; Cela a été facilité par la fourniture de GPU Xenos pour la Xbox 360. Cependant, le bénéfice est tombé à 16,9 millions d'euros.

À cette époque, la sortie de toute carte graphique qui n'était pas basée sur un GPU Nvidia ou ATI a été perçue avec curiosité, voire enthousiasme. Dans cette situation, la ligne de graphismes S3 repensée publiée en novembre s'est avérée être.

Chrome S25 et S27 en raison de leurs hautes fréquences promettaient de bonnes performances dans les jeux, mais se sont en fait révélés médiocres. En raison de leur prix de 99 $ (S25) et 115 $ (S27), les cartes devaient rivaliser avec les Nvidia 6600 / 6600GT et ATI X1300Pro / X1600Pro, mais les produits S3 ne pouvaient rivaliser avec eux dans aucun des paramètres (sauf la consommation d'énergie). Ce léger avantage s'est évaporé lorsque ATI / AMD et Nvidia ont jeté leur dévolu sur le segment initial du marché HTPC, tuant essentiellement les cartes S3 suivantes des séries Chrome 400 et 500.

Une difficulté supplémentaire pour S3 était que le coût de production des cartes entraînait des profits extrêmement faibles. L'entreprise avait besoin de ventes à grande échelle sur le marché appartenant à deux grands fournisseurs. En juillet 2012, HTC a acquis le S3 pour 300 millions de dollars; cette décision a d'abord été considérée comme un moyen d'influencer les litiges entre HTC et S3 avec Apple.

En 2006, Nvidia et ATI dominaient toujours les revues de presse.

ATI a acquis Macrosynergy, un centre de R&D basé à Shanghai basé en Californie et faisant partie à l'origine du groupe XGI. En mai, la société a acheté 44 millions de BitBoys.

Pendant ce temps, en mars, Nvidia a lancé son premier produit à carte unique à double GPU, qui avait précédemment publié ATI, 3dfx et XGI. La carte 7900 GX2 était un sandwich de deux cartes sur lesquelles une paire de fréquences abaissées 7900 GTX était installée. Mais Asustek n'a pas attendu le système Nvidia sur deux GPU et a sorti sa propre version sous la forme de Extreme N7800GT Dual (900 $, 2000 appareils fabriqués), dans lequel deux GPU 7800 GT étaient connectés.

Grâce à cette carte, Asus s'est intéressée à la sortie d'une édition limitée de doubles cartes GPU; cette décision a probablement durci l’attitude de Nvidia vis-à-vis de ses partenaires de production, car au moment de sa sortie, les produits Asustek attiraient toute l’attention.

Sur le marché grand public avec de plus grandes échelles de vente, les 7600 GT et GS ont fourni des performances et une durabilité solides, tandis que les ATI X1950 XTX et Crossfire étaient au sommet des classements du marché haut de gamme pour les cartes GPU simples. Les X1900 XT et GeForce 7900 GT avaient à peu près les mêmes performances et visaient le haut du marché grand public.


David Orton d'ATI et Hector Ruiz d'AMD annoncent officiellement une fusion historique

Après vingt et un ans d'existence indépendante, le 25 octobre 2006, ATI a été acquise par AMD pour un total de 5,4 milliards de dollars - 1,7 milliard reçu d'AMD, 2,5 milliards empruntés auprès d'établissements de crédit, 57 millions d'actions et 11 millions d'options / AMD stock limité d'une valeur de 1,2 milliard. Au moment de l'achat, ATI recevait environ 60 à 70% des revenus des chipsets / graphiques intégrés grâce à un accord de partenariat pour la production de cartes mères pour les plates-formes Intel.

Après que la plupart du marché des chipsets graphiques intégrés pour Intel est passé à Nvidia, la part de marché d'ATI a chuté de manière significative. La logique de l'achat était qu'AMD avait un accès rapide aux technologies GPU, au lieu de dépenser 5,4 milliards de dollars pour développer ses propres technologies et octroyer des licences à des tiers. À cette époque, AMD visait une mise en œuvre rapide de Torrenza et de ses projets Fusion associés.

Deux semaines après l'achat d'ATI, Nvidia a commencé l'ère de l'architecture graphique unifiée des shaders pour PC. L'architecture unifiée est déjà apparue sur les consoles grâce à ATI et son GPU Xenos installé sur la Xbox 360.

Ce billet est la troisième partie d'une série de quatre articles. Dans le quatrième et dernier, nous parlerons du développement des produits Radeon sous l'aile d'AMD, de la concurrence continue entre GeForce et Radeon et de la transition vers le traitement en streaming.

Source: https://habr.com/ru/post/fr478904/


All Articles