Die Geschichte der Videoprozessoren, Teil 3: Marktkonsolidierung, Beginn der Ära des Wettbewerbs zwischen Nvidia und ATI

Bild

Teil 1: 1976-1995

Teil 2: 3Dfx Voodoo

Der Fall von 3Dfx und der Aufstieg zweier Giganten


Um die Jahrhundertwende zeigte die grafische Industrie Tendenzen zur weiteren Konsolidierung.

IXMICRO hat den professionellen Markt vollständig verlassen und NEC und Hewlett-Packard haben ihre neuesten Produkte herausgebracht - die Serien TE5 und VISUALIZE FX10. Nach dem Verkauf von RealVision verließ Evans & Sutherland die Branche und konzentrierte sich auf Projektionssysteme für Planetarien.

Im Consumer-Grafikmarkt gab ATI im Februar 2000 die Übernahme von ArtX Inc. bekannt. für 400 Millionen Dollar. ArtX entwickelte die GPU mit dem Codenamen Project Dolphin (später als „Flipper“ bezeichnet) für den Nintendo GameCube, wodurch der Jahresgewinn von ATI erheblich gesteigert wurde.


ATI-GPUs für GameCube

Ebenfalls im Februar kündigte 3dfx einen Personalabbau von 20% an und kaufte unmittelbar danach Gigapixel für 186 Millionen und erhielt seine kachelbasierte Rendering-Technologie.

In der Zwischenzeit haben S3 und Nvidia ihre massiven Patentkriege abgeschlossen und eine siebenjährige Lizenzvereinbarung unterzeichnet .

Von April bis Mai übernahm VIA die Kontrolle über S3, das nach der Akquisition von Number Nine den Restrukturierungsprozess selbst abgeschlossen hatte. Im Rahmen der S3-Umstrukturierung schloss das Unternehmen eine Fusion mit Diamond Multimedia über einen Aktientausch im Wert von 165 Mio. USD ab. Die FireGL-Abteilung für professionelle High-End-Grafik von Diamond wurde in SONICblue umbenannt und im März 2001 für 10 Millionen an ATI verkauft.

Im April erwarb 3DLabs Intgraph3D von Intergraph und gegen Ende des Jahres fand die letzte Aktion des 3DFX-Dramas statt, obwohl das Unternehmen Hoffnungen auf eine glänzende Zukunft hegte, da sich das lang erwartete Voodoo 5 5500 seinem Debüt im Juni näherte. Letzterer schlug mit der GeForce 256 DDR zurück und gewann den Wettbewerb in hohen Auflösungen.

Früher war 3dfx ein Maßstab für rohe Leistung, jetzt lag der Schwerpunkt auf der Bildqualität mit Vollbild-Anti-Aliasing. Voodoo 5 führte die T-Buffer-Technologie ein, eine Alternative zu Standardtransformationen und -beleuchtung: Tatsächlich wurden mehrere gerenderte Frames verwendet und zu einem Bild zusammengefügt. In diesem Fall wurde ein leicht unscharfes Bild erstellt, das in der Reihenfolge der Einzelbilder die Bewegung der Animation glättete.

Die 3dfx-Technologie ist der Vorläufer vieler moderner Techniken zur Verbesserung der Bildqualität wie weiche Schatten und Reflexionen, Bewegungsunschärfe und Schärfentiefe.

Der Swan Song 3dfx - Voodoo 4 4500 - erschien nach mehreren Verzögerungen am 19. Oktober. Im Gegensatz dazu wurden die 4200 und 4800 nie veröffentlicht. Ursprünglich war geplant , die Karte parallel zu ihrem Konkurrenten Nvidia TNT2 im Frühjahr herauszubringen. Stattdessen musste sie sich mit der legendären GeForce 256 DDR sowie der viel leistungsstärkeren GeForce 2 GTS und ATI Radeon DDR messen.

Am 14. November gab 3dfx bekannt, dass die Produktion und der Verkauf von Karten unter der eigenen Marke verspätet reduziert wurden . Gerüchte darüber kursieren schon lange, wurden aber stark unterschätzt. Das Feuer wurde angeheizt und die Nachricht, dass Motherboards für den zukünftigen Pentium 4 die von der Voodoo 5-Serie geforderte AGP 3.3V-Übertragung nicht unterstützen, wurde hinzugefügt.


Voodoo5 5500 AGP Box Design

Die Todesursache für 3dfx war einen Monat später, als Nvidia sein Portfolio für geistiges Eigentum für 70 Millionen US-Dollar plus eine Million Aktien erwarb. Die glänzenden Köpfe des Internets bemerkten, dass das Team der 3dfx-Ingenieure, die zu Nvidia wechselten, es „rächte“ und sein Potenzial zeigte, indem es die schwache Grafik NV30 für die FX 5700- und FX 5800-Karten verspätet herausbrachte.

Der Beginn der Ära des Kampfes von Nvidia und ATI


Vor der Veröffentlichung von Voodoo 5 gab ATI die Veröffentlichung von Radeon DDR bekannt , der "leistungsstärksten Desktop-GPU". Vorläufige Überprüfungen der Karte wurden am 25. April veröffentlicht, und nur 24 Stunden später gab Nvidia die Veröffentlichung der GeForce 2 GTS (GigaTexel Shader) bekannt. Die neueste Version von ATI Pixel Tapestry Architecture, Nvidia Shading Rasterizer, wurde von Nvidia hinzugefügt. Es ermöglichte die Implementierung von Effekten wie Spiegelschattierung, Volumenexplosion, Brechung, Wellen, Scheitelpunktmischung, Schattenvolumen, strukturiertem Relief und Höhenmaps für jedes Pixel in der Hardware.

Es wurde angenommen, dass diese Funktionalität im vorherigen NV10-Chip (GeForce 256) enthalten war, jedoch aufgrund von Hardwareproblemen deaktiviert wurde. Darüber hinaus unterstützte GTS die Charisma Engine ATI mit GPU-Unterstützung für die Berechnung aller Transformationen, Verkürzungen und Beleuchtungen. Trotzdem hat ATI einen weiteren Schritt nach vorne gemacht, indem es Vertex-Skinning für eine gleichmäßigere Polygonbewegung und Interpolation von Keyframes hinzugefügt hat: Die Entwickler konnten das ursprüngliche und das endgültige Animationsnetz erstellen, und der Charisma-Kern berechnete die dazwischenliegenden Netze.


ATI Radeon DDR

ATI Radeon DDR wurde im August 2000 in den Handel gebracht. Mit der Radeon DDR, die eine hervorragende T & L-Implementierung und Unterstützung für einige der Funktionen des zukünftigen DirectX 8 sowie der GeForce 2 GTS aufwies, begann aufgrund der Integration der Schnittstelle in den Chip selbst eine Ära der Verwendung von DVI-Ausgängen. Bei OEM-Karten war die DVI-Ausgabe jedoch häufiger, da Einzelhandelsprodukte in der Regel mit VIVO-Anschlüssen ausgestattet waren.

Der Nachteil von Radeon DDR war, dass anstelle der versprochenen 200 MHz und 183 MHz die Kern- und Speicherfrequenzen reduziert wurden. Außerdem waren die Fahrer zum Zeitpunkt der Veröffentlichung wieder alles andere als optimal. Es gab Probleme mit 16-Bit-Farben und Kompatibilitätsproblemen mit VIA-Chipsätzen, aber dies verhinderte nicht, dass die Karte bei Auflösungen über 1024 x 768 x 32 die Konkurrenz dominierte. Der Preis von 399 US-Dollar für die Version mit 64 MB stimmte gut mit 349 bis 399 US-Dollar für die GeForce 2 GTS 64 MB überein, die sie bei Benchmarks um 10 bis 20% überholte, was ATI dabei half, ihren ersten Platz auf dem Grafikmarkt zu behaupten.

Nvidia ging es auch nicht so schlecht. Das Unternehmen gab für das Geschäftsjahr einen Nettogewinn von 98,5 Millionen Euro und einen Rekordumsatz von 735,3 Millionen Euro bekannt, der hauptsächlich auf seine Marktsegmentierungsstrategie zurückzuführen ist: Eine abgeschwächte Version der MX-Karte wurde im Juni und ein Ultra-Modell mit erhöhter Frequenz im August herausgebracht. Letzterer entfernte Radeon vom Thron der produktivsten Karte, kostete aber 499 Dollar. Das Pro-Modell erschien im Dezember.

Nvidia hat nicht nur Versionen der GeForce 2-Karte für jedes Preissegment, vom preisgünstigen MX bis zum professionellen Quadro 2, herausgebracht, sondern auch seinen ersten GeForce2 Go-Handychip.

Während 3dfx im November in Bedrängnis geriet, versuchten Imagination Tech (ehemals VideoLogic) und ST Micro mit der Einführung der PowerVR-Serie 3 KYRO, mit großen Verkaufsmengen in den Budgetmarkt einzusteigen. Die Karte, die im Bereich von 80 bis 110 US-Dollar (abhängig von der Größe des Bildspeichers) verkauft wurde, war ein Schnäppchen für das Spielen mit Auflösungen von 1024 x 768 und niedriger. Wenn die GeForce2 MX später herauskommen würde, würde sie populärer werden oder würde keinen so aggressiv niedrigen Preis haben.

Der KYRO II erschien im April 2001 im Vergleich zum Original, die Taktfrequenzen wurden erhöht und die Karte selbst wurde mit der kleineren ST Micro 180-Nanometer-Prozesstechnologie hergestellt. Die GeForce 2 MX-Karte sah sich erneut einer harten Konkurrenz ausgesetzt. Nvidia änderte den Namen der Karte in MX200 und senkte den Preis um 40%. Gleichzeitig veröffentlichte Nvidia den MX400 mit einer höheren Frequenz und dem gleichen Preis wie das Kyro II.

Als PowerVR seine führende Position im Bereich kachelbasiertes Rendern nicht behaupten konnte und ST Micro Anfang 2002 sein Grafikgeschäft schloss, wechselte Imagination Technologies von Desktop- zu Mobilgrafiken und nutzte seine Erfahrung zur Entwicklung von System-on-Chip-Grafiken. Das Unternehmen lizenzierte die Serie 5 / 5XT / 6 für den Einsatz in ARM-Prozessoren auf den Märkten für ultraportable Geräte und Smartphones.

Zu Beginn des Jahres 2001 hatte sich auf dem diskreten Grafikmarkt für PCs ein Monopol von zwei Unternehmen entwickelt, und Intel lieferte eine breite Palette von Chipsätzen mit integrierter Grafik.

Währenddessen hielten Matrox und S3 / VIA an den Überresten ihrer traditionellen Märkte fest.

Nvidia nutzte die Dynamik der GeForce 2-Reihe und kündigte die Veröffentlichung von GeForce 3 am 27. Februar 2001 zu einem Preis zwischen 339 und 449 US-Dollar an. Diese Karte wurde der neue König des Berges, wurde aber in voller Kraft nur in der maximalen Auflösung von 1600x1200 und mit Vollbild-Anti-Aliasing enthüllt.


Nvidia GeForce 3 Standardkarte

Die ersten Treiber waren fehlerhaft, besonders in einigen OpenGL-Spielen. Was die neue GeForce tatsächlich brachte, war die Unterstützung von DirectX 8, Multisampling AA, Quincunx AA (im Wesentlichen 2xMSAA + Blur Post-Processing), 8x anisotrope Filterung, unübertroffene Fähigkeit, 8xAF + trilineare Filterung zu handhaben, sowie ein programmierbarer Vertex-Shader, der mehr erlaubte Steuern Sie präzise die Bewegung von Polygonnetzen und sorgen Sie für eine reibungslose Abfolge von Animationsframes.

Auf der Karte wurde auch die Unterstützung für LMA (Lightspeed Memory Architecture) angezeigt - tatsächlich war es eine von Nvidia entwickelte Version von HyperZ. Sie schnitt die Pixel ab, die hinter den anderen auf dem Bildschirm erschienen (Z-Okklusions-Culling), und komprimierte und dekomprimierte Daten, um die Nutzung des Busses zu optimieren (Z-Komprimierung).

Schließlich implementierte Nvidia im Rahmen des Crossbar Memory Controllers Lastausgleichsalgorithmen. Crossbar Memory Controller bestand aus vier unabhängigen Speicher-Subcontrollern, die es ermöglichten, eingehende Speicheranforderungen effizienter zu senden (zu dieser Zeit war ein Controller der Industriestandard).


Nvidia NV2A in Microsoft Xbox

Später wurde NV2A zur Nvidia-Produktlinie hinzugefügt - eine Version von GeForce 3 mit den Attributen von GeForce4, die in der Microsoft Xbox-Spielekonsole verwendet wurde.

Zu diesem Zeitpunkt kontrollierte Nvidia 31% des Grafikmarktes, Intel - 26% und ATI - 17%.

Während Nvidia die GF3-Linie mit dem geschwächten Ti 200 und dem übertakteten Ti 500 ergänzte, hatte ATI es eilig, die Radeon 8500 herauszubringen. Die Karte wurde auf der Basis der R200-GPU mit der 150-Nanometer-TSMC-Prozesstechnologie gebaut (dieselbe wurde auch in der NV20-GeForce 3-Karte verwendet). Der Chip wurde im August angekündigt und sie freuten sich darauf, da laut John Carmack, der neue Doom 3 "doppelt so schnell" arbeiten wird wie auf GeForce 3.

Die offizielle Ankündigung von ATI zur Entwicklung des R8500 stieß auf die gleiche Begeisterung . Aber die Realität stellte sich als grausam heraus - nach der Veröffentlichung der Karte im Oktober stellte sich heraus, dass sie sich in Spielen auf dem Niveau des geschwächten GF3 Ti 200 manifestiert. Rohe Treiber und die fehlende Glättung von Smoothvision beeinflussten die R8500-Bewertungen in den ersten Bewertungen reibungslos. Bis zur Weihnachtszeit erschien eine zweite Reihe von Bewertungen, die zeigten, dass die Fahrer besser wurden, indem sie die Leistung des R8500 erhöhten und ihn zwischen den Ti 200 und den Standard-GF3 stellten.

Vergleich der Spezifikationen

Kernfrequenz (MHz)Die Anzahl der Pixel-PipelinesFüllgeschwindigkeit (Mpix / s)Die Anzahl der Textureinheiten pro Pixel-PipelineFüllgeschwindigkeit (Mtex / s)Speicherfrequenz (MHz)Speicherbusbreite (Bit)Speicherbandbreite (GB / s)
GeForce3 Ti 2001754700214004001286.4
GeForce32004800216004601287.4
GeForce3 Ti 5002404960219205001288.0
Radeon 64 MB DDR1832366311003661285.9
Radeon 850027541100222005501288.8

Trotzdem machten sehr wettbewerbsfähige Preise und ein größerer Funktionsumfang (2D-Bildqualität, Videowiedergabe, Glättungsleistung) die Karte zu einem würdigen Konkurrenten des GF3 und des Ti 500.

Der Jahresumsatz von ATI ging auf 1,04 Milliarden zurück und verzeichnete einen Gesamtverlust von 54,2 Millionen. Das Unternehmen begann, Partnerlizenzen für die Erstellung und den Verkauf von Grafikkarten zu verkaufen, wobei seine Ressourcen auf das Design und die Herstellung von Chips konzentriert wurden.


ATI Xilleon Board

ATI feierte auch sein Debüt mit Set-Top-Wonder Xilleon, einer Entwicklungsplattform auf Basis des Soille Xilleon 220, die einen voll ausgestatteten Prozessor, Grafik, E / A, Video und Audio für Set-Top-Boxen enthielt, die in das Design digitaler Fernseher integriert waren.

Als Ergänzung zu Xilleon erwarb ATI im Juni 2002 20 Millionen NxtWave Communications. Das Unternehmen hat sich auf digitale Signalverarbeitung und Anwendungen für Set-Top-Boxen und terrestrische digitale Netze spezialisiert.

Nvidia hat seinen Produkteinführungszyklus eingehalten und die GeForce im Februar 2002 eingeführt. Die ursprüngliche Produktpalette bestand aus drei MX-Modellen, drei MX-basierten Mobilmodellen und zwei produktiven Titanium-Modellen (Ti 4400 und Ti 4600). Alle von ihnen wurden auf der TSMC 150nm Prozesstechnologie aufgebaut. Tatsächlich war GeForce 4 zwei Monate zuvor für die Veröffentlichung bereit, wurde jedoch verschoben, um den Verkauf von GeForce 3 in der Weihnachtszeit nicht zu beeinträchtigen.

Die MX-Serie war für das Budgetsegment gedacht, jedoch unattraktiv, da sie auf der veralteten GeForce 2-Architektur basierte: Sie fügte MPEG2-Dekodierung hinzu, aber die Karten unterstützten wie die vorherige GF2 MX-Linie nur DirectX 7.0 / 7.1. Die Preisspanne von 99 USD bis 179 USD spiegelte die begrenzte Auswahl an Optionen wider.

Auf der anderen Seite zeigten die Titanium-Modelle eine hervorragende Leistung und überholten die GeForce3 Ti 500 in einigen Fällen um mehr als 50 Prozent. An einem Tag wurde der Ti 4600 zum Sieger der Leistung, überholte leicht die Radeon 8500, und der Ti 4200 mit 199 US-Dollar bot das beste Preis-Leistungs-Verhältnis und Qualität.

Dann tauchte jedoch die Radeon 9700 Pro auf und ließ sofort alle anderen Karten zurück.


ATI Radeon 9700 Pro (FIC A97P)

Die ATI R300-GPU, die von einem Team entwickelt wurde, das zuvor der Kern von ArtX war, machte viel Lärm und kam sehr bald heraus. Es führte erstmals die Unterstützung für DirectX 9.0 ein und war die erste Architektur, die Shader-Modell 2.0, Vertex-Shader 2.0 und Pixel-Shader 2.0 unterstützte. Weitere bemerkenswerte Erfolge des Chips: Es wurde die zweite GPU-Serie mit AGP 8x-Unterstützung - die erste war die SiS Xabre 80/200/400-Reihe und die erste GPU mit Flip-Chip-Layout.

Über das Flip-Chip-Layout in der GPU: In früheren Generationen von Grafikchips und anderen integrierten Schaltkreisen wurde die Verdrahtungsmethode verwendet. Bei dieser Technik befindet sich der Chip auf der Platine mit Logikblöcken, die sich unter den Metallschichten befinden und deren Kontaktflächen durch dünne Leiter, die entlang der Kanten des Chips führen, mit den Kugelanschlüssen oder Kontakten auf der Rückseite verbunden sind. Mit Flip-Chip können Sie Leiter entfernen, indem Sie Kontakte (normalerweise in einer Reihe von Kugelstiften gelötet) direkt auf der Oberseite des Chips anbringen. Diese werden dann umgedreht (Flip), sodass die Lötpunkte in direktem Kontakt mit dem Substrat oder der Platine stehen. Als nächstes wird der Chip einer lokalen Erwärmung (Schmelzen) unterzogen, um das Lot zu schmelzen, das eine Verbindung mit den unteren Kontakten auf der Platine bildet.

ATI hat das Angebot im Oktober um unprofessionelle 9.700 US-Dollar für diejenigen erweitert, die mit dem leistungsstärksten Modell für 399 US-Dollar nicht erhältlich waren. In der Zwischenzeit stießen die abgespeckten Modelle 9500 Pro (199 US-Dollar) und 9500 (179 US-Dollar) in die Mainstream-Marktsegmente vor, und die FireGL Z1 / X1 füllte die Nische der professionellen Grafik mit einer Preisspanne von 550 bis 950 US-Dollar. Ebenfalls im Dezember erschien der All-In-Wonder 9700 Pro (449 US-Dollar).

Die ATI-Verkäufe dürften steigen, da viele Karten auf teurere Versionen umgestellt werden könnten. Sie können beispielsweise eine Referenzkarte verwenden, um eine 9500-Karte in eine 9700-Karte und eine 9800 Pro-Karte in eine XT-Karte zu verwandeln. Für letztere wurde ein Patch für den Treiber geschrieben, um zu prüfen, ob er von der Modifikation wahrgenommen wird, die aus dem Löten eines Widerstands oder dem Abstimmen des GPU-Spannungssteuerchips und des Speichers mit einem Bleistift bestand. Unter den Hardwaremodifikationen gab es auch die Konvertierung verschiedener 9800-Modelle in FireGL X2, und der gepatchte Omega-Treiber konnte die 9800 SE 256 MB für 250 USD in die 9800 Pro 256 MB für 499 USD verwandeln.

Zusätzlich zu diskreten Karten hat ATI integrierte Desktop-Grafiken und Chipsätze herausgebracht. Dies waren der A3 / IGP 320 für AMD-Prozessoren, RS200 / IGP 330 und 340 für Intel-Chips sowie die Mobilserien U1 / IGP 320M für AMD-Plattformen und RS200M für Pentium 4-M. Alle von ihnen wurden durch ATI-Südbrücken, nämlich IXP200 / 250, ergänzt.

Zwischen den Versionen GeForce4 und R300 kündigte SiS die Einführung der Xabre-Linie an. Die Karten waren in den gleichen Preisklassen durchweg langsamer als die Produkte von Nvidia und ATI und wurden durch das Fehlen von Vertex-Shader-Pipelines geschwächt. Aus diesem Grund waren die Karten in hohem Maße von Treibern und Spieleentwicklern abhängig, die die Software-Emulation optimal nutzen mussten. Daher konnte SiS den diskreten 3D-Grafikmarkt für Desktops kaum behaupten.

Ebenfalls in der Xabre-Linie wurde „Turbo Texturing“ implementiert: eine Technologie, durch die die Frameraten durch Verringerung der Texturqualität und das Fehlen anisotroper Filterung signifikant erhöht wurden. All dies hat die Liebe der Rezensenten für diese Karten nicht erhöht.

Die Xabre-Linie war die letzte, die unter dem SiS-Banner veröffentlicht wurde, da das Unternehmen einige Monate später, im Juni, seine Grafikabteilung (die als XGI bezeichnet wurde) trennte und mit Trident Graphics fusionierte.

Die erste Karte aus der Nvidia FX-Serie erschien am 27. Januar 2003; Es war der berüchtigte FX 5800, der als "Staubsauger" ("Dustbuster") bezeichnet wurde, und der etwas schnellere (sprich: weniger langsam) FX 5800 Ultra. Verglichen mit dem aktuellen Champion, der ATI Radeon 9700 Pro (und der Nicht-Pro-Version), war der FX viel lauter, bot eine mittelmäßige anisotrope Filter- (AF) und Antialiasing-Leistung (AA) und war im Allgemeinen viel langsamer. ATI war so weit voraus, dass nicht die beste Radeon 9700-Karte, die vor fünf Monaten herauskam, den Ultra leicht überholte und gleichzeitig 100 Dollar billiger war (299 gegenüber 399 Dollar).

Es wurde angenommen, dass der NV30-Chip im August ungefähr zur selben Zeit wie die Radeon 9700 herauskommt, aber die Lastprobleme und die hohe Ausschussrate in der 130-Nanometer-Low-K-TSMC-Prozesstechnologie haben Nvidia gezwungen, langsamer zu werden. Jemand behauptete, dem Unternehmen fehlten technische Ressourcen, da viele Entwickler an der Entwicklung des NV2A-Chips für die Xbox-Konsole, der SoundStorm-APU sowie der Chipsätze für Motherboards beteiligt waren.

Um voranzukommen, hat Nvidia ein Projekt zur Herstellung mehrerer Chips der FX-Serie unter Verwendung der Standard-Low-K-Prozesstechnologie aus 130-Nanometer-Fluorosilikatglas (FSG) gestartet.

Im März aktualisierte ATI seine Kartenreihe, beginnend mit dem 9800 Pro mit der R350-GPU, bei der es sich im Wesentlichen um den R300 handelt, mit einigen Verbesserungen bei den Hyper-Z-Cache- und Komprimierungsanweisungen.

Im April folgten der RV350 und der RV280. , Radeon 9600, 130- low-K TSMC, Nvidia, RV280, Radeon 9200, RV250 Radeon 9000 AGP 8x.


Xbox 360-GPUs (ATI C1 / Xenos)

Im selben Monat unterzeichneten ATI und Nintendo eine Technologievereinbarung , die zur Schaffung der Hollywood-GPU für die Nintendo Wii-Konsole führen sollte. Im August schloss ATI einen zweiten Konsolenvertrag, als Microsoft mit ihr einen Vertrag über die Entwicklung einer GPU für die Xbox 360 unterzeichnete .

Nur dreieinhalb Monate nach der unrühmlichen Einführung der FX 5800 unternahm Nvidia einen weiteren Versuch mit der NV35 (FX 5900 und FX 5900 Ultra). Der neue Detonator FX-Treiber hat AA und AF erheblich verbessert und entspricht nahezu der Qualität von ATI-Produkten. Das 5900 schaffte es jedoch, das zu erreichen, was das 5800 nicht erreichen konnte: Es ersetzte die ATI Radeon 9800 Pro vom Thron der schnellsten Karte, aber zum Preis von 499 US-Dollar konnten es sich nur wenige leisten.

Wie erwartet hat ATI mit der Veröffentlichung des 9800 XT im September seine Lorbeeren wiedererlangt. Hervorragende Treiberunterstützung, vor allem in einigen DX9-Spielen, machte den XT im Vergleich zu Nvidia-Produkten zum besten und sicherte ATI zum Jahresende die Führungsposition. Die 9700 Pro-Karte blieb ein bemerkenswertes Mainstream-Board, während die FX 5700 Ultra mit einem Preis von 199 US-Dollar das Segment „unter 200“ gewann.

Nach einem Verlust von 47,5 Millionen im Jahr 2002 zog ATI nach oben und erzielte 2003 einen Gewinn von 35,2 Millionen. Ein wesentlicher Teil davon waren hohe Preise für die marktbeherrschenden Karten 9800 und 9600. Dank der FX 5200 hielt Nvidia mit Unterstützung für DirectX 9 75% des Budgetkartenmarktes.


Source DirectX 9.0, Radeon 9800 XT 9600 XT

XGI - Xabre. , Volari, V3 49 GPU Duo V8 Ultra. , V3 Trident Blade XP4 DX 8.1, (V5 and V8) SiS Xabre DX9.0.

, V3 , GeForce FX 5200 Ultra Radeon 9200. Duo V8 Ultra 20% , Radeon 9800 Pro 128MB, 9600XT .

Volari XGI 2005 8300, Radeon X300SE/GeForce 6200 49 , Z9/Z11 XP10. 2010 SiS.

, , S3. , VIA 208 60 , .

Im Januar wurde die Entwicklung der Desktop-Karten DeltaChrome angekündigt, aber gemäß der langjährigen Gewohnheit von S3 erschienen die ersten Modelle S4 und S8 erst im Dezember im Einzelhandel. Diese neuen Karten verfügten über die meisten Funktionen, die für 2003 erforderlich waren: DirectX 9, 16x AF-Unterstützung, HD 1080p-Unterstützung und Unterstützung für den Hochformatmodus.

Leider sahen die Käufer den Desktop-Grafikmarkt nun als die Arena zweier Wettbewerber an, und S3 gehörte nicht dazu. Obwohl die S3 wettbewerbsfähig bleiben wollte, haben sich ATI und Nvidia gegenseitig vorangetrieben, um die Leistung und die Bildqualität ständig zu verbessern.

DeltaChrome wurde 2005 von GammaChrome gefolgt.

2005 Nvidia ATI . Nvidia GDDR3 ( FX 5700 Ultra), GeForce 6 6800 high-end. 6800 (299 ), GT (399 ), Ultra (499 ) Ultra Extreme (549 ), ATI X800 XT Platinum Edition. ATI.

14 2005 6800 Ultra 512MB, 899 ; BFG 999 . 6600 .

6000 DirectX 9.0c, shader model 3.0 ( ), PureVideo SLI — GPU, 3dfx.


Zurück zur alten Funktion: SLI

In der 3dfx SLI-Technologie war jedes Gerät für das Rendern alternierender Rasterlinien verantwortlich. Nvidia ging die Aufgabe etwas anders an. Das Unternehmen implementierte SFR (Split Frame Rendering), bei dem jede GPU den oberen oder unteren Rand des Frames darstellt, AFR (Alternate Frame Rendering), bei dem die GPU Frames abwechselnd darstellt und in einigen Fällen der Treiber einfach ausgeschaltet wurde SLI, wenn das Spiel diese Funktion nicht unterstützt.

Obwohl die Technologie im Juni angekündigt wurde, war für die Erstellung eines Systems mit mehreren GPUs ein Motherboard mit nForce4-Chipsatz erforderlich, dessen große Auslieferungen im Einzelhandel erst Ende November begannen. Fügen Sie Kraftstoff zum Feuer hinzu und die Tatsache, dass bis zum nächsten Jahr die Freigabe der Fahrer sehr unregelmäßig war.

; , (, 6600 GT SLI, 398 ) . . SLI ATI CrossFire , , : .

Nvidia : Gigabyte 6600 GT SLI ( 3D1 ), 6600 ( 3D1-XL ) 6800 GT ( 3D1-68GT) Diese Karten benötigten nicht nur den nF4-Chipsatz, sondern auch das Motherboard der Marke Gigabyte.

Bei den einzelnen High-End-GPUs waren die Modelle 6800 Ultra und X800 XT / XT PE in Bezug auf Preis und Leistung in etwa gleich. Sie hatten aber auch Probleme. Letzterer erschien im Mai und litt während des gesamten Produktionszyklus unter Versorgungsproblemen, während das Flaggschiff 6800 Ultra Nvidia extrem spät kam und im August auf den Markt kam. In einigen Regionen hatte sie auch Probleme mit der Lieferung, da nicht alle Partner des Unternehmens die Karte verkauften.

Der 6800 GT überholte normalerweise den X800 Pro zu einem Preis von 399 US-Dollar, und der 6600 GT füllte die Preislücke von 199 US-Dollar.

Nvidia ATI: 204,8 2 .

6600 GT : PCI Express, , PCI-E Intel, Pentium 4. AMD, , , AGP.

7000 Nvidia , 6000. 7800 GTX , 6800 GS . 7800 GPU G70, 110- TSMC, 7900 G71, 90- TSMC.

NV G, NV40 GeForce 6000. , NV40-45 (334 ²), G70 ( 302 ), 50% . G70 , GS GTX 512MB 3 4 .

7100 GS TurboCache ( ), — GeForce 6200 TC.


Nvidia GeForce 7800 GTX

7800 GTX 256MB 22 599 , . ATI GPU, X1800 XT, Nvidia 512- 7800 GTX .

ATI X1900 XTX, Nvidia. , 650 . 512- , dual link DVI 2560x1600 32- .


Das ursprüngliche Design von ATI CrossFire erforderte die Verwendung eines externen Y-förmigen Kabels

Im Mai 2005 gab ATI die Entwicklung seiner Technologie für mehrere Crossfire-Karten bekannt, die nach der Veröffentlichung des Xpress 200 Crossfire Edition-Chipsatzes und des X850 XT Crossfire Master-Boards im September verfügbar wurden. Aufgrund des Single-Modus von TMDS waren Auflösung und Bildwiederholfrequenz anfangs auf 1600 x 1200 und 60 Hz begrenzt, wurden jedoch bald durch TMDS mit Dual-Modus und einer Auflösung von 2560 x 1600 ersetzt.

Im Gegensatz zur Nvidia-Lösung mit zwei Karten, die über einen Bridge-Anschluss kommunizieren, implementierte ATI eine Masterkarte mit einem TMDS-Empfänger, der über ein externes Gerät und einen Xilinx-Compositing-Chip eingehende Daten von einer Slave-Karte empfing.

Wie Nvidias SLI stellte CrossFire ein alternatives Frame-Rendering (AFR) und ein partielles Frame-Rendering (SFR) bereit, verfügte jedoch auch über eine Rendering-Technik namens SuperTiling. In einigen Anwendungen wurde die Leistung gesteigert, es funktionierte jedoch nicht mit OpenGL und es wurde keine beschleunigte Geometrieverarbeitung unterstützt. Wie bei SLI sind auch bei Crossfire Treiberprobleme aufgetreten.

Ursprünglich beabsichtigte ATI, R520-basierte Karten (die ersten Karten des Unternehmens mit Shader Model 3.0) von Juni bis Juli herauszubringen. Ein später in der Zellbibliothek gefundener Fehler verursachte jedoch eine Verzögerung von 4 Monaten.

Die ersten waren der X1800 XL / XT mit dem R520-Kern, die X1300-Budgetkarten mit dem RV515, die im Wesentlichen ein Viertel der R520-Grafik-Pipelines enthielten, und der X1600 Pro / XT, der auf dem RV530 basierte, der dem RV515 ähnelte, jedoch eine höhere Datenübertragungsrate aufwies Shader- und Vertex-Pipelines in Texturierungsblöcke und Rasteroperations-Pipelines.

Aufgrund der anfänglichen Verzögerung bei der Freigabe des R520 wurden diese GPU und ihre Derivate erst nach dreieinhalb Monaten durch die auf dem R580 basierende X1900-Serie ersetzt, die die neue TSMC 80-Nanometer-Prozesstechnologie verwendete. Der RV570 verfügte über die Hälfte der Ressourcen der Grafik-Pipelines (X1650 GT / XT- und X1950 GT / Pro-Karten), und aus dem verkürzten RV530 wurde der RV535, der sowohl im X1650 Pro als auch im X1300 XT verwendet wurde.

Der Jahresumsatz von ATI stieg auf einen Rekordwert von 2,2 Milliarden Euro, der höchste in der Unternehmensgeschichte. Dies wurde durch die Lieferung von Xenos-GPUs für die Xbox 360 erleichtert. Der Gewinn ging jedoch auf 16,9 Millionen zurück.

Zu diesem Zeitpunkt wurde die Veröffentlichung einer Grafikkarte, die nicht auf einer Nvidia- oder ATI-GPU basierte, mit Neugierde, wenn nicht sogar mit Begeisterung aufgenommen. In dieser Situation stellte sich heraus, dass die überarbeitete S3-Grafiklinie im November herauskam.

Chrome S25 und S27 versprachen aufgrund ihrer hohen Frequenzen eine gute Leistung in Spielen, erwiesen sich aber tatsächlich als mittelmäßig. Aufgrund des Preises von 99 US-Dollar (S25) und 115 US-Dollar (S27) mussten die Karten mit dem Nvidia 6600 / 6600GT und ATI X1300Pro / X1600Pro konkurrieren, aber S3-Produkte konnten mit keinem der Parameter mithalten (außer dem Stromverbrauch). Dieser leichte Vorteil wurde zunichte gemacht, als ATI / AMD und Nvidia das erste Segment des HTPC-Marktes im Visier hatten und die nachfolgenden S3-Karten der Serien Chrome 400 und 500 im Wesentlichen töteten.

Eine zusätzliche Schwierigkeit für S3 bestand darin, dass die Kosten für die Herstellung von Karten zu verschwindend geringen Gewinnen führten. Das Unternehmen benötigte umfangreiche Marktumsätze von zwei großen Zulieferern. Im Juli 2012 erwarb HTC den S3 für 300 Millionen US-Dollar. Dieser Schritt wurde ursprünglich als ein Mittel zur Beeinflussung von Rechtsstreitigkeiten zwischen HTC und S3 mit Apple angesehen.

Im Jahr 2006 dominierten Nvidia und ATI immer noch die Presseschau.

ATI erwarb Macrosynergy, ein in Shanghai ansässiges Forschungs- und Entwicklungszentrum mit Sitz in Kalifornien, das ursprünglich Teil der XGI-Gruppe war. Im Mai kaufte das Unternehmen für 44 Millionen BitBoys.

Unterdessen brachte Nvidia im März sein erstes Single-Board-Produkt mit zwei Grafikprozessoren auf den Markt, das zuvor ATI, 3dfx und XGI herausbrachte. Der 7900 GX2 war ein Sandwich aus zwei Platinen, auf denen ein Paar 7900 GTX mit niedrigeren Frequenzen installiert war. Asustek wartete jedoch nicht auf das Nvidia-System auf zwei GPUs und veröffentlichte seine eigene Version in Form des Extreme N7800GT Dual (900 US-Dollar, 2.000 hergestellte Geräte), in der zwei 7800 GT-GPUs verbunden waren.

Dank dieser Karte war Asus daran interessiert, eine limitierte Edition von Dual-GPU-Boards herauszubringen. Dieser Schritt hat wahrscheinlich die Einstellung von Nvidia gegenüber seinen Produktionspartnern verschärft, da zum Zeitpunkt der Veröffentlichung die Produkte von Asustek alle Aufmerksamkeit auf sich gezogen haben.

Im Mainstream-Markt mit größeren Verkaufszahlen lieferten sowohl der 7600 GT als auch der GS eine solide Leistung und Haltbarkeit, während der ATI X1950 XTX und Crossfire an der Spitze der besten Marktbewertungen für Einzel-GPU-Karten lagen. Die X1900 XT und die GeForce 7900 GT zeigten ungefähr die gleiche Leistung und waren auf die Spitze des Mainstream-Marktes ausgerichtet.


David Orton von ATI und Hector Ruiz von AMD geben offiziell den historischen Zusammenschluss bekannt

Nach einundzwanzig Jahren unabhängiger Existenz wurde ATI am 25. Oktober 2006 von AMD für insgesamt 5,4 Mrd. USD erworben - 1,7 Mrd. USD von AMD, 2,5 Mrd. USD von Kreditinstituten, 57 Mio. Aktien und 11 Mio. Optionen / AMD Limited Stock im Wert von 1,2 Milliarden. Zum Zeitpunkt des Kaufs erhielt ATI dank einer Partnerschaftsvereinbarung für die Herstellung von Motherboards für Intel-Plattformen ungefähr 60-70% des Umsatzes mit Chipsätzen / integrierten Grafiken.

Nachdem der Großteil des Marktes für integrierte Grafikchipsätze für Intel zu Nvidia gewechselt war, ging der Marktanteil von ATI erheblich zurück. Die Logik des Kaufs war, dass AMD schnell auf GPU-Technologien zugreifen konnte, anstatt 5,4 Milliarden für die Entwicklung eigener Technologien und die Lizenzierung von Drittanbietern aufzuwenden. Zu dieser Zeit strebte AMD eine schnelle Implementierung von Torrenza und den damit verbundenen Fusionsprojekten an.

Zwei Wochen nach der Übernahme von ATI begann für Nvidia die Ära der einheitlichen Shader-Grafikarchitektur für PCs. Dank ATI und der auf der Xbox 360 installierten Xenos-GPU ist eine einheitliche Architektur bereits auf Konsolen zu sehen.

Dieser Beitrag ist der dritte Teil einer Serie von vier Artikeln. Im vierten und letzten Teil werden wir über die Entwicklung von Radeon-Produkten unter dem Einfluss von AMD, den anhaltenden Wettbewerb zwischen GeForce und Radeon und den Übergang zur Streaming-Verarbeitung sprechen.

Source: https://habr.com/ru/post/de478904/


All Articles