Teil 1: 1976-1995Teil 2: 3Dfx VoodooTeil 3: Marktkonsolidierung, Beginn der Ära des Wettbewerbs zwischen Nvidia und ATIVor der Einführung von DirectX 10 machte es keinen Sinn, den Chips eine optionale Komplexität zu verleihen, indem die Chipfläche vergrößert wurde, was die Funktionalität von Vertex-Shadern sowie die Genauigkeit der Verarbeitung von Gleitkommazahlen für Pixel-Shader von 24 auf 32 Bit erhöhte, um die Anforderungen von Vertex-Operationen zu erfüllen. Nach dem Erscheinen von DX10 behielten Vertex- und Pixel-Shader ein hohes Maß an Gesamtfunktionalität bei, sodass der Übergang zu generalisierten Shadern eine Menge unnötiger Duplikationen von Verarbeitungseinheiten ersparte. Die erste GPU, die diese Architektur verwendete, war die legendäre G80 von Nvidia.
Dank vierjähriger Entwicklungszeit und 475 Millionen Dollar wurde ein Monster mit 681 Millionen Transistoren und einer Fläche von 484 mm² hergestellt, das am 8. November 2006 erstmals auf dem Flaggschiff
8800 GTX und 8800 GTS 640MB veröffentlicht wurde. Die übertaktete GTX mit dem Namen 8800 Ultra war der Höhepunkt der Leistung des G80. Es wurde zwischen zwei weniger wichtigen Produkten veröffentlicht: dem 320MB GTS im Februar und dem GTS 640MB / 112 mit einer limitierten Auflage am 19. November 2007.
GTX, ausgestattet mit dem neuen Coverage Sample Anti-Aliasing (CSAA) -Algorithmus, besiegte dank seiner unvergleichlichen Leistung alle Konkurrenten sowohl mit einem als auch mit zwei Chips. Trotz dieses Erfolgs verlor das Unternehmen im vierten Quartal drei Prozent des diskreten Grafikmarktes, was auf die Stärke der OEM-Verträge zurückzuführen ist, die an AMD weitergegeben wurden.
GeForce 8800 GTX bei MSIDie verbleibenden Komponenten der G80-Geschäftsstrategie von Nvidia wurden im Februar und Juni 2007 umgesetzt. Die CUDA-Plattform, die auf dem C-SDK (Software Development Kit) basiert, wurde als Beta-Version veröffentlicht, sodass das Ökosystem den stark parallelisierten Charakter der GPU nutzen kann. Die CUDA-Plattform verwendet die Nvidia PhysX-Physik-Engine sowie verteilte Computerprojekte, professionelle Visualisierung und OptiX, die Nvidia Ray Tracing-Engine.
Sowohl Nvidia als auch ATI (jetzt AMD) integrieren ständig erweiterte Computerfunktionen in die Grafik-Pipeline. ATI / AMD entschied sich, sich bei der Auswahl des OpenCL-Pfades auf Entwickler und Komitees zu verlassen, während Nvidia engere Pläne hatte, CUDA und Hochleistungs-Computing zu verwenden.
Zu diesem Zweck hat Nvidia im Juni eine Reihe mathematischer Tesla-Coprozessoren herausgebracht, die ursprünglich auf demselben G80-Kern basieren, der auch in GeForce und Quadro FX 4600/5600 verwendet wurde. Nach einer langen Entwicklungsphase, in der mindestens zwei (und möglicherweise drei) ernsthafte Debugging-Phasen durchgeführt wurden, veröffentlichte AMD im Mai den R600.
Der Medienrummel veranlasste AMD, eine 8800 GTX-Antwort zu erwarten, aber der veröffentlichte
HD 2900 XT war eine Enttäuschung. Dies war eine Karte des oberen Teils des mittleren Preissegments mit einem Energieverbrauch auf der Ebene eines professionellen Produkts: Es verbrauchte mehr Strom als alle modernen Systeme.
Das Ausmaß des R600-Fehlers hatte große Auswirkungen auf ATI und zwang das Unternehmen, seine Strategie zu ändern, um die Fristen strenger einzuhalten und die Chancen bei der Veröffentlichung neuer Produkte zu maximieren. Die Leistung verbesserte sich beim RV770 (Evergreen) sowie bei den Serien Northern und Southern Islands.
Neben der Tatsache, dass der R600 zu dieser Zeit die größte ATI / AMD-GPU war (420 mm²), stellte er weitere Rekorde unter den GPUs auf. Es war der erste AMD-Chip mit DirectX 10-Unterstützung, die erste und einzige GPU mit einem 512-Bit-Speicherbus, der erste Desktop-Chip mit einem Tessellation-Block (der aufgrund der Gleichgültigkeit der Spieleentwickler und der fehlenden DirectX-Unterstützung fast nie verwendet wurde), die erste GPU mit integriertem Speicher Unterstützung für Audio über HDMI sowie das erste Produkt, das die VLIW-Architektur verwendet. Zum ersten Mal seit der Veröffentlichung der Radeon 7500 ist ATI / AMD nicht auf den Markt gekommen, um die leistungsstärksten Karten zu erhalten, die in Preis und Leistung mit denen der Wettbewerber vergleichbar sind.
AMD verbesserte den R600 auf RV670, reduzierte die 80-nm-Prozesstechnologie des TSMC auf 55 nm und ersetzte den bidirektionalen 512-Bit-Ringspeicherbus durch einen Standard-256-Bit-Bus. Dies halbierte die Fläche des R600-Kristalls, der zur gleichen Zeit ungefähr die gleiche Anzahl von Transistoren enthielt (666 Millionen im Vergleich zu 700 Millionen R600). AMD hat außerdem die GPU auf DX10.1 aktualisiert und Unterstützung für PCI Express 2.0 hinzugefügt. All dies reichte aus, um die HD 2000-Serie zu vervollständigen und sich mit der Mainstream-GeForce 8800 GT sowie mit weniger leistungsstarken Karten zu messen.
In Ermangelung einer High-End-GPU hat AMD im Januar 2008 zwei Dual-GPU-Karten sowie Budget-Karten auf Basis des RV620 / 635 herausgebracht. Der HD 3850 X2 wurde im April in den Handel gebracht und die neueste All-In-Wonder-Karte, der HD 3650, im Juni. Dual-GPU-Karten, die mit hochwertigen Treibern gebündelt sind, beeindruckten Kritiker und Kunden sofort.
Die HD 3870 X2 war die schnellste Einzelkarte, und die HD 3850 X2 war nicht viel langsamer als sie. Im Gegensatz zu Nvidias SLI-System hat AMD Crossfiring-Unterstützung mit Standard-ASICs implementiert.
Radeon HD 3870 X2 mit zwei GPUs auf einer KarteAufbauend auf dem Erfolg der G80 brachte Nvidia am 29. Oktober die G92 für die 8800 GT auf den Markt, die vor allem aufgrund sehr wettbewerbsfähiger Preise von vielen technischen Standorten gut angenommen wurde. Diese 512-Megabyte-Karte mit einem Preisbereich von 199 bis 249 US-Dollar lieferte eine Leistung, die den Kauf des 8800 GTS auf der Basis des G80 überflüssig machte. Grundsätzlich überholte es den HD 2900 XT und den HD 3870, der drei Monate nach dem GT auf den Markt kam und rund 80% der GTX-Geschwindigkeit erreichte. Es ist nicht verwunderlich, dass der Markt nach einigen Wochen einen Mangel an 8800 GT zu verzeichnen begann. Die starke Nachfrage nach einem neuen Produkt von Nvidia und seinen „Brüdern“ 8600 GS / GT ermöglichte es dem Unternehmen, bis zum Jahresende 71% des diskreten Kartenmarktes zu erobern.
Unmittelbar nach dem GT veröffentlichte Nvidia am 11. Dezember den
8800 GTS 512MB, der auf dem G92 basiert . Obwohl das Preis-Leistungs-Verhältnis im Vergleich zum GT insgesamt schlechter war, wurde das GTS durch den Einsatz leistungsstärkerer GPUs eingespart, was den übertakteten GTX im Wesentlichen mit dem teuren 8800 Ultra gleichsetzte.
Die Geschichte der GeForce 8-Serie wäre unvollständig ohne ein unangenehmes Nachskript, nämlich die Verwendung von Lötzinn mit hohem Bleigehalt im BGA einiger G86-, G84-, G84-, G73-, G72- / 72M-Grafikprozessoren sowie der C51- und MCP67-Grafikchipsätze. Dies führte zusammen mit dem Befüllen bei niedrigen Temperaturen, unzureichender Kühlung und intensivem Heizen und Kühlen zu einer ungewöhnlich hohen Anzahl von Kartenfehlern.
Mitte 2008 stellte Nvidia auf das von AMD verwendete eutektische Lötmittel mit hohem Zinngehalt von Hitachi um und überarbeitete den 8800 GT, fügte weitere Blades hinzu und verbesserte das Gehäuse, um den Luftstrom zu verbessern. Der G92 wurde ebenfalls verdächtigt, von dem Problem der Überflutung betroffen zu sein, obwohl Dual-Geräte auf der Basis des 8800 GTS 512M und Karten mit Nicht-Referenz-Kühlern dies nicht wirklich betrafen.
Aufgrund dieses Problems verlor das Unternehmen
insgesamt 475,9 Millionen Euro. Dies führte zu einer starken negativen Reaktion der Verbraucher auf die OEM-Partner von Nvidia, die Laptops herstellten. Sie wussten um das Problem, lange bevor es an die Öffentlichkeit ging. Nvidias Platz in der Branche wird für immer mit diesem schlimmsten Moment in seiner Geschichte verbunden sein.
Wenn die Serie 8 für Nvidia ein technologischer Triumph war, läutete die Serie 9 eine Periode der Stagnation ein. Ein Lichtblick in der Aufstellung war das erste Modell, das im Februar 2008 auf den Markt kam. Der 9600 GT basierte auf dem „neuen“ G94, dem letztjährigen G92, der auf der gleichen TSMC 65-nm-Prozesstechnologie basiert.
Aggressive AMD-Preissenkungen bei HD 3870 und HD 3850 sowie der sinkende Wert von 8800 GS und GT Nvidia selbst zwangen dazu, den Rest der Serie 9 umzubenennen.
Die ersten 9800 GTs wurden mit dem 8800 GT modifiziert und aus dem 8800 GTS (G92) wurde der 9800 GTX. Die Umstellung auf die 55-Nanometer-TSMC-Prozesstechnologie reduzierte die Kristallfläche um 20% und ermöglichte eine leichte Erhöhung der Taktfrequenz für den 9800 GTX +, der mit dem OEM GTS 150 identisch ist, sowie für den GTS 250, der fünfzehn Monate nach der ersten Karte der Serie 8 in den Einzelhandel kam.
Aufgrund des späten Auftretens des Flaggschiffs GT200 und der Tatsache, dass der AMD HD 3870 X2 jetzt führend im Ein-Karten-Rennen war, kehrte Nvidia zu seiner langen Tradition zurück und verdoppelte die Anzahl der GPUs mit zwei 9800 GTs, wodurch der 9800 GX2 entstand. Obwohl das Produkt die Konkurrenz bei den Benchmarks gewann, stellten die meisten Beobachter schnell fest, dass der Verkauf eines dualen 9800 GT zum Preis von drei separaten 9800 GT für den Käufer nicht sehr attraktiv war.
Nvidia G200 GPU auf GTX 260Bis Juni veröffentlichte Nvidia die GTX 260 und GTX 280 mit der GT200-GPU (576 mm²) - dem damals größten GPU-Chip (Intel Larrabee hatte eine Fläche von ca. 600-700 mm²) und dem größten von TSMC produzierten Produktionschip.
Der GT200 war ein weiterer Versuch von Nvidia, die Aufmerksamkeit auf die GPGPU zu lenken: Er implementierte spezielle Geräte für Double Precision (FP64) und Computing. Die architektonischen Änderungen, die auf Spiele abzielten, waren bescheidener, aber das hinderte Nvidia nicht daran, den Preis für 280 USD auf 649 USD festzusetzen und 3D Vision-Treiber (für 3D-Spiele und -Videos) zusammen mit einer 3D-Brille und einem IR-Emitter zu veröffentlichen - ein sehr teures Kit.
Technologie-Demo für die Nvidia GTX 200-SerieDie Preise gingen nach der Veröffentlichung von HD 4870 und 4850 deutlich zurück - die GTX 280 fiel um 38% und kostete 400 USD, während die GTX 260 um 25% (299 USD) fiel.
AMD reagierte auf die GT200 und G92 mit der Veröffentlichung des RV770. Die erste Karte (für das untere Mainstream-Segment von HD 4730) wurde am 8. Juni herausgebracht, und am 25. Juni folgten die HD 4850 und 4870, die für den Mainstream- und High-Level-Markt entwickelt wurden. Die Ausgabe von Karten sorgte nicht für so viel Aufsehen, da die Spezifikationen früher "durchgesickert" waren und die Geschäfte eine Woche vor Ablauf der NDA mit dem Verkauf von HD 4850 begannen - dies geschieht heute häufig, jedoch nicht im Jahr 2008.
Die 4870 und 4850 waren die ersten GDDR5-Consumer-Grafikkarten, die Nvidia achtzehn Monate später auf der GT 240 basierend auf der GT215 implementierte.
Die HD 4870 und 4850 haben sehr positive Bewertungen verdient. Der Grund dafür war eine große Auswahl an Funktionen - 7.1 LPCM-Audio über HDMI, allgemeine Leistung und Skalierung mit mehreren GPUs sowie natürlich der Preis. Der einzige Nachteil der Karte war die Tendenz, im Bereich der Spannungseinstellkomponenten auf den Referenzplatinen hohe lokale Temperaturen zu erzeugen, die zu unverhältnismäßig hohen Ausfällen und Einfrierungen führten, insbesondere bei Anwendungen mit hoher Belastung wie Furmark.
AMD behielt die Tradition früherer Generationen bei und hatte das Bedürfnis, die zweimonatige Führung der GTX 280 zu beenden. Im August brachte AMD die HD 4870 X2 auf den Markt. Die Karte landete schnell in den Top-Benchmarks für verschiedene Kategorien, einschließlich der Leistung. Gleichzeitig ist es aufgrund der Konstruktion des Gebläses leider führend in der Kategorie Geräuschentwicklung und Wärmeableitung.
Radeon HD 4870 X2 (oben) und Radeon HD 4870Im Januar 2009 verzeichnete das Nvidia-Sortiment dank der Umstellung des GT 200 auf die 55-Nanometer-TSMC-Prozesstechnologie ein leichtes Wachstum. 55 Nanometer wurden in den Chips der B3-Version verwendet, die erstmals im September des Vorjahres als Version der Core 216 GTX 260-Karten auf den Markt kamen. Das Unternehmen brachte die GTX 295 heraus, bei der zwei GT200-B3-Stümpfe zum Einsatz kamen.
Eine Variante einer Single-GPU-Karte wurde im April unter dem Namen GTX 275 herausgebracht. Die Antwort von AMD lautete: Die aufgerüstete HD 4890 auf der Basis des RV790XT und des HD 4770 (RV740), die auch die erste 40-nm-Karte von AMD war.
Obwohl der HD 4770 für sich genommen kein besonders wichtiges Produkt war, konnte AMD wertvolle Erfahrungen mit der problematischen 40-Nanometer-TSMC-Prozesstechnologie sammeln, die eine große Variabilität des Leckstroms sowie ein hohes Maß an Zurückweisung aufgrund unvollständiger Verbindungen zwischen Metallschichten im GPU-Kristall verursachte. Dank dieser Erfahrung konnte AMD den Herstellungsprozess verbessern und die Probleme beseitigen, auf die Nvidia bei der Entwicklung der Fermi-Architektur stieß - Probleme, die bei den ersten 40-Nanometer-Nvidia-GPUs nicht auftraten.
Nvidia brachte im Juli seine ersten 40-nm-Produkte auf den Markt. Die Low-End-Modelle GT216 und GT218 wurden in den GeForce 205, 210 und GT 220 verwendet, bei denen es sich bis Oktober um OEM-Produkte handelte, als die letzten beiden Modelle in den Einzelhandel gingen. Sie sind nur deshalb bemerkenswert, weil sie die ersten Nvidia-Karten mit Unterstützung für DX10.1 waren - AMD hat dieses Top in der HD 4870/4850 aufgenommen. Darüber hinaus verfügten sie über verbesserte Audiofunktionen mit 7.1-Sound, verlustfreiem LPCM, Dolby TrueHD / DTS-HD / HD-MA-Bitstream und Audio über HDMI. Die Serie war auf den Heimkino-Markt ausgerichtet und wurde im Februar 2010 in die 300er-Serie umbenannt.
In den vier Monaten von September 2009 bis Februar 2010 veröffentlichte AMD die gesamte Reihe der vier GPUs (Cypress, Juniper, Redwood und Cedar), aus denen die Evergreen-Familie bestand. Die Linie begann mit dem High-End-Segment HD 5870, wonach eine Woche später die HD 5850 für die Spitze des Durchschnittspreisniveaus erschien.
Die problematische 40-Nanometer-TSMC-Prozesstechnologie verhinderte, dass AMD die Abwesenheit von Nvidia Fermi ausnutzte, da die große Nachfrage das Angebot überstieg. Dies war hauptsächlich AMDs Fähigkeit zu verdanken, die Veröffentlichung von Evergreen mit dem Aufkommen von Windows 7 und der Popularisierung von DirectX 11 zeitlich festzulegen.
Obwohl der DX11 einige Zeit brauchte, um bei Evergreen signifikante Leistungssteigerungen zu erzielen, wirkte sich eine weitere in der HD 5000 eingeführte Funktion sofort in Form von Eyefinity aus, die sich ausschließlich auf die Flexibilität von DisplayPort stützt, bis zu sechs Display-Pipelines pro Board bereitzustellen. Sie wurden an einen Standard-DAC oder an eine Kombination aus internen TMDS- und DisplayPort-Sendern weitergeleitet.
Bisherige Grafikkarten verwendeten in der Regel eine Kombination aus VGA, DVI und manchmal HDMI. Für jeden Ausgang war eine separate Taktquelle erforderlich. Dies erhöhte die Komplexität, Größe und Anzahl der GPU-Pins. DisplayPort macht unabhängige Taktraten überflüssig und eröffnet AMD die Möglichkeit, bis zu sechs Display-Pipelines in Geräte zu integrieren, ohne die Leistung der Anwendersoftware zu beeinträchtigen. Gleichzeitig wurden die Rahmen an den Rändern ausgeglichen und das Display mit optimaler Auflösung entlang der Displays gespannt.
Eyefinity: ATI Scalable Multi-Display-TechnologieDie Evergreen-Serie ist in ihrer Klasse unter allen Motherboards führend (wenn Sie sich nicht an die Probleme mit der Texturfilterung erinnern): Die HD 5850 und HD 5770 zogen einen großen Prozentsatz der Budget-Gamer an, und die HD 5870 und HD 5970 mit zwei GPUs lieferten ein unvergleichliches Leistungsniveau.
Ein halbes Jahr später, am 12. April, veröffentlichte Nvidia schließlich die ersten Fermi-Boards mit den Namen GTX 470 und 480. Keines der Kristalle des Unternehmens war voll funktionsfähig (dasselbe geschah mit dem nachfolgenden GF104) konservativ genug gemacht, und die Speicherbandbreite war aufgrund der mangelnden Erfahrung von Nvidia mit GDDR5-E / A geringer.
Die bei weitem nicht optimalen Ergebnisse der TSMC-40-Nanometer-Prozesstechnologie, die bereits zu Versorgungsproblemen bei AMD führten, nahmen aufgrund der Größe des GF100-Fermi-Kristalls (529 mm²) erheblich zu. Die Größe des Kristalls ist mit der Menge an Ausschuss, dem Strombedarf und der Wärmeabgabe verbunden, sodass die Nvidia 400-Serie im Vergleich zur AMD-Linie für die Leistung in Spielen bezahlt wird.
Der GF100 in den Varianten Quadro und Tesla litt aufgrund des auf professionellen Märkten bereits etablierten Ökosystems deutlich weniger. Einer der guten Aspekte der veröffentlichten Karten war das Aufkommen der Transparenz-Supersampling-Antialiasing-Technologie (TrSSAA), die zusammen mit der bereits vorhandenen Abdeckung mit der Stichprobe AA (CSAA) verwendet werden sollte.
Obwohl die GTX 480 eher kalt getroffen wurde, war der zweite Nvidia Fermi-Chip, der Mainstream GF104 auf der
GTX 460 , ein großer Erfolg. Es lieferte eine gute Leistung zu einem günstigen Preis, 192-Bit / 768-MB für 199 US-Dollar und 256-Bit / 1-GB für 229 US-Dollar. Dank der konservativen Frequenzen, mit denen Nvidia den Stromverbrauch senkt, hat das Unternehmen viele nicht referenzierte und übertaktete Karten mit erheblichen Übertaktungsmöglichkeiten herausgebracht.
Teilweise warmer Empfang 460 wurde durch niedrige Erwartungen nach der Freigabe des GF100 verursacht. Sie sagten, dass das GF104 nicht mehr als die Hälfte des GF100 ausmacht und im Vergleich zur Cypress-GPU von AMD blass ist. Dem war aber nicht so. Die "Experten" -Blogger und AMD erwarteten eine zweite Überraschung: Im November veröffentlichte Nvidia eine aktualisierte Version des GF100 - GF110.
Das aufgerüstete Produkt schaffte es, das zu erreichen, was sein Vorgänger nicht bewältigen konnte - den gesamten Bereich des Chips zu nutzen. Die resultierenden GTX 570 und 580 waren, was die ursprüngliche 400er-Serie hätte sein sollen.
Im Oktober erschien Barts, die erste GPU der AMD Northern Islands-Serie. Es war näher an der evolutionären Entwicklung von Evergreen und wurde entwickelt, um die Herstellungskosten für Cypress-Chips zu senken. Die Leistung konnte nicht wesentlich gesteigert werden: Die GPU entsprach in etwa den bisherigen HD 5830 und HD 5850, reduzierte jedoch die Größe erheblich. AMD reduzierte die Anzahl der Stream-Prozessoren (Shader), verbesserte den Speichercontroller und änderte seine physische Größe (entsprechend, wodurch die Speichergeschwindigkeit verringert wurde). Außerdem lehnte AMD die Durchführung von Berechnungen mit doppelter Genauigkeit ab. Barts hatte jedoch die Tessellation im Vergleich zu Evergreen verbessert.

Obwohl die Leistungssteigerung nicht so spürbar war, hat AMD die Display-Technologie verbessert. DisplayPort wurde auf Version 1.2 aktualisiert (die Möglichkeit, mehrere Monitore von einem Port aus zu steuern, ein Update mit einer Frequenz von 120 Hz für hochauflösende Displays und Bitstream-Audio), HDMI - auf Version 1.4a (3D-Videowiedergabe in 1080p, 4K-Bildschirmauflösung). . Das Unternehmen hat außerdem einen aktualisierten Videodecoder mit DivX-Unterstützung hinzugefügt.
Darüber hinaus verbesserte AMD die Fähigkeiten der Treiber durch das Hinzufügen von morphologischem Anti-Aliasing (MLAA) - einem Unschärfefilter für die Nachbearbeitung, dessen Funktionalität (insbesondere zum Zeitpunkt der Veröffentlichung) alles andere als ideal war.
HD 6970 und HD 6950 haben dem Catalyst-Treiber einen Glättungsmodus mit der Bezeichnung EQAA (Enhanced Quality AA) hinzugefügt.
Darüber hinaus implementierte AMD die rudimentäre Unterstützung für HD3D, die bestenfalls skurril war, und den dynamischen Stromverbrauch, diesmal mit PowerTune.Insgesamt waren Cayman-Produkte besser als die Fermi-Chips der ersten Generation. Sie sollten sie schlagen, aber sie lagen einige Prozent hinter der zweiten Generation (GTX 500-Serie), und die darauffolgende Veröffentlichung von Treibern beider Unternehmen verstärkte die Schwankungen.Die Veröffentlichung von Cayman im November wurde um einen Monat verschoben, und am 15. Dezember erschienen HD 6970 und 6950, die (vorübergehend) von der VLIW5-Architektur abweichen, die ATI / AMD seit der R300-Serie verwendete. Stattdessen verwendete das Unternehmen VLIW4, bei dem in keinem Thread-Verarbeitungsblock ein fünfter Sonderfunktions- (oder Transendental-) Block vorhanden war.Dies war erforderlich, um den Überfluss an Ressourcen für Spiele unter DX9 (und älter) zu beseitigen und gleichzeitig die Grafik-Pipeline neu zu organisieren.Die einzigen anderen Produkte, die auf VLIW4 basieren, sind die integrierten Grafikchips der Serien APU Trinity und Richland. Die neueste Grafikarchitektur von AMD basierte auf GCN (Graphics Core Next), und VLIW5 blieb in der HD 8000-Serie, die als Evergreen-GPU der niedrigsten Stufe umbenannt wurde.Im Januar 2011 erschien der Nachkomme der GTX 460 - GTX 560 Ti - und wiederholte die Geschichte der GF100 / GF110. Basierend auf dem GF114 enthielt die Karte ein voll funktionsfähiges Upgrade des GF104 und erwies sich als ebenso zuverlässig und vielseitig wie sein Vorgänger. Auf dieser Basis wurden viele Nichtreferenzversionen mit und ohne Werksübertaktung veröffentlicht.AMD reagierte sofort darauf, indem es die Kosten seiner HD 6950 und 6870 senkte, wodurch der Preis-Leistungs-Vorteil der GTX 560 Ti verschwand. Dank der von den meisten Motherboard-Partnern angebotenen Rabatte ist der HD 6950 und insbesondere seine Version mit 1 GB Speicher attraktiver geworden.Referenzboard Nvidia GeForce GTX 590 Diezweite groß angelegte Veröffentlichung von Nvidia-Produkten im Jahr 2011, nämlich der 26. März, begann mit einer Explosion. In der GTX 590 wurden zwei voll ausgestattete GF110 auf einem Board kombiniert.Die Karten wurden von einem Treiber gesteuert, der die Leistungsbegrenzung nicht ordnungsgemäß implementierte, und verfügten über ein BIOS, das das Anlegen von Hochspannung ermöglichte. Dieser Fehler führte zu einer aggressiven Überspannung, die zu Fehlfunktionen des MOSFET führte. Nvidia korrigierte die Situation, indem es ein strengeres BIOS und einen strengeren Treiber erstellte. Die Veröffentlichung wurde jedoch von abfälligen Überprüfungen begleitet. In puncto Leistung hat die GTX 590 nur die Parität mit der zwei Wochen zuvor erschienenen AMD HD 6990 erreicht.Am 9. Januar begann die geplante Veröffentlichung der Nachfahren der Prozessoren von AMD Northern Islands - Southern Islands, von denen die erste das Flaggschiff HD 7970 war. Dies war die erste Karte für PCI-E 3.0, die zum ersten Mal die GCN-Architektur von AMD verwendete, die auf der 28-Nanometer-TSMC-Prozesstechnologie aufbaute. Nur drei Wochen später schloss sich die zweite Karte auf Tahiti, die HD 7950, der 7970 an, gefolgt von den Mainstream-Karten auf Kap Verde am 15. Februar. Pitcairn-GPU-basierte Leistungskarten kamen im März in den Handel.Die Karten erwiesen sich als gut, zeigten jedoch keine signifikanten Verbesserungen im Vergleich zu den vorherigen 40-Nanometer-Boards. Dies sowie weniger konkurrenzfähige Preise, die für AMD mit der HD 2000-Serie zum Standard geworden sind, das Fehlen von WHQL-Treibern für zwei Monate und die funktionsunfähige Video Codec Engine (VCE) haben die Begeisterung vieler potenzieller Benutzer und Rezensenten gemildert.Der Bonus der Tahiti-Produkte war die Bestätigung, dass AMD eine große Leistungsspanne hinterlassen hat, die aufgrund von Übertaktung erzielt werden konnte. Es war ein Kompromiss zwischen Stromverbrauch, Kühlkörper und Taktrate, aber es führte zu konservativen Kern- und Speicherfrequenzen. Möglicherweise wurde dies auch durch die Notwendigkeit, die Ehe zu reduzieren, und die Unterschätzung der auf Kepler basierenden Nvidia GTX 680/670 beeinflusst.Nvidia erweiterte seine GPU-Funktionen mit der Veröffentlichung der Kepler-Architektur weiter.In früheren Generationen hat Nvidia mit dem anspruchsvollsten Chip begonnen, um Kunden in der High-End-Nische zufrieden zu stellen, und anschließend den langwierigen Testprozess für professionelle Modelle (Tesla / Quadro) fortgesetzt. In den letzten Generationen war dieser Ansatz nicht sehr praktisch, so dass der bescheidenere GK107 und der leistungsorientierte GK104 Vorrang vor dem leistungsstarken GK110 hatten.Vermutlich wurde das GK107 von Nvidia benötigt, da das Unternehmen umfangreiche Verträge mit mobilen OEMs hatte und das GK104 für das obere Desktopsegment benötigte. Beide GPUs wurden als Version A2-Chips ausgeliefert. Das mobile GK107 (GT 640M / 650M, GTX 660M) wurde im Februar an OEM-Partner ausgeliefert und am 22. März offiziell angekündigt, an demselben Tag, an dem Nvidia seine GTX 680 auf Basis des GK104 auf den Markt brachte.Ein weiterer Unterschied zu den neuesten Nvidia-GPU-Architekturen bestand darin, dass die Shader-Einheiten mit derselben Frequenz wie der Kern ausgeführt wurden. Beginnend mit der GeForce 8-Serie arbeiteten Shader-Einheiten mit einer Frequenz, die mindestens doppelt so hoch war wie die Kernfrequenz - 2,67-mal höher als die Kernfrequenz in Serie 9 und genau doppelt so hoch wie 400 und 500.Die Bedeutung dieser Änderung war, dass Nvidia seinen Fokus (auf den Desktop / Mobile-Markt) von der Rohleistung auf das Verhältnis der Leistung pro Watt verlagerte. Mehr Kerne, die mit niedrigeren Geschwindigkeiten laufen, sind effizienter beim parallelen Rechnen als weniger Kerne mit doppelter Frequenz. In der Tat war dies eine Weiterentwicklung des Unterschieds zwischen dem GPU- und dem CPU-Paradigma (viele Kerne, niedrige Frequenzen, hohe Durchlässigkeit und Verzögerung gegenüber einer kleinen Anzahl von Kernen, hohe Frequenz, geringere Durchlässigkeit und Verzögerung).Darüber hinaus hat eine Verringerung der Häufigkeit von Shadereinheiten zu einer Verringerung des Stromverbrauchs geführt. Darüber hinaus sparte Nvidia noch mehr beim Design, reduzierte die Anzahl der Einheiten mit doppelter Präzision auf dem Chip erheblich und reduzierte die Breite des Busses auf mehr Mainstream-256-Bit. Diese Änderungen wurden zusammen mit der relativ bescheidenen Kerngeschwindigkeit durch die dynamische Boost-Funktion (Overclocking on Demand) verstärkt, die zu einem ausgewogeneren Produkt führte, wenn auch auf Kosten reduzierter Rechenkapazitäten. Wenn Nvidia jedoch die Computerfunktionalität und das Fermi-Bandbreitendesign beibehalten würde, wäre das Ergebnis ein großes, heißes Design mit hohem Stromverbrauch. Die Gesetze der Physik haben das Chipdesign wieder zu einer Kunst des Kompromisses gemacht.Nvidia hat erneut ein Dual-GPU-Board entwickelt. Bei der GTX 690 handelte es sich im Wesentlichen um zwei per SLI verbundene GTX 680. Der einzige Unterschied besteht darin, dass die maximale Kernfrequenz von 690 (beim Übertakten) um 52 MHz niedriger ist. Obwohl die Leistung immer noch von der Profilerstellung des SLI-Treibers abhing, war die Funktionalität der Karte ausgezeichnet und ihr Erscheinungsbild war die von ihr getragene Limited Edition-Marke wert.Der GK 110-Chip war eine Abkehr von Nvidias üblicher Praxis, die ersten GPUs der Serie unter dem Banner der GeForce herauszubringen. Die Tesla K20-Karte, auf der dieser Chip erstmals auftauchte, war in der Nische der Supercomputer sehr gefragt: Für die Systeme ORNL Cray XK7 Titan, NCSA Blue Waters, Swiss CSCS Todi und Piz Daint wurden mehr als 22.000 Einheiten benötigt.Normalverbraucher mussten weitere sechs Monate warten, bis das GK110 auf der GeForce-Karte erschien. Die Karte erhielt den Namen GTX Titan - das Fehlen einer numerischen Modellnummer verstärkte Nvidias Wunsch, dieses Produkt als ein Modell zu sehen, das von der bestehenden (und zukünftigen) Kepler-Serie getrennt ist. Mit einem Preis von 999 US-Dollar war Titan auf den Markt für Grafikbegeisterte ausgerichtet. Nvidia steigerte auch die Attraktivität seiner Produktlinie für Forscher und Haushaltsfachleute. Zum ersten Mal ermöglichte das Unternehmen der GeForce-Karte, die gleichen Computerfunktionen wie die professionellen Tesla- und Quadro-Modelle beizubehalten.Nvidia GeForce GTX Titan DieKarte hat schnell den Status eines führenden Gaming-Benchmarks erlangt, was sich insbesondere bei Auflösungen mit mehreren Monitoren und aktiviertem Antialiasing mit Super-Sampling bemerkbar macht. Die Gleichgültigkeit von Nvidia, OpenCL-Treiber zu unterstützen, und die Entstehung neuer Spiele in Zusammenarbeit mit AMDs Gaming Evolved-Programm sowie der enorme Preis haben den Einfluss von Titan verringert.Im Juni bereitete AMD seine Antwort mit der Veröffentlichung der HD 7970 GHz Edition vor, die die Kernfrequenz um 75 MHz mit einer zusätzlichen Übertaktungsfähigkeit von weiteren 50 MHz erhöhte (im Gegensatz zu der von Nvidia vorgeschlagenen dynamischen Frequenzänderung). Die GHz-Edition hatte die Frequenz, mit der die Karte voraussichtlich im Januar erscheinen sollte.Unglücklicherweise für AMD hat die Zielgruppe dieses Produkts bereits festgestellt, dass das Standardmodell aufgrund von Übertaktung in der Regel das gleiche (wenn nicht das beste) Leistungsniveau aufweist und gleichzeitig einen deutlich niedrigeren Preis und eine niedrigere Kernspannung aufweist. AMD hat den HD 7950 Boost für die HD 7970 GHz Edition veröffentlicht.