Die Entwicklung moderner Grafikprozessoren begann 1995 mit dem Erscheinen der ersten 3D-Karten, gefolgt von der weit verbreiteten Einführung von 32-Bit-Betriebssystemen und kostengünstigen PCs.
Zuvor bestand die Grafikindustrie hauptsächlich aus prosaischeren zweidimensionalen nicht-persönlichen Computerarchitekturen. Grafikkarten waren am häufigsten unter den alphanumerischen Bezeichnungen der Chips bekannt und hatten enorme Kosten. Nach und nach kamen 3D-Spiele und Computergrafiken zusammen, die aus so unterschiedlichen Quellen wie Arcade- und Konsolenspielen, Projekten der Verteidigungsindustrie, Robotik- und Weltraumsimulationen sowie medizinischer Bildgebung hervorgingen.
Die Anfänge der 3D-Grafik für Verbraucher waren der Wilde Westen konkurrierender Ideen: von der Implementierung von Geräten bis zur Verwendung verschiedener Rendering-Techniken sowie Anwendungs- und Datenschnittstellen. Die ersten Grafiksysteme hatten eine feste Funktionspipeline (FFP) und eine Architektur, die einem sehr strengen Verarbeitungspfad folgte. Gleichzeitig verfügte fast jeder Hersteller von 3D-Chips über eigene APIs.
3D-Grafiken verwandelten die eher langweilige PC-Industrie in eine Show des Lichts und der Magie, aber sie verdankt ihre Existenz vielen Generationen von Innovationen. In dieser Artikelserie werden wir uns die Geschichte der GPU genauer ansehen: die Anfänge der 3D-Grafik für Verbraucher, die 3Dfx Voodoo revolutionierten, die Konsolidierung der Branche um die Jahrhundertwende und moderne GPGPUs.
1976 - 1995: Die ersten Tage der Consumer-3D-Grafik
Die ersten echten 3D-Grafiken kamen mit dem Aufkommen von Display-Controllern, sogenannten Video-Shiftern oder Video-Adressgeneratoren. Sie fungierten als Vermittler zwischen dem Zentralprozessor und dem Display. Der eingehende Datenstrom wurde in eine Folge von Ausgangsbit-Videodaten wie Helligkeit und Farbe sowie in eine vertikale und horizontale zusammengesetzte Synchronisation umgewandelt, die eine Pixelreihe speicherte und jede nachfolgende Zeile und das Intervall des Löschimpulses (die Zeit zwischen dem Abschluss einer Rasterzeile und dem Beginn einer neuen) synchronisierte.
Eine Vielzahl von Designs solcher Geräte erschien in der zweiten Hälfte der 1970er Jahre und legte den Grundstein für die uns bekannten 3D-Grafiken.
Atari 2600 Veröffentlicht im September 1977Beispielsweise konnte der 1976 von RCA veröffentlichte Pixie-Videochip (CDP1861) NTSC-kompatibles Video mit einer Auflösung von 62 x 128 oder 64 x 32 für die unbeliebte RCA Studio II-Konsole ausgeben.
Ein Jahr später folgte auf den Videochip der Television Interface Adapter (TIA) 1A, der in den Atari 2600 integriert wurde, um Bildschirmbilder, Soundeffekte und Leseinformationen von Eingangscontrollern zu erzeugen. TIA wurde von Jay Miner geleitet, der später Chips für den Commodore Amiga-Computer entwarf.
1978 kündigte Motorola die Veröffentlichung des Videoadressgenerators MC6845 an. Es wurde zur Grundlage für die 1981 veröffentlichten MDA / CDA-Karten (Monochrome / Color Display Adapter) für den IBM PC. Dieser Generator führte die gleichen Funktionen auf dem Apple II-Computer aus. Später in diesem Jahr fügte Motorola den Videoanzeigegenerator MC6847 hinzu, der in vielen PCs der ersten Generation, einschließlich des Tandy TRS-80, eingesetzt wurde.
Monochrom-Anzeigeadapter für IBM PCEin ähnliches VIC-Gerät, das von der MOS Tech-Abteilung von Commodore hergestellt wurde, lieferte Grafikausgaben für Commodore 1980-83-Heimcomputer.
Im kommenden November feierten der ANTIC-Controller (Alphanumeric Television Interface Interface) und der
CTIA / GTIA-Coprozessor (Color / Graphics Television Interface Adapter) ihr Debüt in Atari 400-Computern. ANTIC verarbeitete unter Verwendung des direkten Speicherzugriffs (DMA) 2D-Bildbefehle. Wie die meisten Videokoprozessoren können Spielfeldgrafiken (Hintergründe, Bildschirmschoner, Brillendisplay) und CTIA-Farben und sich bewegende Objekte generiert werden. Yamaha und Texas Instruments versorgten auch Hersteller früher Heimcomputer mit ähnlichen integrierten Schaltkreisen.
Die nächsten Phasen der Entwicklung der Grafik fanden hauptsächlich in der professionellen Industrie statt.
Intel verwendete seinen 82720-Grafikchip als Basis für das 1.000 US-Dollar teure iSBX 275 Video Graphics Controller-Multimode-Board (verschiedene Grafikmodi). Das Gerät kann Daten von acht Farben mit einer Auflösung von 256 x 256 (oder monochrome Farben mit einer Auflösung von 512 x 512) anzeigen. 32 Kilobyte Anzeigespeicher reichten aus, um Linien, Bögen, Rechtecke und Textzeichen zu zeichnen. Der Chip hatte auch die Funktionen Zoomen, Teilen des Bildschirms in Teile und Scrollen.
Kurz darauf veröffentlichte SGI IRIS Graphics für Workstations - die GR1.x-Grafikkarte mit der Möglichkeit, separate (Tochter-) Karten anzuschließen, mit denen Sie die Anzahl der Farben erweitern, Geometrie, Z-Puffer und Überlagerungen / Substrate verwenden können.
Zu diesem Zeitpunkt war die 3D-Visualisierung für Industrie und Verteidigung bereits recht entwickelt. IBM, General Electric und Martin Marietta (der später 1992 die Luft- und Raumfahrtabteilung von GE kaufte) entwickelten zusammen mit Auftragnehmern der Verteidigungsabteilung, Technologieinstituten und der NASA verschiedene Projekte, die Technologie für Militär- und Weltraumsimulationen erforderten. Ebenfalls 1951 entwickelte die Marine einen Flugsimulator mit 3D-Visualisierung auf der Basis des Whirlwind-Computers des Massachusetts Institute of Technology.
Neben Verteidigungsunternehmen gab es Unternehmen, die professionelle Grafiken für die Militärmärkte lieferten.
Evans & Sutherland, das professionelle Grafikkarten wie
Freedom und
REALimage lieferte, lieferte auch Grafiken für den
CT5-Flugsimulator , der 20 Millionen US-Dollar kostete und vom
DEC PDP-11-Mainframe angetrieben wurde. Einer der Gründer des Unternehmens, Ivan Sutherland, entwickelte 1961 ein Computerprogramm namens Sketchpad, mit dem geometrische Formen mit einem Lichtstift gezeichnet und in Echtzeit auf einem CRT-Bildschirm angezeigt werden konnten.
Es war der Vorläufer der modernen grafischen Benutzeroberfläche (GUI).
In einer weniger geschlossenen Personal Computer-Branche erschien eine Reihe von 82C43x-Chips von Chips and Technologies, die im EGA (Extended Graphics Adapter) verwendet wurden und mit IBM-Adaptern konkurrierten. 1985 wurden diese Adapter in vielen PC / AT-Klonen installiert. Dieses Jahr war auch für den Commodore Amiga-Computer bemerkenswert, der mit dem OCS-Chipsatz veröffentlicht wurde. Der Chipsatz bestand aus drei Hauptchips, Agnus, Denise und Paula, wodurch die Abhängigkeit von der CPU bei Grafik- und Soundberechnungen teilweise verringert wurde.
Im August 1985 gründeten drei Einwanderer aus Hongkong, Kwok Yuan Ho, Lee Lau und Benny Lau, Array Technology Inc. in Kanada. Bis Ende des Jahres wurde der Name in ATI Technologies Inc. geändert.
Im folgenden Jahr brachte ATI sein erstes Produkt auf den Markt, die OEM Color Emulation Card. Es wurde verwendet, um monochromen grünen, bernsteinfarbenen oder weißen Leuchtstofftext über einen 9-poligen DE-9-Anschluss auf dem schwarzen Hintergrund eines TTL-Monitors auszugeben. Die Karte war mit 16 KB Speicher ausgestattet. Sie trug wesentlich dazu bei, dass das Unternehmen im ersten Jahr von ATI 10 Millionen kanadische Dollar verdiente. Hauptgrund dafür war der Vertrag über die wöchentliche Lieferung von 7.000 Chips für Commodore-Computer.
Das Aufkommen von Farbmonitoren und das Fehlen gemeinsamer Standards führten zur Gründung der Video Electronics Standards Association (VESA), zu deren Gründungsmitgliedern ATI gehörte, sowie von NEC und sechs weiteren Grafikkartenherstellern.
1987 erweiterte ATI seine Produktlinie um die Graphics Solution Plus-Serie für OEMs. Es wurde der IBM PC / XT 8-Bit-ISA-Bus für den IBM PC verwendet, der auf Intel 8086/8088 basiert. Der Chip unterstützt die grafischen Modi MDA, CGA und EGA, die mit Dip-Schaltern konfiguriert werden können. Tatsächlich war es ein Klon des Plantronics Colorplus-Boards, aber mit Platz für 64 KB Speicher. PEGA1, 1a und 2a (256 KBB) von Paradise Systems wurden 1987 veröffentlicht und waren ebenfalls Plantronics-Klone.
ATI EGA 800: 16-Farben-VGA-Emulation, Unterstützung für eine Auflösung von 800 x 600Im März erschien die EGA Wonder-Serie (Modelle 1 bis 4) für 399 US-Dollar. Es hatte 256 KB DRAM und war kompatibel mit CGA-, EGA- und MDA-Emulation in Auflösungen von bis zu 640 x 350 und mit 16 Farben. Der erweiterte EGA-Modus war in den Serien 2,3 und 4 verfügbar.
Die High-Tech-Geräte waren EGA Wonder 800 mit 16-Farben-VGA-Emulation und Unterstützung für eine Auflösung von 800 x 600 sowie die VIP-Karte (VGA Improved Performance), die im Wesentlichen ein EGA Wonder mit einem hinzugefügten DAC-Modul war, um eine eingeschränkte VGA-Kompatibilität zu gewährleisten. Letzteres kostete 449 USD plus 99 USD für das Compaq-Erweiterungsmodul.
ATI war bei weitem nicht das einzige Unternehmen, das eine Welle wachsender Verbraucherbedürfnisse nach PCs bewältigte.
In diesem Jahr erschienen viele neue Unternehmen und Produkte ... Darunter waren Trident, SiS, Tamerack, Realtek, Oak Technology, LSI G-2 Inc., Hualon, Cornerstone Imaging und Winbond, die alle 1986-87 gegründet wurden. Im gleichen Zeitraum begannen Unternehmen wie AMD, Western Digital / Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini und Genua mit der Herstellung ihrer ersten Grafikgeräte.
In den nächsten Jahren produzierte die Wonder Series von ATI weiterhin neue und aufregende Produkte.
1988 wurde die Small Wonder Graphics Solution mit der Möglichkeit eingeführt, einen Gamecontroller und einen Composite-Ausgang (für CGA- und MDA-Emulation), EGA Wonder 480 und 800+ mit Unterstützung für Extended EGA und 16-Bit-VGA sowie VGA Wonder und Wonder 16 mit zu verbinden Unterstützung für VGA und SVGA hinzugefügt.
Wonder 16, ausgestattet mit 256 KB Speicher, kostet 499 US-Dollar, während die 512K-Version 699 US-Dollar kostet.
1989 erschien die verbesserte VGA Wonder / Wonder 16-Serie, einschließlich der VGA Edge 16 (Wonder 1024-Serie) zu einem reduzierten Preis. Zu den neuen Funktionen gehörten ein Bus-Maus-Anschluss und die Unterstützung des VESA Feature Connector. Es war ein vergoldeter Anschluss, ähnlich einem verkürzten Datenbus-Steckplatzanschluss, der mit einem anderen Videocontroller verkabelt war, um einen überlasteten Datenbus zu umgehen.
Die Aktualisierungen der Wunderserien wurden 1991 fortgesetzt. Die Wonder XL-Karte fügte VESA 32K- und Sierra RAMDAC-Farbkompatibilität hinzu, wodurch die maximale Bildschirmauflösung auf 640 x 480 bei 72 Hz oder 800 x 600 bei 60 Hz erhöht wurde. Die Preise lagen in einem weiten Bereich: 249 USD für ein Modell mit 256 KB, 349 USD für 512 KB und 399 USD für eine Version mit 1 MB RAM. Die reduzierte Version hieß VGA Charger und basierte auf dem Basic-16 des Vorjahres.
ATI Graphics Ultra ISA (Mach8 + VGA)ATI hat eine Variante von Wonder XL entwickelt, auf deren erweiterter Leiterplatte sich der Creative Sound Blaster 1.5-Chip befindet. Ein Gerät namens VGA Stereo-F / X konnte Stereoton aus Sound Blaster-Monodateien ungefähr als FM-Radio simulieren.
Im Mai dieses Jahres erschien die Mach-Serie, beginnend mit dem Mach8-Gerät. Es wurde als Chip oder als Board verkauft, was die Verwendung einer Software-Schnittstelle (AI) ermöglichte, um einen Teil der 2D-Zeichenvorgänge zu übernehmen, z. B. das Zeichnen von Linien, das Füllen mit Farbe und das Kombinieren von Bitmaps (Bit BLIT).
Grafikkarten wie der ATI VGAWonder GT ermöglichten die Arbeit mit 2D und 3D und kombinierten Mach8 mit dem Grafikkern (28800-2) von VGA Wonder + -Karten, die 3D-Operationen ausführten. Dank Wonder und Mach8 hat ATI einen Umsatz von über 100 Millionen US-Dollar erzielt, was hauptsächlich auf die Umstellung der Benutzer auf Windows 3.0 und die erhöhte Arbeitsbelastung bei 2D-Vorgängen zurückzuführen ist.
Anfang 1989 wurde S3 Graphics gegründet, das 18 Monate später seinen ersten 2D-Beschleunigerchip und seine erste S3 911-Grafikkarte (oder 86C911) herstellte. Wichtige Funktionen des neuesten 1 MB VRAM aus Stahl und Unterstützung für 16-Bit-Farben.
Im selben Jahr wurde der S3 911 von der 924-Karte abgelöst - tatsächlich handelte es sich um eine aktualisierte Version des 911 mit 24-Bit-Farbunterstützung. im nächsten Jahr wurde es in Version 928 erneut verbessert, wodurch die Unterstützung für 32-Bit-Farben hinzugefügt wurde; Die Beschleuniger 801 und 805 wurden ebenfalls freigegeben. Der Beschleuniger 801 verwendete die ISA-Schnittstelle und der 805 verwendete VLB. Zwischen dem Start von 911 und dem Aufkommen des 3D-Beschleunigers war der Markt mit 2D-Karten für die Arbeit mit GUIs gefüllt, die auf dem ursprünglichen S3-Gerät basierten. Die bemerkenswertesten davon sind Tseng Labs, Cirrus Logic, Trident, IIT, ATI (Mach32) und Matrox (MAGIC RGB).
Im Januar 1992 veröffentlichte Silicon Graphics Inc (SGI) OpenGL 1.0, eine plattformübergreifende, herstellerunabhängige Anwendungsprogrammierschnittstelle (API) für 2D- und 3D-Grafiken.
OpenGL wurde aus der SGI-eigenen API IRIS GL (Integrated Raster Imaging System Graphical Library) entwickelt. Die Idee war, die nicht grafischen Funktionen von IRIS beizubehalten und die API auf Systemen anderer Unternehmen arbeiten zu lassen, da am Horizont Konkurrenten auftauchten, die ihre eigenen proprietären APIs bereitstellten.
Ursprünglich war OpenGL auf professionelle UNIX-Märkte ausgerichtet, konnte sich aber dank der bequemen Implementierung von Erweiterungen schnell an 3D-Spiele anpassen.
Microsoft entwickelte eine eigene konkurrierende API namens Direct3D und unternahm daher keine großen Anstrengungen, um sicherzustellen, dass OpenGL unter Windows optimal funktioniert.
Diese Situation erreichte einige Jahre später einen kritischen Punkt, als id Carmack von id Software, der zuvor Doom, ein revolutionäres PC-Spiel, veröffentlicht hatte, Quake mit OpenGL auf Windows portierte und
Direct3D offen kritisierte .
Auf dem Weg in die Zukunft: 1997 GLQuake and Quake OriginalMicrosoft war unnachgiebig - das Unternehmen lehnte es ab, den OpenGL Mini-Client-Treiber (MCD) für Windows 95 zu lizenzieren, wodurch Hersteller auswählen konnten, welche Funktionen auf die Hardwarebeschleunigung zugreifen können. SGI reagierte auf diesen Schritt mit der Entwicklung eines installierbaren Client-Treibers (ICD), der nicht nur die gleiche Funktionalität, sondern auch eine viel bessere Leistung erbrachte, da MCD nur die Rasterung bereitstellte und ICD Beleuchtung und Transformation (T & L) hinzufügte. .
Bei der Entwicklung von OpenGL, das ursprünglich auf Workstations populär wurde, beobachtete Microsoft genau die Entstehung des Spielemarkts und entwickelte eine eigene proprietäre API. Im Februar 1995 erwarb das Unternehmen RenderMorphics, dessen Reality Lab-API von Drittentwicklern unterstützt wurde und zum Kern von Direct3D wurde.
Zur gleichen Zeit schrieb Brian Hook von 3dfx die Glide-API, die später zur dominierenden Gaming-API wurde. Dies war teilweise auf die Teilnahme von Microsoft am Talisman-Projekt (kachelbasierte Rendering-Ökosysteme) zurückzuführen, aufgrund dessen das Unternehmen die für DirectX vorgesehenen Ressourcen begrenzen musste.
Dank der zunehmenden Verbreitung von Windows ist die D3D-Schnittstelle immer beliebter geworden, und proprietäre APIs wie S3d (S3), Matrox Simple Interface, Creative Graphics Library, C-Schnittstelle (ATI), SGL (PowerVR), NVLIB (Nvidia), RRedline (Rendition) ) und Glide begannen die Liebe der Entwickler zu verlieren.
Die Tatsache, dass sich einige Entwickler dieser proprietären APIs mit den Board-Herstellern zusammengetan haben, hat ihnen nicht einmal geholfen, da die Liste der Funktionen ständig erweitert werden muss. Dazu gehörten eine Erhöhung der Bildschirmauflösungen, eine Erhöhung der Farbtiefe (von 16 Bit auf 24 Bit und dann auf 32 Bit) sowie Methoden zur Verbesserung der Bildqualität wie Anti-Aliasing. All diese Funktionen wurden aufgrund des höheren Durchsatzes, der höheren Grafikleistung und der schnelleren Produktentwicklungszyklen benötigt.
1993 entstanden neue Wettbewerber auf dem Grafikmarkt, von denen der bekannteste Nvidia war, der im Januar dieses Jahres von Jensen Huang, Curtis Reception und Chris Malahowski gegründet wurde. Huang war früher der Leiter von Coreware bei LSI, und Reception und Malahowski kamen von Sun Microsystems, wo sie an der
auf SunSPARC basierenden GX-Grafikarchitektur arbeiteten .
Kurz danach schlossen sich die Novizen Dynamic Pictures, ARK Logic und Rendition Nvidia an.
Aufgrund der Marktvolatilität haben viele Grafikunternehmen ihr Geschäft bereits eingestellt oder wurden von Wettbewerbern übernommen. Unter ihnen waren Tamerack, Gemini Technology, Genua Systems, Hualon, Headland Technology (von SPEA gekauft), Acer, Motorola und Acumos (von Cirrus Logic gekauft).
ATI blieb jedoch das einzige Unternehmen, das von Sieg zu Sieg ging.
Im November desselben Jahres kündigte ATI die Veröffentlichung des 68890 PC-TV-Decoder-Chips an, der erstmals in der Video-It-Karte enthalten war. Der Chip konnte Videos mit einer Auflösung von 320 x 240 bei 15 fps oder 160 x 120 bei 30 fps aufnehmen sowie komprimieren / dekomprimieren Dank des integrierten Intel i750PD VCP (Video Compression Processor) in Echtzeit. Er könnte auch über den Datenbus mit der Grafikkarte kommunizieren, sodass keine zusätzlichen Karten, Anschlüsse oder Kabel erforderlich sind.
Video-it! im Einzelhandel für 399 US-Dollar; Das Video-Basic-Modell mit weniger Funktionen ergänzte auch die Produktlinie.
Fünf Monate später, im März, veröffentlichte ATI verspätet einen 64-Bit-Beschleuniger - Mach64.
Das Geschäftsjahr war nicht gut für ATI, es musste einen Verlust von 2,7 Mio. CAD hinnehmen und verlor aufgrund des starken Wettbewerbs Marktanteile. Zu den konkurrierenden Boards zählen S3 Vision 968, das von vielen Motherboard-Herstellern ausgewählt wurde, und Trio64, die OEM-Verträge mit Dell (Dimension XPS), Compaq (Presario 7170/7180), AT & T (Globalyst), HP (Vectra VE 4) und DEC erhalten haben (Venturis / Celebris).
Vision 968: erster S3-VideobeschleunigerMach64 wurde 1995 veröffentlicht und war größtenteils das erste. Es war der erste Grafikadapter für PC und Mac im Xclaim-Format (450 oder 650 US-Dollar, je nach Speicherplatz). Wie das S3 Trio bot es eine beschleunigte Videowiedergabe.
Mach64 wurde auch der Vorläufer der ersten professionellen Grafikkarten von ATI - 3D Pro Turbo und 3D Pro Turbo + PC2TV , die 599 USD pro Version mit 2 MB und 899 USD pro 4 MB kosten.ATI Mach64 VT mit TV-Tuner-UnterstützungIm folgenden Monat erschien ein Technologie-Startup namens 3DLabs, das geboren wurde, als die Pixelgrafikabteilung von DuPont eine Abteilung ihrer Muttergesellschaft zusammen mit einem GLINT 300SX-Prozessor kaufte , der OpenGL-Rendering, Fragmentverarbeitung und Rasterung durchführen kann. Aufgrund der hohen Kosten waren die Karten des Unternehmens zunächst auf den professionellen Markt ausgerichtet. Fujitsu Sapphire2SX 4MB kostet 1.600 bis 2.000 US-Dollar und der 8-Megabyte-ELSA GLoria 8 2.600 bis 2.850 US-Dollar. Der 300SX war jedoch für den Spielemarkt gedacht.Bei der 1995 veröffentlichten GLINT 300SX-Spielkarte wurde der Speicher auf 2 MB reduziert. 1 Megabyte wurde für Texturen und Z-Puffer verwendet, und alles andere - für den Frame-Puffer. Für 50 zusätzliche Dollar gegenüber den ursprünglichen 349 Dollar hatte die Karte auch die Möglichkeit, VRAM zu erweitern, um die Kompatibilität mit Direct3D zu gewährleisten. Das Produkt hat es nicht geschafft, in einen bereits überfüllten Markt zu gelangen, aber 3DLabs arbeitete bereits an seinem Nachkommen in der Permedia-Serie.Zu dieser Zeit schien S3 überall zu sein. Trio64-Chipsätze dominierten den High-End-OEM-Markt mit integrierten DACs, einem Grafikcontroller und einem Taktsynthesizer. Sie verwendeten einen gemeinsamen Bildpuffer und unterstützten die Hardwarefunktionen von Video-Overlays (den zugewiesenen Teil des Grafikspeichers zum Rendern des von der Anwendung benötigten Videos). Trio64 und sein 32-Bit-Bruder Trio32 wurden von Unternehmen wie Diamond, ELSA, Sparkle, STB, Orchid, Hercules und Number Nine als OEM-Geräte und Einzelkarten verkauft. Die Preise für Diamond Multimedia reichten von 169 USD für eine ViRGE-basierte Karte bis zu 569 USD für Diamond Stealth64-Video mit 4 MB VRAM auf Basis von Trio64 +.Der Mainstream-Markt wurde auch von Trident besucht, einem langjährigen OEM-Anbieter von unprätentiösen 2D-Grafikadaptern, der kürzlich den 9680-Chip in sein Sortiment aufgenommen hat. Der Chip verfügte über die meisten Trio64-Funktionen, und die Boards wurden normalerweise für 170 bis 200 US-Dollar verkauft. In ihrer Nische boten sie eine akzeptable 3D-Leistung und gute Videowiedergabefunktionen.Weitere Neulinge auf dem Mainstream-Markt waren Weiteks Power Player 9130 und Alliance Semiconductor's ProMotion 6410 (üblicherweise mit Alaris Matinee oder FIS OptiViewPro verwendet). Beide Karten boten eine hervorragende Skalierung mit CPU-Geschwindigkeit, und letztere kombinierten eine leistungsstarke Skalierungs-Engine mit einem Anti-Blocking-Schema für eine reibungslose Videowiedergabe, das viel besser war als bei früheren Chips wie ATI Mach64, Matrox MGA 2064W und S3 Vision968.Im Mai veröffentlichte Nvidia seinen ersten NV1 -Grafikchip , die erste kommerzielle GPU, die 3D-Rendering, Videobeschleunigung und integrierte GUI-Beschleunigung ermöglicht.Das Unternehmen hat mit ST Microelectronic eine Partnerschaftsvereinbarung zur Herstellung des Chips für seinen 500-Nanometer-Prozess geschlossen. Letzterer hat die STG2000-Chipversion veröffentlicht. Trotz des Mangels an großem Erfolg versorgte er das Unternehmen mit dem ersten Gewinn. Unglücklicherweise für Nvidia hat Microsoft unmittelbar nach dem Start der ersten Verkäufe von Lieferanten (insbesondere Diamond Edge 3D-Karten) im September die Arbeit an DirectX 1.0 abgeschlossen und veröffentlicht.Die D3D-Grafik-API basierte auf dem Rendern dreieckiger Polygone, und NV1 verwendete die Texturabbildung für Vierecke. Mit dem Treiber wurde eine eingeschränkte Kompatibilität mit D3D hinzugefügt: Dreiecke wurden zu viereckigen Oberflächen, aber das Fehlen von Spielen, die für NV1 entwickelt wurden, war zum Scheitern verurteilt: Der Chip war ein Alleskönner, erreichte jedoch in keinem Bereich Überlegenheit.Die meisten Spiele wurden mit Sega Saturn portiert. NV1 mit 4 MB und integrierten Ports für Saturn (zwei pro Erweiterungskarte, die über ein Kabel mit der Karte verbunden ist) erschien im September 1995 zu einem Preis von etwa 450 US-Dollar.Die jüngsten Änderungen von Microsoft und die Veröffentlichung des DirectX SDK verhinderten, dass Board-Hersteller direkten Zugriff auf die digitale Videowiedergabe erhielten. Dies bedeutete, dass fast alle diskreten Grafikkarten Probleme mit Windows 95 hatten. Die Treiber für Win 3.1 vieler Hersteller waren dagegen im Allgemeinen fehlerfrei.Im November 1995 kündigte ATI die Einführung seines ersten 3D Rage-Beschleunigerchips (auch als Mach 64 GT bekannt) an.Die erste öffentliche Chipdemonstration fand im Mai nächsten Jahres auf der E3-Videospielkonferenz in Los Angeles statt. Die Karte selbst erschien einen Monat später. 3D Rage hat den Mach64 2D-Kern mit 3D-Funktionen kombiniert.Jüngste Änderungen an den DirectX-Spezifikationen führten dazu, dass 3D Rage Kompatibilitätsprobleme mit vielen Spielen hatte, die diese API verwendeten - meistens ohne Tiefenpufferung. Beim EDO-RAM des Bildpuffers mit 2 MB war die Arbeit mit 3D auf 640 x 480 x 16 Bit oder 400 x 300 x 32 Bit beschränkt. Der Versuch, 32-Bit-Farben in 600 x 480 zu aktivieren, beschädigte normalerweise den Bildschirminhalt, und die maximale 2D-Auflösung betrug 1280 x 1024. In Spielen war die Leistung mittelmäßig, aber die Möglichkeit der Vollbildwiedergabe von MPEG-Videos wurde in gewissem Maße ausgeglichen.ATI hat den Chip neu gestaltet und Rage II wurde im September veröffentlicht. Er behebt die Probleme mit dem D3DX des ersten Chips und unterstützt die MPEG2-Wiedergabe. Die ersten Karten verfügten jedoch immer noch über 2 MB Speicher, was die Leistung verringerte und auch Probleme mit perspektivischen / geometrischen Transformationen aufwies. Mit der Erweiterung der Geräteserie um Rage II + DVD und 3D Xpression + stieg die maximale Speicherkapazität auf 8 MB.Obwohl ATI als erstes Unternehmen mit einem 3D-Grafikchip auf den Markt kam, traten Wettbewerber mit anderen Ansätzen zur 3D-Implementierung schnell auf. Insbesondere 3dfx, Rendition und VideoLogic.Rendrea und VideoLogic wurden 1996 gekauft und haben Screamer 2 unter Windows 95 mit der 3dfx Voodoo 1-Karte gehört. Sie gewannen das Rennen, um neue Produkte auf den 3Dfx-Markt zu bringen. Das Performance-Rennen wurde vor dem Start abgeschlossen - 3Dfx Voodoo-Grafik-Steuerungte im Verlust aller Teilnehmer.Dies ist der erste von vier Informationen über die Geschichte der Videoprozessoren. Ich bin ein Teil der Tage von 3Dfx, Rendition, Matrox und einer jungen Firma gehört Nvidia.