La historia de los procesadores de video, parte 3: consolidación del mercado, el comienzo de la era de la competencia entre Nvidia y ATI

imagen

Parte 1: 1976-1995

Parte 2: 3Dfx Voodoo

La caída de 3Dfx y el surgimiento de dos gigantes


A principios de siglo, la industria gráfica mostró tendencias hacia una mayor consolidación.

IXMICRO ha abandonado completamente el mercado profesional, y NEC y Hewlett-Packard han lanzado sus últimos productos: las series TE5 y VISUALIZE FX10. Tras la venta de RealVision, Evans & Sutherland también abandonaron la industria, centrándose en los sistemas de proyección para planetarios.

En el mercado de gráficos de consumo, ATI anunció la adquisición de ArtX Inc. en febrero de 2000. por 400 millones de dólares. ArtX desarrolló la GPU, con el nombre en código de Proyecto Dolphin (más tarde llamado "Flipper") para Nintendo GameCube, que aumentó significativamente las ganancias anuales de ATI.


GPU ATI para GameCube

También en febrero, 3dfx anunció una reducción del personal del 20% , e inmediatamente después compró Gigapixel por 186 millones y obtuvo su tecnología de renderización basada en mosaicos.

Mientras tanto, S3 y Nvidia completaron sus guerras masivas de patentes y firmaron un acuerdo de licencia cruzada de siete años.

Entre abril y mayo, VIA obtuvo el control de S3, que completó el proceso de reestructuración después de la adquisición de Number Nine. Como parte de la reestructuración de S3, la compañía completó una fusión con Diamond Multimedia a través de un intercambio de acciones de $ 165 millones. El departamento FireGL de gráficos profesionales de alta gama de Diamond pasó a llamarse SONICblue y se vendió a ATI por 10 millones en marzo de 2001.

En abril, 3DLabs adquirió Intgraph3D de Intergraph, y hacia finales de año, tuvo lugar la última acción del drama 3dfx, aunque la compañía tenía esperanzas de un futuro brillante, porque el tan esperado Voodoo 5 5500 se acercaba a su debut en junio. Este último devolvió el golpe con la GeForce 256 DDR y ganó la competencia en altas resoluciones.

3dfx solía ser un punto de referencia para el rendimiento en bruto, pero ahora el énfasis principal estaba en la calidad de la imagen con suavizado de pantalla completa. Voodoo 5 introdujo la tecnología T-buffer, una alternativa a las transformaciones estándar y la iluminación: de hecho, tomó varios cuadros renderizados y los ensambló en una sola imagen. En este caso, se creó una imagen ligeramente borrosa, que en la secuencia de cuadros suavizó el movimiento de la animación.

La tecnología 3dfx se ha convertido en el progenitor de muchas técnicas modernas para mejorar la calidad de la imagen, como sombras y reflejos suaves, desenfoque de movimiento y profundidad de campo borrosa.

The Swan Song 3dfx - Voodoo 4 4500 - apareció después de varios retrasos el 19 de octubre. En contraste, los 4200 y 4800 nunca fueron lanzados. Inicialmente, se planeó lanzar la tarjeta en la primavera , en paralelo con su competidor Nvidia TNT2, pero en su lugar tuvo que competir con la icónica GeForce 256 DDR, así como con la mucho más poderosa GeForce 2 GTS y ATI Radeon DDR.

El 14 de noviembre, 3dfx anunció que redujo tardíamente la producción y venta de tarjetas bajo su propia marca. Los rumores de esto han estado circulando durante mucho tiempo, pero fueron muy subestimados. Se agregó combustible al fuego y la noticia de que las placas base para el futuro Pentium 4 no admitirán la transmisión AGP 3.3V requerida por la serie Voodoo 5.


Diseño de caja Voodoo5 5500 AGP

La sentencia de muerte para 3dfx se produjo un mes después cuando Nvidia adquirió su cartera de propiedad intelectual por $ 70 millones más un millón de acciones. Los brillantes expertos de Internet notaron que más tarde el equipo de ingenieros de 3dfx, que se cambió a Nvidia, lo "vengó" y mostró su potencial al lanzar tardíamente el débil gráfico NV30 para las tarjetas FX 5700 y FX 5800.

El comienzo de la era de la lucha de Nvidia y ATI


Antes del lanzamiento de Voodoo 5, ATI anunció el lanzamiento de Radeon DDR , "la GPU de escritorio más poderosa". Las revisiones preliminares de la tarjeta se publicaron el 25 de abril, y solo veinticuatro horas después, Nvidia respondió anunciando el lanzamiento de GeForce 2 GTS (GigaTexel Shader). La última fue añadida a la propia versión de Nvidia de ATI Pixel Tapestry Architecture, llamada Nvidia Shading Rasterizer. Permitió implementar efectos tales como sombreado de espejos, explosiones volumétricas, refracciones, ondas, mezcla de vértices, volúmenes de sombras, relieve texturizado y mapas de altura para cada píxel en el hardware.

Se creía que esta funcionalidad apareció en el chip NV10 anterior (GeForce 256), pero se deshabilitó debido a problemas de hardware. Además, GTS se hizo eco del Charisma Engine ATI, que proporciona compatibilidad con GPU para calcular todas las transformaciones, truncamientos e iluminación. A pesar de esto, ATI dio un paso más al agregar un aspecto de vértice para un movimiento de polígono más suave y la interpolación de fotogramas clave: fue suficiente para que los desarrolladores crearan la malla de animación inicial y final, y el núcleo Charisma calculó las mallas intermedias.


ATI Radeon DDR

ATI Radeon DDR fue lanzado al por menor en agosto de 2000. Radeon DDR, que tenía una excelente implementación de T&L y soporte para algunas de las funciones del futuro DirectX 8, junto con la GeForce 2 GTS, marcó el comienzo de una era de usar salidas DVI debido a la integración de la interfaz en el chip. Sin embargo, la salida DVI era más común en las tarjetas OEM, ya que los productos minoristas generalmente estaban equipados con conectores VIVO.

La desventaja de Radeon DDR fue que, en lugar de los prometidos 200 MHz y 183 MHz, se redujeron las frecuencias centrales y de memoria. Además, en el momento del lanzamiento, los controladores estaban nuevamente lejos de ser óptimos. Hubo problemas con el color de 16 bits y fallas de compatibilidad con los conjuntos de chips VIA, pero esto no impidió que la tarjeta dominara entre los competidores en resoluciones superiores a 1024x768x32. El precio de 399 dólares para la versión con 64 MB estaba en buen acuerdo con 349-399 dólares para la GeForce 2 GTS 64MB, que superó en un 10-20% en puntos de referencia, lo que ayudó a ATI a mantener su primer lugar en el mercado de gráficos.

Nvidia tampoco estaba tan mal. La compañía anunció una ganancia neta de 98.5 millones para el año fiscal y un ingreso récord de 735.3 millones, causado principalmente por su estrategia de segmentación del mercado: en junio se lanzó una versión debilitada de la tarjeta MX, y un modelo Ultra con una mayor frecuencia en agosto. Este último eliminó a Radeon del trono de la carta más productiva, pero costó $ 499. El modelo Pro apareció en diciembre.

Además de lanzar versiones de la tarjeta GeForce 2 para cada segmento de precios, desde el presupuesto MX hasta el Quadro 2 profesional, Nvidia también lanzó su primer chip móvil GeForce2 Go.

Mientras que 3dfx estaba en agonía en noviembre, Imagination Tech (anteriormente VideoLogic) y ST Micro intentaron ingresar al mercado de presupuestos con altos volúmenes de ventas lanzando la serie PowerVR 3 KYRO. La tarjeta, que se vendió en el rango de $ 80 a $ 110 (dependiendo del tamaño del búfer de cuadro), fue una ganga para jugar en resoluciones de 1024x768 y menores. Si la GeForce2 MX salió más tarde, entonces se volvería más popular o no tendría un precio tan agresivamente bajo.

El KYRO II apareció en abril de 2001, en comparación con el original, las frecuencias de reloj aumentaron y la tarjeta en sí se produjo utilizando la tecnología de proceso ST Micro 180 nanómetros más pequeña. Pero la tarjeta nuevamente enfrentó una dura competencia de la GeForce 2 MX. Nvidia cambió el nombre de la tarjeta al MX200 y bajó el 40% de su precio, al mismo tiempo que lanzó el MX400 con una mayor frecuencia y el mismo precio que el Kyro II.

Cuando PowerVR no pudo mantener su liderazgo en el renderizado basado en mosaicos, y ST Micro cerró su negocio de gráficos a principios de 2002, Imagination Technologies cambió de gráficos de escritorio a gráficos móviles y utilizó su experiencia para desarrollar gráficos de sistema en chip. La compañía autorizó la Serie 5 / 5XT / 6 para su uso en procesadores ARM en los mercados de dispositivos ultraportátiles y teléfonos inteligentes.

A principios de 2001, se había desarrollado un monopolio de dos compañías en el mercado de gráficos discretos para PC, además de lo cual Intel suministró una amplia gama de conjuntos de chips con gráficos integrados.

Mientras tanto, Matrox y S3 / VIA se aferraron a los restos de sus mercados tradicionales.

Aprovechando el impulso creado por la serie GeForce 2, Nvidia anunció el lanzamiento de GeForce 3 el 27 de febrero de 2001, con un precio entre $ 339 y $ 449. Este mapa se convirtió en el nuevo rey de la montaña, pero con toda su fuerza se reveló solo en la resolución máxima de 1600x1200 y con suavizado de pantalla completa.


Tarjeta estándar Nvidia GeForce 3

Los primeros controladores tenían errores, especialmente en algunos juegos de OpenGL. Lo que la nueva GeForce realmente trajo fue soporte para DirectX 8, AA de muestreo múltiple, AA de quincunx (esencialmente 2xMSAA + post-procesamiento de desenfoque), filtrado anisotrópico 8x, capacidad incomparable para manejar el filtrado trilineal 8xAF +, así como un sombreador de vértices programable que permitió más controle con precisión el movimiento de las mallas poligonales y proporcione una secuencia suave de cuadros de animación.

También en el mapa apareció soporte para LMA (Lightspeed Memory Architecture); de hecho, era una versión de HyperZ desarrollada por Nvidia. Cortó los píxeles que aparecían en la pantalla detrás de los demás (eliminación de oclusión Z), y también datos comprimidos y descomprimidos para optimizar el uso del bus (compresión Z).

Finalmente, como parte del controlador de memoria Crossbar, Nvidia implementó algoritmos de equilibrio de carga. Crossbar Memory Controller consistió en cuatro subcontroladores de memoria independientes, lo que permitió enviar solicitudes de memoria entrantes de manera más eficiente (en ese momento, un controlador era el estándar de la industria).


Nvidia NV2A dentro de Microsoft Xbox

Más tarde, se agregó NV2A a la línea de productos Nvidia, una versión de GeForce 3 con los atributos de GeForce4, que se utilizó en la consola de juegos Microsoft Xbox.

En este punto, Nvidia controlaba el 31% del mercado de gráficos, Intel - 26% y ATI - 17%.

Mientras que Nvidia complementó la línea GF3 con el Ti 200 debilitado y el Ti 500 overclockeado, ATI tenía prisa por lanzar el Radeon 8500. La tarjeta se construyó sobre la base de la GPU R200 utilizando la tecnología de proceso TSMC 150 nanómetros (lo mismo se usó en la tarjeta NV20 GeForce 3). El chip se anunció en agosto, y estaban ansiosos por él, porque el software de identificación John Carmack dijo que el nuevo Doom 3 funcionará "dos veces más rápido" que en GeForce 3.

El anuncio oficial de ATI sobre el desarrollo del R8500 fue recibido con el mismo entusiasmo . Pero la realidad resultó ser cruel: después del lanzamiento de la tarjeta en octubre, resultó que en los juegos se manifiesta al nivel del debilitado GF3 Ti 200. Los controladores sin procesar y la ausencia de suavizado Smoothvision influyeron suavemente en las calificaciones de R8500 en las primeras críticas. En la temporada navideña, apareció una segunda serie de revisiones, que muestran que los conductores mejoraron al aumentar el rendimiento del R8500 y colocarlo entre el Ti 200 y el GF3 estándar.

Comparación de especificaciones

Frecuencia de núcleo (MHz)El número de tuberías de píxeles.Velocidad de llenado (Mpix / s)El número de unidades de textura por canal de píxelesVelocidad de llenado (Mtex / s)Frecuencia de memoria (MHz)Ancho del bus de memoria (bit)Ancho de banda de memoria (GB / s)
GeForce3 Ti 2001754 4700214004001286.4
GeForce32004 4800216004601287.4
GeForce3 Ti 5002404 4960219205001288.0
Radeon 64MB DDR1832366311003661285.9
Radeon 85002754 41100222005501288.8

Sin embargo, los precios muy competitivos y una gama más amplia de funciones (calidad de imagen 2D, reproducción de video, rendimiento de suavizado) hicieron de la tarjeta un competidor digno para el GF3 y el Ti 500.

Las ventas anuales de ATI cayeron a 1.04 mil millones y registró una pérdida total de 54.2 millones. La compañía comenzó a vender licencias de socios para la creación y venta de tarjetas gráficas, redirigiendo sus recursos al diseño y fabricación de chips.


ATI Xilleon Board

ATI también hizo su debut con Set-Top-Wonder Xilleon, una plataforma de desarrollo basada en Soille Xilleon 220, que incluía un procesador completo, gráficos, E / S, video y audio para decodificadores integrados en el diseño de televisores digitales.

Para complementar a Xilleon, ATI adquirió en junio de 2002 por 20 millones de comunicaciones NxtWave. Esta empresa se especializó en procesamiento de señal digital y aplicaciones para decodificadores y redes digitales terrestres.

Siguiendo su ciclo de lanzamiento de productos, Nvidia lanzó la GeForce en febrero de 2002. La línea original consistía en tres modelos MX, tres modelos móviles basados ​​en MX y dos modelos productivos de titanio (Ti 4400 y Ti 4600). Todos ellos fueron construidos sobre la tecnología de proceso TSMC 150nm. De hecho, GeForce 4 estaba listo para su lanzamiento dos meses antes, pero se pospuso para no interferir con las ventas de GeForce 3 durante la temporada navideña.

La serie MX estaba destinada al segmento de presupuesto, pero no era atractiva, porque se basaba en la arquitectura anticuada GeForce 2. Agregaron decodificación MPEG2, pero las tarjetas, como la línea anterior GF2 MX, volvieron a admitir solo DirectX 7.0 / 7.1. El rango de precios de $ 99 a $ 179 refleja el rango limitado de opciones.

Por otro lado, los modelos Titanium tuvieron un rendimiento excelente, y en algunos casos superaron a la GeForce3 Ti 500 en más del 50 por ciento. En un día, la Ti 4600 se convirtió en la campeona en rendimiento, superando fácilmente a la Radeon 8500, y la Ti 4200 con un costo de $ 199 proporcionó la mejor relación de precio y calidad

Sin embargo, entonces apareció la Radeon 9700 Pro , dejando instantáneamente todas las otras cartas.


ATI Radeon 9700 Pro (FIC A97P)

La GPU ATI R300, desarrollada por un equipo que anteriormente era el núcleo de ArtX, hizo mucho ruido y salió muy pronto. Primero introdujo soporte para DirectX 9.0, y se convirtió en la primera arquitectura que soporta shader model 2.0, vertex shader 2.0 y pixel shader 2.0. Otros logros notables del chip: se convirtió en la segunda serie de GPU con soporte AGP 8x: la primera fue la línea SiS Xabre 80/200/400 y la primera GPU con un diseño de chip flip.

Acerca del diseño del chip flip en la GPU: en generaciones anteriores de chips gráficos y otros circuitos integrados, se utilizó el método de cableado. Con esta técnica, el chip se ubica en el tablero con bloques lógicos ubicados debajo de las capas metálicas, cuyas almohadillas de contacto están conectadas por conductores delgados que conducen a lo largo de los bordes del chip a los cables o contactos de la bola en la parte posterior. Flip - chip le permite deshacerse de los conductores gracias a los contactos (generalmente soldados en una serie de pasadores de bolas) ubicados directamente en la "parte superior" del chip, que luego se voltea (voltea) para que los puntos de soldadura estén en contacto directo con el sustrato o la placa. A continuación, el chip se somete a calentamiento localizado (fusión) para fundir la soldadura, que forma una conexión con los contactos inferiores de la placa.

ATI amplió la línea en octubre con 9,700 no profesionales a un precio de $ 299 para aquellos que no estaban disponibles con el modelo más poderoso por $ 399. Mientras tanto, el 9500 Pro ($ 199) y el 9500 ($ 179) despojados se apresuraron en los segmentos del mercado principal, y el FireGL Z1 / X1 llenó el nicho de los gráficos profesionales con un rango de precios de $ 550-950. También en diciembre, apareció el All-In-Wonder 9700 Pro ($ 449).

Es probable que las ventas de ATI aumenten debido al hecho de que muchas tarjetas podrían modificarse a versiones más caras. Por ejemplo, podría usar una placa de referencia para convertir una tarjeta 9500 en una tarjeta 9700 y una tarjeta Pro 9800 en una XT. Se escribió un parche para el controlador para que este último verifique si sería percibido por la modificación, que consistía en soldar una resistencia o ajustar el chip de control de voltaje de la GPU y la memoria con un lápiz. Entre las modificaciones de hardware, también hubo la conversión de varios modelos 9800 en FireGL X2, y el controlador Omega parcheado podía convertir el 9800 SE 256MB por $ 250 en el 9800 Pro 256MB por $ 499.

Además de las tarjetas discretas, ATI ha lanzado gráficos y conjuntos de chips integrados para escritorio. Estos fueron el A3 / IGP 320, diseñado para trabajar con procesadores AMD, RS200 / IGP 330 y 340 para chips Intel, así como la serie móvil U1 / IGP 320M para plataformas AMD y RS200M para Pentium 4-M. Todos ellos fueron complementados por puentes del sur de ATI, a saber IXP200 / 250.

Entre las versiones GeForce4 y R300, SiS anunció el lanzamiento de la línea Xabre. Las tarjetas eran consistentemente más lentas que los productos Nvidia y ATI en los mismos rangos de precios, y se debilitaron por la ausencia de tuberías de sombreado de vértices. Debido a esto, las tarjetas dependían mucho de los controladores y desarrolladores de juegos que necesitaban sacar el máximo provecho de la emulación de software; por lo tanto, SiS apenas se mantuvo en el mercado de gráficos 3D de escritorio discretos.

También en la línea Xabre se implementó "Turbo Texturizado": una tecnología debido a la cual las velocidades de fotogramas aumentaron significativamente al reducir la calidad de las texturas y la ausencia de filtrado anisotrópico. Todo esto no aumentó el amor de los revisores por estas tarjetas.

La línea Xabre fue la última lanzada bajo la bandera de SiS, ya que un par de meses después, en junio, la compañía separó su departamento de gráficos (que se llamaba XGI) y se fusionó con Trident Graphics.

La primera tarjeta de la serie Nvidia FX apareció el 27 de enero de 2003; fue el infame FX 5800 apodado el "aspirador" ("Dustbuster") y el FX 5800 Ultra, un poco más rápido (léase: menos lento). En comparación con el actual campeón, el ATI Radeon 9700 Pro (y la versión no Pro), el FX era mucho más ruidoso, proporcionando un rendimiento mediocre de filtrado anisotrópico (AF) y anti-aliasing (AA), y en general era mucho más lento. ATI estaba tan adelantado que no el mejor Radeon 9700, lanzado cinco meses antes, superó fácilmente al Ultra, y al mismo tiempo era 100 dólares más barato (299 frente a 399 dólares).

Se suponía que el chip NV30 se lanzará en agosto, aproximadamente al mismo tiempo que el Radeon 9700, pero los problemas de carga y la alta tasa de rechazo en la tecnología de proceso Low-K TSMC de 130 nanómetros obligaron a Nvidia a reducir la velocidad. Alguien afirmó que la compañía carecía de recursos de ingeniería porque muchos desarrolladores estaban involucrados en la creación del chip NV2A para la consola Xbox, SoundStorm APU , así como en los conjuntos de chips para las placas base.

En un esfuerzo por avanzar, Nvidia se ha embarcado en un proyecto para fabricar varios chips de la serie FX utilizando la tecnología de proceso de bajo K de vidrio de fluorosilicato de 130 nanómetros (FSG) más estándar.

En marzo, ATI actualizó su línea de tarjetas, comenzando con la 9800 Pro, que tenía la GPU R350, que era esencialmente la R300 con algunas mejoras en las instrucciones de compresión y almacenamiento en caché de Hyper-Z.

En abril, fue seguido por el RV350 y el RV280. El primero utilizado en el Radeon 9600 se construyó con la misma tecnología de proceso TSMC de bajo consumo de 130 nanómetros que utilizó Nvidia, el RV280 instalado en el Radeon 9200 fue el RV250 casi sin cambios del Radeon 9000 con soporte para AGP 8x.


GPU Xbox 360 (ATI C1 / Xenos)

En el mismo mes, ATI y Nintendo firmaron un acuerdo tecnológico que conduciría a la creación de la GPU de Hollywood para la consola Nintendo Wii. En agosto, ATI hizo un segundo acuerdo de consola cuando Microsoft firmó un contrato con él para desarrollar una GPU para Xbox 360 .

Solo tres meses y medio después del lanzamiento sin gloria del FX 5800, Nvidia hizo otro intento con el NV35 (FX 5900 y FX 5900 Ultra). El nuevo controlador Detonator FX ha mejorado significativamente AA y AF, casi igualando la calidad de los productos ATI. Sin embargo, el 5900 logró lo que el 5800 no pudo lograr: reemplazó al ATI Radeon 9800 Pro del trono de la tarjeta más rápida, pero al precio de $ 499, pocos podían permitírselo.

Como se esperaba, ATI recuperó sus laureles en septiembre con el lanzamiento del 9800 XT. El excelente soporte de controladores, principalmente en algunos juegos DX9, también hizo que el XT fuera el mejor en comparación con los productos de Nvidia, proporcionando el liderazgo de ATI para fin de año. La tarjeta 9700 Pro siguió siendo una placa principal notable, mientras que la FX 5700 Ultra, con un precio de $ 199, ganó el segmento "por debajo de 200".

Después de una pérdida de 47.5 millones en 2002, ATI se detuvo, obteniendo una ganancia de 35.2 millones en 2003. Una parte sustancial de esto fueron los altos precios de las tarjetas dominantes 9800 y 9600. Mientras tanto, gracias a FX 5200, Nvidia tenía el 75% del mercado de tarjetas de presupuesto con soporte para DirectX 9.


El avance de los efectos de Source DirectX 9.0 se muestra en la presentación de Radeon 9800 XT y 9600 XT El

recién creado XGI lanzó a los descendientes de la serie Xabre en septiembre-noviembre. La línea de tarjetas, ahora llamada Volari, varió de V3 por $ 49 a la doble GPU Duo V8 Ultra. De hecho, V3 estaba cambiando el nombre de Trident Blade XP4 con soporte para DX 8.1, y el resto de la serie (V5 y V8) se desarrolló en base al SiS Xabre anterior y tenía soporte para DX9.0.

En su mayor parte, todos los modelos tenían baja velocidad, a excepción del V3 de nivel inferior, que proporcionaba rendimiento al nivel de GeForce FX 5200 Ultra y Radeon 9200. El Duo V8 Ultra costaba aproximadamente un 20% más que el Radeon 9800 Pro 128MB, pero proporcionaba rendimiento al nivel de 9600XT o Incluso un poco más bajo.

La línea XGI Volari continuó en 2005 con la tarjeta 8300, que era aproximadamente igual a la Radeon X300SE / GeForce 6200 a un precio de $ 49, así como a las tarjetas Z9 / Z11 y XP10. En octubre de 2010, la compañía fue nuevamente absorbida por SiS.

Otra empresa que regresó al mercado de los gráficos de escritorio fue S3. Después de que el departamento de gráficos se vendió a VIA por 208 millones más una deuda de la compañía de 60 millones, la compañía reestructurada se centró principalmente en el diseño de conjuntos de chips.

En enero, se anunció el desarrollo de las tarjetas de escritorio DeltaChrome, pero de acuerdo con el antiguo hábito de S3, los primeros modelos S4 y S8 comenzaron a aparecer en los canales minoristas solo en diciembre. Estas nuevas tarjetas tenían la mayoría de las características requeridas para 2003: DirectX 9, compatibilidad con 16x AF, compatibilidad con HD 1080p y compatibilidad con modo vertical.

Desafortunadamente, los compradores ahora veían el mercado de gráficos de escritorio como el escenario de dos competidores, y S3 no era uno de ellos. Aunque el S3 buscaba seguir siendo competitivo, ATI y Nvidia se presionaron mutuamente para mejorar constantemente el rendimiento y los niveles de calidad de imagen.

DeltaChrome fue seguido en 2005 por GammaChrome.

En 2005, Nvidia y ATI continuaron lanzando productos a su vez. En marzo, Nvidia lanzó su primera tarjeta GDDR3 (era la FX 5700 Ultra), seguida de la serie GeForce 6 y la serie 6800 de gama alta. Inicialmente, la alineación consistía en 6800 ($ 299), GT ($ 399), Ultra ($ 499) y su versión overclockeada llamada Ultra Extreme ($ 549), que compitió con la ATI X800 XT Platinum Edition. Este último fue vendido por los socios de ATI que hacen los tableros.

El 14 de marzo de 2005, el 6800 Ultra 512MB fue agregado a la línea, vendido a un precio increíble de $ 899; BFG hizo su versión overclockeada por $ 999. Lanzado en septiembre, la serie 6600 estaba dirigida al segmento de precio medio.

Las características de la serie 6000 incluían soporte para DirectX 9.0c, modelo de sombreador 3.0 (aunque la tarjeta no podía usarlo completamente), el motor de decodificación y reproducción PureVideo y soporte SLI, una tecnología multi-GPU adquirida de 3dfx.


Devolviendo la antigua función: SLI

En la tecnología 3dfx SLI, cada dispositivo era responsable de representar líneas de trama alternas; Nvidia abordó la tarea un poco diferente. La compañía implementó un renderizado de fotogramas divididos (SFR), en el que cada GPU mostraba la parte superior o inferior del fotograma, el renderizado alternativo de fotogramas (AFR), en el que la GPU mostraba fotogramas a su vez y, en algunos casos, el controlador simplemente se apagaba SLI si el juego no era compatible con esta función.

Aunque la tecnología se anunció en junio, la creación de sistemas con múltiples GPU requería una placa base con el chipset nForce4, cuyas grandes entregas minoristas comenzaron solo a fines de noviembre. Agregue combustible al fuego y el hecho de que hasta el próximo año la liberación de los conductores fue muy irregular.

Las revisiones de la época generalmente hablaban sobre el rendimiento actual; se dijo que dos tarjetas de nivel inferior (por ejemplo, 6600 GT SLI, que se podían comprar por $ 398) con mayor frecuencia equivalían a una tarjeta potente con baja resolución y calidad de imagen. Sin embargo, con las resoluciones máximas y el suavizado habilitado, los sistemas de una sola tarjeta tenían una ventaja. El rendimiento de SLI y ATI CrossFire entonces, como a veces ahora, era inestable: estas tecnologías podrían funcionar perfectamente o no funcionar en absoluto.

Los socios de la junta de Nvidia vieron de inmediato las oportunidades de marketing de la tecnología recién inventada: Gigabyte lanzó el 6600 GT SLI dual ( 3D1 ), seguido del 6600 dual ( 3D1-XL ) y 6800 GT ( 3D1-68GT) Estas tarjetas requieren no solo el chipset nF4, sino también la placa base bajo la marca Gigabyte.

En cuanto a las GPU de gama alta, las 6800 Ultra y X800 XT / XT PE eran aproximadamente iguales en términos de precio y rendimiento. Pero también tuvieron problemas. Este último apareció en mayo y sufrió problemas de suministro durante todo el ciclo de producción, mientras que el buque insignia 6800 Ultra Nvidia llegó extremadamente tarde y se lanzó en agosto; en algunas regiones, ella también tuvo problemas con los suministros, porque no todos los socios de la compañía vendieron la tarjeta.

El 6800 GT generalmente superó al X800 Pro a un precio de $ 399, mientras que el 6600 GT llenó la brecha de precios de $ 199.

La competencia activa con Nvidia este año no interfirió con los ingresos de ATI: las ganancias del año alcanzaron un máximo de 204.8 millones con ventas de aproximadamente 2 mil millones.

Hay una cosa extraña sobre el 6600 GT, que recibió una buena recepción: originalmente se lanzó como una tarjeta para PCI Express, mientras que PCI-E solo era compatible con las placas base Intel diseñadas para procesadores Pentium 4. Estos chips generalmente iban a la zaga de los juegos en los productos AMD, que, por supuesto, utilizó el bus de datos AGP.

La serie 7000 de Nvidia comenzó a salir de las líneas de ensamblaje mucho antes de que se llenara la línea de la serie 6000. El 7800 GTX apareció cinco meses antes de que el 6800 GS con discapacidad viera la luz del día. Los primeros productos de la serie 7800 se basaron en la GPU G70, creada con la tecnología de proceso TSMC de 110 nanómetros, pero fue reemplazada rápidamente por la serie 7900 basada en G71, fabricada con la tecnología de proceso TSMC de 90 nanómetros.

Aunque los nombres de las placas NV cambiaron a G, la última serie se asoció arquitectónicamente con la serie NV40 de tarjetas GeForce 6000. Y aunque no era mucho más grande que la NV40-45 (334 mm²), la G70 albergaba ocho millones de transistores más (en total fue de 302 millones), que agregaron un tercio más de tuberías de vértices y 50% más de tuberías de píxeles. En la mayoría de los casos, el G70 fue reemplazado en producción después de nueve meses, pero el GS y GTX 512MB fueron reemplazados después de 3 y 4 meses.

En el nicho de presupuesto 7100 GS continuó usando TurboCache (la capacidad de la placa para usar parte de la memoria del sistema), que apareció en la generación anterior: GeForce 6200 TC.


Nvidia GeForce 7800 GTX

En otra categoría de precios, el 7800 GTX 256MB salió a la venta el 22 de junio a un precio recomendado de $ 599, aunque el precio real fue en muchos casos más alto. ATI recuperó su liderazgo en el nicho de una sola GPU con el lanzamiento del X1800 XT, sin embargo, treinta y cinco días después, Nvidia respondió con una versión de 512 megabytes del 7800 GTX y recuperó su título.

Dos meses después, ATI lanzó el X1900 XTX, compitiendo con los buques insignia de Nvidia. Esta carrera de poder llevó a ambas tarjetas a venderse por $ 650. Una de las consecuencias de mover las tarjetas a un búfer de trama de 512 megabytes fue que ahora, gracias al DVI de doble enlace, era posible jugar en una resolución de 2560x1600 con color de 32 bits.


El diseño original de ATI CrossFire, que requería el uso de un cable externo en forma de Y

En mayo de 2005, ATI anunció el desarrollo de su tecnología para varias tarjetas Crossfire, que estuvo disponible después del lanzamiento en septiembre del chipset Xpress 200 Crossfire Edition y la placa X850 XT Crossfire Master. Debido al modo único de TMDS, inicialmente la resolución y la frecuencia de actualización se limitaron a 1600x1200 y 60 Hz, pero pronto fue reemplazado por TMDS con modo dual, proporcionando una resolución de 2560x1600.

A diferencia de la solución Nvidia con dos tarjetas que se comunican a través de un conector de puente, ATI implementó una tarjeta maestra con un receptor TMDS que recibió datos entrantes de una tarjeta esclava a través de un dispositivo externo y un chip de composición Xilinx.

Al igual que el SLI de Nvidia, CrossFire proporcionó representación alternativa de cuadros (AFR) y representación parcial de cuadros (SFR), pero también tenía una técnica de representación llamada SuperTiling. Aumentó el rendimiento en algunas aplicaciones, pero no funcionaba con OpenGL y no admitía el procesamiento acelerado de geometría. Al igual que SLI, Crossfire se ha encontrado con problemas de controladores.

Originalmente, ATI tenía la intención de lanzar tarjetas basadas en R520 (las primeras tarjetas de la compañía con Shader Model 3.0) en junio-julio, pero un error encontrado tarde en la biblioteca celular causó un retraso de 4 meses.

Los primeros fueron el X1800 XL / XT con el núcleo R520, las tarjetas de presupuesto X1300 con el RV515, que esencialmente tenía una cuarta parte de las tuberías gráficas R520, y el X1600 Pro / XT basado en el RV530, que era similar al RV515, pero tenía una mayor tasa de transferencia de datos de sombreadores y tuberías de vértices en bloques de texturas y tuberías de operaciones ráster.

Debido al retraso inicial en el lanzamiento del R520, esta GPU y sus derivados solo tres meses y medio después fueron reemplazados por la serie X1900 basada en el R580, que utilizó la nueva tecnología de proceso TSMC de 80 nanómetros. El RV570 tenía la mitad de los recursos de las tuberías gráficas (tarjetas X1650 GT / XT y X1950 GT / Pro), y el RV530 truncado se convirtió en el RV535, que se utilizó en el X1650 Pro, así como en el X1300 XT.

Los ingresos anuales de ATI aumentaron a un récord de 2.2 mil millones, el más alto en la historia de la compañía; Esto fue facilitado por el suministro de GPU Xenos para Xbox 360. Sin embargo, las ganancias cayeron a 16.9 millones.

En este momento, el lanzamiento de cualquier tarjeta gráfica basada en GPU que no sean Nvidia o ATI se percibió con curiosidad, si no con entusiasmo. En esta situación, resultó ser la rediseñada línea gráfica S3 lanzada en noviembre.

Chrome S25 y S27 debido a sus altas frecuencias prometieron un buen rendimiento en los juegos, pero de hecho resultó ser mediocre. Debido a su precio de $ 99 (S25) y $ 115 (S27), las tarjetas tuvieron que competir con las Nvidia 6600 / 6600GT y ATI X1300Pro / X1600Pro, pero los productos S3 no podían competir con ellas en ninguno de los parámetros (excepto el consumo de energía). Esta ligera ventaja se evaporó cuando ATI / AMD y Nvidia pusieron sus miras en el segmento inicial del mercado HTPC, esencialmente matando las tarjetas S3 posteriores de las series Chrome 400 y 500.

Una dificultad adicional para S3 fue que el costo de producir tarjetas condujo a ganancias muy pequeñas. La compañía necesitaba ventas en el mercado a gran escala propiedad de dos proveedores importantes. En julio de 2012, HTC adquirió el S3 por $ 300 millones; Este movimiento fue visto inicialmente como un medio de influencia en disputas legales entre HTC y S3 con Apple.

En 2006, Nvidia y ATI seguían dominando las críticas de prensa.

ATI adquirió Macrosynergy, un centro de I + D con sede en Shanghai con sede en California y originalmente parte del grupo XGI. En mayo, la compañía compró por 44 millones de BitBoys.

Mientras tanto, en marzo, Nvidia lanzó su primer producto de placa única con doble GPU, que lanzó anteriormente ATI, 3dfx y XGI. La tarjeta 7900 GX2 era un emparedado de dos placas en las que se instaló un par de frecuencias más bajas 7900 GTX. Pero Asustek no esperó al sistema Nvidia en dos GPU, y lanzó su propia versión en forma de Extreme N7800GT Dual ($ 900, 2,000 dispositivos fabricados), en el que se conectaron dos GPU 7800 GT.

Gracias a esta tarjeta, Asus se interesó en lanzar una edición limitada de dos tarjetas GPU; Este movimiento probablemente endureció la actitud de Nvidia hacia sus socios de producción, porque en el momento del lanzamiento, los productos Asustek atrajeron toda la atención.

En el mercado principal con mayores escalas de ventas, tanto el 7600 GT como el GS proporcionaron un rendimiento y durabilidad sólidos, mientras que el ATI X1950 XTX y Crossfire estuvieron en la cima de las clasificaciones de mercado de las tarjetas GPU individuales. La X1900 XT y la GeForce 7900 GT tenían aproximadamente el mismo rendimiento y estaban dirigidas a la cima del mercado principal.


David Orton de ATI y Héctor Ruiz de AMD anuncian formalmente una fusión histórica

Después de veintiún años de existencia independiente, el 25 de octubre de 2006, AMD adquirió ATI por un total de $ 5.4 mil millones: 1.7 mil millones recibidos de AMD, 2.5 mil millones prestados de instituciones de crédito, 57 millones de acciones y 11 millones de opciones / Acciones limitadas de AMD valoradas en 1.200 millones. En el momento de la compra, ATI recibió aproximadamente el 60-70% de los ingresos de los conjuntos de chips / gráficos integrados gracias a un acuerdo de asociación para la producción de placas base para plataformas Intel.

Después de que la mayor parte del mercado de chipsets gráficos integrados para Intel se cambió a Nvidia, la cuota de mercado de ATI se redujo significativamente. La lógica de la compra fue que AMD obtuvo acceso rápido a las tecnologías de GPU, en lugar de gastar 5.400 millones en el desarrollo de sus propias tecnologías y licencias de terceros. En ese momento, AMD apuntaba a una implementación rápida de Torrenza y sus proyectos Fusion relacionados.

Dos semanas después de comprar ATI, Nvidia comenzó la era de la arquitectura de gráficos de sombreadores unificados para PC. La arquitectura unificada ya apareció en las consolas gracias a ATI y su GPU Xenos instalada en la Xbox 360.

Esta publicación es la tercera parte de una serie de cuatro artículos. En el cuarto y último, hablaremos sobre el desarrollo de productos Radeon bajo el ala de AMD, la competencia continua entre GeForce y Radeon y la transición al procesamiento de transmisión.

Source: https://habr.com/ru/post/478904/


All Articles