Historial del procesador de video, Parte 2: 3Dfx Voodoo

Parte 1: 1976 - 1995

3Dfx Voodoo: cambiando las reglas del juego


Lanzada en noviembre de 1996, la tarjeta gráfica 3Dfx consistía en una placa solo 3D que requería un adaptador VGA a una tarjeta 2D separada para conectarse a la pantalla.

Las tarjetas fueron vendidas por muchas compañías. Orchid Technologies fue el primero en ingresar al mercado con Orchid Righteous 3D por $ 299. Esta placa base es notable porque tenía relés mecánicos que "hacían clic" cuando el chipset estaba en funcionamiento. En versiones posteriores, como en dispositivos de otros proveedores, ya se utilizaron relés de estado sólido. Esta tarjeta fue seguida por Diamond Multimedia Monster 3D, Colormaster Voodoo Mania, Canopus Pure3D, Quantum3D, Miro Hiscore, Skywell (Magic3D) y 2theMAX Fantasy FX Power 3D.

Casi en un día, Voodoo Graphics revolucionó los gráficos para computadoras personales, convirtiendo muchos otros dispositivos en obsoletos, incluida una amplia gama de tarjetas diseñadas solo para 2D. El mercado 3D en 1996 favoreció al S3, que ganó casi un 50 por ciento. Pero pronto todo tuvo que cambiar. Se estima que en la cima de la popularidad de Voodoo, 3Dfx capturó el 80-85% del mercado de aceleradores 3D.


Diamond Multimedia Monster 3D (3dfx Voodoo1 4MB PCI)

Casi al mismo tiempo, VideoLogic desarrolló la tecnología de representación diferida basada en mosaicos (TBDR), que eliminó la necesidad de un almacenamiento en Z a gran escala (eliminando píxeles superpuestos / ocultos de la representación final): descartó todo excepto la geometría visible, después de lo cual se aplicaron texturas, sombras e iluminación a los objetos restantes. El marco resultante de este proceso se dividió en mosaicos rectangulares, y cada mosaico con sus polígonos se renderizó y transmitió a la salida. La representación del polígono se realizó después del cálculo de los píxeles requeridos para el marco y se completó el recorte del polígono (el almacenamiento en Z se realizó solo a niveles de mosaico). Gracias a esto, solo se requería el mínimo de cálculos.

NEC creó las dos primeras series de chips y tarjetas, y ST Micro fabricó los chips de la Serie 3 (Kyro). La primera tarjeta se usó exclusivamente en la PC Compaq Presario y se conocía como Midas 3 (Midas 1 y 2 eran prototipos del proyecto del sistema basado en una máquina arcade). Fue seguido por PCX1 y PCX2, vendidos como productos OEM.

El chip de la Serie 2 se fabricó originalmente para la consola Sega Dreamcast, y cuando la tarjeta de escritorio Neon 250 salió a la venta en noviembre de 1999 por $ 169, sus competidores ya eran mucho más potentes y, en particular, tenían resoluciones más altas con 32 -bit color.

Justo antes del lanzamiento del Neon 250, Rendition Vérité V1000 fue la primera tarjeta de núcleo programable para renderizar gráficos 2D + 3D, utilizando un procesador RISC basado en MIPS, así como tuberías de píxeles. El procesador fue responsable de preparar los triángulos y organizar la carga en los transportadores.

El Vérité 1000, desarrollado originalmente a fines de 1995, fue uno de los tableros que Microsoft usó para desarrollar Direct3D. Desafortunadamente, esta tarjeta requería un chipset de placa base con soporte para acceso directo a memoria (DMA), porque Renden usó este método para transferir datos a través de la interfaz PCI. La V1000 tuvo bastante éxito en comparación con casi todas las otras tarjetas gráficas de consumo antes del advenimiento de Voodoo Graphics, que duplicó su rendimiento en 3D. El tablero era relativamente económico y proporcionaba un buen conjunto de características, incluido el suavizado de bordes para jugadores de bajo presupuesto y la aceleración de hardware Quake. Sin embargo, los desarrolladores de juegos estaban asustados por el modelo de transferencia de datos a través de DMA.

Al igual que 1996, el posterior 1997 fue otro año ocupado para la industria gráfica de consumo.

ATI pasó de victoria en victoria: la compañía lanzó Rage II, que fue seguido en marzo por 3D Rage Pro. Fue la primera tarjeta AGP 2x y el primer producto lanzado por ATI, el Grupo de Ingeniería 3D, formado en 1995.


ATI 3D Rage Pro

La tarjeta Pro en la versión con 4 MB de memoria tenía casi el mismo rendimiento que Voodoo Graphics, y en la versión con 8 MB y la interfaz AGP superó a la tarjeta 3Dfx. Con un caché de 4KB expandido y suavizado de bordes agregado, Rage Pro ha mejorado la corrección de perspectiva Rage II, así como las características de texturizado y el rendimiento de filtrado trilineal. Además, se incorporó un coprocesador para operaciones de punto flotante, lo que reduce la dependencia de la CPU, así como la aceleración de hardware y el soporte para mostrar DVD.

En general, Rage Pro fue una excelente adición a la línea de productos ATI y ayudó a la compañía a generar $ 47.7 millones en ventas superiores a $ 600 millones. Este éxito fue impulsado principalmente por los contratos OEM, la integración en las placas base de consumidores y servidores, y las opciones de placas móviles. Los precios de las tarjetas (generalmente vendidas como Xpert @ Work y Xpert @ Play) oscilaron entre $ 170 para una versión de 2 MB a $ 200-230 para un modelo con 4 MB y $ 270-300 por 8 MB. El costo de la versión con 16 MB superó los $ 400.

ATI amplió su cartera adquiriendo la propiedad intelectual de Tseng Labs por $ 3 millones en diciembre de 1997 y reclutando a 40 ingenieros de la compañía. Fue una compra barata porque la incapacidad de Tseng de integrar RAMDAC en sus tarjetas causó una fuerte disminución en las ventas, de 12.4 millones en 1996 a 1.9 millones en 1997.

En marzo de 1997, 3DLabs anunció el lanzamiento de una nueva versión de la serie de placas Permedia (“3D generalizado”), basada en la tecnología de proceso de 350 instrumentos de Texas Instruments (las tecnologías Intel e Intel se utilizaron en las versiones anteriores de Permedia y Permedia NT para estaciones de trabajo). La primera placa tuvo un rendimiento por debajo de los estándares, y el modelo NT corrigió la situación un poco gracias al chip Delta adicional, que realizó la preparación completa de triángulos y suavizado, pero costó $ 300. Las tarjetas basadas en Permedia 2 comenzaron a enviarse más cerca de fin de año, pero en lugar de ir a la par con los pesos pesados ​​de los juegos, se posicionaron como tarjetas 2D semiprofesionales con capacidades gráficas 3D promedio.

Un mes después, ATI y 3DLabs actualizaron sus líneas de productos, Nvidia respondió con una tarjeta RIVA 128 (acelerador de video y animación interactivo en tiempo real) y agregó soporte Direct3D a través de la representación de polígonos triangulares.

La compañía mantuvo contacto con ST Micro, que produjo el chip en su nueva tecnología de proceso de 350 nanómetros, y desarrolló RAMDAC con un convertidor de video. Aunque al principio los controladores causaron problemas (especialmente los graves en Unreal), la tarjeta mostró un rendimiento suficiente en juegos como Quake 2 y 3, y también estaba en la línea superior de la mayoría de los puntos de referencia .


Diamond Viper V330 PCI (Nvidia RIVA 128)

Se convirtió en la carta fundamental que Nvidia ha estado buscando desde 1993. La tarjeta obtuvo un éxito tan grande que Nvidia tuvo que buscar proveedores adicionales para hacer frente a la demanda; ella hizo un trato con TSMC para suministrar el Riva 128ZX. Las tarjetas Nvidia 3D a finales de 1997 ocupaban aproximadamente el 24% del mercado y ocupaban el segundo lugar después de 3Dfx Interactive, principalmente debido a la Riva 128 / 128ZX.

Los fondos de Nvidia también se han reabastecido gracias a la financiación de Sega del chip NV2 como un posible dispositivo gráfico para la consola Dreamcast, a pesar de que finalmente se llegó a un acuerdo con NEC / VideoLogic.

El 3Dfx de la competencia también colaboró ​​con Sega en este proyecto y estaba casi seguro de que suministraría equipos para la consola, pero el contrato se terminó más tarde. 3Dfx presentó una demanda por $ 155 millones, alegando que Sega la engañó al afirmar que usaba el equipo 3dfx y, a su vez, le proporcionó acceso a materiales sensibles relacionados con los conocimientos gráficos. Un año después, las empresas extrajudiciales acordaron una indemnización de 10,5 millones.


Prototipo Sega BlackBelt basado en 3Dfx

El proyecto prototipo de Dreamcast llamado "Cinturón negro" fue solo una de las facetas del ajetreado año de 3Dfx Interactive.

El 31 de marzo de 1997, 3Dfx lanzó Quantum3D. SGI y Gemini Technology han firmado un acuerdo de asociación con la compañía para trabajar en sistemas gráficos de alta gama para entusiastas y profesionales basados ​​en la nueva tecnología 3dfx SLI (Scan Line Interleave). Usó una tarjeta secundaria con un segundo conjunto de chips, o dos o más tarjetas conectadas por cable de la misma manera que se hace hoy en el SLI de Nvidia y Crossfire de AMD. Después de la conexión, cada tarjeta o unidad lógica en el caso de tarjetas SLI de una sola placa transmitió la mitad de las líneas de trama del marco a la pantalla.

Además, SLI aumentó la resolución máxima de la pantalla de 800 x 600 a 1024 x 768 píxeles. La Obsidian Pro 100DB-4440 (dos tarjetas separadas, cada una con una tarjeta hija Amethyst) se vendió por $ 2,500, y un sistema SLI de una sola tarjeta como el 100SB-4440 y 4440V cuesta $ 1,895.

En el verano de 1997, 3Dfx anunció su primera oferta pública (IPO) y lanzó Voodoo Rush como un intento de introducir un solo mapa con características 2D y 3D. Sin embargo, el producto final, al no poder usar el chip Rampage propuesto para él, resultó en una versión simplificada de Voodoo. El chip SST-1 en esta tarjeta soportaba los juegos Glide API, mientras que el mediocre Alliance e incluso el peor chip Macronix funcionaban con otros juegos 3D y aplicaciones 2D. Esto condujo a la aparición de artefactos en la pantalla, ya que el chip / memoria 3dfx operaba a una frecuencia de 50 MHz, y el Alliance AT25 operaba a una frecuencia de 72 MHz.

La situación se agravó aún más por el hecho de que el búfer de cuadros Voodoo Rush se redujo esencialmente a la mitad porque estaba dividido entre chips 3D y 2D, limitando la resolución a 512x384. La frecuencia de actualización también dejó mucho que desear, porque los chips Alliance y Macronix estaban limitados por las frecuencias RAMDAC de 175 y 160 MHz.

Poco después de la introducción de Voodoo Rush, Rendition lanzó Vérité V2100 y V2200. Las cartas aún no podían compararse en rendimiento con el primer Voodoo, y apenas podían competir con el presupuesto Rush. El departamento de desarrollo e investigación de la compañía se quedó muy por detrás de sus competidores, y los desarrolladores de juegos mostraron poco interés en estas tarjetas, por lo que resultaron ser los últimos productos gráficos comerciales de la compañía.

Hubo otros proyectos en el arsenal de Rendition, incluida la adición del procesador geométrico Fujitsu FXG-1 , que otros proveedores intentaron integrar en un solo chip, en la versión de doble chip del V2100 / V2200. El FXG-1 trabajó en una tarjeta con el gran nombre Hercules Thriller Conspiracy, que, junto con el V3300 y el 4400E, quedaron sin terminar. En septiembre de 1998, la compañía adquirió Micron por $ 93 millones, con la esperanza de combinar la tecnología LSI DRAM integrada con experiencia en el desarrollo de productos gráficos Rendition.


Placa de referencia Rendition Verite V2200

Con la expansión de las capacidades y el aumento de la productividad, los precios de las tarjetas gráficas también aumentaron, y muchos proveedores que no pudieron derrotar a los líderes representados por ATI, Nvidia y 3Dfx se apresuraron a llenar el mercado de tarjetas por menos de $ 200.

Matrox lanzó Mystique (debilitado por la falta de soporte OpenGL) por $ 120-150, el S3 introdujo la línea ViRGE, cuyo modelo base costó $ 120, y el DX y GX, respectivamente, $ 150 y $ 200. S3 diversificó su línea de productos para garantizar ventas estables, agregando una tarjeta móvil con administración de energía dinámica (ViRGE / MX) y una computadora de escritorio ViRGE / GX2 con salida de TV, S-Video y soporte de reproducción de DVD.

Incluso en un nicho inferior estaban la serie Laguna 3D de Cirrus Logic, 9750/9850 de Trident y SiS 6326, que lucharon por la atención de los jugadores. En el caso de Laguna3D, el precio de ganga de $ 99 no podría superar el rendimiento reducido, la mala calidad de imagen en 3D y los problemas de estabilidad que no estaban presentes en tarjetas de un rango de precios similar como el S3 ViRGE VX.

Después del lanzamiento de Laguna3D, Cirrus Logic abandonó rápidamente la industria gráfica. Pero antes de eso, la compañía lanzó un conjunto de tarjetas gráficas económicas con color de 16 bits en el rango de precio de $ 50, las más notables fueron las series Diamond SpeedStar y Orchid Kelvin 64.

Trident también apuntó al segmento de nivel de entrada, lanzando 3DImage 9750 en mayo y poco después 9850 con soporte para el bus AGP 2x. La 9750 era una tarjeta para PCI o AGP 1x y tenía muchos problemas con la calidad gráfica y el renderizado. 9850 eliminó algunas de estas rarezas, pero el filtrado de texturas todavía era poco convincente.

SiS creó su producto para el mercado de gráficos 3D de bajo presupuesto, lanzado en junio de 6326, que generalmente se vendió por $ 40-50. La tarjeta proporcionó buena calidad de imagen y superó a muchas otras tarjetas de presupuesto en rendimiento. Aunque nunca representó una amenaza para las tarjetas de alto rendimiento, el 6326 para 1998 se vendió con una circulación de siete millones de dispositivos.

La larga saga, que con el tiempo combinó elementos de mitos y leyendas urbanas, nació en el evento de juegos de la Asamblea en junio de 1997, cuando BitBoys le contó al mundo sobre su tarjeta gráfica Pyramid3D. El proyecto furor fue una colaboración entre Silicon VLSI Solutions Oy, TriTech y BitBoys.

Pero Pyramid3D nunca se lanzó, debido a la larga depuración y las modificaciones constantes, el proyecto se pospuso, y TriTech perdió la demanda sobre la patente del chip de sonido, lo que llevó a la compañía a la bancarrota.


Una captura de pantalla de la demostración que muestra el realismo que la tarjeta Glaze3D debería haber logrado .

El 15 de mayo de 1998, Bitboys anunció su segundo proyecto, el chip Glaze3D. Prometieron el máximo rendimiento en su clase y planearon su lanzamiento a fines de 1999. Más cerca del momento del gran lanzamiento, BitBoys anunció en octubre en SIGGRAPH99 una versión modificada de la placa que eliminó la memoria RAMBUS y el controlador de memoria en favor de la DRAM interna de 9MB de Infineon.

Pero los problemas de depuración y producción nuevamente condujeron a la terminación del proyecto.

La compañía se ha forjado una reputación por faltar plazos y crear solo promesas de alto perfil. Glaze3D fue rediseñado más tarde, con el nombre en código Ax, tratando de alcanzar a los competidores gracias al soporte para DirectX 8.1. Se suponía que el nuevo chip debutaría en forma de una tarjeta Avalanche3D a finales de 2001; Al mismo tiempo, ya se estaba desarrollando una tercera versión de Glaze3D, con el nombre en código Hammer, que ya había prometido soporte para DirectX 9.

Los prototipos de placas Glaze3D se crearon en los primeros chips fabricados, pero todo el trabajo se detuvo cuando Infineon detuvo la producción de DRAM embebido en 2001 debido a las crecientes pérdidas financieras. Debido a la falta de un fabricante asociado de tarjetas, Bitboys finalmente abandonó el nicho de los gráficos de escritorio y se centró en el mercado de las tarjetas gráficas móviles.

Cuidado de BitBoys y error de cálculo de AMD: en mayo de 2006, ATI adquirió BitBoys por $ 44 millones y anunció la apertura de un centro de diseño europeo. Poco después, ATI y Nokia entraron en una asociación estratégica a largo plazo. Solo un par de meses después, la exitosa AMD anunció la adquisición de ATI por un precio muy alto de 5.400 millones. El departamento de proyectos móviles, que incluía empleados de BitBoys, pasó a llamarse Imageon y, debido a una grave supervisión administrativa, se vendió por 65 millones de Qualcomm en enero de 2009. Este último continuó produciendo chips gráficos llamados Adreno (anagrama Radeon) como un componente integral del muy popular Snapdragon SoC.

Intel lanzó su primer (y hasta ahora último) chip 3D comercial discreto para juegos de escritorio en enero de 1998. El i740 comenzó con el proyecto de simulación de vuelo de la NASA para el programa espacial Apollo, dirigido por General Electric, que luego fue vendido a Martin Marietta, tres años después, fusionado con Lockheed. Este proyecto fue rediseñado por Lockheed-Martin en Real3D para productos gráficos profesionales, los más curiosos fueron Real3D / 100 y Real3D / Pro-1000. En el tablero para máquinas recreativas Sega Model 3 había dos sistemas gráficos Pro-1000.

Lockheed-Martin luego creó un proyecto conjunto con Intel y Chips and Technologies, llamándolo Proyecto Aurora. En enero, un mes antes del i740, Intel adquirió el 20 por ciento de Real3D. Para entonces, Intel ya había adquirido el 100 por ciento de Chips and Technologies en julio de 1997.

El i740 combinó los recursos de dos chips gráficos y de textura separados en R3D / 100, pero en él Intel implementó texturas AGP bastante extrañas: las texturas se cargaron en la memoria del sistema (el buffer de representación también se podía almacenar en la RAM). Algunos productos utilizaron el búfer de marco de tarjeta para almacenar texturas, mientras que si el búfer de marco estaba lleno o la textura era demasiado grande para almacenarse en la memoria de gráficos local, las texturas se cargaban en la RAM del sistema.

Para minimizar los retrasos en el diseño de Intel, utilizamos la función AGP llamada Direct Memory Execute (DiME), que solo llamaba a las texturas que se requerían para la rasterización, y dejaba el resto en la RAM del sistema. El rendimiento de la tarjeta y la calidad de imagen eran aceptables, y la velocidad correspondía aproximadamente a las tarjetas de gama alta del año anterior. El precio - $ 119 por un modelo de 4 MB y $ 149 por 8 MB - refleja el agresivo marketing de Intel. El i740 se vendió bajo la marca Intel, así como el Real3D StarFighter y Diamond Stealth II G450.


Gráficos Intel740 / i740 AGP

Intel diseñó el chip i752 actualizado, pero la falta de interés de los fabricantes de equipos originales y la comunidad de juegos en general llevó a la compañía a detener la producción comercial. El fabricante lanzó varias placas, pero, como el i740, se utilizaron en conjuntos de chips gráficos integrados.

Lockheed-Martin cerró Real3D en octubre de 1999, y su propiedad intelectual relacionada fue vendida a Intel. Muchos empleados del departamento luego cambiaron a Intel o ATI.

En febrero de 1998, ATI rediseñó Rage Pro, que consistía esencialmente en cambiar el nombre de la tarjeta a Rage Pro Turbo y optimizar los controladores para puntos de referencia sintéticos. Prácticamente no hubo otros cambios, con la excepción del precio que aumentó a $ 449. Comenzando con beta2, los controladores mejoraron gradualmente el rendimiento de los juegos.

Después de esto, en agosto, ATI lanzó Rage 128 GL y VR, los primeros productos de la compañía en los que trabajaron los antiguos ingenieros de Tseng Labs.Sin embargo, el volumen de suministro para canales minoristas hasta el nuevo año estuvo lejos de ser ideal, lo que esencialmente mató las posibilidades de ATI de capturar parte del mercado de juegos, como sucedió con el mercado OEM. Las tarjetas tenían 32 MB de RAM interna (16 MB y 32 MB en la versión All-In-Wonder 128) y una arquitectura de memoria óptima que permite que la tarjeta supere a Nvidia TNT mientras aumenta la resolución de la pantalla y cambia a color de 32 bits. Desafortunadamente para ATI, muchos de los juegos y equipos de muchos jugadores fueron afilados en color de 16 bits. La calidad de imagen era casi la misma que la de los tableros de la competencia principal S3 y Nvidia, pero estaba a la zaga de la proporcionada por Matrox.

Sin embargo, ATI fue suficiente para convertirse en líder entre los proveedores de tarjetas gráficas de 1998 con el 27% del mercado y obtener un ingreso neto de 168.4 millones de dólares canadienses con un volumen de ventas de 1.15 mil millones.

En octubre de ese año, ATI anunció la adquisición de Chromatic Research por 67 millones, cuyos procesadores de medios MPACT han encontrado su lugar en muchos sistemas de TV para PC, en particular Compaq y Gateway. Los chips proporcionaron muy buen rendimiento de gráficos 2D, excelente reproducción de sonido y MPEG2, pero tenían un rendimiento 3D limitado y un alto precio de $ 200. Finalmente, los problemas de software insuperables condenaron a la compañía a cerrar después de cuatro años de vida.

Dos meses después de que el i740 tuvo un pequeño impacto en el mercado de gráficos, 3Dfx lanzó Voodoo 2. Al igual que su predecesor, esta tarjeta fue diseñada solo para 3D y, a pesar de su impresionante rendimiento, tenía un sistema complejo. Los tableros contenían dos unidades de textura, lo que los convirtió en el primer ejemplo de funciones de texturizado múltiple en tarjetas gráficas, y generalmente usaban tres chips, a diferencia de uno en las tarjetas de la competencia, que combinaban funciones 2D / 3D.


La demostración de un GLQuake lanzado en un Pentium MMX 225 MHz con una

tarjeta 3Dfx Voodoo 2 Quantum3D implementó un producto Obsidian2 X-24 basado en Voodoo 2: una tarjeta SLI que se podía conectar a una tarjeta hija 2D, SLI SB200 / 200SBi para una ranura con 24 MB EDO RAM y Mercury Heavy Metal, que son cuatro tarjetas SLI 200SBi conectadas a través de una placa controladora ( AAlchemy ), que se utilizó como puentes SLI utilizados en sistemas modernos con varias GPU.

Este último era un sistema profesional diseñado para simuladores visuales, y por lo tanto tenía un precio de $ 9,999 y requería una placa de servidor Intel BX o GX con cuatro ranuras PCI adyacentes.

El lanzamiento de Voodoo Banshee se anunció en junio de 1998, pero solo apareció en el comercio minorista tres meses después. La tarjeta transfirió las funciones 2D del chipset AWOL Rampage lento a una unidad de mapeo de texturas (TMU), por lo que aunque 3dfx ahora podía vender un solo chip con funciones 2D y 3D y redujo en gran medida los costos de producción, Banshee estaba significativamente detrás de Voodoo 2 en capacidades de representación polígonos con multitextura.

La revolución que 3dfx provocó tres años antes no sucedió esta vez.

En el campo del rendimiento 3D en bruto, Voodoo 2 no tenía igual, pero los competidores lo alcanzaron rápidamente. En un momento de creciente rivalidad entre ATI y Nvidia, 3dfx buscó aumentar los ingresos a través de juntas de marketing y auto-venta, que anteriormente era la larga lista de sus socios. Para hacer esto, 3dfx adquirió STB Systems por 141 millones el 15 de diciembre, pero esta empresa resultó ser un gran error, porque la calidad y el costo de producción de la fábrica utilizada por la empresa (Juárez) no se podían comparar con las fábricas taiwanesas (TSMC) utilizadas por Nvidia. No podían competir con el socio de fabricación taiwanés ATI, la compañía UMC.

Muchos ex socios de 3dfx ahora han hecho tratos con Nvidia.

Mientras 3dfx tenía problemas en el mercado, Nvidia lanzó Riva TNT el 23 de marzo (el nombre significa TwiN Texel, no explosivo). Agregar una segunda tubería paralela de píxeles duplicó el relleno de píxeles y las velocidades de representación; La prometedora memoria SDR (para 1998) con una capacidad de 16 MB - 8-16 MB Voodoo 2 tenía un tipo de EDO más lento. Aunque la tarjeta era un fuerte competidor, su rendimiento disminuyó debido a su propia complejidad: el chip con ocho millones de procesadores, fabricado con la tecnología de proceso TSMC de 350 nanómetros, no podía funcionar con la frecuencia del núcleo / memoria Nvidia de 125 MHz, razón por la cual el producto terminado la frecuencia tuvo que reducirse a 90 MHz. La velocidad disminuyó un notable 28%, y esto fue suficiente para que Voodoo 2 apenas siguiera siendo el líder en rendimiento,principalmente gracias a Glide.

Pero incluso después de la degradación del rendimiento, el TNT siguió siendo una carta impresionante. Su interfaz AGP 2x permitía jugar en una resolución de 1600 x 1200 con renderizado en color de 32 bits y Z-buffer de 24 bits (configurando la profundidad de la imagen). Esta fue una gran mejora sobre el soporte de color de 16 bits de Voodoo 2 y el búfer Z de 16 bits. TNT luchó contra Voodoo 2 y Banshee con una gama más amplia de características, escalamiento mejorado con frecuencias de CPU más altas, excelente textura AGP y mayor Rendimiento 2D. Las entregas a gran escala de la tarjeta comenzaron solo en septiembre.

Pero no todo salió según el plan de Nvidia, al menos no de inmediato.

9 de abril, SGI presentó una demandacontra la empresa, diciendo que violó su patente para la tecnología de mapeo de texturas. Un compromiso en julio de 1999 proporcionó a Nvidia acceso a la cartera de gráficos profesionales de SGI; Al mismo tiempo, SGI cerró su propio departamento de gráficos y entregó su departamento de gráficos de bajo nivel a Nvidia . Esta transferencia casi gratuita de propiedad intelectual se considera una de las principales razones de la rápida quiebra de SGI.

Los principales actores del mercado dominaron los medios en los primeros meses del año, pero en junio y julio, se llamó la atención sobre dos estrellas moribundas de la industria.

El 16 de junio, Number Nine lanzó su tarjeta Revolution IV.

No podía competir en 3D con los productos Nvidia y ATI, por lo que la compañía decidió fortalecer su posición en el mercado de rendimiento 2D.


La pantalla plana SGI, completa con el Revolution IV-FP

Number Nine, siempre prefería el rendimiento 2D, en lugar de invertir en tecnología 3D, y como resultado, las tarjetas de juego como Nvidia TNT comenzaron a presionar a ambos mercados. Por lo tanto, la compañía decidió apostar por el único punto débil de la mayoría de las tarjetas de juego: alta resolución con color de 32 bits.

Para hacer esto, Number Nine agregó un conector OpenLDI de 36 pines al Revolution IV-FP, que se conectó a la pantalla plana SGI que viene con esta tarjeta. Un conjunto de SGI 1600SW con una diagonal de 17.3 pulgadas (1600x1024) y Revolution IV-FP se vendieron inicialmente al por menor por $ 2795.

Fue la última tarjeta de fabricación propia de Number Nine, después de lo cual volvió a vender productos S3 y Nvidia. En diciembre de 1999, S3 adquirió los activos de la compañía y los vendió al equipo de diseño original de Number Nine, que organizó Silicon Spectrum en 2002.

En la Exposición E3 de 1998, S3 anunció el lanzamiento de Savage3D y, a diferencia de TNT y Voodoo Banshee, la tarjeta pronto salió a la venta. Sin embargo, la recuperación de la inversión para el lanzamiento rápido fueron los controladores en bruto. Influyeron especialmente en los juegos de OpenGL; La situación era tan grave que S3 creó un mini controlador OpenGL específicamente para juegos Quake.

Inicialmente, la especificación S3 establecía la frecuencia de 125 MHz, pero los problemas con la disipación de calor llevaron a que el producto final se entregara a una frecuencia de 90-110 MHz, sin embargo, muchas revistas y sitios web de revisión todavía recibieron muestras de preproducción con 125 MHz. Más tarde, se lanzó el Savage3D Supercharged con una frecuencia de 120 MHz, y Hercules y STB comenzaron a vender Terminator BEAST y Nitro 3200, con frecuencias de 120/125 MHz. A pesar de que la emulación OpenGL y el rendimiento de DirectX estaban limitados por el soporte del controlador, los precios inferiores a $ 100 y el rendimiento aceptable de video y juegos aseguraron las ventas.

Entre 1997 y 1998, el número de proveedores de tarjetas gráficas que abandonaron el mercado aumentó. Entre ellos estaban Cirrus Logic, Macronix, Alliance Semiconductor, Dynamic Pictures (vendido por 3DLabs), Tseng Labs, Chromatic Research (ambos comprados por ATI), Rendition (vendido por Micron), AccelGraphics (comprado por Evans & Sutherland) y Chips and Technologies (adquirido por Intel) .

En 1999, la situación se agudizó aún más.

En enero, se lanzó el SiS 300, una tarjeta gráfica económica para máquinas comerciales. Para 1999, el Sis 300 tenía un rendimiento 3D mínimo, y las capacidades 2D no se podían comparar con la mayoría de los competidores de SiS en el mercado minorista. La situación se vio agravada por una sola tubería de píxeles. Pero afortunadamente para SiS, OEM no se quejó de nada, porque la tarjeta tenía un conjunto suficiente de funciones para ellos: un bus de memoria de 128 bits (64 bits en la versión SiS 305), soporte de color de 32 bits, DirectX 6.0 (DX7 para 305 ), multitextura, salida de TV y decodificación MPEG2 por hardware.

En diciembre de 2000, el SiS 315 apareció con un bus de datos de 256 bits, soporte DirectX 8, suavizado de pantalla completa, una segunda tubería de píxeles, un motor de conversión e iluminación, compensación de movimiento en DVD-video y soporte DVI. El rendimiento estuvo al nivel de GeForce 2 MX200. El mismo chip 315 formó la base del chipset SiS 650 para las placas Socket 478 (Pentium 4), lanzado en septiembre de 2001, y un sistema basado en el chip SiS552, que apareció en 2003.


Budget Gaming: Unreal Tournament 2003 lanzado con la tarjeta SiS 315

Además de los productos SiS, los usuarios de presupuesto tenían una selección significativa de tarjetas. Entre ellos estaba Trident Blade 3D (alrededor de $ 65), cuyo rendimiento tolerable en 3D (y soporte de controlador mediocre) generalmente estaba en el nivel del Intel i740.

Inspirado por Trident, lanzó el Blade 3D Turbo , cuya frecuencia se incrementó de 110 a 135 MHz, lo que ayudó a ponerse al día con el Intel i752 actualizado. Desafortunadamente para Trident, su contrato de desarrollo gráfico integrado con VIA terminó inesperadamente después de que VIA adquirió S3 Graphics en abril de 2000.

El negocio principal de Trident dependía en gran medida de chips a gran escala y de bajo costo, principalmente en el sector móvil. Blade 3D Turbo se ha actualizado a Blade T16, T64 (143 MHz) y XP (166 MHz). Pero el desarrollo de la tecnología 3D de Trident fue mucho más lento que el mercado en general. Tanto es así que incluso las propuestas de presupuesto demoradas como el SiS 315 superaron fácilmente a las nuevas tarjetas de la compañía . En junio de 2003, el departamento de gráficos Trident fue vendido a una subsidiaria de SiS llamada XGI.

S3 Savage4 es un paso adelante en rendimiento en comparación con SiS y Trident. La tarjeta se anunció en febrero y salió en mayo a un precio de $ 100-130, dependiendo de la cantidad de memoria interna (16 o 32 MB). La tecnología de compresión de texturas S3, introducida en Savage3D, garantizó la transferencia de texturas de hasta 2048x2048 incluso con un bus de memoria limitado de 64 bits.


Diamond Viper II Z200 (S3 Savage4)

Savage4 se convirtió en la primera tarjeta S3 con función multitextura y la primera tarjeta con soporte para interfaz AGP 4x. Pero incluso los controladores avanzados y un amplio conjunto de funciones no podían compensar el hecho de que la tarjeta apenas podía alcanzar el nivel de rendimiento de la generación anterior de productos 3dfx, Nvidia y ATI. Este ciclo se repitió a finales de año cuando se lanzó Savage 2000. La tarjeta alcanzó el mismo nivel con TNT2 y Matrox G400 a resoluciones de 1024x768 y menores, pero la historia fue más triste a 1280x1024 / 1600x1200.

La primera tarjeta de la serie 3dfx Voodoo3 apareció en marzo, seguida de una extensa publicidad en televisión y en la prensa. La tarjeta recibió un logotipo actualizado (ahora con una letra minúscula "d") y un diseño de caja brillante. El tan esperado chipset Rampage aún no se ha lanzado, por lo que las placas tenían una arquitectura casi sin cambios, ligeramente modificada por el chipset Avenger. Las tarjetas todavía estaban limitadas a color de 16 bits, texturas de 256x256 y la falta de transformaciones de hardware e iluminación (T&L). Estos factores gradualmente se volvieron críticos para los desarrolladores de juegos, y 3dfx continuó decepcionándolos, rompiendo sus promesas sobre arquitectura y conjunto de características.

3dfx culpó al terremoto de una caída en los ingresos , pero tuvo poco impacto en ATI y Nvidia. Como otra señal de los crecientes problemas de 3dfx, la compañía anunció en diciembre que su API propietaria de gráficos API finalmente revelaría su código fuente , y esto fue en un momento en que DirectX y OpenGL todavía estaban ganando popularidad entre los desarrolladores de juegos.

En marzo, también se lanzó Nvidia Riva TNT2, incluida la primera placa base de marca Ultra con un núcleo más rápido y velocidades de memoria más altas, mientras que Matrox anunció la serie G400.

TNT2 utilizó la tecnología de proceso de 250 nm del TSMC y logró el rendimiento que Nvidia esperaba obtener en el primer TNT. La tarjeta superó por completo a Voodoo 3, ¡las únicas excepciones fueron las aplicaciones que usaban el conjunto de instrucciones 3DNow! Procesadores AMD junto con OpenGL. Para mantenerse al día con 3dfx y Matrox, TNT2 agregó una salida DVI para pantallas planas.

Mientras tanto, el Matrox G400 logró superar a Voodoo 3 y TNT2 en la mayoría de los aspectos, sin embargo, el soporte de OpenGL seguía siendo escaso. La tarjeta, con un precio de $ 199-229, proporcionó una excelente relación precio-rendimiento, así como la calidad de imagen y el conjunto de características. La capacidad de emitir una señal a dos monitores a través de controladores de pantalla dual (llamada Matrox DualHead) fue el comienzo de una tendencia para que la compañía admitiera configuraciones de monitores múltiples. En este caso, el monitor secundario estaba limitado a 1280x1024.

El G400 también introdujo la tecnología Environment Mapped Bump Mapping (EMBM), que proporciona un mapeo de textura mejorado. La G400 MAX de alta frecuencia por $ 250 fue la tarjeta de consumo más rápida del mercado, hasta principios de 2000, aparecieron en los estantes tableros basados ​​en GeForce 256 DDR, como Creative Labs 3D Blaster Annihilator Pro.

A partir de ese momento, Matrox se centró en el mercado profesional, volviendo al mercado de juegos en 2002 con Parhelia por un corto período de tiempo. La compatibilidad con tres monitores no podría superar el rendimiento mediocre en los juegos y competir con la nueva ola de equipos compatibles con DirectX 9.0.


Demostración tecnológica Tarjeta EMBM Matrox G400

Para cuando el humo desapareció después del lanzamiento de 3dfx, Nvidia y Matrox, 3DLabs apareció en escena con el tan esperado Permedia 3 Create! La tarjeta se anunció unos meses antes y estaba dirigida a un usuario profesional interesado en los juegos. Por lo tanto, 3DLabs dio prioridad a 2D, aprovechando la experiencia en el desarrollo de la compañía profesional de gráficos Dynamic Pictures, que diseñó una línea de excelentes tarjetas para estaciones de trabajo Oxygen.

Desafortunadamente para 3DLabs, los gráficos para las estaciones de trabajo requerían un modelado poligonal complejo, que generalmente se pagaba por la baja velocidad del mapeo de texturas. Esto era casi completamente opuesto a los requisitos para las tarjetas de juego, para las cuales la textura y la belleza de la imagen eran preferibles a la estructura metálica compleja.

Demasiado caro y lento en comparación con TNT2 y Voodoo 3 en los juegos, y no lo suficientemente poderoso en comparación con los competidores en las estaciones de trabajo, Permedia 3 fue el último intento de 3DLabs para crear una tarjeta de juego. Inmediatamente después de eso, 3DLabs centró sus esfuerzos en las tarjetas de oxígeno basadas en GLINT R3 y R4; Su precio oscilaba entre $ 299 (VX-1) y $ 1,499 (GVX 420), y la serie Wildcat (como la Wildcat II-5110 por 2,499) todavía se basaba en las GPU Intense3D ParaScale obtenidas mediante la compra de Intense3D de Intergraph en Julio 2000 Desde 2002, 3DLabs comenzó a integrar sus propios gráficos en la serie Wildcat cuando Creative Technology compró la compañía con sus procesadores P9 y P10 .

En 2006, la compañía dejó el mercado de computadoras de escritorio y se concentró en gráficos para los medios; su división se fusionó con el departamento de SoC de Creative, que luego pasó a llamarse ZiiLabs y se vendió a Intel en noviembre de 2012.

Tras el debut de Rage 128, los pasos de ATI fueron progresivos. A finales de 1998, la compañía agregó soporte para AGP 4x y aumentó la frecuencia de Rage 128, lanzando una versión de la tarjeta llamada Pro, que también introdujo opciones para captura de video y salida de TV. El rendimiento de juego del Rage 128 Pro era aproximadamente igual al Nvidia TNT2, pero no alcanzó el TNT2 Ultra, y ATI tenía la intención de resolver este problema con su Proyecto Aurora.


ATI Rage Fury MAXX combinado con dos chips Rage 128 Pro en una placa

Cuando se hizo evidente que ATI no tendría un chip capaz de ganar una carrera de rendimiento, se cambiaron las tácticas y el proyecto se implementó como Rage Fury MAXX, que contenía dos Rage 128 Pros en una PCB. Los indicadores técnicos fueron impresionantes: dos chips fueron responsables de generar cuadros alternos, distribuyendo la carga del juego por igual. Sin embargo, en la práctica, a pesar de que la tarjeta excedió los resultados de la generación anterior, no se pudo comparar con el S3 Savage 2000 y no alcanzó la próxima GeForce 256 DDR. Este último era solo un poco más caro: $ 279 versus $ 249 para ATI.

Menos de dos meses después de anunciar el lanzamiento de Rage Fury MAXX, Nvidia anunció que la GeForce 256 SDR aparecerá el 1 de octubre, seguida de la versión DDR en febrero de 2000. Será la primera tarjeta en la que se utilizará este tipo de RAM. El chip de transistor de 23 millones, basado en la tecnología de proceso TSMC 220nm, fue el primer chip de gráficos en llamarse GPU (Unidad de procesamiento de gráficos) porque agregó un motor de transformación e iluminación (TnL o T&L).

Este motor permitió que el chip de gráficos asumiera complejos cálculos de punto flotante para convertir objetos y escenas 3D, así como la iluminación en una imagen 2D renderizada. Anteriormente, estos cálculos fueron realizados por la CPU, que a menudo se convirtió en el "cuello de botella" y generalmente limitaba el nivel de detalle posible.


Demostración de Nvidia Grass (GeForce 256)

El estado de la GeForce 256 como la primera tarjeta en incorporar sombreadores de píxeles programables que usan T&L ha sido objeto de controversia durante mucho tiempo. Esto sucedió porque T&L también se incorporó a muchas arquitecturas, ya sea en la etapa de prototipo (Rendition VéritéV4400, BitBoys Pyramid3D, 3dfx Rampage), o en una forma intermedia (3DLabs GLINT, Matrox G400 WARP), o como un chip separado en el tablero (Hercules Thriller Conspiracy )

Sin embargo, ninguno de estos proyectos fue al por menor. Además, debido al hecho de que Nvidia utilizó por primera vez la arquitectura con cuatro canales, el rendimiento integrado le proporcionó liderazgo entre los competidores. Junto con el motor T&L, esto permitió a la compañía promocionar la GeForce 256 como una tarjeta profesional para estaciones de trabajo.

Un mes después del lanzamiento de la opción de escritorio, Nvidia anunció el desarrollo de la primera línea de tarjetas Quadro profesionales para estaciones de trabajo (modelos SGI VPro V3 y VR3) basadas en GeForce 256. Las tarjetas utilizaron la tecnología de gráficos SGI, que Nvidia recibió a través del acuerdo de licencia cruzada firmado en julio de 1999 .

La ganancia anual de Nvidia de 41 millones con ingresos de 374.5 millones excedió las cifras de 1998 (ganancia de 4.1 millones e ingresos de 158.2) y fue un gran paso adelante en comparación con los ingresos de 1997 de 13.3 millones. Las ganancias de Nvidia se vieron afectadas por el pago inicial de 200 millones de Microsoft por NV2A (el núcleo gráfico de Xbox), así como por 400 millones de bonos de emisión en el mercado secundario.

Sin embargo, estos números se desvanecieron en comparación con los ingresos de ATI de 1.200 millones y los ingresos de 160 millones, derivados de una participación del 32 por ciento en el mercado de gráficos. Pero la compañía estaba a punto de perder una parte importante del negocio OEM debido a una serie de chips gráficos integrados Intel 815.

Este artículo es el segundo de cuatro en una serie. En la tercera parte, abordaremos la modernidad y el momento en que la industria dio un giro hacia una gran consolidación, dejando espacio para solo dos jugadores. Así comenzó la era de la confrontación entre GeForce y Radeon.

Source: https://habr.com/ru/post/477778/


All Articles