La historia de los procesadores de video, parte 4: el advenimiento de la GPU de uso general

imagen

Parte 1: 1976-1995

Parte 2: 3Dfx Voodoo

Parte 3: consolidación del mercado, el comienzo de la era de la competencia entre Nvidia y ATI

Antes de la llegada de DirectX 10, no tenía sentido agregar complejidad opcional a los chips, expandiendo el área del chip, lo que aumentaba la funcionalidad de los sombreadores de vértices, así como la precisión del procesamiento de números de punto flotante para sombreadores de píxeles de 24 a 32 bits para cumplir con los requisitos de las operaciones de vértices. Después de la aparición de DX10, los sombreadores de vértices y píxeles conservaron un alto nivel de funcionalidad general, por lo que la transición a sombreadores generalizados ahorró una gran cantidad de duplicaciones innecesarias de unidades de procesamiento. La primera GPU en usar esta arquitectura fue el legendario G80 de Nvidia.

Gracias a cuatro años de desarrollo y 475 millones de dólares, se creó un monstruo con 681 millones de transistores y un área de 484 mm², lanzado por primera vez en el buque insignia 8800 GTX y 8800 GTS 640MB el 8 de noviembre de 2006. El GTX overclockeado llamado 8800 Ultra fue el pináculo del poder del G80; Fue lanzado entre dos productos menos importantes: el 320MB GTS en febrero y el GTS 640MB / 112 con una edición limitada el 19 de noviembre de 2007.

GTX, equipado con el nuevo algoritmo de suavizado de muestras de cobertura (CSAA), gracias a su rendimiento incomparable derrotó a todos los competidores con uno y dos chips. A pesar de este éxito, en el cuarto trimestre la compañía perdió el tres por ciento del mercado de gráficos discretos, lo que debido a la solidez de los contratos OEM pasados ​​a AMD.


GeForce 8800 GTX en MSI

Los componentes restantes de la estrategia comercial G80 de Nvidia se hicieron realidad en febrero y junio de 2007. La plataforma CUDA basada en el lenguaje C SDK (Software Development Kit) se lanzó como una versión beta, lo que permite al ecosistema utilizar la naturaleza altamente paralela de la GPU. La plataforma CUDA utiliza el motor de física Nvidia PhysX, así como proyectos informáticos distribuidos, visualización profesional y OptiX, el motor de trazado de rayos Nvidia.

Tanto Nvidia como ATI (ahora AMD) integran una funcionalidad informática cada vez más amplia en la tubería de gráficos. ATI / AMD decidió confiar en los desarrolladores y comités para elegir la ruta OpenCL, mientras que Nvidia tenía planes más cercanos, con la intención de utilizar CUDA y la informática de alto rendimiento.

Para hacer esto, en junio, Nvidia lanzó una línea de coprocesadores matemáticos Tesla, originalmente basados ​​en el mismo núcleo G80 que se utilizó en GeForce y Quadro FX 4600/5600. Después de un largo desarrollo, durante el cual se llevaron a cabo al menos dos (y posiblemente tres) etapas de depuración graves, AMD lanzó el R600 en mayo.

La exageración de los medios llevó a AMD a esperar una respuesta 8800 GTX, pero el HD 2900 XT lanzado fue una decepción. Este era un mapa de la parte superior del segmento de precio medio con consumo de energía al nivel de un producto profesional: consumía más energía que todos los sistemas modernos.

La escala del error R600 tuvo un gran impacto en ATI, lo que obligó a la compañía a cambiar su estrategia para cumplir más estrictamente los plazos y maximizar las oportunidades al lanzar nuevos productos. El rendimiento mejoró en el RV770 (Evergreen), así como en las series Islas del Norte y del Sur.

Junto con el hecho de que el R600 era la GPU ATI / AMD más grande en ese momento (420 mm²), estableció otros récords entre las GPU. Fue el primer chip AMD con soporte DirectX 10, la primera y única GPU con un bus de memoria de 512 bits, el primer chip de escritorio con un bloque de teselación (que casi nunca se usó debido a la indiferencia de los desarrolladores de juegos y la falta de soporte DirectX), la primera GPU integrada soporte para audio a través de HDMI, así como el primer producto que utiliza la arquitectura VLIW. Además, por primera vez desde el lanzamiento de la Radeon 7500, ATI / AMD no ingresó al mercado de las tarjetas más potentes, comparables en precio y rendimiento con la competencia.

AMD actualizó el R600 a RV670, reduciendo la tecnología de proceso de 80 nm del TSMC a 55 nm, y también reemplazando el bus de memoria de anillo bidireccional de 512 bits por uno más estándar de 256 bits. Esto redujo a la mitad el área del cristal R600, que al mismo tiempo contenía aproximadamente el mismo número de transistores (666 millones en comparación con 700 millones de R600). AMD también actualizó la GPU para admitir DX10.1 y agregó soporte para PCI Express 2.0; todo esto fue suficiente para completar la serie HD 2000 y competir con la GeForce 8800 GT convencional, así como con tarjetas menos potentes.

En ausencia de una GPU de gama alta, AMD lanzó dos tarjetas de doble GPU en enero de 2008, así como tarjetas de presupuesto basadas en el RV620 / 635. La HD 3850 X2 salió a la venta en abril, y la última tarjeta All-In-Wonder, la HD 3650, en junio. Las tarjetas GPU duales, incluidas con controladores de alta calidad, impresionaron instantáneamente a los críticos y clientes. La HD 3870 X2 era la tarjeta única más rápida, y la HD 3850 X2 no era mucho más lenta que ella. A diferencia del sistema SLI de Nvidia, AMD implementó el soporte de Crossfiring con ASIC estándar.


Radeon HD 3870 X2 con dos GPU en una tarjeta

Sobre la base del éxito del G80, el 29 de octubre, Nvidia lanzó el G92 en el 8800 GT, que fue bien recibido por muchos sitios técnicos, principalmente debido a precios muy competitivos. Atrapada en el rango de precios de $ 199-249, esta tarjeta de 512 megabytes proporcionó rendimiento, lo que hizo que la compra del 8800 GTS basado en el G80 no tuviera sentido. Básicamente, superó al HD 2900 XT y HD 3870, lanzado tres meses después del GT y alcanzando aproximadamente el 80% de la velocidad del GTX. No es sorprendente que después de algunas semanas, el mercado comenzó a experimentar una escasez de 8800 GT. La fuerte demanda de un nuevo producto por parte de Nvidia y sus "hermanos" 8600 GS / GT le permitió a la compañía obtener el 71% del mercado de tarjetas discretas para fin de año.

Inmediatamente después del GT, el 11 de diciembre, Nvidia lanzó el 8800 GTS 512MB basado en el G92 . Aunque en general la relación precio / rendimiento fue peor en comparación con el GT, el GTS se salvó mediante el uso de GPU más potentes, que esencialmente igualaron el GTX overclockeado con el costoso 8800 Ultra.

La historia de la serie GeForce 8 estaría incompleta sin una posdata desagradable, es decir, el uso de soldadura de alto plomo en el BGA de algunas GPU G86, G84, G84, G73, G72 / 72M, así como los chipsets gráficos C51 y MCP67. Esto, junto con el llenado a baja temperatura, el enfriamiento inadecuado y el modo intensivo de calentamiento y enfriamiento, causaron un número inusualmente grande de fallas en la tarjeta.

A mediados de 2008, Nvidia cambió a la soldadura eutéctica de alto estaño Hitachi utilizada por AMD y rediseñó el enfriador 8800 GT, agregando más cuchillas y actualizando el chasis para mejorar el soplado. También se sospechaba que el G92 estaba afectado por el problema de las inundaciones, aunque los dispositivos duales basados ​​en el 8800 GTS 512M y las tarjetas con enfriadores sin referencia realmente no le preocupaban.

Debido a este problema, la compañía perdió un total de 475,9 millones , lo que causó una fuerte reacción negativa de los consumidores hacia los socios OEM de Nvidia que fabrican computadoras portátiles: sabían sobre el problema mucho antes de que se hiciera público. El lugar de Nvidia en la industria estará siempre asociado con este peor momento de su historia.

Si la Serie 8 fue un triunfo tecnológico para Nvidia, entonces la Serie 9 anunció un período de estancamiento. Un punto brillante en la alineación fue el primer modelo lanzado en febrero de 2008. El 9600 GT se basó en el "nuevo" G94, que de hecho era el G92 recortado del año pasado, construido sobre la misma tecnología de proceso TSMC de 65 nm.

Los agresivos recortes de precios de AMD en HD 3870 y HD 3850 junto con el valor decreciente de 8800 GS y GT Nvidia obligaron a cambiar el resto de la serie 9.

Los primeros 9800 GT se modificaron con el 8800 GT, y el 8800 GTS (G92) se convirtió en el 9800 GTX. El cambio a la tecnología de proceso TSMC de 55 nanómetros redujo el área del chip en un 20% y permitió un ligero aumento en la frecuencia del reloj para crear el 9800 GTX +, que es idéntico al OEM GTS 150, así como al GTS 250, que entró en los canales minoristas quince meses después de la primera tarjeta de la serie 8.

Debido a la aparición tardía del buque insignia GT200 y al hecho de que el AMD HD 3870 X2 era ahora el líder en la carrera de una sola tarjeta, Nvidia volvió a su antigua tradición y duplicó el número de GPU, intercalando dos 9800 GT, creando así el 9800 GX2. Aunque el producto ganó la competencia en puntos de referencia, la mayoría de los observadores notaron rápidamente que vender un doble 9800 GT al precio de tres 9800 GT separados no era muy atractivo para el comprador.


GPU Nvidia G200 en GTX 260

En junio, Nvidia lanzó el GTX 260 y GTX 280 con la GPU GT200 (576 mm²), el chip GPU más grande en ese momento (Intel Larrabee tenía un área de aproximadamente 600-700 mm²) y el chip de producción más grande entre todos producidos por TSMC.

El GT200 fue otro intento de Nvidia para llamar la atención sobre el GPGPU: implementó equipos dedicados para doble precisión (FP64) y computación. Los cambios arquitectónicos destinados a los juegos fueron más modestos, pero esto no impidió que Nvidia fijara el precio de $ 280 a $ 649 y lanzara controladores 3D Vision (para juegos 3D y video) junto con gafas 3D y un emisor de infrarrojos, un kit muy costoso.


Demostración de tecnología de la serie Nvidia GTX 200

Los precios cayeron significativamente después del lanzamiento de HD 4870 y 4850: el GTX 280 cayó un 38% y costó $ 400, mientras que el GTX 260 cayó un 25% ($ 299).

AMD respondió al GT200 y G92 con el lanzamiento del RV770. La primera tarjeta (dirigida al segmento principal más bajo de HD 4730) se lanzó el 8 de junio, y el 25 de junio fue seguida por la HD 4850 y 4870, diseñada para los mercados principales y de alto nivel. El problema de las tarjetas no causó tanto impacto, porque las especificaciones se "filtraron" antes y las tiendas comenzaron a vender HD 4850 una semana antes de la expiración de la NDA; esto sucede a menudo hoy, pero no en 2008.

Las 4870 y 4850 fueron las primeras tarjetas gráficas de consumo GDDR5 que Nvidia implementó dieciocho meses después en la GT 240 basada en la GT215.

Los HD 4870 y 4850 merecieron críticas muy positivas, la razón por la cual fue una amplia lista de características: audio 7.1 LPCM a través de HDMI, rendimiento general y escalado con múltiples GPU, así como, por supuesto, el precio. El único inconveniente de la tarjeta fue su tendencia a crear altas temperaturas locales en las áreas de componentes de ajuste de voltaje en los tableros de referencia, lo que causó fallas y congelamientos desproporcionadamente altos, especialmente al ejecutar aplicaciones tan cargadas como Furmark.

Manteniendo la tradición de las generaciones anteriores y sintiendo la necesidad de poner fin al liderazgo de dos meses del GTX 280, AMD lanzó el HD 4870 X2 en agosto. La tarjeta terminó rápidamente en las primeras líneas de puntos de referencia para varias categorías, incluido el rendimiento. Al mismo tiempo, debido al diseño del ventilador, desafortunadamente es el líder en la categoría de generación de ruido y disipación de calor.


Radeon HD 4870 X2 (arriba) y Radeon HD 4870

En enero de 2009, la línea de Nvidia mostró un ligero crecimiento gracias a la transferencia del GT 200 a la tecnología de proceso TSMC de 55 nanómetros. Se utilizaron 55 nanómetros en los chips de la versión B3, que apareció por primera vez en septiembre del año anterior como la versión de las tarjetas Core 216 GTX 260. La compañía lanzó la GTX 295, que utilizaba dos GT200-B3 truncados.

En abril se lanzó una variante de una tarjeta GPU única con el nombre GTX 275. La respuesta de AMD fue esta: la HD 4890 mejorada basada en la RV790XT y HD 4770 (RV740), que también se convirtió en la primera tarjeta de 40 nm de AMD.

El HD 4770, aunque no era un producto particularmente importante en sí mismo, le dio a AMD una experiencia invaluable trabajando con la problemática tecnología de proceso TSMC de 40 nanómetros, que creó una gran variabilidad en la fuga de corriente, así como un alto nivel de rechazo debido a conexiones incompletas entre capas de metal en el cristal de la GPU. Gracias a esta experiencia, AMD pudo mejorar el proceso de fabricación y eliminar los problemas que Nvidia encontró al desarrollar la arquitectura Fermi, problemas que no aparecieron en las primeras GPU Nvidia de 40 nanómetros.

Nvidia lanzó sus primeros productos de 40 nm en julio. Los GT216 y GT218 de gama baja se usaron en GeForce 205, 210 y GT 220, que eran productos OEM hasta octubre, cuando los dos últimos se comercializaron. Son notables solo porque se convirtieron en las primeras tarjetas Nvidia con soporte para DX10.1: AMD ocupó este lugar en HD 4870/4850; Además, tenían características de audio mejoradas con sonido 7.1, LPCM sin pérdidas, flujo de bits Dolby TrueHD / DTS-HD / -HD-MA y audio a través de HDMI. La serie estaba dirigida al mercado de cine en casa, y en febrero de 2010 se renombró como la serie 300.

En los cuatro meses desde septiembre de 2009 hasta febrero de 2010, AMD lanzó la línea completa de cuatro GPU (Cypress, Juniper, Redwood y Cedar) que conformaban la familia Evergreen. La línea comenzó con el segmento de alta gama HD 5870, después de lo cual, una semana después, el HD 5850 apareció en la cima del nivel de precio promedio.

La problemática tecnología de proceso TSMC de 40 nanómetros evitó que AMD aprovechara la ausencia de Fermi de Nvidia porque la gran demanda excedía la oferta. Esto se debió en gran medida a la capacidad de AMD para cronometrar el lanzamiento de Evergreen con la llegada de Windows 7 y la popularización de DirectX 11.

Aunque el DX11 tardó un tiempo en mostrar ganancias de rendimiento significativas en Evergreen, otra característica introducida en el HD 5000 tuvo un impacto inmediato en forma de Eyefinity, que se basa completamente en la flexibilidad de DisplayPort para proporcionar hasta seis canales de visualización por placa. Fueron redirigidos a un DAC estándar o a una combinación de transmisores internos TMDS y DisplayPort.

Las tarjetas gráficas anteriores generalmente usaban una combinación de VGA, DVI y, a veces, HDMI, y cada salida requería una fuente de reloj separada. Esto aumentó la complejidad, el tamaño y el número de pines GPU. DisplayPort eliminó la necesidad de velocidades de reloj independientes y abrió a AMD la capacidad de integrar hasta seis canales de visualización en el equipo sin sacrificar el rendimiento del software del usuario. Al mismo tiempo, los cuadros se compensaron en los bordes y la pantalla se extendió a lo largo de las pantallas con una resolución óptima.


Eyefinity: tecnología de pantalla múltiple escalable ATI

La serie Evergreen se ha convertido en el líder de su clase entre todas las placas base (si no recuerda los problemas con el filtrado de texturas): la HD 5850 y la HD 5770 atrajeron a un gran porcentaje de jugadores de bajo presupuesto, y la HD 5870 y HD 5970 con dos GPU proporcionaron un nivel incomparable de rendimiento.

Seis meses después, el 12 de abril, Nvidia finalmente lanzó sus primeras placas Fermi bajo los nombres GTX 470 y 480. Ninguno de los cristales de la compañía era completamente funcional (lo mismo sucedió con el posterior GF104), por lo que la velocidad de los núcleos de Fermi fue reducir el consumo de energía. se hizo lo suficientemente conservador, y el ancho de banda de memoria fue menor debido a la falta de experiencia de Nvidia con E / S GDDR5.

Los resultados lejos de ser óptimos de la tecnología de proceso TSMC de 40 nanómetros, que ya dio lugar a problemas de suministro para AMD, aumentaron significativamente debido al tamaño del cristal GF100 Fermi (529 mm²). El tamaño del cristal está asociado con la cantidad de rechazos, requisitos de energía y disipación de calor, por lo que la serie Nvidia 400 en comparación con la línea AMD pagó por el rendimiento en los juegos.

El GF100 en las variantes Quadro y Tesla sufrió significativamente menos debido al ecosistema ya establecido en los mercados profesionales. Uno de los aspectos positivos de las tarjetas lanzadas fue la aparición de la tecnología de antialiasing de supermuestreo de transparencia (TrSSAA), que se utilizaría junto con la AA de muestra de cobertura ya existente (CSAA).

Aunque el GTX 480 se cumplió con bastante frialdad, el segundo chip Nvidia Fermi, el GF104 convencional en el GTX 460 , fue un gran éxito. Proporcionó un buen rendimiento a un excelente precio, el 192bit / 768MB se vendió por $ 199 y el 256bit / 1GB se vendió por $ 229. La compañía ha lanzado muchas tarjetas no referenciadas y overclockeadas con capacidades de overclocking significativas gracias a las frecuencias conservadoras que Nvidia usa para reducir el consumo de energía.

La recepción parcialmente cálida 460 fue causada por las bajas expectativas después del lanzamiento del GF100. Dijeron que el GF104 no será más de la mitad del GF100 y resultará pálido en comparación con la GPU Cypress de AMD. Pero eso no fue así. Los bloggers "expertos" y AMD esperaban una segunda sorpresa: en noviembre, Nvidia lanzó una versión actualizada del GF100 - GF110.

El producto actualizado logró lo que su predecesor no pudo manejar: usar toda el área del chip. Los GTX 570 y 580 resultantes fueron lo que la serie 400 original debería haber sido.

En octubre, apareció Barts, la primera GPU de la serie AMD Northern Islands. Estaba más cerca del desarrollo evolutivo de Evergreen y fue diseñado para reducir los costos de fabricación de chips Cypress. No proporcionó un aumento significativo en el rendimiento: la GPU era aproximadamente igual a la HD 5830 y HD 5850 anteriores, pero redujo significativamente el tamaño. AMD redujo el número de procesadores de flujo (sombreadores), rehizo el controlador de memoria y cambió su tamaño físico (en consecuencia, redujo la velocidad de la memoria), y rechazó la capacidad de realizar cálculos con doble precisión. Sin embargo, Barts había mejorado la teselación en comparación con Evergreen.


Aunque el aumento del rendimiento no fue tan notable, AMD ha mejorado la tecnología de visualización. DisplayPort se ha actualizado a la versión 1.2 (la capacidad de controlar múltiples monitores desde un puerto, una actualización con una frecuencia de 120 Hz para pantallas de alta resolución y audio de flujo de bits), HDMI - a la versión 1.4a (reproducción de video 3D en 1080p, resolución de pantalla 4K) . La compañía también agregó un decodificador de video actualizado con soporte DivX.

Además, AMD mejoró las capacidades de los controladores al agregar suavizado morfológico (MLAA), un filtro de desenfoque posterior al procesamiento, cuya funcionalidad (especialmente en el momento del lanzamiento) estaba lejos de ser ideal.

HD 6970 y HD 6950 agregaron un modo de suavizado llamado EQAA (Calidad mejorada AA) al controlador Catalyst;Además, AMD también implementó el soporte rudimentario para HD3D, que era caprichoso en el mejor de los casos, y el consumo dinámico de energía, esta vez con un perfil de PowerTune.

En general, los productos de Cayman fueron mejores que la primera generación de chips Fermi. Se suponía que debían vencerlos, pero estaban varios por ciento detrás de la segunda generación (serie GTX 500), y el lanzamiento posterior de controladores de ambas compañías intensificó las fluctuaciones.

El lanzamiento en noviembre de Caimán se pospuso por un mes, y el 15 de diciembre, aparecieron HD 6970 y 6950, partiendo (temporalmente) de la arquitectura VLIW5, que ATI / AMD utilizó desde la serie R300. En cambio, la compañía usó VLIW4, donde no había un quinto bloque de Función Especial (o Transendental) en cada bloque de procesamiento de subprocesos.

Esto fue necesario para eliminar la sobreabundancia de recursos destinados a juegos con DX9 (y versiones anteriores), y al mismo tiempo para reorganizar la canalización de gráficos.

Los únicos otros productos basados ​​en VLIW4 son los chips gráficos integrados de las series APU Trinity y Richland; La arquitectura gráfica más nueva de AMD se basó en GCN (Graphics Core Next), y VLIW5 permaneció en la serie HD 8000, renombrada como la GPU Evergreen de nivel más bajo.

Repitiendo la historia del GF100 / GF110, el descendiente del GTX 460 - GTX 560 Ti - apareció en enero de 2011. Basado en el GF114, la tarjeta contenía un GF104 actualizado completamente funcional, y demostró ser tan confiable y versátil como su predecesor. Sobre esta base, se lanzaron muchas versiones sin referencia con y sin overclocking de fábrica.

AMD reaccionó instantáneamente a esto al reducir el costo de sus HD 6950 y 6870, lo que hizo que desapareciera la ventaja de rendimiento de precio del GTX 560 Ti. Gracias a los descuentos ofrecidos por la mayoría de los socios de la placa base, el HD 6950, y especialmente su versión con 1 GB de memoria, se ha convertido en una compra más atractiva.


Placa de referencia Nvidia GeForce GTX 590 La

segunda versión a gran escala de productos Nvidia en 2011, concretamente el 26 de marzo, comenzó con una explosión. En la GTX 590, dos GF110 con todas las funciones se combinaron en una placa.

Las placas fueron controladas por un controlador que no implementó adecuadamente la limitación de energía y tenía un BIOS que permitía aplicar alto voltaje. Este defecto provocó una sobretensión agresiva que provocó un mal funcionamiento del MOSFET. Nvidia corrigió la situación creando un BIOS y un controlador más rigurosos, pero el lanzamiento estuvo acompañado de revisiones despectivas. En términos de rendimiento, la GTX 590 solo ha alcanzado la paridad con la doble tarjeta AMD HD 6990, lanzada dos semanas antes.

El 9 de enero, comenzó el lanzamiento planificado de los descendientes de los procesadores AMD Northern Islands - Southern Islands, el primero de los cuales fue el buque insignia HD 7970. Esta fue la primera tarjeta para PCI-E 3.0, que utilizó por primera vez la arquitectura GCN de AMD, construida sobre la tecnología de proceso TSMC de 28 nanómetros. Solo tres semanas después, la segunda tarjeta basada en Tahití, la HD 7950, se unió a la 7970, seguida de las tarjetas convencionales en Cabo Verde el 15 de febrero. Las tarjetas de rendimiento basadas en GPU de Pitcairn llegaron a las tiendas en marzo.


Las tarjetas resultaron ser buenas, pero no proporcionaron mejoras significativas en comparación con las placas anteriores de 40 nanómetros. Esto, así como los precios menos competitivos, que se convirtieron en el estándar para AMD con la serie HD 2000, la ausencia de controladores WHQL durante dos meses y el inoperativo Video Codec Engine (VCE) atenuó el entusiasmo de muchos usuarios potenciales y revisores.

La ventaja de los productos Tahití fue la confirmación de que AMD dejó un gran margen de rendimiento, que se pudo obtener debido al overclocking. Era un compromiso entre el consumo de energía, el disipador de calor y la velocidad del reloj, pero condujo a frecuencias conservadoras de memoria y núcleo. Quizás esto también estuvo influenciado por la necesidad de reducir el matrimonio y la subestimación de la Nvidia GTX 680/670 basada en Kepler.

Nvidia continuó expandiendo sus capacidades de GPU con el lanzamiento de la arquitectura Kepler.

En generaciones anteriores, Nvidia comenzó con el chip más sofisticado para satisfacer a los jugadores consumidores en el nicho de gama alta, y luego continuó el largo proceso de prueba para modelos profesionales (Tesla / Quadro). En las últimas generaciones, este enfoque no fue muy conveniente, por lo que el GK107 más modesto y el GK104 orientado al rendimiento tuvieron prioridad sobre el poderoso GK110.

Presumiblemente, Nvidia requería el GK107, porque la compañía tenía contratos a gran escala con OEM móviles, y necesitaba el GK104 para el segmento de escritorio superior. Ambas GPU se enviaron como chips de la versión A2. El Mobile GK107 (GT 640M / 650M, GTX 660M) comenzó a enviarse a socios OEM en febrero, y se anunció oficialmente el 22 de marzo, el mismo día en que Nvidia lanzó su GTX 680 basado en el GK104.

Otra diferencia con respecto a las últimas arquitecturas de GPU Nvidia fue que las unidades de sombreado funcionaban con la misma frecuencia que el núcleo. Comenzando con la serie GeForce 8, las unidades de sombreado funcionaban a una frecuencia que era dos veces o más que la frecuencia central: 2,67 veces más que el núcleo en la serie 9, y exactamente el doble que 400 y 500.

El significado de este cambio fue que Nvidia cambió su enfoque (en el mercado de escritorio / móvil) del rendimiento bruto a la relación de rendimiento por vatio. Más núcleos funcionando a velocidades más bajas son más eficientes en la computación paralela que menos núcleos con doble frecuencia. De hecho, este fue un desarrollo adicional de la diferencia entre los paradigmas de GPU y CPU (muchos núcleos, bajas frecuencias, alta transmitancia y retraso frente a un pequeño número de núcleos, alta frecuencia, menos transmitancia y retraso).

Además, una disminución en la frecuencia de las unidades de sombreado ha llevado a una disminución en el consumo de energía; Además, Nvidia ahorró aún más en el diseño, reduciendo significativamente el número de unidades con doble precisión en el chip, así como reduciendo el ancho del bus a 256 bits más convencionales. Estos cambios, junto con la velocidad del núcleo central relativamente modesta, se amplificaron mediante la función de impulso dinámico (overclocking a demanda), que condujo a la aparición de un producto mucho más equilibrado, aunque a costa de capacidades informáticas reducidas. Sin embargo, si Nvidia conservara la funcionalidad informática y el diseño de ancho de banda de Fermi, el resultado sería un diseño grande y atractivo con un alto consumo de energía. Las leyes de la física han convertido nuevamente el diseño de chips en un arte de compromiso.

Nvidia volvió a desarrollar una placa dual de GPU. El GTX 690 resultó ser dos GTX 680 conectados por SLI. La única diferencia es que la frecuencia máxima del núcleo de 690 (durante el overclocking) es 52 MHz más baja. Aunque el rendimiento aún dependía de la creación de perfiles del controlador SLI, la funcionalidad de la tarjeta era excelente y su apariencia valía la marca de edición limitada que llevaba.

El chip GK 110 marcó una desviación de la práctica habitual de Nvidia de lanzar las primeras GPU de la serie bajo el lema de la GeForce. La tarjeta Tesla K20, en la que apareció este chip por primera vez, tenía una gran demanda en el nicho de las supercomputadoras: se necesitaban más de 22,000 unidades para los sistemas ORNL Cray XK7 Titan, NCSA Blue Waters, Swiss CSCS Todi y Piz Daint.

Los consumidores comunes tuvieron que esperar otros seis meses para que el GK110 apareciera en la tarjeta GeForce. La tarjeta se llamaba GTX Titan : la falta de un número de modelo numérico reforzó el deseo de Nvidia de ver este producto como un modelo separado de la serie Kepler existente (y futura). Con un precio de $ 999, Titan estaba dirigido al mercado entusiasta de los gráficos. Nvidia también aumentó el atractivo de su línea para investigadores y profesionales presupuestarios: por primera vez, la compañía permitió que la tarjeta GeForce conservara la misma funcionalidad informática que los profesionales Tesla y Quadro.


Nvidia GeForce GTX Titan La

tarjeta rápidamente ganó el estatus de líder de referencia de juegos, especialmente evidente en resoluciones de monitores múltiples con antialiasing supermuestreado habilitado. Sin embargo, la indiferencia de Nvidia por apoyar a los controladores de OpenCL y la aparición de nuevos juegos en asociación con el programa Gaming Evolved de AMD, junto con el enorme precio, han reducido la influencia de Titán.

En junio, AMD preparó su respuesta con el lanzamiento de la edición HD 7970 GHz, que aumentó la frecuencia del núcleo en 75 MHz con una capacidad de overclocking adicional de otros 50 MHz (a diferencia del cambio de frecuencia dinámico propuesto por Nvidia). GHz Edition tenía la frecuencia con la que la tarjeta probablemente se lanzaría en enero.

Desafortunadamente para AMD, el público objetivo de este producto ya ha determinado que el modelo estándar debido al overclocking generalmente era capaz del mismo (si no el mejor) nivel de rendimiento, y al mismo tiempo tenía un precio y voltaje de núcleo significativamente más bajos. AMD lanzó el HD 7950 Boost para la edición HD 7970 GHz.

Source: https://habr.com/ru/post/479950/


All Articles