A história dos processadores de vídeo, parte 4: o advento da GPU de uso geral

imagem

Parte 1: 1976-1995

Parte 2: 3Dfx Voodoo

Parte 3: consolidação do mercado, o início da era da concorrência entre a Nvidia e a ATI

Antes da chegada do DirectX 10, não havia sentido em adicionar complexidade opcional aos chips, expandindo a área do chip, o que aumentava a funcionalidade dos shaders de vértice, bem como a precisão do processamento de números de ponto flutuante para shaders de pixel de 24 a 32 bits para atender aos requisitos das operações de vértices. Após o surgimento do DX10, os shaders de vértice e pixel mantiveram um alto nível de funcionalidade geral; portanto, a transição para shaders generalizados economizou muita duplicação desnecessária de unidades de processamento. A primeira GPU a usar essa arquitetura foi o lendário G80 da Nvidia.

Graças a quatro anos de desenvolvimento e 475 milhões de dólares, um monstro foi fabricado com 681 milhões de transistores e uma área de 484 mm², lançado pela primeira vez no carro-chefe 8800 GTX e 8800 GTS 640MB em 8 de novembro de 2006. O GTX com overclock chamado 8800 Ultra foi o auge do poder do G80; foi lançado entre dois produtos menos importantes: o 320MB GTS em fevereiro e o GTS 640MB / 112 com uma edição limitada em 19 de novembro de 2007.

O GTX, equipado com o novo algoritmo anti-aliasing de amostra de cobertura (CSAA), graças ao seu desempenho incomparável, derrotou todos os concorrentes com um e dois chips. Apesar desse sucesso, no quarto trimestre, a empresa perdeu três por cento do mercado gráfico discreto, devido à força dos contratos de OEM repassados ​​à AMD.


GeForce 8800 GTX na MSI

Os componentes restantes da estratégia de negócios G80 da Nvidia se tornaram realidade em fevereiro e junho de 2007. A plataforma CUDA baseada no SDK da linguagem C (Software Development Kit) foi lançada como uma versão beta, permitindo que o ecossistema use a natureza altamente paralelizada da GPU. A plataforma CUDA usa o mecanismo de física Nvidia PhysX, bem como projetos de computação distribuída, visualização profissional e OptiX, o mecanismo de rastreamento de raios Nvidia.

A Nvidia e a ATI (agora AMD) integram funcionalidade de computação em constante expansão ao pipeline gráfico. A ATI / AMD decidiu contar com desenvolvedores e comitês para escolher o caminho OpenCL, enquanto a Nvidia tinha planos mais próximos, com a intenção de usar CUDA e computação de alto desempenho.

Para fazer isso, em junho, a Nvidia lançou uma linha de coprocessadores matemáticos da Tesla, originalmente baseados no mesmo núcleo G80 usado na GeForce e Quadro FX 4600/5600. Após um longo desenvolvimento, durante o qual foram realizadas pelo menos duas (e possivelmente três) etapas de depuração sérias, a AMD lançou o R600 em maio.

O hype da mídia levou a AMD a esperar uma resposta 8800 GTX, mas o HD 2900 XT lançado foi uma decepção. Esse era um mapa da parte superior do segmento de preços médios, com o consumo de energia no nível de um produto profissional: consumia mais energia do que todos os sistemas modernos.

A escala do bug do R600 causou um grande impacto na ATI, forçando a empresa a mudar sua estratégia para cumprir com mais rigor os prazos e maximizar as oportunidades ao lançar novos produtos. O desempenho melhorou no RV770 (Evergreen), bem como nas séries Ilhas do Norte e do Sul.

Juntamente com o fato de o R600 ser a maior GPU ATI / AMD da época (420 mm²), estabeleceu outros recordes entre as GPUs. Foi o primeiro chip AMD com suporte ao DirectX 10, o primeiro e único GPU com um barramento de memória de 512 bits, o primeiro chip de desktop com um bloco de mosaico (que quase nunca foi usado devido à indiferença dos desenvolvedores de jogos e à falta de suporte ao DirectX), o primeiro GPU integrado suporte para áudio via HDMI, bem como o primeiro produto usando a arquitetura VLIW. Além disso, pela primeira vez desde o lançamento da Radeon 7500, a ATI / AMD não entrou no mercado para as placas mais poderosas, comparáveis ​​em preço e desempenho com os concorrentes.

A AMD atualizou o R600 para RV670, reduzindo a tecnologia de processo de 80 nm do TSMC para 55 nm e também substituindo o barramento de memória em anel bidirecional de 512 bits por um de 256 bits mais padrão. Isso reduziu pela metade a área do cristal R600, que ao mesmo tempo continha o mesmo número de transistores (666 milhões em comparação com 700 milhões R600). A AMD também atualizou a GPU para oferecer suporte ao DX10.1 e adicionou suporte ao PCI Express 2.0; tudo isso foi suficiente para concluir a série HD 2000 e competir com a GeForce 8800 GT convencional, além de placas menos potentes.

Na ausência de uma GPU de ponta, a AMD lançou duas placas de GPU dupla em janeiro de 2008, além de placas de orçamento baseadas no RV620 / 635. O HD 3850 X2 foi colocado à venda em abril e o mais recente cartão All-In-Wonder, o HD 3650, em junho. Placas duplas de GPU, acompanhadas de drivers de alta qualidade, impressionaram instantaneamente críticos e clientes. O HD 3870 X2 foi o cartão único mais rápido e o HD 3850 X2 não foi muito mais lento que ele. Diferentemente do sistema SLI da Nvidia, a AMD implementou o suporte Crossfiring com ASICs padrão.


Radeon HD 3870 X2 com duas GPUs em uma placa

Com base no sucesso do G80, em 29 de outubro, a Nvidia lançou o G92 no 8800 GT, que foi bem recebido por muitos sites técnicos, principalmente devido a preços muito competitivos. Capturado na faixa de preço de US $ 199-249, este cartão de 512 megabytes forneceu desempenho, o que tornou inútil a compra do 8800 GTS baseado no G80. Basicamente, ultrapassou o HD 2900 XT e o HD 3870, lançado três meses após o GT e atingindo aproximadamente 80% da velocidade do GTX. Não é de surpreender que, após algumas semanas, o mercado comece a sofrer uma escassez de 8800 GT. A forte demanda por um novo produto da Nvidia e seus “irmãos” 8600 GS / GT permitiu à empresa ganhar 71% do mercado de cartões discretos até o final do ano.

Imediatamente após o GT, em 11 de dezembro, a Nvidia lançou o 8800 GTS 512MB baseado no G92 . Embora, em geral, a relação preço / desempenho tenha sido pior em comparação com o GT, o GTS foi salvo pelo uso de GPUs mais poderosas, que basicamente igualaram o GTX com overclock ao caro 8800 Ultra.

A história da série GeForce 8 seria incompleta sem um pós-escrito desagradável, a saber, o uso de solda de chumbo alto no BGA de algumas GPUs G86, G84, G84, G73, G72 / 72M, além dos chipsets gráficos C51 e MCP67. Isso, juntamente com o enchimento a baixa temperatura, o resfriamento inadequado e o modo intensivo de resfriamento por aquecimento, causou um número incomumente grande de falhas no cartão.

Em meados de 2008, a Nvidia mudou para a solda eutética de alto estanho da Hitachi usada pela AMD e redesenhou o 8800 GT, adicionando mais lâminas e atualizando o chassi para melhorar o fluxo de ar. O G92 também era suspeito de ser afetado pelo problema de inundação, embora os dispositivos duplos baseados no 8800 GTS 512M e placas com coolers não de referência realmente não o preocupassem.

Devido a esse problema, a empresa perdeu um total de 475,9 milhões , o que causou uma forte reação negativa dos consumidores em relação aos parceiros OEM da Nvidia que fabricam laptops - eles conheciam o problema muito antes de se tornar público. O lugar da Nvidia no setor estará para sempre associado a esse pior momento de sua história.

Se a Série 8 foi um triunfo tecnológico para a Nvidia, a Série 9 anunciou um período de estagnação. Um ponto positivo da programação foi o primeiro modelo lançado em fevereiro de 2008. O 9600 GT foi baseado no "novo" G94, que na verdade foi o G92 aparado no ano passado, construído com a mesma tecnologia de processo TSMC 65nm.

Os agressivos cortes de preços da AMD nos HD 3870 e HD 3850, juntamente com o valor decrescente de 8800 GS e GT Nvidia, foram forçados a renomear o restante da série 9.

Os primeiros 9800 GTs foram modificados com o 8800 GT e o 8800 GTS (G92) se tornou o 9800 GTX. A mudança para a tecnologia de processo TSMC de 55 nanômetros reduziu a área de cristal em 20% e permitiu um ligeiro aumento na frequência do relógio para a criação do 9800 GTX +, que é idêntico ao OEM GTS 150, bem como o GTS 250, que entrou nos canais de varejo quinze meses após o primeiro cartão da série 8.

Devido ao aparecimento tardio do carro-chefe GT200 e ao fato de o AMD HD 3870 X2 ser agora o líder na corrida de placa única, a Nvidia voltou à sua longa tradição e dobrou o número de GPUs, imprensando dois 9800 GTs, criando assim o 9800 GX2. Embora o produto tenha vencido a concorrência em benchmarks, a maioria dos observadores percebeu rapidamente que vender um 9800 GT duplo ao preço de três 9800 GT separados não era muito atraente para o comprador.


GPU Nvidia G200 na GTX 260

Em junho, a Nvidia lançou o GTX 260 e o GTX 280 com a GPU GT200 (576 mm²) - o maior chip de GPU da época (Intel Larrabee tinha uma área de aproximadamente 600-700 mm²) e o maior chip de produção dentre todos produzidos pela TSMC.

O GT200 foi outra tentativa da Nvidia de chamar a atenção para o GPGPU: implementou equipamentos dedicados para precisão dupla (FP64) e computação. As mudanças arquitetônicas destinadas aos jogos foram mais modestas, mas isso não impediu a Nvidia de fixar o preço de US $ 280 em US $ 649 e de liberar os drivers 3D Vision (para jogos e vídeo em 3D) junto com óculos 3D e um emissor de IR - um kit muito caro.


Demonstração da tecnologia Nvidia GTX 200 Series

Os preços caíram significativamente após o lançamento das HD 4870 e 4850 - a GTX 280 caiu 38% e custou US $ 400, enquanto a GTX 260 caiu 25% (US $ 299).

A AMD respondeu ao GT200 e G92 com o lançamento do RV770. O primeiro cartão (voltado para o segmento mainstream inferior do HD 4730) foi lançado em 8 de junho e, em 25 de junho, foi seguido pelos HD 4850 e 4870, projetados para os principais mercados e de alto nível. A questão dos cartões não causou tanta repercussão, porque as especificações vazaram mais cedo e as lojas começaram a vender o HD 4850 uma semana antes da expiração do NDA - isso geralmente acontece hoje, mas não em 2008.

As 4870 e 4850 foram as primeiras placas gráficas para consumidor GDDR5 que a Nvidia implementou dezoito meses depois no GT 240, com base no GT215.

As HD 4870 e 4850 mereceram críticas muito positivas, cuja razão foi uma ampla lista de recursos - áudio 7.1 LPCM via HDMI, desempenho geral e dimensionamento com várias GPUs, bem como, é claro, preço. A única desvantagem do cartão era sua tendência de criar altas temperaturas locais nas áreas de componentes de ajuste de tensão nos painéis de referência, o que causava falhas e congelamentos desproporcionalmente altos, especialmente ao executar aplicativos altamente carregados como a Furmark.

Mantendo a tradição das gerações anteriores e sentindo a necessidade de encerrar a liderança de dois meses da GTX 280, a AMD lançou o HD 4870 X2 em agosto. O cartão terminou rapidamente nas principais linhas de benchmark de várias categorias, incluindo desempenho. Ao mesmo tempo, devido ao design do ventilador, é, infelizmente, o líder na categoria de geração de ruído e dissipação de calor.


Radeon HD 4870 X2 (superior) e Radeon HD 4870

Em janeiro de 2009, a linha de produtos Nvidia apresentou um ligeiro crescimento graças à transferência do GT 200 para a tecnologia de processo TSMC de 55 nanômetros. Foram utilizados 55 nanômetros nos chips da versão B3, que apareceram pela primeira vez em setembro do ano anterior como a versão dos cartões Core 216 GTX 260. A empresa lançou o GTX 295, que utilizava dois GT200-B3 truncados.

Uma variação de uma placa de GPU única foi lançada em abril sob o nome GTX 275. A resposta da AMD foi a seguinte: o HD 4890 atualizado com base no RV790XT e no HD 4770 (RV740), que também se tornou o primeiro cartão de 40nm da AMD.

O HD 4770, embora não fosse um produto particularmente importante, proporcionou à AMD uma experiência inestimável ao trabalhar com a problemática tecnologia de processo TSMC de 40 nanômetros, que criou grande variabilidade no vazamento de corrente, além de um alto nível de rejeição devido a conexões incompletas entre camadas de metal no cristal da GPU. Graças a essa experiência, a AMD conseguiu melhorar o processo de fabricação e eliminar os problemas encontrados pela Nvidia ao desenvolver a arquitetura Fermi - problemas que não apareceram nas primeiras GPUs Nvidia de 40 nanômetros.

A Nvidia lançou seus primeiros produtos de 40 nm em julho. As GT216 e GT218 low-end foram usadas nas GeForce 205, 210 e GT 220, que eram produtos OEM até outubro, quando os dois últimos foram vendidos. Eles são notáveis ​​apenas porque se tornaram as primeiras placas Nvidia com suporte para DX10.1 - a AMD conquistou essa posição no HD 4870/4850; além disso, eles aprimoraram os recursos de áudio com som 7.1, LPCM sem perdas, fluxo de bits Dolby TrueHD / DTS-HD / -HD-MA e áudio através de HDMI. A série foi direcionada ao mercado de home theater e, em fevereiro de 2010, foi renomeada como a série 300.

Nos quatro meses de setembro de 2009 a fevereiro de 2010, a AMD lançou a linha completa de quatro GPUs (Cypress, Juniper, Redwood e Cedar) que compunham a família Evergreen. A linha começou com o segmento high-end HD 5870, após o qual, uma semana depois, o HD 5850 apareceu no topo do nível médio de preços.

A problemática tecnologia de processo TSMC de 40 nanômetros impediu a AMD de aproveitar a ausência de Fermi da Nvidia porque a grande demanda excedia a oferta. Isso ocorreu em grande parte devido à capacidade da AMD de planejar o lançamento do Evergreen com o advento do Windows 7 e a popularização do DirectX 11.

Embora o DX11 tenha levado algum tempo para mostrar ganhos significativos de desempenho no Evergreen, outro recurso introduzido no HD 5000 imediatamente teve um impacto na forma de Eyefinity, que depende inteiramente da flexibilidade do DisplayPort para fornecer até seis pipelines de exibição por placa. Eles foram redirecionados para um DAC padrão ou para uma combinação de transmissores TMDS e DisplayPort internos.

As placas gráficas anteriores geralmente usavam uma combinação de VGA, DVI e, às vezes, HDMI, e cada saída exigia uma fonte de relógio separada. Isso aumentou a complexidade, o tamanho e o número de pinos da GPU. O DisplayPort eliminou a necessidade de velocidades de clock independentes e abriu à AMD a capacidade de integrar até seis pipelines de exibição em equipamentos sem sacrificar o desempenho do software do usuário. Ao mesmo tempo, os quadros foram compensados ​​nas bordas e a tela foi esticada ao longo das telas com resolução ideal.


Eyefinity: tecnologia escalável ATI para vários monitores

A série Evergreen tornou-se líder em sua classe entre todas as placas-mãe (se você não se lembra dos problemas com a filtragem de texturas): a HD 5850 e a HD 5770 atraíram uma grande porcentagem de jogadores com orçamento limitado, e as HD 5870 e HD 5970 com GPUs duplas forneceram um nível incomparável de desempenho.

Seis meses depois, em 12 de abril, a Nvidia finalmente lançou suas primeiras placas Fermi, chamadas GTX 470 e 480. Nenhum dos cristais da empresa estava totalmente funcional (o mesmo aconteceu com o GF104 subsequente), então as velocidades do núcleo Fermi para reduzir o consumo de energia foram conservador o suficiente e a largura de banda da memória foi menor devido à falta de experiência da Nvidia com E / S GDDR5.

Os resultados longe de ótimos da tecnologia de processo TSMC de 40 nanômetros, que já resultou em problemas de suprimento para a AMD, aumentaram significativamente devido ao tamanho do cristal GF100 Fermi (529 mm²). O tamanho do cristal está associado à quantidade de rejeições, aos requisitos de energia e à dissipação de calor; portanto, a série Nvidia 400, em comparação com a linha AMD, paga pelo desempenho em jogos.

O GF100 nas variantes Quadro e Tesla sofreu significativamente menos devido ao ecossistema já estabelecido em mercados profissionais. Um dos aspectos positivos dos cartões liberados foi o surgimento da tecnologia TrSSAA (transparência de supersampling antialiasing), que deveria ser usada juntamente com a cobertura já existente da amostra AA (CSAA).

Embora o GTX 480 tenha sido recebido com bastante frieza, o segundo chip Nvidia Fermi, o GF104 convencional no GTX 460 , foi um enorme sucesso. Ele proporcionou um bom desempenho a um ótimo preço, os 192bit / 768MB vendidos por US $ 199 e os 256bit / 1GB vendidos por US $ 229. A empresa lançou muitos cartões sem referência e com overclock com recursos significativos de overclock graças às frequências conservadoras que a Nvidia usa para reduzir o consumo de energia.

A recepção parcialmente quente 460 foi causada por baixas expectativas após o lançamento do GF100. Eles disseram que o GF104 não passará da metade do GF100 e ficará pálido em comparação com o GPU Cypress da AMD. Mas não foi assim. Os blogueiros “especialistas” e a AMD esperavam uma segunda surpresa: em novembro, a Nvidia lançou uma versão atualizada do GF100 - GF110.

O produto atualizado conseguiu alcançar o que seu antecessor não suportava - usar toda a área do chip. As GTX 570 e 580 resultantes foram o que a série 400 original deveria ter sido.

Em outubro, Barts apareceu - a primeira GPU da série AMD Northern Islands. Estava mais próximo do desenvolvimento evolutivo da Evergreen e foi projetado para reduzir os custos de fabricação de chips Cypress. Não proporcionou um aumento significativo no desempenho: a GPU era aproximadamente igual aos HD 5830 e HD 5850 anteriores, mas reduziu significativamente o tamanho. A AMD reduziu o número de processadores de fluxo (shaders), refez o controlador de memória e alterou seu tamanho físico (reduzindo a velocidade da memória) e recusou a capacidade de realizar cálculos com precisão dupla. No entanto, Barts tinha melhorado mosaico em comparação com Evergreen.


Embora o aumento de desempenho não tenha sido tão perceptível, a AMD melhorou a tecnologia de exibição. O DisplayPort foi atualizado para a versão 1.2 (a capacidade de controlar vários monitores de uma porta, uma atualização com uma frequência de 120 Hz para monitores de alta resolução e áudio de fluxo de bits), HDMI - para a versão 1.4a (reprodução de vídeo 3D em 1080p, resolução de tela 4K) . A empresa também adicionou um decodificador de vídeo atualizado com suporte a DivX.

Além disso, a AMD aprimorou os recursos dos drivers adicionando MLAA (anti-aliasing) morfológico - um filtro de desfoque pós-processamento, cuja funcionalidade (especialmente no momento do lançamento) estava longe de ser ideal.

O HD 6970 e o HD 6950 adicionaram um modo de suavização chamado EQAA (Qualidade aprimorada AA) ao driver Catalyst;Além disso, a AMD também implementou o suporte rudimentar ao HD3D, que foi extravagante na melhor das hipóteses, e o consumo dinâmico de energia, desta vez com o PowerTune.

No geral, os produtos Cayman foram melhores que a primeira geração de chips Fermi. Eles deveriam vencê-los, mas estavam vários por cento atrás da segunda geração (série GTX 500), e o subsequente lançamento de drivers de ambas as empresas intensificou as flutuações.

O lançamento de Cayman em novembro foi adiado por um mês e, em 15 de dezembro, os HD 6970 e 6950 apareceram, partindo (temporariamente) da arquitetura VLIW5, usada pela ATI / AMD desde a série R300. Em vez disso, a empresa usou o VLIW4, onde não havia quinto bloco de Função Especial (ou Transendental) em cada bloco de processamento de threads.

Isso foi necessário para remover a superabundância de recursos destinados a jogos no DX9 (e versões mais antigas) e, ao mesmo tempo, reorganizar o pipeline de gráficos.

Os únicos outros produtos baseados no VLIW4 são os chips gráficos integrados das séries APU Trinity e Richland; A mais nova arquitetura gráfica da AMD foi baseada no GCN (Graphics Core Next) e o VLIW5 permaneceu na série HD 8000, renomeada como a GPU Evergreen de nível mais baixo.

Repetindo a história da GF100 / GF110, o descendente da GTX 460 - GTX 560 Ti - apareceu em janeiro de 2011. Baseado no GF114, o cartão continha um GF104 atualizado totalmente funcional e provou ser tão confiável e versátil quanto seu antecessor. Basicamente, muitas versões não de referência foram lançadas com e sem overclock de fábrica.

A AMD reagiu instantaneamente a isso reduzindo o custo das HD 6950 e 6870, o que fez desaparecer a vantagem de preço-desempenho da GTX 560 Ti. Graças aos descontos oferecidos pela maioria dos parceiros de placas-mãe, o HD 6950, e especialmente sua versão com 1 GB de memória, tornou-se uma compra mais atraente.


Placa de referência Nvidia GeForce GTX 590 A

segunda versão em larga escala dos produtos Nvidia em 2011, a 26 de março, começou com uma explosão. No GTX 590, dois GF110s completos foram combinados em uma placa.

As placas eram controladas por um driver que não implementava adequadamente a limitação de energia e tinham um BIOS que permitia a aplicação de alta tensão. Essa falha levou a uma sobretensão agressiva, causando mau funcionamento do MOSFET. A Nvidia corrigiu a situação criando um BIOS e driver mais rigorosos, mas o lançamento foi acompanhado por análises depreciativas. Em termos de desempenho, a GTX 590 alcançou apenas a paridade com a placa AMD HD 6990 dupla, lançada duas semanas antes.

Em 9 de janeiro, começou o lançamento planejado dos descendentes dos processadores AMD Northern Islands - Southern Islands, o primeiro deles foi o carro-chefe HD 7970. Esta foi a primeira placa para PCI-E 3.0, que usou a arquitetura GCN da AMD pela primeira vez, construída na tecnologia de processo TSMC de 28 nanômetros. Apenas três semanas depois, o segundo cartão baseado no Tahiti, o HD 7950, entrou no 7970, seguido pelos cartões convencionais em Cabo Verde em 15 de fevereiro. Os cartões de desempenho baseados em GPU da Pitcairn chegaram às lojas em março.


As placas se mostraram boas, mas não forneceram melhorias significativas em comparação com as placas de 40 nanômetros anteriores. Isso, além de preços menos competitivos, que se tornaram padrão para a AMD com a série HD 2000, a ausência de drivers WHQL por dois meses e o inoperativo Video Codec Engine (VCE) temperaram o entusiasmo de muitos usuários e revisores em potencial.

O bônus dos produtos do Taiti foi a confirmação de que a AMD deixou uma grande margem de desempenho, que poderia ser obtida devido ao overclock. Foi um compromisso entre consumo de energia, dissipador de calor e velocidade do relógio, mas levou a frequências conservadoras de núcleo e memória. Talvez isso também tenha sido influenciado pela necessidade de reduzir o casamento e pela subestimação da Nvidia GTX 680/670, baseada no Kepler.

A Nvidia continuou a expandir seus recursos de GPU com o lançamento da arquitetura Kepler.

Nas gerações anteriores, a Nvidia começou com o chip mais sofisticado para satisfazer os consumidores no nicho de ponta e, em seguida, continuou o longo processo de teste para modelos profissionais (Tesla / Quadro). Nas últimas gerações, essa abordagem não foi muito conveniente; portanto, o GK107 mais modesto e o GK104 orientado para o desempenho tiveram prioridade sobre o poderoso GK110.

Presumivelmente, o GK107 foi exigido pela Nvidia, porque a empresa tinha contratos em grande escala com OEMs móveis e precisava do GK104 para o segmento superior de desktops. Ambas as GPUs foram enviadas como chips da versão A2. O Mobile GK107 (GT 640M / 650M, GTX 660M) começou a ser enviado para parceiros OEM em fevereiro e foi anunciado oficialmente em 22 de março, no mesmo dia em que a Nvidia lançou seu GTX 680 baseado no GK104.

Outra diferença das arquiteturas mais recentes da GPU Nvidia foi que as unidades de sombreamento rodavam na mesma frequência que o núcleo. Começando com a série GeForce 8, as unidades de shader operavam com uma frequência que era duas ou mais que a frequência principal - 2,67 vezes mais que o núcleo da série 9 e exatamente o dobro de 400 e 500.

O significado dessa mudança foi que a Nvidia mudou o foco (nos mercados de desktop / móvel) do desempenho bruto para a proporção de desempenho por watt. Mais núcleos rodando em velocidades mais baixas são mais eficientes na computação paralela do que menos núcleos com dupla frequência. De fato, esse foi um desenvolvimento adicional da diferença entre os paradigmas da GPU e da CPU (muitos núcleos, baixas frequências, alta transmitância e atraso contra um pequeno número de núcleos, alta frequência, menos transmitância e atraso).

Além disso, uma diminuição na frequência de unidades shader levou a uma diminuição no consumo de energia; Além disso, a Nvidia economizou ainda mais no design, reduzindo significativamente o número de unidades com dupla precisão no chip, além de reduzir a largura do barramento para 256 bits mais comuns. Essas mudanças, juntamente com a velocidade básica do núcleo relativamente modesta, foram amplificadas pela função de impulso dinâmico (overclocking on demand), que levou ao aparecimento de um produto muito mais equilibrado, embora ao custo de capacidades de computação reduzidas. No entanto, se a Nvidia mantivesse a funcionalidade de computação e o design da largura de banda Fermi, o resultado seria um design grande e quente, com alto consumo de energia. As leis da física novamente transformaram o design de chips em uma arte de compromisso.

A Nvidia desenvolveu novamente uma placa GPU dupla. O GTX 690 acabou por ser dois GTX 680s conectados pelo SLI. A única diferença é que a frequência máxima do núcleo de 690 (durante overclocking) é 52 MHz mais baixa. Embora o desempenho ainda dependesse da criação de perfil do driver SLI, a funcionalidade do cartão era excelente e sua aparência valia a marca de edição limitada que ele usava.

O chip GK 110 marcou um afastamento da prática usual da Nvidia de lançar as primeiras GPUs da série sob a bandeira da GeForce. O cartão Tesla K20, no qual este chip apareceu pela primeira vez, era muito procurado no nicho dos supercomputadores: eram necessárias mais de 22.000 unidades para os sistemas ORNL Cray XK7 Titan, NCSA Blue Waters, Swiss CSCS Todi e Piz Daint.

Os consumidores comuns tiveram que esperar mais seis meses para que o GK110 aparecesse no cartão GeForce. O cartão recebeu o nome GTX Titan - a falta de um número numérico de modelo reforçou o desejo da Nvidia de ver este produto como um modelo separado da série Kepler existente (e futura). Com um preço de US $ 999, a Titan visava o mercado de entusiastas de gráficos. A Nvidia também aumentou a atratividade de sua linha para pesquisadores e profissionais com orçamento limitado - pela primeira vez, a empresa permitiu que o cartão GeForce mantivesse a mesma funcionalidade de computação que os profissionais Tesla e Quadro.


Nvidia GeForce GTX Titan A

placa rapidamente ganhou o status de líder de benchmark de jogos, especialmente evidente em resoluções de vários monitores com antialiasing super amostrado ativado. No entanto, a indiferença da Nvidia em oferecer suporte aos drivers OpenCL e o surgimento de novos jogos em parceria com o programa Gaming Evolved da AMD, juntamente com o enorme preço, reduziram a influência do Titan.

Em junho, a AMD preparou sua resposta com o lançamento da HD 7970 GHz Edition, que aumentou a frequência do núcleo em 75 MHz, com uma capacidade adicional de overclock de outros 50 MHz (em oposição à mudança de frequência dinâmica proposta pela Nvidia). A GHz Edition tinha a frequência com que o cartão provavelmente seria lançado em janeiro.

Infelizmente para a AMD, o público-alvo deste produto já determinou que o modelo padrão devido ao overclocking geralmente era capaz do mesmo (se não o melhor) nível de desempenho e, ao mesmo tempo, tinha um preço e tensão de núcleo significativamente mais baixos. A AMD lançou o HD 7950 Boost para a HD 7970 GHz Edition.

Source: https://habr.com/ru/post/pt479950/


All Articles