Parte 1: 1976-1995Parte 2: 3Dfx VoodooA queda do 3Dfx e a ascensão de dois gigantes
Na virada do século, a indústria gráfica mostrou tendências em direção a uma maior consolidação.
A IXMICRO deixou completamente o mercado profissional e a NEC e a Hewlett-Packard lançaram seus produtos mais recentes - as séries TE5 e VISUALIZE FX10. Após a venda do RealVision, Evans & Sutherland também deixaram o setor, concentrando-se em sistemas de projeção para planetários.
No mercado de gráficos para consumidores, a ATI anunciou a aquisição da ArtX Inc. em fevereiro de 2000. por 400 milhões de dólares. A ArtX desenvolveu a GPU, codinome Project Dolphin (mais tarde denominada "Flipper") para o Nintendo GameCube, que aumentou significativamente o lucro anual da ATI.
GPUs ATI para GameCubeTambém em fevereiro, a 3dfx anunciou uma
redução de 20% na equipe e imediatamente depois
comprou a Gigapixel por 186 milhões e obteve sua tecnologia de renderização baseada em blocos.
Enquanto isso, a S3 e a Nvidia concluíram suas enormes guerras de patentes e assinaram um contrato de sete anos
de licenciamento cruzado .
Por volta de abril a maio, a VIA ganhou o controle do S3, que completou o processo de reestruturação após a aquisição da Number Nine. Como parte da reestruturação do S3, a empresa concluiu uma fusão com a Diamond Multimedia através de uma troca de ações de US $ 165 milhões. O departamento de gráficos profissionais de ponta da Diamond, FireGL, foi renomeado para SONICblue e vendido para a ATI por 10 milhões em março de 2001.
Em abril, a 3DLabs adquiriu o Intgraph3D da Intergraph e, no final do ano, ocorreu a última ação do drama 3dfx, embora a empresa tenha esperanças de um futuro brilhante, porque o tão esperado Voodoo 5 5500 estava chegando à estréia em junho. Este último reagiu com a GeForce 256 DDR e venceu a competição em altas resoluções.
O 3dfx costumava ser uma referência para o desempenho bruto, mas agora a ênfase principal estava na qualidade da imagem com anti-aliasing em tela cheia. O Voodoo 5 introduziu a tecnologia T-buffer, uma alternativa às transformações e iluminação padrão: na verdade, ele pegou vários quadros renderizados e os montou em uma imagem. Nesse caso, uma imagem ligeiramente desfocada foi criada, que na sequência de quadros suavizou o movimento da animação.
A tecnologia 3dfx tornou-se a progenitora de muitas técnicas modernas para melhorar a qualidade da imagem, como sombras e reflexos suaves, desfoque de movimento e profundidade de campo do desfoque.
O Swan Song 3dfx - Voodoo 4 4500 - apareceu após vários atrasos em 19 de outubro. Em contraste, o 4200 e o 4800 nunca foram lançados. Inicialmente, a placa estava
planejada para ser lançada na primavera , em paralelo com sua concorrente, a Nvidia TNT2, mas teve que competir com a icônica GeForce 256 DDR, bem como com a muito mais poderosa GeForce 2 GTS e ATI Radeon DDR.
Em 14 de novembro, a 3dfx anunciou que
reduziu tardiamente
a produção e as vendas de cartões com sua própria marca. Os rumores disso circulam há muito tempo, mas foram muito subestimados. Adicionado combustível ao incêndio e a notícia de que as placas-mãe para o futuro Pentium 4 não suportarão a
transmissão AGP 3.3V exigida pela série Voodoo 5.
Design da caixa Voodoo5 5500 AGPO ponto final da 3dfx ocorreu um mês depois, quando a Nvidia
adquiriu seu portfólio de propriedade intelectual por US $ 70 milhões mais um milhão de ações. Os chefes brilhantes da Internet notaram que mais tarde a equipe de engenheiros da 3dfx, que trocou para a Nvidia, a "vingou" e mostrou seu potencial ao liberar tardiamente o fraco gráfico NV30 para as placas FX 5700 e FX 5800.
O início da era da luta da Nvidia e da ATI
Antes do lançamento do Voodoo 5, a ATI
anunciou o lançamento do Radeon DDR , "a GPU de desktop mais poderosa".
Revisões preliminares do cartão foram publicadas em 25 de abril e, apenas vinte e quatro horas depois, a Nvidia respondeu anunciando o lançamento da GeForce 2 GTS (GigaTexel Shader). A mais recente foi adicionada à versão da ATI Pixel Tapestry Architecture da Nvidia, chamada Nvidia Shading Rasterizer. Tornou possível implementar efeitos como sombreamento especular, explosões volumétricas, refrações, ondas, mistura de vértices, volumes de sombra, relevo texturizado e mapas de altura para cada pixel no hardware.
Acreditava-se que essa funcionalidade aparecesse no chip NV10 anterior (GeForce 256), mas foi desativada devido a problemas de hardware. Além disso, o GTS repetiu a Charisma Engine ATI, fornecendo suporte à GPU para calcular todas as transformações, truncamentos e iluminação. Apesar disso, a ATI deu mais um passo adiante ao adicionar a aparência de vértice para um movimento mais suave dos polígonos e interpolação dos quadros-chave: foi suficiente para os desenvolvedores criarem a malha de animação inicial e final, e o núcleo Charisma calculou malhas intermediárias.
ATI Radeon DDRO ATI Radeon DDR foi lançado no varejo em agosto de 2000. O Radeon DDR, que teve uma excelente implementação de T&L e suporte para algumas das funções do futuro DirectX 8, junto com o GeForce 2 GTS, inaugurou uma era de uso de saídas DVI devido à integração da interface no próprio chip. No entanto, a saída DVI era mais comum em placas OEM, pois os produtos de varejo eram geralmente equipados com conectores VIVO.
A desvantagem do Radeon DDR era que, em vez dos prometidos 200 MHz e 183 MHz, as frequências do núcleo e da memória foram reduzidas. Além disso, no momento do lançamento, os drivers estavam novamente longe do ideal. Houve problemas com cores de 16 bits e falhas de compatibilidade com chipsets VIA, mas isso não impediu a placa de dominar entre os concorrentes em resoluções superiores a 1024x768x32. O preço de 399 dólares para a versão com 64 MB estava de acordo com 349-399 dólares para o GeForce 2 GTS 64MB, que ultrapassou de 10 a 20% em benchmarks, o que ajudou a ATI a manter seu primeiro lugar no mercado gráfico.
A Nvidia também não estava tão mal. A empresa anunciou um lucro líquido de 98,5 milhões no ano fiscal e uma receita recorde de 735,3 milhões, causada principalmente por sua estratégia de segmentação de mercado: uma versão enfraquecida do cartão MX foi lançada em junho e um modelo Ultra com frequência aumentada em agosto. O último removeu Radeon do trono do cartão mais produtivo, mas custou US $ 499. O modelo Pro apareceu em dezembro.
Além de liberar versões da placa GeForce 2 para todos os segmentos de preço, desde o orçamento MX ao profissional Quadro 2, a Nvidia também lançou seu primeiro chip móvel GeForce2 Go.
Enquanto o 3dfx estava em agonia em novembro, a Imagination Tech (anteriormente VideoLogic) e a ST Micro tentaram entrar no mercado de orçamento com grandes volumes de vendas lançando o PowerVR série 3 KYRO. A placa, vendida na faixa de US $ 80 a US $ 110 (dependendo do tamanho do buffer do quadro), era uma pechincha para jogar em resoluções de 1024x768 e inferiores. Se o GeForce2 MX fosse lançado mais tarde, ele se tornaria mais popular ou não teria um preço tão baixo agressivamente.
O KYRO II apareceu em abril de 2001, em comparação com o original, as frequências do relógio aumentaram e o próprio cartão foi produzido usando a tecnologia de processo menor ST Micro de 180 nanômetros. Mas a placa novamente enfrentou forte concorrência da GeForce 2 MX. A Nvidia mudou o nome do cartão para o MX200 e caiu 40% de seu preço, ao mesmo tempo em que lançou o MX400 com uma frequência aumentada e o mesmo preço que o Kyro II.
Quando o PowerVR falhou em manter sua liderança na renderização baseada em blocos e a ST Micro fechou seus negócios gráficos no início de 2002, a Imagination Technologies mudou de gráficos de desktop para móveis e usou sua experiência para desenvolver sistemas de gráficos de chips. A empresa licenciou a Série 5 / 5XT / 6 para uso em processadores ARM nos mercados de dispositivos ultraportáteis e smartphones.
No início de 2001, um monopólio de duas empresas havia se desenvolvido no mercado de gráficos discretos para PCs, além do qual a Intel forneceu uma ampla gama de chipsets com gráficos integrados.
Enquanto isso, Matrox e S3 / VIA se apegavam aos remanescentes de seus mercados tradicionais.
Aproveitando o momento criado pela série GeForce 2, a Nvidia anunciou o lançamento da GeForce 3 em 27 de fevereiro de 2001, com preço entre US $ 339 e US $ 449. Este mapa se tornou o novo rei da montanha, mas com força total foi revelado apenas na resolução máxima de 1600x1200 e com anti-aliasing em tela cheia.
Placa-mãe Nvidia GeForce 3Os primeiros drivers foram de buggy, especialmente em alguns jogos OpenGL. O que a nova GeForce realmente trouxe foi o suporte ao DirectX 8, AA de múltiplas amostras, AA de quincunx (essencialmente pós-processamento de desfoque 2xMSAA +), filtragem anisotrópica 8x, capacidade incomparável de lidar com a filtragem trilinear 8xAF +, bem como um shader de vértice programável que permitia mais controla com precisão o movimento de malhas poligonais e fornece uma sequência suave de quadros de animação.
Também no mapa apareceu o suporte para LMA (Lightspeed Memory Architecture) - na verdade, era uma versão do HyperZ desenvolvida pela Nvidia. Ela cortou os pixels que apareceram na tela atrás dos outros (seleção de oclusão em Z) e também compactou e descomprimiu dados para otimizar o uso do barramento (compactação em Z).
Finalmente, como parte do Crossbar Memory Controller, a Nvidia implementou algoritmos de balanceamento de carga. O Controlador de memória de barra cruzada consistia em quatro subcontroladores de memória independentes, que possibilitavam enviar solicitações de memória recebidas com mais eficiência (naquele momento, um controlador era o padrão do setor).
Nvidia NV2A dentro do Microsoft XboxMais tarde, o NV2A foi adicionado à linha de produtos Nvidia - uma versão do GeForce 3 com os atributos do GeForce4, usado no console de jogos do Microsoft Xbox.
Nesse momento, a Nvidia controlava 31% do mercado gráfico, Intel - 26% e ATI - 17%.
Enquanto a Nvidia complementou a linha GF3 com o Ti 200 enfraquecido e o Ti 500 com overclock, a ATI estava com pressa para liberar o Radeon 8500. A placa foi construída com base na GPU R200 usando a tecnologia de processo TSMC de 150 nanômetros (o mesmo foi usado na placa NV20 GeForce 3). O chip foi anunciado em agosto e eles estavam ansiosos por isso, porque o software de identificação John Carmack disse que o
novo Doom 3 funcionará "duas vezes mais rápido" nele do que na GeForce 3.
O anúncio oficial da ATI sobre o desenvolvimento do R8500
foi recebido com o mesmo entusiasmo . Mas a realidade acabou sendo cruel - após o lançamento da placa em outubro, descobriu-se que nos jogos ela se manifesta no nível do GF3 Ti 200 enfraquecido. Os drivers brutos e a ausência de suavização da Smoothvision influenciaram suavemente as classificações do R8500 nas primeiras críticas. Na temporada de férias, uma segunda série de análises apareceu, mostrando que os motoristas melhoraram aumentando o desempenho do R8500 e colocando-o entre o Ti 200 e o GF3 padrão.
Comparação de especificações
No entanto, preços muito competitivos e uma gama mais ampla de funções (qualidade de imagem 2D, reprodução de vídeo, desempenho de suavização) tornaram o cartão um concorrente digno do GF3 e Ti 500.
As vendas anuais da ATI caíram para 1,04 bilhão e registraram uma perda total de 54,2 milhões. A empresa começou a vender licenças de parceiros para a criação e venda de placas gráficas, redirecionando seus recursos para o design e fabricação de chips.
Placa ATI XilleonA ATI também estreou com o Set-Top-Wonder Xilleon, uma plataforma de desenvolvimento baseada no Soille Xilleon 220, que incluía um processador completo, gráficos, E / S, vídeo e áudio para decodificadores integrados ao design de TVs digitais.
Para complementar o Xilleon, a ATI adquiriu em junho de 2002 por 20 milhões de comunicações da NxtWave. Esta empresa é especializada no processamento de sinais digitais e aplicativos para decodificadores e redes digitais terrestres.
Seguindo seu ciclo de lançamento de produtos, a Nvidia lançou a GeForce em fevereiro de 2002. A linha original consistia em três modelos MX, três modelos móveis baseados em MX e dois modelos produtivos de titânio (Ti 4400 e Ti 4600). Todos eles foram construídos com a tecnologia de processo TSMC 150nm. De fato, a GeForce 4 estava pronta para lançamento dois meses antes, mas foi adiada para não interferir nas vendas da GeForce 3 durante a temporada de férias.
A série MX foi projetada para o segmento de orçamento, mas não era atraente, porque se baseava na arquitetura desatualizada da GeForce 2. Eles adicionaram decodificação MPEG2, mas os cartões, como a linha MX GF2 anterior, retornaram para oferecer suporte apenas ao DirectX 7.0 / 7.1. A faixa de preço de US $ 99 a US $ 179 refletia a gama limitada de opções.
Por outro lado, os modelos Titanium tiveram excelente desempenho e, em alguns casos, ultrapassaram a GeForce3 Ti 500 em mais de 50 %.Em um dia, a Ti 4600 se tornou a campeã em desempenho, ultrapassando facilmente a Radeon 8500 e a Ti 4200 custando US $ 199, fornecendo a melhor relação de preço e qualidade.
No entanto, o
Radeon 9700 Pro apareceu , deixando instantaneamente para trás todos os outros cartões.
ATI Radeon 9700 Pro (FIC A97P)A GPU ATI R300, desenvolvida por uma equipe que anteriormente era o núcleo do ArtX, fez muito barulho e saiu muito em breve. Ele introduziu o suporte ao DirectX 9.0 e se tornou a primeira arquitetura a oferecer suporte ao shader model 2.0, vertex shader 2.0 e pixel shader 2.0. Outras conquistas notáveis do chip: tornou-se a segunda série de GPU com suporte a AGP 8x - a primeira foi a linha SiS Xabre 80/200/400 e a primeira GPU com um layout de flip-chip.
Sobre o layout de flip-chip na GPU: nas gerações anteriores de chips gráficos e outros circuitos integrados, o método de fiação foi usado. Com esta técnica, o chip está localizado na placa com blocos lógicos localizados sob as camadas de metal, cujas almofadas de contato são conectadas por condutores finos que conduzem ao longo das bordas do chip aos terminais ou contatos da esfera na parte traseira. O flip - chip permite que você se livre dos condutores graças aos contatos (geralmente soldados em uma variedade de pinos de esferas) localizados diretamente na parte superior do chip, que é então invertida (flip) para que os pontos de solda entrem em contato direto com o substrato ou placa. Em seguida, o chip é submetido a aquecimento localizado (fusão) para derreter a solda, que forma uma conexão com os contatos inferiores da placa.
A ATI expandiu a programação em outubro com 9.700 não profissionais, ao preço de US $ 299 para aqueles que não estavam disponíveis com o modelo mais poderoso por US $ 399. Enquanto isso, os 9500 Pro (US $ 199) e 9500 (US $ 179) despencaram nos principais segmentos do mercado, e o FireGL Z1 / X1 preencheu o nicho de gráficos profissionais com uma faixa de preço de US $ 550-950. Também em dezembro, o All-In-Wonder 9700 Pro (US $ 449) apareceu.
É provável que as vendas da ATI aumentem devido ao fato de que muitos cartões podem ser modificados para versões mais caras. Por exemplo, você pode usar uma placa de referência para transformar uma placa 9500 em uma placa 9700 e uma placa 9800 Pro em uma XT. Um patch para o driver foi escrito para verificar se seria percebido pela modificação, que consistia em soldar um resistor ou ajustar o chip de controle de tensão da GPU e a memória com um lápis. Entre as modificações de hardware, também houve a conversão de vários modelos do 9800 para o FireGL X2, e o driver Omega corrigido pode transformar o 9800 SE 256MB por US $ 250 no 9800 Pro 256MB por US $ 499.
Além de placas discretas, a ATI lançou chipsets e gráficos integrados para desktop. Estes eram o A3 / IGP 320, projetado para trabalhar com processadores AMD, RS200 / IGP 330 e 340 para chips Intel, bem como a série U1 / IGP 320M móvel para plataformas AMD e RS200M para Pentium 4-M. Todos eles foram complementados pelas pontes sul da ATI, a saber IXP200 / 250.
Entre os lançamentos GeForce4 e R300, a SiS anunciou o lançamento da linha Xabre. As placas eram consistentemente mais lentas que os produtos Nvidia e ATI nas mesmas faixas de preço e eram enfraquecidas pela ausência de tubulações de shader de vértice. Por esse motivo, os cartões eram altamente dependentes de drivers e desenvolvedores de jogos que precisavam aproveitar ao máximo a emulação de software; portanto, o SiS mal se apegou ao mercado discreto de gráficos 3D para desktop.
Também na linha Xabre foi implementada a “Texturização Turbo”: uma tecnologia devido à qual as taxas de quadros foram aumentadas significativamente, reduzindo a qualidade das texturas e a ausência de filtragem anisotrópica. Tudo isso não aumentou o amor dos revisores por esses cartões.
A linha Xabre foi a última lançada sob a bandeira SiS. Desde alguns meses depois, em junho, a empresa separou seu departamento de gráficos (chamado XGI) e se fundiu com a Trident Graphics.
A primeira placa da série Nvidia FX apareceu em 27 de janeiro de 2003; era o infame FX 5800 apelidado de “aspirador de pó” (“Dustbuster”) e o ligeiramente mais rápido (leia-se: menos lento) FX 5800 Ultra. Comparado ao atual campeão, o ATI Radeon 9700 Pro (e a versão não-Pro), o FX era muito mais alto, fornecendo desempenho mediano de filtragem anisotrópica (AF) e anti-aliasing (AA), e geralmente era muito mais lento. A ATI estava tão à frente que o melhor cartão Radeon 9700, lançado cinco meses antes, ultrapassou facilmente o Ultra e, ao mesmo tempo, era 100 dólares mais barato (299 contra 399 dólares).
Supunha-se que o chip NV30 fosse lançado em agosto, mais ou menos ao mesmo tempo que o Radeon 9700, mas os problemas de carga e a alta taxa de rejeição na tecnologia de processo TSMC Low-K de 130 nanômetros forçaram a Nvidia a desacelerar. Alguém alegou que a empresa carecia de recursos de engenharia porque muitos desenvolvedores estavam envolvidos na criação do chip NV2A para o console Xbox,
SoundStorm APU , além de chipsets para placas-mãe.
Em um esforço para avançar, a Nvidia embarcou em um projeto para fabricar vários chips da série FX usando a tecnologia de processo low-K de vidro fluorosilicato de 130 nanômetros (FSG) mais padrão.
Em março, a ATI atualizou sua linha de placas, começando com o 9800 Pro, que possuía a GPU R350, que era essencialmente a R300, com algumas melhorias nas instruções de cache e compressão do Hyper-Z.
Em abril, foi seguido pelo RV350 e RV280.
O primeiro usado no Radeon 9600 foi construído com a mesma tecnologia de processo TSMC low-K de 130 nanômetros usada pela Nvidia, o RV280 instalado no Radeon 9200 era o RV250 quase inalterado do Radeon 9000 com suporte para AGP 8x.GPUs do Xbox 360 (ATI C1 / Xenos)No mesmo mês, a ATI e a Nintendo assinaram um acordo de tecnologia que levaria à criação da GPU de Hollywood para o console Nintendo Wii. Em agosto, a ATI fez um segundo acordo de console quando a Microsoft assinou um contrato com ela para desenvolver uma GPU para o Xbox 360 .Apenas três meses e meio após o lançamento inglório do FX 5800, a Nvidia fez outra tentativa com o NV35 (FX 5900 e FX 5900 Ultra). O novo driver Detonator FX melhorou significativamente AA e AF, quase igualando a qualidade dos produtos ATI. No entanto, o 5900 conseguiu alcançar o que o 5800 não conseguiu e substituiu o ATI Radeon 9800 Pro do trono da placa mais rápida, no entanto, ao preço de US $ 499, poucos podiam pagar.Como esperado, a ATI recuperou seus louros em setembro com o lançamento do 9800 XT. O excelente suporte ao driver, principalmente em alguns jogos DX9, também fez do XT o melhor em comparação aos produtos da Nvidia, fornecendo liderança da ATI até o final do ano. O cartão 9700 Pro permaneceu uma notável placa convencional, enquanto o FX 5700 Ultra, ao preço de US $ 199, venceu o segmento "abaixo de 200".Após uma perda de 47,5 milhões em 2002, a ATI apareceu, obtendo um lucro de 35,2 milhões em 2003. Uma parte substancial disso foram os altos preços das placas dominantes 9800 e 9600. Enquanto isso, graças à FX 5200, a Nvidia detinha 75% do mercado de cartões de orçamento com suporte ao DirectX 9.Trailer de efeitos do DirectX 9.0 de origem mostrado na apresentação da Radeon 9800 XT e 9600 XT Orecém-criado XGI lançou descendentes da série Xabre em setembro-novembro. A linha de cartões, agora chamada Volari, variava entre a V3 por US $ 49 e a dupla GPU Duo V8 Ultra. De fato, o V3 estava renomeando o Trident Blade XP4 com suporte ao DX 8.1, e o restante da série (V5 e V8) foi desenvolvido com base no SiS Xabre anterior e com suporte ao DX9.0.Na maioria dos casos, todos os modelos tinham baixa velocidade, com exceção do V3 de nível inferior, que fornecia desempenho no nível das GeForce FX 5200 Ultra e Radeon 9200. O Duo V8 Ultra custa cerca de 20% a mais que o Radeon 9800 Pro 128MB, mas oferece desempenho no nível de 9600XT ou até um pouco mais baixo.A linha XGI Volari continuou em 2005 com a placa 8300, que era aproximadamente igual à Radeon X300SE / GeForce 6200 a um preço de US $ 49, além das placas Z9 / Z11 e XP10. Em outubro de 2010, a empresa foi novamente absorvida pelo SiS.Outra empresa que voltou ao mercado de gráficos para desktop foi a S3. Depois que o departamento de gráficos foi vendido à VIA por 208 milhões mais uma dívida de 60 milhões, a empresa reestruturada se concentrou principalmente no design de chipsets.Em janeiro, foi anunciado o desenvolvimento de cartões de mesa DeltaChrome, mas, de acordo com o hábito de longa data do S3, os primeiros modelos S4 e S8 começaram a aparecer nos canais de varejo apenas em dezembro. Essas novas placas tinham a maioria dos recursos necessários para 2003: suporte a DirectX 9, 16x AF, suporte a HD 1080p e suporte a modo retrato.Infelizmente, os compradores agora viam o mercado de gráficos para desktop como a arena de dois concorrentes, e o S3 não era um deles. Embora a S3 tenha procurado permanecer competitiva, a ATI e a Nvidia se esforçaram para melhorar constantemente os níveis de desempenho e qualidade de imagem.O DeltaChrome foi seguido em 2005 pelo GammaChrome.Em 2005, a Nvidia e a ATI continuaram a lançar produtos por sua vez. Em março, a Nvidia lançou seu primeiro cartão GDDR3 (era o FX 5700 Ultra), seguido pelas séries GeForce 6 e 6800 high-end. Inicialmente, a programação consistia em 6800 (US $ 299), GT (US $ 399), Ultra (US $ 499) e sua versão com overclock chamada Ultra Extreme (US $ 549), que competia com o ATI X800 XT Platinum Edition. Este último foi vendido pelos parceiros da ATI que faziam as placas.Em 14 de março de 2005, o 6800 Ultra 512MB foi adicionado à linha, vendido a um preço incrível de US $ 899; A BFG fez sua versão com overclock por US $ 999. Lançada em setembro, a série 6600 foi direcionada ao segmento de preços médios.As funções da série 6000 incluíam suporte ao DirectX 9.0c, shader model 3.0 (embora a placa não pudesse usá-lo totalmente), o mecanismo de decodificação e reprodução PureVideo e suporte SLI - tecnologia SLI - tecnologia multi-GPU adquirida da 3dfx.Retornando a função antiga: SLINa tecnologia 3dfx SLI, cada dispositivo era responsável por renderizar linhas raster alternadas; A Nvidia abordou a tarefa de maneira um pouco diferente. A empresa implementou uma renderização de quadro dividido (SFR), na qual cada GPU processou a parte superior ou inferior do quadro, AFR (Alternate Frame Rendering), na qual a GPU processou quadros por sua vez e, em alguns casos, o driver simplesmente desligou SLI se o jogo não suportar esse recurso.Embora a tecnologia tenha sido anunciada em junho, a criação de sistemas com várias GPUs exigia uma placa-mãe com chipset nForce4, cujas grandes entregas no varejo começaram apenas no final de novembro. Adicione combustível ao fogo e o fato de que até o próximo ano a liberação dos motoristas era muito irregular.As revisões da época geralmente falavam sobre o desempenho atual; foi dito que duas placas de nível inferior (por exemplo, 6600 GT SLI, que poderiam ser compradas por US $ 398) costumavam ser uma placa poderosa em baixa resolução e qualidade de imagem. No entanto, com resoluções máximas e anti-aliasing ativados, os sistemas de cartão único tinham uma vantagem. O desempenho do SLI e do ATI CrossFire então, como às vezes agora, era instável: essas tecnologias poderiam funcionar perfeitamente ou não funcionar.Os parceiros do conselho da Nvidia viram imediatamente as oportunidades de marketing da tecnologia recém-inventada: a Gigabyte lançou o dual 6600 GT SLI ( 3D1 ), seguido pelo dual 6600 ( 3D1-XL ) e 6800 GT ( 3D1-68GT) Essas placas exigiam não apenas o chipset nF4, mas também a placa-mãe da marca Gigabyte.Quanto às placas GPU topo de linha, o 6800 Ultra e o X800 XT / XT PE eram aproximadamente os mesmos em termos de preço e desempenho. Mas eles também tiveram problemas. O último apareceu em maio e sofreu problemas de fornecimento durante todo o ciclo de produção, enquanto o carro-chefe 6800 Ultra Nvidia estava extremamente atrasado e lançado em agosto; em algumas regiões, ela também teve problemas com suprimentos, porque nem todos os parceiros da empresa venderam o cartão.O 6800 GT geralmente ultrapassa o X800 Pro a um preço de US $ 399, enquanto o 6600 GT preencheu a diferença de preço de US $ 199.A competição ativa com a Nvidia este ano não impediu as receitas da ATI: o lucro do ano atingiu 204,8 milhões, com vendas de aproximadamente 2 bilhões.Há uma coisa estranha no 6600 GT, que recebeu boa recepção: ele foi originalmente lançado como uma placa para PCI Express, enquanto o PCI-E era suportado apenas em placas-mãe Intel projetadas para processadores Pentium 4. Esses chips geralmente ficavam atrás dos jogos em produtos AMD, que, é claro, usou o AGP do barramento de dados.A série 7000 da Nvidia começou a sair das linhas de montagem muito antes do preenchimento da linha da série 6000. O 7800 GTX apareceu cinco meses antes do 6800 GS com deficiência ver a luz do dia. Os primeiros produtos da série 7800 foram baseados na GPU G70, criada usando a tecnologia de processo TSMC de 110 nanômetros, mas foi rapidamente substituída pela série 7900 baseada em G71, fabricada com a tecnologia de processo de 90 nanômetros da TSMC.Embora os nomes das placas NV tenham mudado para G, a última série foi arquitetonicamente associada à série NV40 de placas GeForce 6000. E embora não fosse muito maior que a NV40-45 (334 mm²), a G70 abrigava oito milhões a mais de transistores (no total foi de 302 milhões), o que nos permitiu adicionar um terço a mais de vértices e 50% a mais de pixel. Na maioria dos casos, o G70 foi substituído na produção após nove meses, mas o GS e o GTX 512MB foram substituídos após 3 e 4 meses.No nicho do orçamento, o 7100 GS continuou a usar o TurboCache (a capacidade da placa de usar parte da memória do sistema), que apareceu na geração anterior - GeForce 6200 TC.Nvidia GeForce 7800 GTXEm outra categoria de preços, o 7800 GTX 256MB foi lançado no dia 22 de junho pelo preço recomendado de US $ 599, embora o preço real tenha sido, em muitos casos, mais alto. A ATI recuperou sua liderança no nicho de GPU única com o lançamento do X1800 XT; no entanto, trinta e cinco dias depois, a Nvidia respondeu com uma versão de 512 megabytes do 7800 GTX e recuperou seu título.Dois meses depois, a ATI lançou o X1900 XTX, competindo com os carros-chefe da Nvidia. Essa corrida pelo poder levou as duas cartas a serem vendidas por US $ 650. Uma das conseqüências da mudança de placas para um buffer de quadro de 512 megabytes foi que agora, graças ao DVI de link duplo, era possível reproduzir em resolução de 2560x1600 com cores de 32 bits.O design original do ATI CrossFire, que exigia o uso de um cabo externo em forma de YEm maio de 2005, a ATI anunciou o desenvolvimento de sua tecnologia para várias placas Crossfire, que ficaram disponíveis após o lançamento em setembro do chipset Xpress 200 Crossfire Edition e da placa mestre X850 XT Crossfire. Devido ao modo único do TMDS, inicialmente a taxa de resolução e atualização foi limitada a 1600x1200 e 60 Hz, mas logo foi substituída pelo TMDS pelo modo duplo, fornecendo uma resolução de 2560x1600.
Diferentemente da solução Nvidia com duas placas se comunicando através de um conector de ponte, a ATI implementou uma placa mestre com um receptor TMDS que recebia dados de uma placa escrava por meio de um dispositivo externo e do chip de composição Xilinx.
Como o SLI da Nvidia, o CrossFire fornecia renderização de quadro alternativo (AFR) e renderização de quadro parcial (SFR), mas também possuía uma técnica de renderização chamada SuperTiling. Aumentou o desempenho em alguns aplicativos, mas não funcionou com o OpenGL e não suportou o processamento de geometria acelerada. Como o SLI, o Crossfire enfrentou problemas de driver.
A ATI originalmente pretendia lançar placas baseadas no R520 (as primeiras placas da empresa com o Shader Model 3.0) em junho-julho, mas um bug encontrado no final da biblioteca de células causou um atraso de 4 meses.
O primeiro foi o X1800 XL / XT com núcleo R520, os cartões de orçamento X1300 com o RV515, que basicamente possuíam um quarto dos pipelines gráficos R520 e o X1600 Pro / XT baseado no RV530, que era semelhante ao RV515, mas tinha uma taxa de transferência de dados aumentada. sombreadores e tubulações de vértice em blocos de textura e tubulações de operações de varredura.
Devido ao atraso inicial no lançamento do R520, esta GPU e seus derivados apenas três meses e meio depois foram substituídos pela série X1900 baseada no R580, que usava a nova tecnologia de processo TSMC de 80 nanômetros. O RV570 tinha metade dos recursos dos pipelines gráficos (placas X1650 GT / XT e X1950 GT / Pro), e o RV530 truncado transformou-se no RV535, usado no X1650 Pro e no X1300 XT.
A receita anual da ATI subiu para um recorde de 2,2 bilhões, o mais alto da história da empresa; Isso foi facilitado pelo fornecimento de GPUs Xenos para o Xbox 360. No entanto, o lucro caiu para 16,9 milhões.
Nessa época, o lançamento de qualquer placa de vídeo baseada em GPUs que não fosse da Nvidia ou da ATI era percebido com curiosidade, se não com entusiasmo. Nessa situação, a linha de gráficos S3 reprojetada lançada em novembro acabou sendo.
O Chrome S25 e o S27, devido às suas altas frequências, prometiam um bom desempenho nos jogos, mas na verdade eram medíocres. Devido ao preço de US $ 99 (S25) e US $ 115 (S27), os cartões tiveram que competir com a Nvidia 6600 / 6600GT e ATI X1300Pro / X1600Pro, mas os produtos S3 não puderam competir com eles em nenhum dos parâmetros (exceto no consumo de energia). Essa ligeira vantagem evaporou quando a ATI / AMD e a Nvidia se concentraram no segmento inicial do mercado HTPC, matando essencialmente as placas S3 subsequentes das séries Chrome 400 e 500.
Uma dificuldade adicional para S3 foi que o custo de produção de cartões levou a lucros extremamente pequenos. A empresa precisava de vendas de mercado em larga escala, de propriedade de dois grandes fornecedores. Em julho de 2012, a HTC adquiriu o S3 por US $ 300 milhões; esse movimento foi inicialmente visto como um meio de influência em disputas legais entre HTC e S3 com a Apple.
Em 2006, a Nvidia e a ATI ainda dominavam as críticas da imprensa.
A ATI adquiriu a Macrosynergy, um centro de P&D com sede em Xangai, sediado na Califórnia e originalmente parte do grupo XGI. Em maio, a empresa comprou por 44 milhões de BitBoys.
Enquanto isso, em março, a Nvidia lançou seu primeiro produto de placa única com GPU dupla, que anteriormente lançava ATI, 3dfx e XGI. A placa 7900 GX2 era um sanduíche de duas placas nas quais um par de frequências reduzidas 7900 GTX estava instalado. Mas a Asustek não esperou o sistema Nvidia em duas GPUs e lançou sua própria versão na forma do
Extreme N7800GT Dual (US $ 900, fabricados 2.000 dispositivos), nos quais duas GPUs 7800 GT estavam conectadas.
Graças a este cartão, a Asus se interessou em lançar uma edição limitada de placas GPU duplas; esse movimento provavelmente endureceu a atitude da Nvidia em relação a seus parceiros de produção, porque no momento do lançamento, os produtos da Asustek atraíram toda a atenção.
No mercado convencional, com escalas de vendas maiores, o 7600 GT e o GS forneceram sólido desempenho e durabilidade, enquanto o ATI X1950 XTX e o Crossfire estavam no topo das classificações de mercado de ponta para placas GPU únicas. O X1900 XT e o GeForce 7900 GT tiveram aproximadamente o mesmo desempenho e foram direcionados para o topo do mercado convencional.
David Orton da ATI e Hector Ruiz da AMD anunciam formalmente fusão históricaApós vinte e um anos de existência independente, em 25 de outubro de 2006, a ATI foi adquirida pela AMD no total de US $ 5,4 bilhões - 1,7 bilhão recebido da AMD, 2,5 bilhões emprestados de instituições de crédito, 57 milhões de ações e 11 milhões de opções / Ações limitadas da AMD avaliadas em 1,2 bilhão. No momento da compra, a ATI recebeu aproximadamente 60-70% da receita de chipsets / gráficos integrados, graças a um acordo de parceria para a produção de placas-mãe para plataformas Intel.
Depois que a maior parte do mercado de chipsets gráficos integrados da Intel mudou para a Nvidia, a participação de mercado da ATI caiu significativamente. A lógica da compra foi que a AMD obteve acesso rápido às tecnologias de GPU, em vez de gastar 5,4 bilhões no desenvolvimento de suas próprias tecnologias e no licenciamento de terceiros. Naquela época, a AMD buscava uma rápida implementação de
Torrenza e seus projetos Fusion relacionados.
Duas semanas após a compra da ATI, a Nvidia iniciou a era da arquitetura gráfica de shader unificado para PCs. A arquitetura unificada já apareceu nos consoles graças à ATI e sua GPU Xenos instalada no Xbox 360.
Este post é a terceira parte de uma série de quatro artigos. No quarto e último, falaremos sobre o desenvolvimento de produtos Radeon sob a asa da AMD, a competição contínua entre GeForce e Radeon e a transição para o processamento de streaming.