Vorwärts in die Vergangenheit. Geforce FX Der Beginn des Krieges

Seit seiner Gründung konnte Microsoft zwei der wichtigsten Dinge im Leben tun: etwas Fremdes rechtzeitig analysieren und selbst etwas Geld verdienen. Vor allem dank Microsoft als Hauptgenerator der maximalistischsten Ideen hat (und entwickelt) die gesamte IT-Branche Entwicklungspfade entwickelt, die in erster Linie für Microsoft selbst von Vorteil sind. Das Ergebnis der Umsetzung vieler solcher Ideen war nicht nur der Bankrott vieler Giganten der IT-Branche, sondern auch eine rasche universelle Vereinigung. Alle Komponenten im PC, von Hardware bis Software, wurden immer universeller und ähnlicher und verloren die Fähigkeit, sich günstig zu unterscheiden. Und so rollte die DirectX9-Spezifikation im Jahr 2002, als Microsoft der 3D-Industrie erneut seine spielerischen Monopol-Hände in die Hand gab, in einer gewaltigen Welle auf die Hersteller von 3D-Chips ...

Und wie wir uns alle gut erinnern) war das nächste Jahr 2003 die Ankunft von Filmgrafiken auf dem PC. Nun ja, so war es: WinXP, DVD-Spiele, für die DirectX9 installiert werden muss, und ... dieselben Grafikkarten mit einer Art Shader. Unter bestimmten Bedingungen können wir sagen, dass die DX9-Spezifikation Unterschiede in den Ergebnissen der Wiedergabe des gleichen Bildes auf Karten verschiedener Hersteller beseitigen sollte . Selbst diese Spezifikation konnte NVIDIA jedoch nicht endgültig eindämmen. Und zu Recht, warum sollte NVIDIA sonst in etwas Vielversprechendes investieren?

Und hier kommen wir zu dem, was mich noch einmal dazu veranlasst hat, eine Leiche mit einem Stock zu kleben und trotzdem diese Bewertung zu schreiben.

Gefahr: In vielen GROSSEN Bildern. Nur das erste ist ZWEI Megabyte.

Vielleicht wussten Sie auch nicht:

...
David Kirk fügt eine

kleine Hintergrundgeschichte hinzu, wie diese Technologie in GeForce FX eingeführt wurde: Als wir 3dfx erwarben, war NV30 im Gange, und bei 3dfx war ein Projekt [mit dem Codenamen Fusion ] im Gange. Die Teams wurden zusammengelegt und die Projekte wurden zusammengeführt. Wir ließen jedes Team wechseln, um die Architektur des anderen zu verstehen, zu präsentieren und sie dann zu vertreten. Wir haben dann die besten Teile aus beiden ausgewählt.

...
www.extremetech.com/computing/52560-inside-the-geforcefx-architecture/6

Zum Zeitpunkt dieser Erklärung war die GeForce FX bereits eine bemerkenswerte langfristige Konstruktion und kam sehr spät auf den Markt. Man kann sagen, dass NVIDIA es einmal geschafft hat, diesen Tag zu vermeiden

Wenn alle Songs still sind


Aus dem Augenwinkel




In der Tat ... Das erste, was uns beim Anblick des legendären Dastbusters (GeForce FX 5800) an den Rand unserer Augen raste, waren die Abmessungen.

Bild

Hier ist ein Monster mit zwei Slots neben der Radeon 9800:

Bild

Um den Grund für eine solch außergewöhnliche Lösung zu verstehen, müssen wir genauer hinschauen ...

Näher am Herzen



Bild

Die GeForce FX war zwar nicht die erste superskalare GPU der Welt, aber zweifellos die komplexeste superskalare GPU ihrer Zeit (und blieb dies lange Zeit). So komplex, dass genaue Informationen über die scheinbar einfachsten Komponenten der internen Architektur noch fehlen. Infolgedessen wurde sein Markteintritt verschoben ... verschoben ... Und schließlich kam er mit lang erwarteten Augen.

NV30: Die Morgendämmerung von CineFX



Um genau zu sein, wurde dieser komplexeste architektonische Teil des NV30 als CineFX (1.0) Engine bezeichnet . NVIDIA-Vermarkter entschieden dann, dass es attraktiver klingen würde als die nfiniteFX III-Engine . Umstritten, aber wahr.

CineFX (der nicht verstanden hat: Cine matic Ef fe cts ) ist größtenteils das Verdienst von 3dfx-Ingenieuren (erinnern Sie sich an den sensationellen T-Buffer). Es enthält alles, was Sie brauchen, um filmische Spezialeffekte in Ihrem Zuhause zu rendern.

Sie fragen sich vielleicht: Was braucht ein Anfängerkino? Alles ist einfach. Der Beginn des Kinos benötigt nur das Notwendigste: 128-Bit-Genauigkeit der Datendarstellung für die Arbeit mit Gleitkomma undVoll programmierbare Grafik-Pipeline mit Unterstützung für Shader Model 2.0, mit der Sie bis zu 16 Texturen erstellen können. Bist du fasziniert? Ja, das ist hier:

  • 64/128 bit depth rendering — the Dawn of Cinematic Computing
    . , . , , 32- … , , … . , , ( ) «» , Floating Point Color Accuracy.

    , . , , , ShaderMark 2.1, , , : gpu. , , , ! gif, , , « »:



    , , . HDR- . HDR- — .

    ,


    , Tone mapping. : (), , . ( ), : , .

    , : , GeForce FX FP16, ( , ) .

  • Shader Model 2.0+
    -, «», . : … ?

    , , . . «» . , . , « — » , :

    , , :

    image

    , , , , : … , .

    ?
    3D- 3D- ( — " "). , «pixel-blaster'», , — . (-) , .

    , Unreal Quake II, API (API — «» ).

    , , Quake II API OpenGL 3D- . , . , :



    John Carmack : API Software, (CPU) . , . ( !), ( ). :



    ? . , , -. , 3D- (, , ).

    ?
    ( )! , , bump-mapping ( ) , . ! , , .

    DX6- Voodoo, :

    , 20 000 :



    Voodoo :



    , , Voodoo :



    ? , , , . (FPS). , . , 1352:



    , — :



    :



    , «» ? .. FPS , . , .

    , ? bump-mapping -. , . , - bump-mapping CPU ( ). , …

    , 3D- .

    ?
    , , , , -. , - , CPU. , , . , .

    — ?
    . Shader Model x.x (, SM2.0), — , . , SM, . .

    , -, — , , , , . , ( ) . , - «».

    , . NV30 Shader Model 2.0 ( SM2.0) — , , NV30 Pixel & Vertex Shaders 2.0. NVIDIA "" - DX9 .

    … , ? :)

    SM2.0 ( ) . , . SM1.x ARB assembly DirectX ASM, , , . SM2.0 C- , :


    ? , . NV30.


Die meisten friedlichen Diskussionen über die Leistung des einen oder anderen Geräts fallen meistens irgendwie in einen Holivar zum Thema „Was ist wichtiger: Eisen oder Software? »Eigentlich, egal wie viele Menschen nicht von der Realität weg wollen, sondern Hardware ohne Software - es ist Hardware :)

Zum Zeitpunkt der Veröffentlichung der GeForce FX 5800 ( NV30 ) war ein Konkurrent angesichts der Radeon 9700 Pro ( ATI R300 ) mehr als ein Viertel lang amüsant auf dem Hof . Es war Februar 2003. Heute ist eine solche Verzögerung des Todes ähnlich, und genau deshalb können wir 2003 sicher das Jahr von NVIDIA nennen.

Es war wie folgt : Kommt NV30an die Arbeitsvermittlung, und es gibt keine einzige mit Kenntnissen von DirectX9 in der Liste der offenen Stellen. Es stellt sich heraus, dass der NV30 sozusagen nirgendwo zu spät kam ... Tatsächlich erschienen die ersten bekannten leistungsstarken Spiele für DX9 (wie DooM3, HL2, NFS Underground 2 ) erst im Jahr 2004. Der lang erwartete Stalker schon 2007.

Mir geht es nur um die Tatsache, dass es 2003 einfach nichts gab, was die Leistung der Karten für Rezensenten vergleichen könnte. Ich bin ehrlich: Beim Schreiben dieses Artikels habe ich das Bild lange analysiert, aber ich habe nie einen einzigen NV30- Test mit Live-DX9-Tests getroffen. Grundsätzlich wurden die Fähigkeiten von DX9 in 3DMark getestet ...

Und eine Coolstory ist damit verbunden
, GeForce 4:

image

:


NVIDIA debuted a new campaign to motivate developers to optimize their titles for NVIDIA hardware at the Game Developers Conference (GDC) in 2002. In exchange for prominently displaying the NVIDIA logo on the outside of the game packaging, NVIDIA offered free access to a state-of-the-art test lab in Eastern Europe, that tested against 500 different PC configurations for compatibility. Developers also had extensive access to NVIDIA engineers, who helped produce code optimized for NVIDIA products


en.wikipedia.org/wiki/GeForce_FX_series


, , … , NV30 3DMark 2003 ( ), :



, , , . , , .

… ATI . , , , :

ATI Quake III optimizations




In diesen Jahren konnte man daher oft Folgendes hören:


NV30's apparent advantages in pixel processing power and precision might make it better suited for a render farm, which is great for Quantum3D, but these abilities may mean next to nothing to gamers. Developers tend to target their games for entire generations of hardware, and it's hard to imagine many next-gen games working well on the NV30 but failing on R300 for want of more operations per pass or 128-bit pixel shaders.

techreport.com/review/3930/radeon-9700-and-nv30-technology-explored/6

Und obwohl derselbe John Carmack mit dieser Aussage leicht argumentieren könnte, ist dies auf jeden Fall eine klare Bestätigung, dass Eisen nichts ohne Software ist. Darüber hinaus stellte sich heraus, dass die Shader-Leistung des NV30 in katastrophaler Weise in erster Linie davon abhängt, wie der Shader-Code geschrieben wurde (sogar eine Folge von Anweisungen ist wichtig). Zu diesem Zeitpunkt begann NVIDIA, die Optimierung des Shader-Codes für NV30 auf jede erdenkliche Weise voranzutreiben .

Warum wurde das gebraucht? Und dann ist der NV30 mit der Implementierung von Shadern nicht so einfach:


Its weak performance in processing Shader Model 2 programs is caused by several factors. The NV3x design has less overall parallelism and calculation throughput than its competitors. It is more difficult, compared to GeForce 6 and ATI Radeon R3x0, to achieve high efficiency with the architecture due to architectural weaknesses and a resulting heavy reliance on optimized pixel shader code. While the architecture was compliant overall with the DirectX 9 specification, it was optimized for performance with 16-bit shader code, which is less than the 24-bit minimum that the standard requires. When 32-bit shader code is used, the architecture's performance is severely hampered. Proper instruction ordering and instruction composition of shader code is critical for making the most of the available computational resources.

...
en.wikipedia.org/wiki/GeForce_FX_series

Das heißt, die NV30-Architektur erlaubte ihm nicht, sich unter Verwendung des Codes des SM2.0-Standards vollständig zu offenbaren. Aber jetzt, wenn Sie die Anweisungen ein wenig vor der Ausführung mischen, ersetzen Sie vielleicht sogar eine durch die andere (hi, 3DMark 2003) ... Aber NVIDIA hat verstanden: Es ist viel effektiver, mit der Ursache und nicht mit den Konsequenzen umzugehen.

Nimm zwei. NV35: Die Dämmerung

Dies war keine neue architektonische Lösung, sondern eine sehr kompetente Verbesserung. Die NVIDIA-Ingenieure haben ihre Fehler so fanatisch korrigiert, dass sie sogar in der Geschichte der Shader das offiziell dokumentierte Shader-Modell 2.0a (SM2.0 a ) geerbt haben , das als NVIDIA GeForce FX / PCX-optimiertes Modell DirectX 9.0a bezeichnet wurde . NV35 war natürlich kein Allheilmittel , aber sie erinnerten sich daran:



Aufgrund der extremen Komplexität der NV30- Mikroarchitektur blieben jedoch einige sehr interessante Nuancen im NV35 unverändert. Daher gaben die Gutachter in ihren Spezifikationen häufig Folgendes an:

Vertex pipeline design: FP Array
Pixel pipeline design: 4x2

Dies ist die „einfachste Komponente“, die ich am Anfang des Artikels erwähnt habe. Ja, die Terminologie ist etwas seltsam, aber das ist nicht so schlimm. Auf diese Weise haben Vermarkter einfach versucht, uns die einfachsten Dinge zu vermitteln: Wie viele Vertex- und Pixel-Pipelines (Shader-Einheiten, wenn Sie möchten) der Chip hat.

Wie jeder normale Mensch, der eine solche Spezifikation gelesen hat, lautet meine normale Reaktion: Nun, wie viele gibt es? Das Ganze ist also, dass niemand das weiß :) Es scheint, dass die gewöhnlichsten Eigenschaften eines Grafikchips, aus denen Sie sofort einige Schlussfolgerungen über die Leistung ziehen können?

Na ja, das gleiche ATI R300Alles ist transparent: 8-Pixel- und 4-Vertex-Shader ... Ok, Sie könnten dieselbe GPU-Z ausführen, und nach gängiger Terminologie würde er Ihnen sagen, dass der NV35 dagegen nur 4-Pixel- und 3-Vertex-Shader hat. Aber das wäre nicht ganz richtig, denn zu Beginn der Filmspiele hatte NVIDIA seine

alternativer Blick auf Shader
, . , , .

Vertex pipeline — .

"design", :


Whereas the GeForce4 had two parallel vertex shader units, the GeForce FX has a single vertex shader pipeline that has a massively parallel array of floating point processors


www.anandtech.com/show/1034/3


, , (NV35) , , . . ., NV35 , : « », , . , :) NV353. , !


The GeForce FX Series runs vertex shaders in an array


en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_FX_.285xxx.29_Series


Pixel pipeline.

Vetrex pipeline NVIDIA, . NVIDIA , NV30 8 , TMU ( ). "8x1 design" , . , : DX9- …

, , «» NV30/NV35 4x2 (4 2 TMU ). NVIDIA :


«Geforce FX 5800 and 5800 Ultra run at 8 Pixels per clock for all of the following:

a) z-rendering
b) Stencil operations
c) Texture operations
d) shader operations

For most advanced applications (such as Doom3) most of the time is spent in these modes because of the advanced shadowing techniques that use shadow buffers, stencil testing and next generation shaders that are longer and therefore make apps “shading bound” rather than “color fillrate bound. Only Z+color rendering is calculated at 4 pixels per clock, all other modes (z, stencil, texture, shading) run at 8 pixels per clock. The more advanced the application the less percentage of the total rendering is color, because more time is spent texturing, shading and doing advanced shadowing/lighting»


www.beyond3d.com/content/reviews/10/5


, , :


Beyond3D:
We've seen the official response concerning the pipeline arrangement, and to some extent it would seem that you are attempting to redefine how 'fill-rate' is classified. For instance, you are saying that Z and Stencils operate at 8 per cycle, however both of these are not colour values rendered to the frame buffer (which is how we would normally calculate fill-rate), but are off screen samples that merely contribute to the generation of the final image — if we are to start calculating these as 'pixels' it potentially opens the floodgates to all kinds of samples that could be classed as pure 'fill-rate', such as FSAA samples, which will end up in a whole confusing mess of numbers. Even though we are moving into a more programmable age, don't we still need to stick to some basic fundamental specifications?

Tony Tamasi:
No, we need to make sure that the definitions/specifications that we do use to describe these architectures reflect the capabilities of the architecture as accurately as possible.

Using antiquated definitions to describe modern architectures results in inaccuracies and causes people to make bad conclusions. This issue is amplified for you as a journalist, because you will communicate your conclusion to your readership. This is an opportunity for you to educate your readers on the new metrics for evaluating the latest technologies.

Let's step through some math. At 1600x1200 resolution, there are 2 million pixels on the screen. If we have a 4ppc GPU running at 500MHz, our «fill rate» is 2.0Gp/sec. So, our GPU could draw the screen 1000 times per second if depth complexity is zero (2.0G divided by 2.0M). That is clearly absurd. Nobody wants a simple application that runs at 1000 frames per second (fps.) What they do want is fancier programs that run at 30-100 fps.

So, modern applications render the Z buffer first. Then they render the scene to various 'textures' such as depth maps, shadow maps, stencil buffers, and more. These various maps are heavily biased toward Z and stencil rendering. Then the application does the final rendering pass on the visible pixels only. In fact, these pixels are rendered at a rate that is well below the 'peak' fill rate of the GPU because lots of textures and shading programs are used. In many cases, the final rendering is performed at an average throughput of 1 pixel per clock or less because sophisticated shading algorithms are used. One great example is the paint shader for NVIDIA's Time Machine demo. That shader uses up to 14 textures per pixel.

And, I want to emphasize that what end users care most about is not pixels per clock, but actual game performance. The NV30 GPU is the world's fastest GPU. It delivers better game performance across the board than any other GPU. Tom's Hardware declared «NVDIA takes the crown» and HardOCP observed that NV30 outpaces the competition across a variety of applications and display modes.


www.beyond3d.com/content/reviews/10/24


?


, NVIDIA DX9- , . NV3x :

  • NV3x DX9, … !
  • NV3x 500!
  • NV3x DDR2!


, DX9 500 , 125 ( ) . - : . 0.13 ( ), . — .

, , ? DDR2 , Samsung : ! DDR2, : 128 . ?
, , NV3x 8 , TMU (8x1). . , , , . , = 32 .
8 , 8- 32- (=256 bit) . , 256 . 128- , , 8- 32- . fps.
? : 4 , 2 TMU (4x2). , , - :


Beyond3D:
Our testing concludes that the pipeline arrangement of NV30, certainly for texturing operations, is similar to that of NV25, with two texture units per pipeline — this can even be shown when calculating odd numbers of textures in that they have the same performance drop as even numbers of textures. I also attended the 'Dawn-Till-Dusk' developer even in London and sat in on a number of the presentations in which developers were informed that the second texture comes for free (again, indicating a 2 texture units) and that ddx, ddy works by just looking at the values in there neighbours pixels shader as this is a 2x2 pipeline configuration, which it is unlikely to be if it was a true 8 pipe design (unless it operated as two 2x2 pipelines!!) In what circumstances, if any, can it operate beyond a 4 pipe x 2 textures configuration, bearing in mind that Z and stencils do not require texture sampling (on this instance its 8x0!).

Tony Tamasi:
Not all pixels are textured, so it is inaccurate to say that fill rate requires texturing.

For Z+stencil rendering, NV30 is 8 pixels per clock. This is in fact performed as two 2x2 areas as you mention above.

For texturing, NV30 can have 16 active textures and apply 8 textures per clock to the active pixels. If an object has 4 textures applied to it, then NV30 will render it at 4 pixels per 2 clocks because it takes 2 clock cycles to apply 4 textures to a single pixel.


www.beyond3d.com/content/reviews/10/24


NVIDIA , ! , . , .

( ) FX, " — !" (Happy Gilmore), "… , !" :)



Bild

Wie auch immer, wenn das Hauptziel der NVIDIA-Ingenieure in jenen Tagen darin bestand, die Geschichte lebendig zu erben - zweifellos waren sie erfolgreich! Darüber hinaus erschien in NV35 ein weiteres interessantes Feature, von dem die Konkurrenten kein Analogon hatten: die UltraShadow-Technologie , auf die übrigens später noch eingegangen wird :) Aber lassen Sie uns aufhören, über das Schöne zu sprechen, und zurückkommen

Vom Himmel zur Erde


Zum Glück habe ich keinen Dastbuster ... (aber Sie können sich immer eine Museumsausstellung ansehen ). Zum Glück, weil Ohren teurer sind . Darüber hinaus standen er und sein hoch entwickelter Bruder GeForce FX 5900 in keinem Verhältnis zum Geldbeutel einer einfachen Person mit einfachen Bedürfnissen. Und für solche Leute bot NVIDIA Optionen für die GeForce FX 5600 auf dem NV31- Chip an , aber ich habe sie auch nicht bekommen.

Und jetzt, nach 12 Jahren, kann ich zufällig sagen, dass sie einen solchen Büro-Stub "eingesaugt" haben:



Aber es summt nicht! Das heißt, zusätzlich zu dem abgeschnittenen NV31 wurde mehr und NV34 veröffentlicht , was keine andere Leistung ist, sondern eine Ehe NV31 war .



Nun kurz darüber, was in NV34 interessant ist, passte nicht :(



  • Der NV30 / NV35 hatte ein 4x2-Pixel-Pipelines-Design und nur 4x1 blieb übrig
  • Interessanterweise werden Everest und GPU-Z Ihnen sagen, dass es 2 Vertex-Shader gibt, während Wikipedia 1 zu sein scheint. Hier haben Sie die geschlossene FP-Array-Architektur;)
  • Der NV30 / NV35 führte eine paranoide Komprimierung von allem ein, was gerade in die Grafik-Pipeline gelangt ist . Dies beinhaltete nicht nur Texturen, sondern auch den Z-Puffer und die Farbwerte jedes Pixels im Bildpuffer! In NV34 passte dieser komplizierte verlustfreie 4: 1-Komprimierungsalgorithmus nicht :)
  • Die UltraShadow-Technologie war ebenfalls nicht enthalten ( nur Modelle GeForce FX 5900 und 5700 ). Aber reg dich nicht auf, ich zeige dir alles;)
  • Diese Instanz hat eine Speicherbusbreite von bis zu 64 Bit (ja, wie alte 2D-Grafikkarten).

Anscheinend passte fast nichts :) Aber das Schlimmste war nicht einmal das. Jeder kennt dieses Wort.

Treiber


Hier, gerade jetzt, müssen so viele von Ihnen lächeln. Dies war wahrscheinlich die epischste Implementierung nach TNT2.

Wenn Sie sich nicht einmal daran erinnern:

Bild

... dann sollten Sie sich auf jeden Fall daran erinnern:

Bild

Mit dem Aufkommen von DX9 begannen die Anbieter natürlich, Fahrer mit unglaublicher Geschwindigkeit zu schlagen, und sie erinnerten sich nur als letztes Mittel an WHQL . Die Leistung derselben DX9-Karte könnte so dynamisch tanzen, dass manchmal eine DX8-Karte ihr Partner wird. So war es zum Beispiel mit der GeForce MX 440 (NV18) , die aus einer bestimmten Version von Brennholz mit SM2.0-Emulation emuliert , aber später zurückgestochen wurde. Denn als etwas Unanständiges dreht sich: NV18 gewinnt NV34 in Shadern, die sie nicht einmal hat ...

Hier finden Sie beispielsweise gute Statistiken zu beliebten Problemen mit GeForce FX .

Trotzdem gab es viel, auf das man stolz sein konnte. Zum Beispiel:

  1. Adaptive Texturfilterung

    , NV30 90% ! - . , , , , - ?

    . , : , «» , , , Intellisample. , NVIDIA . …

    , fps ATI NVIDIA. ATI : ( : !), : brilinear filtration.

    - ATI : ,- ? , , 10 . - (NV30 / R300), - . «, » — . . :

    Bild

    "As long as this is achieved, there is no «right» or «wrong» way to implement the filtering..."

    , , . , 175.19 GeForce FX :



  2. API ( ).

    , API ( Direct3D) API, . API . Microsoft. :

    DX9

    , - . :

    • - OpenGL.
      ():



      , . , . :)

    • Game Codepaths. — . , .


      , Valve, Shader Model 2.x NV30 Shader Model 1. Half-Life 2.


      ru.wikipedia.org/wiki/GeForce_FX

      , , , . Half-Life 2 . , , FX 5600 ( MX 440) Half-Life 2, RV350, — .

    • .
      — Tom Clancy’s Splinter Cell:


      Q: Why does Splinter Cell have a special mode for NV2x/NV3x graphic chips?

      A: Splinter Cell was originally developed on XBOXTM. Features only available on NV2x chips were used and it was decided to port them to the PC version even if these chips would be the only one able to support them. Considering the lighting system of XBOXTM was well validated, it was easy to keep that system intact.

      Patchinfo.rtf (from patch 1.3)




Dieses Mal werde ich die Leistung nicht messen und Ihnen langweilige Aufnahmen mit fps-Überwachung zeigen. Das interessiert mich an dieser Generation von Grafikkarten überhaupt nicht. Im Großen und Ganzen endet bei dieser Generation von Grafikkarten mein Interesse an ihnen, da Geforce FX die letzten Karten waren, die etwas Einzigartiges hatten, das ihre Konkurrenten nicht hatten. Darum geht es in erster Linie.

Gleichzeitig habe ich mich entschlossen, viel zu diversifizieren: Sehen wir uns verschiedene Funktionen in verschiedenen Spielen an :) Bei Interesse dann die Grafikeinstellungen in den Spielen: „Maximum Rich Colors“! Kino doch oder wo? Zwar waren Kinoberechtigungen in Spielen damals noch nicht vorgesehen ...

Aber bevor wir durch die Shader eilen, möchte ich warnen: Die Bilder sind tatsächlich viel größer als die auf der Seite gezeigten. Wo es mir notwendig erschien, habe ich die Möglichkeit vorgesehen, auf das Bild zu klicken, um die Quelle zu öffnen - vernachlässigen Sie nicht, wenn Sie interessiert sind! Weiter unten finden Sie einige Gifs. Gifs sind solche Gifs, dass die Qualität der Konvertierung unaufhaltsam abnimmt. Dies muss akzeptiert werden, da ihre Hauptfunktion die Animation im Internet und nicht eine Fotopräsentation im Museum ist. Sie können sie aber auch anklicken!

Also die Spiele ...

Doom 3

  • Renderer: OpenGL 1.5
  • Shadowtech: Schablonierte Schattenvolumina (über Carmacks Reverse) + UltraShadow-Technologie
  • Schattierungssprache: ARB ASM

UltraShadow ... Hört sich an, oder? Wir werden hier darüber sprechen. Es gibt eine Legende:


, GeForceFX Doom3, . UltraShadow, GeForceFX 5900. , , QuakeCon 2003:

«GeForce FX , Doom, nVidia , Doom. , , nVidia „“, ».


www.thg.ru/graphic/20030924/nvidia_interview-01.html

Obwohl dort wie ich alle ernsthaften Menschen auf diesem Planeten gerne anfangen, war John Carmack'a auch ein sehr interessanter Plan . Es ist verständlich, aber wie soll man sonst arbeiten? ;)

Erstens war John Carmack dank dieses Dotplans etwas ehrlicher als Gabe Newell. Bei der Programmierung der DooM3-Engine lehnte er einfach proprietäre OpenGL-Erweiterungen ab und konzentrierte sich dabei auf die öffentlich verfügbaren ARB _ *** -Erweiterungen. Obwohl für die Kompatibilität der Engine mit alten Nicht-DX9-Karten die entsprechenden Codepfade geschrieben wurden, war bei den neuen Karten alles ehrlich: Sie mussten in der Engine zu gleichen Bedingungen kämpfen. Jetzt werden viele von Ihnen protestieren, sagen sie, aber was ist mit:


At the moment, the NV30 is slightly faster on most scenes in Doom than
the R300, but I can still find some scenes where the R300 pulls a little bit
ahead. The issue is complicated because of the different ways the cards
can choose to run the game.

The R300 can run Doom in three different modes: ARB (minimum exten-
sions, no specular highlights, no vertex programs), R200 (full featured,
almost always single pass interaction rendering), ARB2 (floating point
fragment shaders, minor quality improvements, always single pass).

The NV30 can run DOOM in five different modes: ARB, NV10 (full fea-
tured, five rendering passes, no vertex programs), NV20 (full featured,
zwei oder drei Rendering-Durchgänge), NV30 (voll funktionsfähig, einzelner Durchgang) und
ARB2.

...
John Carmacks .plan_2003
content.atrophied.co.uk/id/johnc-plan_2003.pdf

Lassen Sie uns diesen Moment genauer analysieren. Weitere Experimente mit dem NV30 gingen nicht verloren. Vielleicht konnte Johns die Membranen einfach nicht ausstehen:

...
Die aktuellen NV30-Karten haben noch einige andere Nachteile: Sie belegen zwei
Steckplätze, und wenn der Lüfter hochfährt, sind sie SEHR LAUT. Normalerweise
kümmere ich mich nicht um Lüftergeräusche, aber der NV30 nervt mich.

...
John Carmacks .plan_2003
content.atrophied.co.uk/id/johnc-plan_2003.pdf

Wie dem auch sei, aber nur 6 "funktionierende" Codepasen (und 1 experimentelles :) waren in der Veröffentlichung enthalten.



NV10, NV20, R200. Wie der Name schon sagt, sind diese drei für einige Chips spezifisch.
Cg, ARB, ARB2. Diese drei sind universell. Und trotz der Tatsache, dass ATI immer noch in Cg geschult ist, war dieser Code-Pass immer noch deaktiviert (für die Ehrlichkeit des Experiments?). ARB2 ist hier also der ausgefeilteste Renderer.

Der NV30- Renderer blieb in Alpha .



Also war im Allgemeinen alles ehrlich. Auf dem NV30 / R300 haben Sie DooM3 folgendermaßen gesehen:



Während auf einigen GeForce MX 440 (NV18) DooM3 beispielsweise so aussah:



Aber zurück zu dem Punkt, den der Plan nicht beeinflusst hat ...

Der berühmte " Carmack's Reverse Algorithmus " und Unterstützung für NVIDIA UltraShadow .
Das ist hier interessant. Sie könnten über den Algorithmus als Referenz lesen, aber im Allgemeinen ist der „Carmack-Hack auf Schatten“ selbst nichts anderes als eine Möglichkeit, Schatten „vom Gegenteil“ zu erhalten. Übrigens ist dies nicht verwunderlich, wenn man bedenkt, wie die DooM3-Engine selbst konstruiert ist - id Tech 4 - schließlich ist sie im Wesentlichen ein fester Schatten :) Und der NV35 bietet übrigens nur Hardware-Unterstützung für solche Betrugsfälle , wie alle nachfolgenden NVIDIA-Karten . Zum Beispiel mein GTS 450 (hervorgehoben):



Aber was für eine Technologie ist das?

Mit der UltraShadow-Technik können Programmierer in einfachen Worten Beleuchtungsgrenzen in einer 3D-Szene festlegen. Auf diese Weise können Sie die Berechnung der Effekte von jeder der Lichtquellen einschränken. Infolgedessen wird der Rechenaufwand für die Berechnung der Licht- und Schatteneffekte stark reduziert.




Und es scheint, dass die UltraShadow II- Funktionen sogar DooM3-Aufnahmen enthalten und sicherstellen, dass die Technologie verwendet wird. Mit der Veröffentlichung von DooM3 stellte sich heraus, dass dies erst am Ende der Fall war :

...
Anthony'Reverend'Tan
Wie ist die Situation in Bezug auf die Implementierung von Tiefenbegrenzungstests im Spiel?
Scheint keine Auswirkungen auf einen NV35 oder NV40 zu haben, der die cvar verwendet.

John Carmack
Nvidia behauptet einige Verbesserungen, aber es könnte unveröffentlichte Fahrer erfordern. Es ist auf die eine oder andere Weise keine große Sache.

...
web.archive.org/web/20040813015408/http : //www.beyond3d.com/interviews/carmack04/

Und dennoch kann das Fehlende heute noch gewaltsam aktiviert werden (und im letzten Patch ist es sogar standardmäßig aktiviert). Tatsächlich erhalten Sie nur eine Leistungssteigerung, aber keine visuellen Unterschiede. Nun, danke dafür ...

Wenn jemand eindeutig interessiert ist (r_showshadows 1)
Ultrashadow:



Ultrashadow:



Need for Speed: Meistgesucht

  • Renderer: Direct3D9
  • Shadowtech: Shadow Mapping
  • Schattierungssprache: HLSL

Wie können wir uns nicht an das so boomende NFS: MW erinnern, da es sich um Schatten handelt? Ich verstehe, dass es eine seltsame Wahl ist, aber nur auf den ersten Blick ...

... In jenen Tagen war es sehr beliebt zu sagen, dass NFS: MW ein gutes Beispiel dafür ist, wie man HDR billig und wütend emulieren kann .


, «» HDR , , bloom tone mapping . LDR : bloom (overbright), , HDR ( tone mapping) , bloom , , .

- . , . HDR tone mapping, 16- «» HDR , 16- . , Need For Speed: Most Wanted , , .


www.ixbt.com/video2/tech_nfsmw.shtml

Es scheint wahr zu sein, was wir während des Spiels sehen?

Overbright (Bloom):



Motion Blur:



und vielleicht bemerken wir manchmal World Reflections : Wenn Sie es wirklich wollten, können Sie ein Filmoutfit ( visuelle Behandlung = hoch ) leicht in elegante Shorts verwandeln ( visuelle Behandlung = niedrig ): Trotzdem die Gebühren der Emulation Sie sind hier unverdient, da dieselbe Blüte (hier zweifellos als Grundlage verwendet) immer noch ein HDR-Effekt ist. Nur viele andere Dinge in diesem Spiel, zum Beispiel der Regeneffekt oder die Einstellung der Schattendetails, stehen nur Besitzern von Grafikkarten zur Verfügung, die leistungsstärker als NV34 sind .













Nun, hier sind wir süchtig danach, wo wir angefangen haben. Besonders aufmerksam konnte man noch eine sehr anstößige Implementierung von Schattenkarten feststellen. Es wird angenommen, dass das Spiel einfach Schattenkarten mit niedriger Auflösung verwendet. Vielleicht war es ein Kompromiss, vielleicht war nicht genug Zeit, um eine detailliertere Anpassung der Schatten vorzunehmen, aber vielleicht geht es wieder um die Code-Reserven ... Wer weiß? Wer könnte das besser als die EA Kompatibilitätsprüfung Dienstprogramm wissen , dass dies besser: In



insgesamt auf der NVIDIA GTS 450 die Szene sieht wie folgt aus :



Nun, auf den ersten Blick, alles ist logisch: auf NV34 gibt es deutlich weniger Schatten (wir betrachten den Schatten unter der Maschine):



Nun überprüfen Sie die Code - Reserven . Dafür benötigen wir 3D-Analyse : Ersetzt NV34



(FX 5200) auf dem NV35 (FX 5900), Start:



Wie Sie sehen können, gibt es jetzt keinen großen Unterschied zum GTS 450. Es gibt künstliche Einschränkungen, um eine bessere Leistung zu gewährleisten. Die Qualität der Schatten kann man sowieso kaum als gut bezeichnen :)

Auf der Radeon 9600 ( RV350 ) sieht es übrigens so aus:



Ferner Schrei

  • Renderer: Direct3D9; Opengl 2.0
  • Shadowtech: Schablonierte Schattenvolumina + Schattenzuordnung
  • Schattierungssprache: Cg

Es wird angenommen, dass Far Cry das erste vollwertige Spiel war, das HDR-Rendering wirklich unterstützt (im Gegensatz zu Half-Life 2: Lost Coast). Zumindest die neueste offizielle Version (1.4). Ja, Sie selbst sehen, wie schick das berühmte Wasser in Far Cry mit HDR aussieht:





Wasser ohne HDR ist ebenfalls zu sehen.




Im Allgemeinen gab es nach der Veröffentlichung von Patch 1.4 einen vollständigen Satz aller modischen Effekte in Far Cry, zum Beispiel denselben Heat Haze (siehe die Inschrift an der Wand oder die Lampe an der Decke):



Übrigens, Ubisoft hat sich dann aktiv für den neuen AMD64 eingesetzt Dieser Far Cry wurde in zwei Versionen hergestellt: x86 und x64 (übrigens war es mit Halbwertszeit 2 genau das gleiche ). Exklusiver Inhalt wurde auch für die x64-Version veröffentlicht . Infolgedessen wurde sofort ein inoffizieller 64-zu-32-Bit-Konverter-Mod angezeigt , mit dem Sie diesen exklusiven Inhalt auf einem 32-Bit-System anzeigen können. Viel später erschien vor Version 1.6 ein inoffizieller Patch , in dem vielleichtDieser exklusive Inhalt wurde endlich auf die x86-Version von Far Cry migriert. Ich schlage vor, Sie überprüfen diesen Moment selbst.

Ja, wenn Ihnen dies nicht ausreicht, können Sie mit dem im Paket enthaltenen experimentellen OpenGL-Renderer herumspielen. Wie es geht, steht hier (lesen Sie aus den Worten System.cfg ).

STALKER: SHOC

  • Renderer: Direct3D8 - Direct3D9
  • Shadowtech: Shadow Mapping
  • Schattierungssprache: HLSL

Das ist wirklich „Schock“, da zunächst ein Spiel wurde entwickelt , dann eine andere , aber am Ende werden sie bekam Sh adow o f C hernobyl . Aber 7 Jahre Entwicklung auf die eine oder andere Weise haben Früchte getragen: Die X-Ray Engine war die erste Engine, die das revolutionäre Deferred Shading- Rendering-Konzept verwendete . Es wird angenommen, dass STALKER eher ein DX8-Spiel mit einigen Elementen der DirectX9-Funktionen ist. Das ist also grundsätzlich falsch . Um genau zu sein, ist genau das Gegenteil der Fall. Die X-Ray-Engine enthält drei vollständige Renderer: r1 (Static Lighting - DX8), r2(Objekte Dynamische Beleuchtung - DirectX9) und r2a (R2 + Volle dynamische Beleuchtung). Schauen Sie sich einfach die Konsole an und geben Sie "help" ein, um die Skalierung der Optionen für jeden Renderer anzuzeigen.

Sie können lange über dieses Spiel sprechen, was unter allen Gesichtspunkten erstaunlich ist, aber beschränken wir uns auf das, was bereits oben gesagt wurde ... und fügen hinzu, dass STALKER eines der ersten Spiele ist, bei denen die volumetrische Textur-Rendering-Technik angewendet wurde - Parallax Mapping. Es gibt jedoch eine Nuance. In der Originalversion des Spiels (mit dem neuesten Patch 1.0006) kann diese Technik nicht über die Konsole gesteuert werden (oder ich habe keine Änderungen bemerkt), und es besteht im Allgemeinen die Meinung, dass der für die Anwendung verantwortliche Shader-Code nicht ordnungsgemäß funktioniert. Daher gab es viele Fans, die diese und viele andere STALKER-Shader-Effekte neu geschrieben haben, damit dem Endbenutzer klar wird, dass sein System ernsthaft mit nutzlosen Berechnungen belastet werden kann ... und natürlich mit allem zu vergleichen ist. Zum Beispiel können Sie den Original- und den benutzerdefinierten Code STALKER Shaders MAX 1.05 vergleichen. Es ist natürlich umstritten. Da es sich jedoch um benutzerdefinierte Shader handelt, möchte ich noch etwas darüber erzählen. Hintergrundunschärfeeffekt beim Fokussieren auf das Motiv - Schärfentiefe



. 3dfx hat bereits in den Tagen von DirectX6 darüber gesprochen, aber dann wurde keine vollständige Implementierung erreicht. Im Original und hier war es nicht, aber in STALKER Shaders MAX 1.05 erschien es schließlich. Das Make-up wurde schlecht gemacht, aber es ist zu faul, um es zu wiederholen. Schauen Sie sich den Hintergrund mit einem direkten Blick auf den Stalker an: Vielleicht ist es auch nicht die schönste Implementierung, aber es ist Amateur, also kommt es runter :) Jetzt wollte ich Ihnen erzählen: STALKER hat zwei großartige Implementierungen des Bloom HDR-Effekts. Die Standardeinstellung und die sogenannte Fast-Bloom, die separat enthalten ist. Hier sind sie in Aktion: Bloom Fast-Bloom














Angesichts der Tatsache, dass Fast-Bloom separat enthalten ist, ist es möglich, dass es sich um eine komplexe Implementierung handelt und nicht um eine Annäherung durch einfache Gaußsche Unschärfe. Oder sie sind Echos von Tests.

STALKER hat auch Motion Blur eingeführt! Um es zu aktivieren, müssen Sie das Spiel mit dem Schalter -mblur starten und den Effekt auch in der Konsole vorschreiben. Dann bekommen Sie so etwas wie:



Aber am Ende wäre dies für einen Motor wie X-Ray völlig unfair ... Tatsache ist, dass die Entwicklung verzögert und nicht vollständig getestet wurde, aber

Ich werde nur alle Unwissenden informieren

dass es in STALKER sogar Global Illumination gibt . Das heißt, wenn es Ihnen so scheint, als ob dem Raum eindeutig Lichtreflexionen fehlen:



... dann können Sie r2_gi 1 sagen und dann sieht es so aus:



Süß: Tom Clancys Splitterzelle

  • Renderer: Direct3D8
  • Shadowtech: Projektionsschatten oder Schattenpuffer

Seit der GeForce4 Ti ist in Nvidia-Karten eine unauffällige Funktion für Schattenpuffer enthalten . Ich konnte keine vollständige Liste der Spiele mit dieser Technologie finden (wahrscheinlich, weil dies nicht der Fall ist), aber jeder glückliche Besitzer der damals so gefeierten Xbox wusste genau, wie die Schatten der neuen Generation aussahen. Nun betrachten wir das Markenfeature in Aktion, nur auf dem PC ... aber zuerst eine kleine Theorie:

...
Splinter Cell Dynamisches Beleuchtungssystem

Splinter Cell shadow system is a major part of the game. On NV2x/NV3x hardware, it runs using a technique called Shadow Buffers. This technique is rendering the scene from every shadow casting light and store a depth buffer that represent each pixel viewed by this light source. Each pixel has an X, Y, Z coordinate in the light system and these coordinates can be transformed, per pixel, in the viewer coordinate system. It’s then easy to compare with the actual depth stored in the Z buffer to figure out if the pixel viewed by the camera is the same or is occluded by the pixel viewed by the light. If they are the same, it means the pixel is lighted, if the light pixel is in front of the viewer pixel, it means the pixel is in the shadow. On all other current hardware, the game is using another technique called projected shadows (shadow projectors). The technique is somewhat similar, we render the scene from the light point of view but instead of storing the depth, we are storing the color intensity in a texture. That texture is then mapped per vertex on each object that is going to receive the shadow. To be able to have objects casting shadows on other objects that are themselves casting shadows, Splinter Cell is using a 3-depth levels shadow casting algorithm. In general, the first level is used to compute the shadow to be used on the dynamic actors like Sam. The second level is used to compute the shadow used by the static meshes like a table or boxes. The final level is used for the projection on the BSP. This system is allowing Sam to receive the shadow of a gate on him, then Sam and the gate can cast on a box and finally all three objects can cast on the BSP (ground). This system also has a distance check algorithm to determine if Sam’s shadow should be projected on a static mesh (like a box) or if it shouldn’t base on their relative position. Both systems have their own strength/weaknesses. The main advantage of the Shadow Buffer algorithm is how easy it is to work with. Shadow Projectors are tricky and difficult to use.

...
Patchinfo.rtf (ab Patch 1.3)

Ich denke, das Prinzip des Schattenwerfens wurde ziemlich klar beschrieben. Aus dem Vorstehenden ergibt sich Folgendes:

  • Shadow Buffers ist heutzutage ein gewöhnliches Shadow Mapping, bei dem die Hardware auf NVIDIA-Karten beschleunigt wird, da ein spezieller Puffer für Schattenkarten vorhanden ist.
  • Tom Clancys Splinter Cell ist ein großartiges Spiel auf einer großartigen Engine mit denselben großartigen Optimierungen:


    Splinter Cell has 3 different rendering pipes:

    Class 2 Graphic Adaptors:
    NV2x/NV3x chips
    Dynamic Lighting system = Shadow Buffer
    Vertex position modifiers = Yes
    Light beams stopped by depth texturing = Yes
    Pixel Shader effects/filters/water = Yes
    Reflection/Details texturing/Specular = Yes

    Class 1 Graphic Adaptors:
    R2xx/R3xx/Parhelia/Xabre 200/Xabre 400/Xabre 600/chips/Creative P9
    Dynamic Lighting system = Shadow Projector
    Vertex position modifiers = No
    Light beams stopped by depth texturing = No
    Pixel Shader effects/filters/water = Yes
    Reflection/Details texturing/Specular = Yes

    Class 0 Graphic Adaptors:
    R1xx/NV1x chips
    Dynamic Lighting system = Shadow Projector
    Vertex position modifiers = No
    Light beams stopped by depth texturing = No
    Pixel Shader effects/filters/water = No
    Reflection/Details texturing/Specular = No


    Patchinfo.rtf (from patch 1.3)

    , , Xbox, NV20A. , NVIDIA — R300 — . :)


So sieht es am Ende der NVIDIA GeForce FX 5200 ( NV34 ) aus:

Projektionsschatten: Schattenpuffer: Aus Gründen der Wiedergabetreue habe ich versucht, die ATI Radeon 9600 ( RV350 ) zu betrachten. In der Tat werden Schattenpuffer hier nicht aktiviert und 3D-Analyse wird nicht gespeichert. Der Projektionsschattenmodus sieht identisch mit NV34 aus : Es ist interessant, dass das Spiel im Schattenpuffermodus weiterhin auf der GeForce GTS 450 gestartet wird, aber es sieht folgendermaßen aus: Welche davon korrekt ist (auf der GeForce FX 5200 oder auf der GTS 450), ist noch unbekannt da es eine Meinung gibt, dass es im Spiel selbst einen unkorrigierten Fehler mit Schatten gibt















. Es gibt jedoch eine Meinung, dass die Angelegenheit bei den NVIDIA-Treibern liegt. Für einen vollständigen Tauchgang müssen Sie also die alten Karten verwenden (schließlich funktionieren die neuen Karten einfach nicht mit den alten Treibern).

Glücklicherweise werden die gleichen Probleme mit Schatten im nächsten Teil des Splitters (die Pandora Tomorrow ) heute teilweise durch einen Fan-Wrapper gelöst .

Apropos
, - , Tom Clancy’s Splinter Cell Mission Pack. , , . GOG-.

Dies könnte zu Ende gehen, aber es scheint mir, dass die Geschichte unvollständig wäre, ohne eine andere bemerkenswerte Technik zu erwähnen ...

Oberflächen höherer Ordnung

Beginnen wir damit, wie ATI die Geschichte seiner Hardwaretechnologie TruForm geerbt hat . Wissenschaftlich wird dies als N-Patches (oder gleichwertig als PN-Dreiecke ) bezeichnet. Es erschien in Radeon 8xxx, aber der Höhepunkt der Popularität kam vielleicht gerade zur Zeit von Radeon 9xxx ( R300 ). Ich kann verstehen , wenn man zu faul waren zum nächsten Link zu folgen, so in zwei Bilder über das Wesen der TruForm :

aus einer solchen Teekanne TruForm , unabhängig die Anzahl von Grundelementen zu erhöhen , werden Sie wie folgt machen:







Dies wurde als adaptive Tessellation bezeichnet - die Verwendung eines Grafikkarten-Chips, um die anfängliche Anzahl von Grundelementen basierend auf vordefinierten Grundelementen zu erhöhen, die von der Anwendung (Spiel) übertragen werden. Es wurde versprochen, dass es möglich sein wird, die Aktion in allen Spielen sofort zu sehen, und es ist keine Unterstützung durch das Spiel erforderlich. In der Hoffnung darauf habe ich das Trainingsgelände in meinen Lieblingsspielen und nicht so sehr lange verfolgt und versucht, es in der Praxis zu sehen. Tatsächlich stellte sich heraus, dass TruForm im letzten Brennholz für RV350 (Catalyst 10.2) dumm verboten war. Sie sehen, es gibt eine Meinung, dass die clevere TruForm-Technik absolut alles aufrundete, was in der quadratischen Szene war, und die gleichen Holzkisten mit Vorräten rund wurden. Die Ausrüstung wurde zuerst modifiziert, dann aber einfach aus den Fahrern geworfen.

Aber wir haben ein historisches Interesse an Ihnen, so sah es in den Catalyst 5.7-Treibern tatsächlich aus:



Entgegen unseren Erwartungen konnte TruForm nur gesehen werden, wenn das Spiel es wirklich unterstützte. Oh, diese Vermarkter, ah! Nun, da es unmöglich ist, es für alle Spiele hintereinander zu erzwingen, wo können Sie es dann sehen? Auf derselben Wikipedia wird uns eine kleine Liste von hauptsächlich Spielen mit Patches von Drittanbietern für TruForm angeboten, was etwas unecht ist. Wenn wir über Spiele mit nativer TruForm-Unterstützung sprechen, haben wir zweifellos die meisten Formen von Serious Sam gesehen . Da ich persönlich keine Sympathie für seine Formen habe, wage ich vorzuschlagen, dass Sie sich die wahren Formen von Neverwinter Nights ansehen :



Und so war es wirklich mit den Boxen: Und alles wäre in Ordnung, aber bereits in der Catalyst 5.8-Version war es wirklich möglich, ihre majestätischen Artefakte zu beobachten: Und dann wurde das Feature endgültig begraben. Also, was mache ich ... Sie sehen, ungefähr zur gleichen Zeit hat NVIDIA auch ähnliche Technologien in der Geschichte geerbt. Sie begannen, eine Technik namens Rectangular and Triangular Patches ( RT-Patches ) in Geforce 3 Ti zu verwenden , außerdem in Hardware. Es ist lustig, aber das Problem der Implementierung von RT-Patches











bestand in der Tat aus der Implementierung selbst. Wenn wir eine Spiel-Engine für diese Technik erstellen wollten, mussten alle Oberflächenformeln für ihre adaptive Tessellation in der Entwicklungsphase in diese Engine eingefügt werden. Wenn wir möchten, dass unsere Engine auf einer anderen Karte ohne die Unterstützung von RT-Patches funktioniert, müssen wir alle Polygone klassisch neu schreiben. Total Doppelarbeit.

Dies ist wahrscheinlich der Grund, warum RT-Patches keine Unterstützung von Spieleentwicklern fanden, aber es wird behauptet, dass sie in Aquanox zu sehen waren .

Es stimmt, es gibt eine Meinung, dass:

...
Die Treiber NV20 und NV25 unterstützen seit langem keine Hardware-Tessellierung glatter Oberflächen (HOS basierend auf RT-Patches). Der Grund dafür liegt in DirectX. Wenn die Karte keine N-Patches in der Hardware unterstützt, versucht die API, diese mithilfe von RT-Patches zu emulieren. Dies führt zweifellos dazu, dass N-Patches sehr langsam ausgeführt werden, sogar langsamer als eine sinnvolle Software-Emulation. NVIDIA war gezwungen, RT-Patches zu deaktivieren, damit Spiele mit N-Patches-Unterstützung nicht in eine Dummheit gerieten, die dem Durchschnittsbenutzer bei seinen neuesten Produkten schwer zu erklären war.

...
www.ixbt.com/video/gf4ti.shtml

Ein paar Leute auf OG haben ehrlich versucht, Treiber zu finden, die RT-Patches unterstützen ( ! Und solche wurden gefunden! ), Aber irgendwie sind sie nicht weiter gegangen.

Interessiert an der Frage:

  • RT-Patches GL_NV_evaluators OpenGL Rectangular and Triangular Patches DirectX:





  • N-Patches (TruForm) GL_ATI_pn_triangles OpenGL N-Patches DirectX:





  • Eine Liste der Spiele mit nativer TruForm- Unterstützung finden Sie hier . Die Liste der Spiele mit RT-Patches- Unterstützung ist leider nirgends zu finden.

    Wenn Sie nach einer Karte mit TruForm- Unterstützung suchen , beachten Sie, dass die Hardware-Tessellation (die Essenz von TruForm ) ab DirectX 11 ein zweites Leben erweckte!

    Wenn Sie keine Karte finden konnten, lassen Sie sich nicht entmutigen: Es ist wahrscheinlich, dass Sie in der Lage sind, einen Wrapper zu überleben .

Im Allgemeinen alles, aber ...

Ein bisschen Offenlegung


Der FX die GeForce . Wie viel in diesem Wort :)

Es ist bekannt, dass GeForce eine Abkürzung für Geometric Force ist. Dies wurde auch als NVIDIA GeForce256 bezeichnet, da an Bord die revolutionäre GPU (Geometric Processor Unit) vorhanden war, die damals oft als Hw T'n'L bezeichnet wurde.

Und hier kommt der FX :

...
Die Aufnahme der 'FX' am Ende erfolgte aus zwei Bereichen. Zunächst einmal wirbt NVIDIA als „The Dawn of Cinematic Computing“, sodass Filmspezialeffekte mit dem Namen verbunden sind. Zweitens ist dies das erste Design, das die ehemaligen 3dfx-Ingenieure ernsthaft in ein NVIDIA-Design eingebracht haben, und damit in gewisser Hinsicht eine Hommage an ihre Eingabe (natürlich keine Möglichkeit, mehr Bekanntheit durch ihren starken Markennamen zu erzielen!). .

...
www.beyond3d.com/content/interviews/26

Ah, sicher nicht! :)

Kompatibilität mit Glide

Während NVIDIA-Ingenieure ihre Nachkommen ( NV30 ) beharrlich in einen funktionierenden Zustand versetzten, verkauften Vermarkter Vorbestellungen wie in der Vaporone-Werbung. Um potenzielle Käufer zu erhöhen, wurde sogar die neue NvBlur-API entwickelt , deren Hauptmerkmal die Abwärtskompatibilität mit der Glide-API war. Natürlich gab es in NvBlur nicht mehr als 3dfx Voodoo 590 oder 3dfx Voodoo Reloaded .

Eine neue Morgendämmerung

Nun ja, wenn sich jemand erinnert, hat NVIDIA 2012 die Demo wiederbelebt . Wenn man sich solche Dinge ansieht, scheint es manchmal, dass dies ein wirklich gedrehtes Video ist. Es war DirectX11. Aber auch hier ist die Spielebranche jetzt nicht mehr ...





Und Sie wissen ...



Im Allgemeinen inspirierte dieses ganze Epos mit einem Sonnenaufgang in schwebenden Farben natürlich Folgendes:

Bei der nächsten GDC schaut ein Spieleentwickler angewidert auf die Duma3-Demonstration auf einem 1024 x 768-Bildschirm. FPS werden nicht einmal angezeigt.

Entwickler : - Nun, sag mir, warum ich nach so vielen Bemühungen wieder dünn auf dem Boden des Bildschirms sehe und Monster von der Größe einer Minikarte?
NVIDIA : - Aufgrund von ATI haben wir nichts geschafft!
ATI : - Ja, Microsoft hat die Aufgaben erneut festgelegt ...
Microsoft : - Schöne Folien sind übrigens auch Filme!

Im Allgemeinen erwies sich der Sonnenaufgang als kontrovers, aber der Sonnenuntergang war immer noch das, was benötigt wurde:



Bei diesem Sonnenuntergang gelang es NVIDIA, seinen Status mit seinem nächsten NV40- Chip wiederzuerlangen, der pünktlich ging und heldenhaft mit dem ATI R420 Biathlon in Half-Life 2 kämpfte . Aber wir alle wissen: Alles dank der Tatsache, dass der NV40, obwohl er als neue architektonische Lösung angesehen wurde, immer noch zu mindestens 70% aus NV30- Wasser bestand .

Hier ist die Präzision von FP32 wirklich nützlich.


GeForce6 6600 — NVIDIA , — NV43 NVIDIA .

Danke


Die Verwaltung von old-games.ru für die Möglichkeit, schnell und kostenlos 20 Spiele in großen Mengen herunterzuladen, nur um die Dateistruktur zu überprüfen und einmal auszuführen.

Für einen Mann, der mir in einem Anfall von Intrigen mit meinen bevorstehenden Rezensionen dieses unschätzbare Beispiel vergangener Agiotage und Größe in jeder Hinsicht gezeigt hat :)

...? TBC? ...


Verweise
! nvidia.com

, , Koroush Ghazi (, - , ?)

NV30 . DX9- - .

R300.

NV30 . SM2.0 ( . . NV35). Tony Tamasi NV30.

, .

HDR- Need For Speed: Most Wated.

- NV35 vs R350, . , , - :)

. John Carmack'. ( ) John' Carmack'.

- .

3D-.

Source: https://habr.com/ru/post/de384037/


All Articles