Da Nvidia afslørede sit daværende flagskib GeForce GTX 1080 i første halvdel af 2016, havde vi aldrig forventet at vente mere end to år på sin næste grafikkortarkitektur.
"Pascal" -arkitekturen bag GTX 10-serie grafikkort er ældet meget, men alderen har den.
Det er endelig tid til, at det bevæger sig til side: GeForce RTX 2080 er her, drevet af den helt nye "Turing" -arkitektur.
Vi fik vores hænder på $ 799 GeForce RTX 2080 Founders Edition, såvel som dens stødigere bror, GeForce RTX 2080 Ti Founders Edition, og satte dem i en masse tests.
Bundlinjen? Dette kort var ventetiden værd, og det er en dræber for all-out, detaljesvinget 4K-spil, inklusive spil med højopdateringshastigheds-gamingskærme og i HDR.
Tidlige adoptere bliver ikke skuffede, men kortets to markeringsfunktioner, som vi kommer til et øjeblik, er teknologier i deres barndom.
Så længe du ikke har noget imod at betale en præmie for den fremtidssikring, finder du dette kort et udyr og et praktisk alternativ til den allerede store GeForce GTX 1080 Ti.
Men ved, at en del af den pris, du betaler, er et væddemål på fremtiden.
Ærlige, objektive anmeldelser
Daxdi.com er en førende autoritet inden for teknologi, der leverer Labs-baserede, uafhængige anmeldelser af de nyeste produkter og tjenester.
Vores ekspertindustrianalyse og praktiske løsninger hjælper dig med at træffe bedre købsbeslutninger og få mere ud af teknologien.
Mød GeForce RTX: Hvad er nyt?
Den største nyhed med GeForce RTX er dens hardwareaccelererede strålesporing, takket være nye RT-behandlingskerner indbygget i selve kortet.
Strålesporing giver mulighed for fotorealistisk belysning og skyggeeffekter i spil.
Selvom det ikke er et nyt koncept, har strålesporing hidtil været upraktisk at bruge i realtid på grund af dets massive præstationsomkostninger, men RTX 20-serien er designet til at ændre det.
(Se mere om strålesporing i Nvidia RTX-kortene på søstersiden ExtremeTech.)
Den anden store teknologiske innovation med RTX 20-serien er dens understøttelse af en teknologi kendt som Deep Learning Super-Sampling (DLSS).
Aktiveret af nye Tensor-behandlingskerner på grafikkortet bruger DLSS AI til at udjævne kanterne på objekter i spillet mere effektivt end den traditionelle tilgang, anti-aliasing.
Hvor det er ansat, hævder Nvidia betydelige præstationsforøgelser er mulige med DLSS.
Det mærkeligste ved denne anmeldelse er, at du ikke kan se test eller formelle benchmarks med strålesporing eller DLSS som en eksplicit faktor.
Hindringen? Den enkle kendsgerning, at der ikke var nogen spil eller benchmarks tilgængelige ved denne skrivning, der understøttede begge teknologier fuldt ud.
Mange kommende spil er allerede blevet annonceret med support, men det er usandsynligt, at eksisterende spil får den samme behandling.
Den nuværende situation gør det derfor lidt svært at bedømme værdien af ??GeForce RTX 20-kortene i forhold til de nuværende kort.
For $ 799 kommanderer RTX 2080 Founders Edition betydeligt flere kontanter end GeForce GTX 1080 Founders Edition $ 549,00 hos Nvidia, som den erstatter i Nvidias lineup.
Når det er sagt, er værdien af ??RTX 20-serien ikke helt afhængig af dens understøttelse af disse nye teknologier.
Kortet bringer også meget forbedret ydeevne over GTX 10-serien til alle spil og benchmarks, jeg testede, især i en 4K-opløsning.
Nvidia hævder, at de nye GeForce RTX 2080-grafikkort tilbyder op til dobbelt så høj ydelse som forgængeren GTX 1080, men det antages, at det pågældende spil understøtter DLSS.
Jeg kommer hurtigt nok til benchmarks; indtil videre, kom med mig, når jeg dykker ned i baggrunden for GeForce RTX 20-serien, og hvorfor det er så stort.
Down Memory Lane: Turing and Its Lineage
Nvidia introducerede Pascal, Turings arkitektoniske forgænger, i første halvdel af 2016.
Det var en milepæl for virksomheden, fordi det var første gang i fire år, at det havde formindsket sin produktionsproces.
Udtrykt i nanometer er fremstillingsprocessen den mindste afstand mellem transistorer på en computerchip.
I en nøddeskal, jo mindre afstand, jo flere transistorer, der kan pakkes i samme rum.
Antallet af transistorer korrelerer med computerkraft, så jo mere du har af dem, jo ??bedre er alt andet lige.
Det er forudsætningen for Moores lov.
Pascal var baseret på en 16 nm-proces, betydeligt mindre end 28 nm-processen i de tidligere "Kepler" og "Maxwell" -arkitekturer, den erstattede.
Det alene gav det en massiv præstationsfordel.
(Maxwell blev introduceret i 2014, men den brugte den samme 28 nm-proces som Kepler-arkitekturen, som Nvidia introducerede i 2012.) Spol frem til anden halvdel af 2018, og Turing reducerer fremstillingsprocessen yderligere til 12 nm.
(Det er uden tvivl en forbedring af den aktuelle 16 nm-proces, men lad os lade tekniske forhold være tekniske forhold.) Det hjalp RTX 2080, der blev gennemgået her, næsten fordoblet transistorantallet for GTX 1080 til 13,6 milliarder fra 7,2 milliarder.
Her er et kig på Nvidias grafikkortarkitekturer, deres fremstillingsprocesser og deres transistor tæller gennem årene ...
Efterfølgende generationer sneede utallige tekniske forbedringer, og det er ikke at nævne de nye teknologier, der blev introduceret undervejs.
(Support til Microsoft DirectX 12 og HDR kommer til at tænke på som to af de nyeste.) Så transistorantal tæller ikke den fulde historie, men det har en stor rolle i slutspillet med at opnå mere beregningskraft.
Det er ironisk, at de største spring inden for databehandling ofte foretages ved at gøre tingene mindre, men det er sandt, og det er derfor, Turing er store nyheder.
Core Shift: RT Cores Versus CUDA Cores
Som flere foregående generationer af GeForce-grafikkort bruger RTX 20-serien CUDA-processorkerner til traditionel 3D-behandling.
Hvad der er nyt i GeForce RTX 20-serien er dens tilføjelse af strålesporingskerner (eller RT) -kerner, som muliggør hardware-accelereret strålesporing.
GTX 10-serien kunne udføre strålesporingsoperationer, hvorfor jeg påpegede, at strålesporing ikke er et nyt koncept, men det måtte gøre dem i software, som er for langsom til realtidsapplikation.
Nvidia vurderer GTX 1080's strålesporingsydelse med kun 0,89 gigarays i sekundet, mens den nye RTX 2080 gør 8 gigarays i sekundet.
Det er en massiv stigning, og det skulle gøre det praktisk at foretage strålesporing i realtid.
(Igen var jeg ikke i stand til at teste strålesporing i aktion endnu; ingen software var tilgængelig.
Så vi har kun kun, hvad Nvidia siger at fortsætte.)
Når vi taler om CUDA-kerner, bringer RTX 20-serien også forbedringer der.
Turing har ikke kun flere CUDA-kerner til at begynde med, men Nvidia hævder, at de tilbyder omkring 50 procent mere ydelse pr.
Kerne end under Pascal-arkitekturen.
Streaming Multiprocessors (SM'er) på grafikkortet (det vil sige hvor CUDA-kernerne findes) er blevet redesignet til Turing.
Meget af CUDA-kernens ydelsesforøgelse kommer fra en anden parallel eksekveringsenhed, der sidder ved siden af ??hver CUDA-kerne, hvilket gør det muligt at behandle både heltal og flydende punktoperationer samtidigt.
Derudover har Turing en redesignet SM-hukommelsessti, som Nvidia siger er godt for 50 procent højere effektiv hukommelsesbåndbredde end under Pascal.
Dramatisk tension: De nye tensorkerner
Tensorkerner debuterede i 2017 på Nvidias Volta-arkitektur, men de er ikke blevet introduceret i Nvidias spilfokuserede GeForce-grafikkort indtil nu.
Deres anvendelse illustreres bedst i Turings DLSS-funktion.
Hvis du er en spiller, har du sandsynligvis bemærket de "jaggies", der kan vises på kanterne af objekter i spillet.
Du kan få en bedre visuel oplevelse, hvis du aktiverer anti-aliasing for at udjævne dem, men at gøre det medfører en betydelig præstation.
Anti-aliasing kan udføres på en række måder; Nvidias go-to-metode hidtil har været tidsmæssig anti-aliasing eller TAA.
Det fungerer ved at tage flere scener som input og massere dem til et enkelt billede for at få et endeligt, bedre udseende resultat.
Denne proces medfører dog meget overhead, fordi grafikkortet skal gengive alle inputrammer i den endelige opløsning.
(Så hvis du kører et spil på 1080p, skal inputrammerne også være 1080p.)
DLSS går anderledes om dette.
Det reducerer omkostningerne, fordi det ikke kræver så mange inputeksempler.
I stedet bruger den Tensor-kernernes AI-funktioner til at forudsige, hvordan de andre input skulle have set ud, og det gengiver en scene, der svarer til, hvad TAA ville opnå med omtrent halvdelen af ??omkostningerne.
Det er bare præstationsaspektet ved DLSS.
Det er også designet til at forbedre billedkvaliteten ved at "lære", hvordan det ideelle billede skal se ud.
TAA kan introducere en række visuelle ufuldkommenheder, såsom slørhed og generelt tab af detaljer.
DLSS kan trænes ved at lade den undersøge "ideelt gengivne" prøvebilleder for at tilnærme dens output med de ideelt gengivne billeder, men i realtid.
Kort sagt kan DLSS nøjagtigt gætte, hvordan noget skal se ud uden at udføre det meste af det traditionelle behandlingsarbejde, hvilket forbedrer ydeevnen.
DLSS er dog ikke en plug-in-teknologi til eksisterende spil.
Talrige kommende spil skulle vedtage teknologien, men i skrivende stund er der intet at teste med.
Andre nye teknologier
Jeg vil kort opsummere tre andre vigtige skyggeforbedringer, som GeForce RTX 20-serien bringer til udviklerens tabel.
Den første er VRS (Variable Rate Shading).
VRS giver udviklere mulighed for at skygge dele af skærmen mere detaljeret end andre.
I et racerspil er for eksempel skygge på vejen, der til at begynde med ligner en sløring, ikke så vigtig som at skygge for bilen og horisonten.
Denne teknologi gør det muligt at udnytte grafikkortets processorkraft mere selektivt og dermed effektivt.
Den næste er Texture-Space Shading.
Denne taktik er designet til at eliminere duplikeret skyggearbejde ved at skygge genstande i et teksturrum og derefter gemme dem i hukommelsen, hvor de kan genprøves eller genbruges.
Den sidste er Multi-View Rendering (MVR).
GeForce GTX 10-serien er i stand til at gengive to visninger i et pass via sin Single Pass Stereo-funktion, men kun fra det samme synspunkt (bare en anden X-offset).
MVR på RTX 20-serien gør det muligt at gengive flere visninger, der ikke behøver at starte ved det samme synspunkt.
Det giver mulighed for, at MVR teoretisk set bliver engageret oftere, hvilket igen øger effektiviteten.
Det er de kondenserede versioner af disse tre teknologier.
Som jeg allerede har bemærket et par gange, afhænger alt dette af, hvad der sker, når PC Labs har haft en chance for at teste understøttede spil.
For at afslutte de sidste par tech-talk sektioner, her er et kig på ...