De RTX 4090 gokt op software, en dat is een goed idee

Nvidia heeft eindelijk de RTX 4090 en RTX 4080 aangekondigd tijdens de speciale GeForce Beyond-uitzending. De kaarten komen binnenkort aan en zitten boordevol nieuwe functies. Zoveel zelfs dat Nvidia zich tijdens de presentatie veel minder richtte op onbewerkte prestaties en veel meer op de softwarestack die Ada Lovelace GPU’s ondersteunt.

Er zijn veel onbeantwoorde prestatievragen over de RTX 4090 en RTX 4080, vooral gezien het feit dat ze duurder zijn dan de vorige generatie. Toch zijn de kaarten een teken van wat er gaat komen in de toekomst van pc-graphics. Kracht is absoluut van belang, maar de betrouwbaarheid van games komt steeds meer neer op de software die nieuwe GPU’s ondersteunen. Nvidia doet die oproep, en het is de juiste om te doen.

Waar brute kracht eindigt

Het is gemakkelijk om aan te nemen dat je meer kracht op het prestatieprobleem moet gooien om de framesnelheden te verhogen, maar de snelheid waarmee Nvidia beweegt, laat de hardware niet toe om in te halen. Als de opmerkingen van Jensen iets zijn om aan te nemen – waar games één enorme simulatie worden – zou je over meerdere generaties een GPU nodig hebben.

Momenteel vindt de weergave van de hoogste kwaliteit offline plaats. Dat wil zeggen, een GPU werkt aan het renderen van elk frame, ongeacht hoe lang het duurt. Games doen dezelfde weergave, maar het gebeurt tijdens runtime. De applicatie (je game) voert instructies uit terwijl het renderen plaatsvindt, en het renderen moet snel genoeg zijn om een ​​afspeelbare framesnelheid te hebben.

De GPU’s die beschikbaar zijn voor gamers zijn in veel gevallen dezelfde die beschikbaar zijn voor visuele effecten en animatiestudio’s, dus deze sprong voorwaarts van weergavegetrouwheid kan niet worden opgelost door nieuwe GPU’s uit te brengen. Er moet een manier zijn om de runtime-prestaties te optimaliseren om dezelfde kwaliteit te hebben als een offline render. Dat is tenminste het idee.

Een grafiek die laat zien hoe Nvidia's DLSS 3-technologie werkt.

Nvidia bereikt dat door middel van twee hoofdtools: Deep Learning Super Sampling (DLSS) 3 en Shader Execution Reordering (SER). De meeste Nvidia-gebruikers zijn bekend met DLSS. Het is een supersampling-tool die een lagere interne resolutie gebruikt voordat deze wordt opgeschaald met AI om de oorspronkelijke resolutie van uw monitor te bereiken. Minder pixels om te renderen betekent snellere prestaties. Simpel genoeg.

DLSS 3 wil dat nog een stap verder brengen. Naast de traditionele AI-opschaling genereert DLSS 3 volledig unieke frames die niet door uw GPU zijn weergegeven. Het kijkt naar eerdere en toekomstige frames en kan voorspellen wat uw GPU daartussen zou weergeven. Het zou vanzelfsprekend moeten zijn, maar unieke frames die uw GPU niet hoeft te renderen, zijn een verleidelijk aanbod om de prestaties te verbeteren.

Een grafiek die laat zien hoe Nvidia's Shader Execution Reordering werkt.

SER is specifiek van toepassing op ray tracing, wat nodig is voor een game die één grote simulatie wil zijn. Nvidia zegt dat het shading-workloads in realtime opnieuw plant, wat een verbetering van je framesnelheid tot 25% kan opleveren. Nvidia stelt SER gelijk aan out-of-order uitvoering voor CPU’s, wat nogal een claim is.

Doorgaans werkt raytracing niet goed met parallelle verwerking. Dat wil zeggen, elke straal heeft zijn eigen aandacht nodig vanwege de semi-willekeurige aard van hoe licht weerkaatst. GPU’s zijn echt gemaakt voor parallelle verwerking, daarom is raytracing tegenwoordig zo veeleisend. Door de raytracing-instructies te optimaliseren op basis van het beschikbare vermogen, hoopt Nvidia de framerates nog verder te verhogen.

Software gedefinieerd

De bovenkant van de Nvidia RTX 4080 koeler.

In de wereld van CPU’s is er de afgelopen jaren veel gesproken over het einde van de wet van Moore. GPU’s en CPU’s komen op een punt waarop het niet zo eenvoudig is als het inpakken van meer transistors in dezelfde ruimte, wat in de eerste plaats het idee was achter de wet van Moore. En we zien nu al hoe software de gaten kan opvullen.

Natuurlijk is DLSS niet hetzelfde als native rendering – er is een kleine compromis in beeldkwaliteit – maar het biedt een veel grotere prestatieverbetering dan zelfs een typische GPU-generatie. Dat is een moeilijk feit om mee om te gaan. Een softwarefunctie, gratis voor Nvidia RTX-bezitters, zorgt voor meer prestaties dan een gloednieuwe GPU. In alle eerlijkheid geldt hetzelfde voor AMD’s FidelityFX Super Resolution (FSR), vooral in de meest recente versie.

We bereiken een punt waarop GPU’s worden gedefinieerd door de software die ze ondersteunen. SER en DLSS 3 zijn daar nog maar het begin van. Het is duidelijk dat Nvidia ziet dat de prestatieverbeteringen die beschikbaar zijn door software-optimalisaties zelfs opwegen tegen generatieverbeteringen als er voldoende creativiteit is, en dat zou hogere framesnelheden voor gamers moeten betekenen, zelfs als ze zich geen GPU van topspecificaties kunnen veroorloven.

Zal het werken?

Microsoft Flight Simulator | NVIDIA DLSS 3 – Exclusieve eerste blik

Hoewel Nvidia’s beweringen over DLSS en SER logisch zijn, betekent dat niet dat de softwarecombinatie een winnend lot is. Dit is hetzelfde bedrijf dat ray tracing in 2018 debuteerde tot een absoluut verschrikkelijke reeks games, en eerlijk gezegd is zelfs ray tracing tegenwoordig in veel gevallen het prestatietekort niet waard. Dat zou opnieuw kunnen gebeuren met DLSS 3 en SER.

Maar ik heb er vertrouwen in. Er zijn absoluut problemen met de prijsstelling van de RTX 4090 en RTX 4080, maar de technologie eronder is veelbelovend. DLSS doet nu wonderen en hopelijk heeft Nvidia van de eerste versie geleerd hoe de beeldkwaliteit de ervaring kan verzwakken. SER is ook opwindend en belooft gratis raytracing-prestaties zonder speciale weergavetechnieken.

Mijn vertrouwen is echter niet concreet. Het is belangrijk om te wachten tot de RTX 4090 en RTX 4080 er zijn voordat je definitieve conclusies trekt. Hoe dan ook, de toekomst van pc-graphics werd en zal worden bepaald door software, en de nieuwste GPU’s van Nvidia zijn daar een bewijs van.

Aanbevelingen van de redactie






Leave a Comment