"Game Changer" DLSS? Der ultimative Praxistest von DLSS 2.3 mit Benchmarks und Video-Vergleichen (2024)

Auf dieser Seite

  1. 1Problem und Lösung
  2. 2Laufende DLSS-Evolution
  3. 4DLSS: Technische Hintergründe

Spätestens mit Version 2.3 ist Nvidias Upsampling-Verfahren DLSS erwachsen geworden. Das war nicht immer so: Als das Deep Learning Super Sampling vor gut drei Jahren vorgestellt wurde, glaubte angesichts der mauen Ergebnisse niemand an die Vision der Geforce-Macher. In den folgenden Monaten krempelten Nvidias Software-Ingenieure den Algorithmus um und hatten schließlich Erfolg - DLSS 2.x ist hübscher und flexibler als DLSS 1.x und steigert die Bildraten trotzdem signifikant.

Dass die Akzeptanz nicht nur bei Spielern, sondern auch bei Entwicklern zunimmt, wird durch die Anzahl der DLSS-fähigen Spiele deutlich: Allein im zweiten Halbjahr 2021 erschienen mehr als 50 Titel mit DLSS-Support, darunter Kassenschlager wie Battlefield 2042, Marvel's Guardians of the Galaxy und der Landwirtschafts-Simulator 22. Das ist für PCGH Grund genug, dem hoch spannenden Upsampling-Verfahren eine aktuelle Betrachtung zu widmen - mit zahlreichen Vergleichsvideos, die die unterschiedlichen Anti-Aliasing-Verfahren in Bewegung zeigen. Vorhang auf! Wer des Lesens überdrüssig ist, findet die wichtigsten Informationen im folgenden Video.

Empfohlener redaktioneller InhaltAn dieser Stelle finden Sie externe Inhalte von [PLATTFORM]. Zum Schutz Ihrer persönlichen Daten werden externe Einbindungen erst angezeigt, wenn Sie dies durch Klick auf "Alle externen Inhalte laden" bestätigen:Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Mehr dazu in unserer Datenschutzerklärung.

Externe Inhalte Mehr dazu in unserer Datenschutzerklärung.

Problem und Lösung

Je mehr Bildpunkte berechnet werden müssen, also je höher die Auflösung, desto härter muss die Grafikkarte schuften. Mit dem Aufkommen von Echtzeit-Raytracing hat der Grafikchip eine weitere pixelbasierte Aufgabe zu schultern - und kollabiert in vielen Fällen unter der Last. Wenn Pixel die Wurzel allen Übels sind, liegt es nahe, daran zu sparen. Das wird bereits seit Jahrzehnten getan, Echtzeitgrafik ist ein einziger Kompromiss. Neuartig sind hingegen Verfahren, die intern zwar kräftig Pixel sparen, dank smarter Ideen aber dennoch Bilder ausgeben, die weitestgehend "nativ" aussehen. Was der Lebensmittelindustrie künstliche Aromen und Geschmacksverstärker sind, wird am Computer alles mithilfe von Algorithmen und Heuristiken erledigt - manche gehen gar so weit, es künstliche Intelligenz zu nennen. So auch Nvidia, deren Deep Learning Super Sampling exzessiv von den neuartigen Möglichkeiten Neuronaler Netzwerke Gebrauch macht.

Die Funktionsweise lässt sich mit einfachen Worten erklären, der technische Hintergrund ist jedoch hochkomplex. Zuerst füttert man einen Supercomputer mit ultrahochauflösenden Bildern, bis dieser "weiß", wie erstrebenswerte Grafik aussieht (Training). Dieses datengetriebene Wissen wird als Vorlage bzw. Berechnungsvorschrift abgespeichert und mittels Spiel- oder Treiber-Updates auf die Rechner der Spieler transferiert. Dort wendet eine Geforce-RTX-Grafikkarte mithilfe neuartiger, speziell für diese Aufgabe geschaffener Rechenkerne das Wissen an - bei reduzierter Auflösung, aber ausgeklügelten Maßnahmen, um am Ende mehr Fps bei ähnlicher Qualität zu erhalten. Tatsächlich verrechnet und rekonstruiert das aktuelle DLSS 2.x die Bilddaten räumlich (spatial) und zeitlich (temporal) derart clever, dass nicht nur ein riesiges Fps-Plus zu verzeichnen ist, Teile der Bilder werden sogar besser und stabiler wiedergegeben als bei höherer, in der Regel nativer Auflösung. Wie kann das sein?

Das Ergebnis wirkt stellenweise wie Zauberei, lässt sich aber erklären: Gegenüber der Ground Truth, dem idealen Bild, ist selbst die heutige Pixel-Königsklasse Ultra HD nur eine geringe Auflösung. Die Differenz zwischen Realität und Ideal lässt sich datengetrieben schlussfolgern - und genau das tut DLSS.
Quelle: Nvidia (Screenshot: PCGH)DLSS: So funktioniert's

Laufende DLSS-Evolution

Nvidia betont, dass DLSS kein starres Gebilde ist, sondern durch stetige Anpassungen und Training besser wird. Seit Version 2.0, welche im Frühjahr 2020 erschien, haben die Kalifornier mehrere Iterationen veröffentlicht, welche die Schwachstellen früherer Versionen angehen. Das prominenteste Problem ist eng mit der größten Stärke verzahnt. Dadurch, dass DLSS mit vielen Daten aufeinander folgender Frames arbeitet, enthalten die fertigen Bilder deutlich mehr Informationen als bei "normaler" Bildglättung. Bewegungen im virtuellen Raum müssen bei der DLSS-Arbeitsweise nachverfolgt werden, ansonsten kommt es unweigerlich zu Artefakten wie Schmieren. In der Regel zeigen besonders feine Elemente den berüchtigten Schmier-Schweif, beispielsweise Stromleitungen und Partikel. Nvidia arbeitet seit Monaten aktiv daran, dieses Problem in den Griff zu bekommen. Die aktuelle DLSS-Iteration 2.3.x schafft Abhilfe, auffälliges Schmieren ist hier kein Thema mehr. Eine mehr oder minder ausgeprägte "Nachziehmentalität" ist indes bei jedem temporalen Verfahren zu beobachten, gerade bei geringen Bildraten.

Früher ging man davon aus, dass bestehende Spiele nur dann DLSS-Updates erhalten, wenn deren Entwickler mithilfe von Patches nachbessern, tatsächlich sind auch Treiber-Updates dazu in der Lage. Den Anfang machen die Titel Cyberpunk 2077 und Doom Eternal, welche im Rahmen des Geforce-Treibers 496.76 nachträglich mit DLSS 2.3 ausgestattet werden. Künftige Spiele setzen ab Werk auf die jeweils aktuelle DLSS-Variante.

DLSS vs. FSR & NIS - WTF?

Upscaling ist nicht gleich Upscaling, die verschiedenen Arbeits- und Implementierungsweisen erfordern eine Unterscheidung. Bei der Bewegtbildrekonstruktion unterscheidet man grundsätzlich zwischen spatialen (räumlichen) und temporalen (zeitlichen) Lösungen, wobei die besten Verfahren beide Berechnungsarten durchführen - wie DLSS. Ein rein spatialer Upscaler ist AMDs FidelityFX Super Resolution, kurz FSR. Ein solcher Algorithmus berücksichtigt keine zeitlichen Informationen, für ihn zählt isoliert das gerade aktuelle Bild. Der praktische Vorteil eines solchen Verfahrens ist, dass es sich einfach implementieren lässt und Leistung freischaufelt. Gegen Aliasing in Bewegung ist es jedoch machtlos - schlimmer noch, es verstärkt Aliasing jeder Art durch das Pixelsparen und die oft angewendete Nachschärfung.

Quelle: Nvidia (Screenshot: PCGH)Nvidia Image Scaling (NIS): Die voreingestellten Auflösungsstufen orientieren sich an der nativen.
Das erst kürzlich in den Geforce-Treiber implementierte Nvidia Image Scaling (NIS, sprich "nice") schlägt in dieselbe Kerbe - es handelt sich um ein rein spatiales, dafür hoch kompatibles Verfahren. Wie bei FSR wird hier mit einem Bruchteil der nativen Auflösung gearbeitet und darauf hochskaliert. Verfügbar sind die Auflösungsstufen 85 %, 77 %, 66 %, 59 % und 50 %, wobei - wie bei FSR - nur die ersten beiden Optionen ein ansehnliches Bild erreichen. Da NIS und FSR rein spatial arbeiten, ergo nur fertige Bilder ohne zeitliche Komponente hochrechnen, sind hier grundsätzlich keine Wunder zu erwarten, auch wenn Nvidia den Kernel just verbessert hat.

Aufgrund der unterschiedlichen Funktionweise sind Vergleiche anhand der Bezeichnungen nicht möglich. Beispielsweise reklamieren die Modi NIS Ultra Quality und FSR Ultra Quality die höchstmögliche Qualität, wenn man rein nach den Namen geht. Tatsächlich kommen diese Verfahren trotz der intern höheren Auflösung nur in den allerseltensten Fällen auch nur in die Nähe von DLSS Quality, bei der temporalen Stabilität erreicht mitunter schon DLSS Performance bessere Ergebnisse. Mehr dazu auf der folgenden Artikelseite (Betrachtung der Bewegtbildqualität).
Quelle: Nvidia (Screenshot: PCGH)DLSS vs. Traditional Upscaling

DLSS: Technische Hintergründe

Mittlerweile gibt Nvidia selbstkritisch zu, dass DLSS in seiner ursprünglichen Form mit zu vielen Einschränkungen behaftet war, die den großen Durchbruch verhindert hatten. Trotz diverser Iterationen von DLSS 1.x blieb vor allem das Training des Neuronalen Netzwerks problematisch, welches zwingend pro Spiel und szenenweise durchgeführt werden musste. Dabei, so Nvidia, bereiteten vor allem die Bewegungsvektoren Probleme: Sequenzen, die sich nur minimal unterschieden, könnten nicht als Input dienen, da diese sonst zu Artefakten (wie falschen Pixeln) führten. Der hohe Zeit- und Verwaltungsaufwand war auch der Grund, warum DLSS 1.x nur ausgewählten Auflösungen angeboten wurde.

Doch die Entwicklung ging weiter, mit dem Ziel, eine flexible und doch mächtige Lösung zu erschaffen. Dafür musste ein generalisierter Ansatz auf Software-Basis her, den Nvidia "Convolutional Autoencoder" nennt und praktisch in DLSS 2.x mündete. Nvidia verwendet seit bald zwei Jahren ein universell trainiertes Netz, das Pro-Spiel-Durchexerzieren ist nicht mehr notwendig und vereinfacht damit auch die Integration von DLSS in Spiele. Und je mehr Spiele ihre Daten anliefern, desto besser wird das Netzwerk. Zutun durch die Spiele-Entwickler ist jedoch nach wie vor nötig, da DLSS Zugriff auf diverse Buffer benötigt und auch das Textur-LOD angepasst werden sollte. Letzteres steht laut unseren Informationen in den Implementierungsrichtlinien für Entwickler, wird jedoch bei so manchem Spiel vergessen. Ist das der Fall, kann das Textur-LOD mithilfe eines geeigneten Programms - wie dem 3rd-Party-Tool Nvidia Inspector - angepasst werden.

Quelle: Nvidia (Screenshot: PCGH)DLSS: In- und Output
Auf Nachfrage seitens PCGH betonte Nvidia, dass tatsächlich die Tensor-Spezialkerne der Geforce-RTX-Grafikkarten bei DLSS 2.x für die Rekonstruktion verantwortlich zeichnen und nicht etwa die Allzweck-ALUs. Damit einher geht die Mindestvoraussetzung für DLSS in Gestalt einer Geforce RTX 20 oder RTX 30. Als Gegenwert erhält man die gewünschte Entlastung der übrigen Einheiten und somit den beworbenen, oftmals stattlichen Leistungsgewinn, den wir auf der dritten Seite dieses Artikels thematisieren.

Bildergalerie

').css('opacity', 0).html(tip).appendTo('body');self.init();self.target.on('mouseleave', () => {console.log('mouseleave');console.log($('#shareDialog').hasClass('is-open'));if ($('#shareDialog').hasClass('is-open')) {self.remove();}});self.tooltip.on('click', () => {self.remove();});});$(window).on('resize', () => {self.init();});}/*** @param target* @param info* @param timeout*/showTemporary(target, info, timeout) {let self = this;timeout = timeout || 10;this.target = target;let tip = self.textList[info];if (!tip || tip == '') {return false;}if (this.tooltip) {this.tooltip.remove();}this.tooltip = $('

').css('opacity', 0).html(tip).appendTo('body');this.init();setTimeout(() => {self.remove();$(this.target).removeClass('active');}, timeout * 1000);}/****/remove() {if (!this.tooltip) {return;}this.tooltip.animate({top: '-=10',opacity: 0}, 50, function() {$(this).remove();});}/****/init() {if (!this.tooltip || !this.target) {return;}this.tooltip.addClass('dBlk');}}ctcTooltip = new ctcTooltips();$(document).on('click', '.shareCopy', function() {$(this).addClass('active');copyToClipboardNew($(this));});var copyToClipboardNew = function(target) {var textArea = document.createElement('textarea'),text = target.data('text');textArea.style.position = 'fixed';textArea.style.top = 0;textArea.style.left = 0;textArea.style.width = '2em';textArea.style.height = '2em';textArea.style.padding = 0;textArea.style.border = 'none';textArea.style.outline = 'none';textArea.style.boxShadow = 'none';textArea.style.background = 'transparent';textArea.value = text;document.body.appendChild(textArea);textArea.focus();textArea.select();try {var successful = document.execCommand('copy');if (successful) {ctcTooltip.showTemporary(target, 'link_copied', 2);} else {ctcTooltip.showTemporary(target, 'link_copy_error');}} catch (err) {}document.body.removeChild(textArea);};var closeShareWidget = function(delay) {setTimeout(function() {shareDialog.classList.remove('is-open');}, delay);}jQuery(document).on('click', '.jsShare', function() {shareDialog.classList.add('is-open');jQuery(document).on('click', '#shareDialog', function() {if (event.target.nodeName == 'I') {closeShareWidget();} else {var container = $('.shareWrapper');if ((!container.is(event.target) && !container.has(event.target).length) || event.target.nodeName == 'A') {closeShareWidget();}}});})

69

  1. Seite 1Game Changer DLSS: Übersicht
  2. Seite 2Game Changer DLSS: Bildqualität analysiert
  3. Seite 3Game Changer DLSS: Benchmarks
  4. Seite 4Game Changer DLSS: Fazit
"Game Changer" DLSS? Der ultimative Praxistest von DLSS 2.3 mit Benchmarks und Video-Vergleichen (2024)
Top Articles
Latest Posts
Article information

Author: Nicola Considine CPA

Last Updated:

Views: 6694

Rating: 4.9 / 5 (69 voted)

Reviews: 84% of readers found this page helpful

Author information

Name: Nicola Considine CPA

Birthday: 1993-02-26

Address: 3809 Clinton Inlet, East Aleisha, UT 46318-2392

Phone: +2681424145499

Job: Government Technician

Hobby: Calligraphy, Lego building, Worldbuilding, Shooting, Bird watching, Shopping, Cooking

Introduction: My name is Nicola Considine CPA, I am a determined, witty, powerful, brainy, open, smiling, proud person who loves writing and wants to share my knowledge and understanding with you.