Daxdi now accepts payments with Bitcoin

Nvidia GeForce RTX 2080 Gründer Edition Review

Als Nvidia im ersten Halbjahr 2016 sein damaliges Flaggschiff GeForce GTX 1080 vorstellte, hätten wir nie erwartet, mehr als zwei Jahre auf die nächste Grafikkartenarchitektur zu warten.

Die "Pascal" -Architektur hinter den Grafikkarten der GTX 10-Serie ist sehr gut gealtert, aber gealtert.

Es ist endlich Zeit, sich zur Seite zu bewegen: Die GeForce RTX 2080 ist da, angetrieben von der brandneuen "Turing" -Architektur.

Wir haben die GeForce RTX 2080 Founders Edition im Wert von 799 US-Dollar sowie ihren kräftigeren Bruder, die GeForce RTX 2080 Ti Founders Edition, in die Hände bekommen und sie einer Vielzahl von Tests unterzogen.

Das Endergebnis? Das Warten auf diese Karte hat sich gelohnt und ist ein Killer für allumfassende 4K-Spiele mit vielen Details, einschließlich Spielen mit Gaming-Monitoren mit hoher Bildwiederholfrequenz und in HDR.

Early Adopters werden nicht enttäuscht sein, aber die beiden Festzeltfunktionen der Karte, auf die wir gleich noch eingehen werden, stecken in den Kinderschuhen.

Solange es Ihnen nichts ausmacht, für diese Zukunftssicherheit eine Prämie zu zahlen, ist diese Karte ein Biest und eine praktische Alternative zur bereits großartigen GeForce GTX 1080 Ti.

Aber wissen Sie, dass ein Teil des Preises, den Sie zahlen, eine Wette auf die Zukunft ist.

Daxdi.com ist eine führende Technologiebehörde und liefert Labs-basierte, unabhängige Überprüfungen der neuesten Produkte und Dienstleistungen.

Unsere Branchenanalysen und praktischen Lösungen helfen Ihnen, bessere Kaufentscheidungen zu treffen und mehr aus der Technologie herauszuholen.

Lernen Sie die GeForce RTX kennen: Was ist neu?

Die größte Neuigkeit bei der GeForce RTX ist die hardwarebeschleunigte Raytracing-Funktion dank neuer RT-Prozessorkerne, die in die Karte selbst integriert sind.

Raytracing ermöglicht fotorealistische Licht- und Schatteneffekte in Spielen.

Obwohl Raytracing kein neues Konzept ist, war es bisher aufgrund seines enormen Leistungsaufwands unpraktisch, es in Echtzeit zu verwenden.

Die RTX 20-Serie wurde jedoch entwickelt, um dies zu ändern.

(Weitere Informationen zum Raytracing finden Sie in den Nvidia RTX-Karten auf der Schwesterseite ExtremeTech.)

Die andere wichtige technologische Innovation bei der RTX 20-Serie ist die Unterstützung einer Technologie, die als Deep Learning Super-Sampling (DLSS) bekannt ist.

DLSS wird durch neue Tensor-Verarbeitungskerne auf der Grafikkarte aktiviert und verwendet AI, um die Kanten von Objekten im Spiel effizienter zu glätten als der herkömmliche Ansatz, Anti-Aliasing.

Nvidia behauptet, dass mit DLSS erhebliche Leistungssteigerungen möglich sind.

Das Seltsamste an dieser Überprüfung ist, dass Sie keine Tests oder formalen Benchmarks sehen, bei denen Raytracing oder DLSS ein expliziter Faktor sind.

Das Hindernis? Die einfache Tatsache, dass bei diesem Schreiben keine Spiele oder Benchmarks verfügbar waren, die beide Technologien vollständig unterstützten.

Viele kommende Spiele wurden bereits mit Unterstützung beworben, aber es ist unwahrscheinlich, dass vorhandene Spiele die gleiche Behandlung erhalten.

Die aktuelle Situation macht es daher etwas schwierig, den Wert der Karten der GeForce RTX 20-Serie im Verhältnis zu den aktuellen Karten zu beurteilen.

Mit 799 US-Dollar verfügt die RTX 2080 Founders Edition über deutlich mehr Geld als die GeForce GTX 1080 Founders Edition mit 549,00 US-Dollar bei Nvidia, die sie in der Nvidia-Produktpalette ersetzt.

Der Wert der RTX 20-Serie hängt jedoch nicht nur von der Unterstützung dieser neuen Technologien ab.

Die Karte bietet außerdem eine deutlich verbesserte Leistung gegenüber der GTX 10-Serie für alle von mir getesteten Spiele und Benchmarks, insbesondere bei einer 4K-Auflösung.

Nvidia behauptet, dass die neuen GeForce RTX 2080-Grafikkarten bis zu doppelt so viel Leistung bieten wie die Vorgänger-GTX 1080.

Dies setzt jedoch voraus, dass das betreffende Spiel DLSS unterstützt.

Ich werde früh genug zu den Benchmarks kommen; Begleiten Sie mich vorerst, während ich mich mit dem Hintergrund der GeForce RTX 20-Serie befasse und warum es so eine große Sache ist.

Down Memory Lane: Turing und seine Abstammung

Nvidia stellte Pascal, Turings architektonischen Vorgänger, im ersten Halbjahr 2016 vor.

Dies war ein Meilenstein für das Unternehmen, da es das erste Mal seit vier Jahren war, dass es seinen Herstellungsprozess schrumpfte.

In Nanometern ausgedrückt ist der Herstellungsprozess der Mindestabstand zwischen Transistoren auf einem Computerchip.

Kurz gesagt, je kleiner der Abstand, desto mehr Transistoren können in den gleichen Raum gepackt werden.

Die Anzahl der Transistoren hängt von der Rechenleistung ab.

Je mehr davon Sie haben, desto besser, wenn alle anderen gleich sind.

Das ist die Voraussetzung, die Moores Gesetz untermauert.

Pascal basierte auf einem 16-nm-Prozess, der erheblich kleiner war als der 28-nm-Prozess der früheren "Kepler" - und "Maxwell" -Architekturen, die er ersetzte.

Das allein gab ihm einen massiven Leistungsvorteil.

(Maxwell wurde 2014 eingeführt, verwendete jedoch denselben 28-nm-Prozess wie die Kepler-Architektur, die Nvidia 2012 eingeführt hatte.) Schneller Vorlauf in die zweite Hälfte des Jahres 2018, und Turing reduziert den Herstellungsprozess weiter auf 12 nm.

(Es ist wohl eine Verfeinerung des aktuellen 16-nm-Prozesses, aber lassen wir die technischen Details technische Aspekte sein.) Dadurch konnte der hier getestete RTX 2080 die Transistoranzahl der GTX 1080 von 7,2 Milliarden auf 13,6 Milliarden verdoppeln.

Hier ein Blick auf die Grafikkartenarchitekturen von Nvidia, ihre Herstellungsprozesse und ihre Transistorzahlen im Laufe der Jahre ...

Nachfolgende Generationen haben unzählige technische Verbesserungen erzielt, ganz zu schweigen von den neuen Technologien, die auf diesem Weg eingeführt wurden.

(Die Unterstützung von Microsoft DirectX 12 und HDR ist zwei der neuesten.) Die Anzahl der Transistoren erzählt also nicht die ganze Geschichte, spielt jedoch eine große Rolle im Endspiel, um mehr Rechenleistung zu erzielen.

Es ist ironisch, dass die größten Sprünge im Computer oft dadurch gemacht werden, dass die Dinge kleiner werden, aber es ist wahr, und deshalb ist Turing eine große Neuigkeit.

Kernverschiebung: RT-Kerne versus CUDA-Kerne

Wie mehrere frühere Generationen von GeForce-Grafikkarten verwendet die RTX 20-Serie CUDA-Prozessorkerne für die herkömmliche 3D-Verarbeitung.

Neu in der GeForce RTX 20-Serie ist die Hinzufügung von Raytracing- (oder RT-) Kernen, die eine hardwarebeschleunigte Raytracing-Funktion ermöglichen.

Die GTX 10-Serie könnte Raytracing-Vorgänge ausführen, weshalb ich darauf hingewiesen habe, dass Raytracing kein neues Konzept ist, sondern in einer Software, die für Echtzeitanwendungen zu langsam ist.

Nvidia bewertet die Raytracing-Leistung der GTX 1080 mit nur 0,89 Gigarays pro Sekunde, während die neue RTX 2080 8 Gigarays pro Sekunde liefert.

Das ist ein massiver Anstieg, und es sollte praktisch sein, Raytracing in Echtzeit durchzuführen.

(Auch hier konnte ich Raytracing noch nicht in Aktion testen.

Es war keine Software verfügbar.

Wir haben also alle nur das, was Nvidia sagt.)

Apropos CUDA-Kerne: Die RTX 20-Serie bringt auch dort Verbesserungen.

Turing verfügt nicht nur über mehr CUDA-Kerne, sondern Nvidia behauptet auch, dass sie pro Kern etwa 50 Prozent mehr Leistung bieten als unter der Pascal-Architektur.

Die Streaming-Multiprozessoren (SMs) auf der Grafikkarte (dh dort, wo sich die CUDA-Kerne befinden) wurden für Turing neu gestaltet.

Ein Großteil der Leistungssteigerung des CUDA-Kerns kommt von einer zweiten parallelen Ausführungseinheit, die sich neben jedem CUDA-Kern befindet und es ihm ermöglicht, sowohl Ganzzahl- als auch Gleitkommaoperationen gleichzeitig zu verarbeiten.

Darüber hinaus verfügt Turing über einen neu gestalteten SM-Speicherpfad, der laut Nvidia für eine um 50 Prozent höhere effektive Speicherbandbreite als unter Pascal geeignet ist.

Dramatisches Tension: Die neuen Tensorkerne

Tensorkerne wurden 2017 in der Volta-Architektur von Nvidia eingeführt, wurden jedoch bisher noch nicht in die auf Spiele ausgerichteten GeForce-Grafikkarten von Nvidia eingeführt.

Ihre Verwendung wird am besten in der DLSS-Funktion von Turing veranschaulicht.

Wenn Sie ein Spieler sind, haben Sie wahrscheinlich die "Zacken" bemerkt, die an den Rändern von Objekten im Spiel auftreten können.

Sie können eine bessere visuelle Erfahrung erzielen, wenn Sie Anti-Aliasing aktivieren, um sie zu glätten.

Dies ist jedoch mit erheblichen Leistungseinbußen verbunden.

Anti-Aliasing kann auf verschiedene Arten durchgeführt werden.

Die bisherige Methode von Nvidia war zeitliches Anti-Aliasing (TAA).

Es funktioniert, indem mehrere Szenen als Eingabe verwendet und zu einem einzigen Bild massiert werden, um ein endgültiges, besser aussehendes Ergebnis zu erzielen.

Dieser Vorgang verursacht jedoch viel Overhead, da die Grafikkarte alle Eingaberahmen mit der endgültigen Auflösung rendern muss.

(Wenn Sie also ein Spiel mit 1080p ausführen, müssen die Eingabeframes ebenfalls 1080p sein.)

DLSS geht das anders an.

Es reduziert den Overhead, da nicht so viele Eingabesamples erforderlich sind.

Stattdessen werden die KI-Funktionen der Tensorkerne verwendet, um vorherzusagen, wie die anderen Eingaben hätten aussehen sollen, und es wird eine Szene gerendert, die der von TAA mit etwa der Hälfte des Overheads ähnelt.

Das ist nur der Leistungsaspekt von DLSS.

Es wurde auch entwickelt, um die Bildqualität zu verbessern, indem "gelernt" wird, wie das ideale Bild aussehen soll.

TAA kann eine Vielzahl von visuellen Fehlern wie Unschärfe und allgemeinem Detailverlust verursachen.

DLSS kann trainiert werden, indem "ideal gerenderte" Beispielbilder untersucht werden, um die Ausgabe mit den ideal gerenderten Bildern zu approximieren, jedoch in Echtzeit.

Kurz gesagt, DLSS kann genau erraten, wie etwas aussehen sollte, ohne den größten Teil der herkömmlichen Verarbeitungsarbeit zu erledigen und so die Leistung zu verbessern.

DLSS ist jedoch keine Plug-In-Technologie für vorhandene Spiele.

Zahlreiche kommende Spiele sollten die Technologie übernehmen, aber zum jetzigen Zeitpunkt gibt es nichts zu testen.

Andere neue Technologien

Ich werde kurz drei weitere wichtige Verbesserungen der Schattierung zusammenfassen, die die GeForce RTX 20-Serie dem Entwicklertisch bietet.

Das erste ist VRS (Variable Rate Shading).

Mit VRS können Entwickler Teile des Bildschirms detaillierter als andere schattieren.

In einem Rennspiel zum Beispiel ist das Beschatten der Straße, das zunächst wie eine Unschärfe aussieht, nicht so wichtig wie das Beschatten des Autos und des Horizonts.

Mit dieser Technologie kann die Rechenleistung der Grafikkarte selektiver und damit effizienter genutzt werden.

Das nächste ist Texture-Space Shading.

Diese Taktik wurde entwickelt, um doppelte Schattierungsarbeiten zu vermeiden, indem Objekte in einem Texturraum schattiert und dann im Speicher gespeichert werden, wo sie erneut abgetastet oder wiederverwendet werden können.

Das letzte ist Multi-View-Rendering (MVR).

Die GeForce GTX 10-Serie kann über ihre Single-Pass-Stereofunktion zwei Ansichten in einem Durchgang rendern, jedoch nur unter demselben Gesichtspunkt (nur mit einem anderen X-Versatz).

Mit MVR der RTX 20-Serie können mehrere Ansichten gerendert werden, die nicht am selben Ansichtspunkt beginnen müssen.

Dies ermöglicht es, dass MVR theoretisch häufiger eingesetzt wird, wodurch wiederum die Effizienz erhöht wird.

Das sind wohlgemerkt die komprimierten Versionen dieser drei Technologien.

Wie ich bereits einige Male bemerkt habe, hängt es davon ab, was passiert, wenn PC Labs die Möglichkeit hat, unterstützte Spiele zu testen.

Um die letzten paar Tech-Talk-Abschnitte abzuschließen, sehen Sie sich die ...

Als Nvidia im ersten Halbjahr 2016 sein damaliges Flaggschiff GeForce GTX 1080 vorstellte, hätten wir nie erwartet, mehr als zwei Jahre auf die nächste Grafikkartenarchitektur zu warten.

Die "Pascal" -Architektur hinter den Grafikkarten der GTX 10-Serie ist sehr gut gealtert, aber gealtert.

Es ist endlich Zeit, sich zur Seite zu bewegen: Die GeForce RTX 2080 ist da, angetrieben von der brandneuen "Turing" -Architektur.

Wir haben die GeForce RTX 2080 Founders Edition im Wert von 799 US-Dollar sowie ihren kräftigeren Bruder, die GeForce RTX 2080 Ti Founders Edition, in die Hände bekommen und sie einer Vielzahl von Tests unterzogen.

Das Endergebnis? Das Warten auf diese Karte hat sich gelohnt und ist ein Killer für allumfassende 4K-Spiele mit vielen Details, einschließlich Spielen mit Gaming-Monitoren mit hoher Bildwiederholfrequenz und in HDR.

Early Adopters werden nicht enttäuscht sein, aber die beiden Festzeltfunktionen der Karte, auf die wir gleich noch eingehen werden, stecken in den Kinderschuhen.

Solange es Ihnen nichts ausmacht, für diese Zukunftssicherheit eine Prämie zu zahlen, ist diese Karte ein Biest und eine praktische Alternative zur bereits großartigen GeForce GTX 1080 Ti.

Aber wissen Sie, dass ein Teil des Preises, den Sie zahlen, eine Wette auf die Zukunft ist.

Daxdi.com ist eine führende Technologiebehörde und liefert Labs-basierte, unabhängige Überprüfungen der neuesten Produkte und Dienstleistungen.

Unsere Branchenanalysen und praktischen Lösungen helfen Ihnen, bessere Kaufentscheidungen zu treffen und mehr aus der Technologie herauszuholen.

Lernen Sie die GeForce RTX kennen: Was ist neu?

Die größte Neuigkeit bei der GeForce RTX ist die hardwarebeschleunigte Raytracing-Funktion dank neuer RT-Prozessorkerne, die in die Karte selbst integriert sind.

Raytracing ermöglicht fotorealistische Licht- und Schatteneffekte in Spielen.

Obwohl Raytracing kein neues Konzept ist, war es bisher aufgrund seines enormen Leistungsaufwands unpraktisch, es in Echtzeit zu verwenden.

Die RTX 20-Serie wurde jedoch entwickelt, um dies zu ändern.

(Weitere Informationen zum Raytracing finden Sie in den Nvidia RTX-Karten auf der Schwesterseite ExtremeTech.)

Die andere wichtige technologische Innovation bei der RTX 20-Serie ist die Unterstützung einer Technologie, die als Deep Learning Super-Sampling (DLSS) bekannt ist.

DLSS wird durch neue Tensor-Verarbeitungskerne auf der Grafikkarte aktiviert und verwendet AI, um die Kanten von Objekten im Spiel effizienter zu glätten als der herkömmliche Ansatz, Anti-Aliasing.

Nvidia behauptet, dass mit DLSS erhebliche Leistungssteigerungen möglich sind.

Das Seltsamste an dieser Überprüfung ist, dass Sie keine Tests oder formalen Benchmarks sehen, bei denen Raytracing oder DLSS ein expliziter Faktor sind.

Das Hindernis? Die einfache Tatsache, dass bei diesem Schreiben keine Spiele oder Benchmarks verfügbar waren, die beide Technologien vollständig unterstützten.

Viele kommende Spiele wurden bereits mit Unterstützung beworben, aber es ist unwahrscheinlich, dass vorhandene Spiele die gleiche Behandlung erhalten.

Die aktuelle Situation macht es daher etwas schwierig, den Wert der Karten der GeForce RTX 20-Serie im Verhältnis zu den aktuellen Karten zu beurteilen.

Mit 799 US-Dollar verfügt die RTX 2080 Founders Edition über deutlich mehr Geld als die GeForce GTX 1080 Founders Edition mit 549,00 US-Dollar bei Nvidia, die sie in der Nvidia-Produktpalette ersetzt.

Der Wert der RTX 20-Serie hängt jedoch nicht nur von der Unterstützung dieser neuen Technologien ab.

Die Karte bietet außerdem eine deutlich verbesserte Leistung gegenüber der GTX 10-Serie für alle von mir getesteten Spiele und Benchmarks, insbesondere bei einer 4K-Auflösung.

Nvidia behauptet, dass die neuen GeForce RTX 2080-Grafikkarten bis zu doppelt so viel Leistung bieten wie die Vorgänger-GTX 1080.

Dies setzt jedoch voraus, dass das betreffende Spiel DLSS unterstützt.

Ich werde früh genug zu den Benchmarks kommen; Begleiten Sie mich vorerst, während ich mich mit dem Hintergrund der GeForce RTX 20-Serie befasse und warum es so eine große Sache ist.

Down Memory Lane: Turing und seine Abstammung

Nvidia stellte Pascal, Turings architektonischen Vorgänger, im ersten Halbjahr 2016 vor.

Dies war ein Meilenstein für das Unternehmen, da es das erste Mal seit vier Jahren war, dass es seinen Herstellungsprozess schrumpfte.

In Nanometern ausgedrückt ist der Herstellungsprozess der Mindestabstand zwischen Transistoren auf einem Computerchip.

Kurz gesagt, je kleiner der Abstand, desto mehr Transistoren können in den gleichen Raum gepackt werden.

Die Anzahl der Transistoren hängt von der Rechenleistung ab.

Je mehr davon Sie haben, desto besser, wenn alle anderen gleich sind.

Das ist die Voraussetzung, die Moores Gesetz untermauert.

Pascal basierte auf einem 16-nm-Prozess, der erheblich kleiner war als der 28-nm-Prozess der früheren "Kepler" - und "Maxwell" -Architekturen, die er ersetzte.

Das allein gab ihm einen massiven Leistungsvorteil.

(Maxwell wurde 2014 eingeführt, verwendete jedoch denselben 28-nm-Prozess wie die Kepler-Architektur, die Nvidia 2012 eingeführt hatte.) Schneller Vorlauf in die zweite Hälfte des Jahres 2018, und Turing reduziert den Herstellungsprozess weiter auf 12 nm.

(Es ist wohl eine Verfeinerung des aktuellen 16-nm-Prozesses, aber lassen wir die technischen Details technische Aspekte sein.) Dadurch konnte der hier getestete RTX 2080 die Transistoranzahl der GTX 1080 von 7,2 Milliarden auf 13,6 Milliarden verdoppeln.

Hier ein Blick auf die Grafikkartenarchitekturen von Nvidia, ihre Herstellungsprozesse und ihre Transistorzahlen im Laufe der Jahre ...

Nachfolgende Generationen haben unzählige technische Verbesserungen erzielt, ganz zu schweigen von den neuen Technologien, die auf diesem Weg eingeführt wurden.

(Die Unterstützung von Microsoft DirectX 12 und HDR ist zwei der neuesten.) Die Anzahl der Transistoren erzählt also nicht die ganze Geschichte, spielt jedoch eine große Rolle im Endspiel, um mehr Rechenleistung zu erzielen.

Es ist ironisch, dass die größten Sprünge im Computer oft dadurch gemacht werden, dass die Dinge kleiner werden, aber es ist wahr, und deshalb ist Turing eine große Neuigkeit.

Kernverschiebung: RT-Kerne versus CUDA-Kerne

Wie mehrere frühere Generationen von GeForce-Grafikkarten verwendet die RTX 20-Serie CUDA-Prozessorkerne für die herkömmliche 3D-Verarbeitung.

Neu in der GeForce RTX 20-Serie ist die Hinzufügung von Raytracing- (oder RT-) Kernen, die eine hardwarebeschleunigte Raytracing-Funktion ermöglichen.

Die GTX 10-Serie könnte Raytracing-Vorgänge ausführen, weshalb ich darauf hingewiesen habe, dass Raytracing kein neues Konzept ist, sondern in einer Software, die für Echtzeitanwendungen zu langsam ist.

Nvidia bewertet die Raytracing-Leistung der GTX 1080 mit nur 0,89 Gigarays pro Sekunde, während die neue RTX 2080 8 Gigarays pro Sekunde liefert.

Das ist ein massiver Anstieg, und es sollte praktisch sein, Raytracing in Echtzeit durchzuführen.

(Auch hier konnte ich Raytracing noch nicht in Aktion testen.

Es war keine Software verfügbar.

Wir haben also alle nur das, was Nvidia sagt.)

Apropos CUDA-Kerne: Die RTX 20-Serie bringt auch dort Verbesserungen.

Turing verfügt nicht nur über mehr CUDA-Kerne, sondern Nvidia behauptet auch, dass sie pro Kern etwa 50 Prozent mehr Leistung bieten als unter der Pascal-Architektur.

Die Streaming-Multiprozessoren (SMs) auf der Grafikkarte (dh dort, wo sich die CUDA-Kerne befinden) wurden für Turing neu gestaltet.

Ein Großteil der Leistungssteigerung des CUDA-Kerns kommt von einer zweiten parallelen Ausführungseinheit, die sich neben jedem CUDA-Kern befindet und es ihm ermöglicht, sowohl Ganzzahl- als auch Gleitkommaoperationen gleichzeitig zu verarbeiten.

Darüber hinaus verfügt Turing über einen neu gestalteten SM-Speicherpfad, der laut Nvidia für eine um 50 Prozent höhere effektive Speicherbandbreite als unter Pascal geeignet ist.

Dramatisches Tension: Die neuen Tensorkerne

Tensorkerne wurden 2017 in der Volta-Architektur von Nvidia eingeführt, wurden jedoch bisher noch nicht in die auf Spiele ausgerichteten GeForce-Grafikkarten von Nvidia eingeführt.

Ihre Verwendung wird am besten in der DLSS-Funktion von Turing veranschaulicht.

Wenn Sie ein Spieler sind, haben Sie wahrscheinlich die "Zacken" bemerkt, die an den Rändern von Objekten im Spiel auftreten können.

Sie können eine bessere visuelle Erfahrung erzielen, wenn Sie Anti-Aliasing aktivieren, um sie zu glätten.

Dies ist jedoch mit erheblichen Leistungseinbußen verbunden.

Anti-Aliasing kann auf verschiedene Arten durchgeführt werden.

Die bisherige Methode von Nvidia war zeitliches Anti-Aliasing (TAA).

Es funktioniert, indem mehrere Szenen als Eingabe verwendet und zu einem einzigen Bild massiert werden, um ein endgültiges, besser aussehendes Ergebnis zu erzielen.

Dieser Vorgang verursacht jedoch viel Overhead, da die Grafikkarte alle Eingaberahmen mit der endgültigen Auflösung rendern muss.

(Wenn Sie also ein Spiel mit 1080p ausführen, müssen die Eingabeframes ebenfalls 1080p sein.)

DLSS geht das anders an.

Es reduziert den Overhead, da nicht so viele Eingabesamples erforderlich sind.

Stattdessen werden die KI-Funktionen der Tensorkerne verwendet, um vorherzusagen, wie die anderen Eingaben hätten aussehen sollen, und es wird eine Szene gerendert, die der von TAA mit etwa der Hälfte des Overheads ähnelt.

Das ist nur der Leistungsaspekt von DLSS.

Es wurde auch entwickelt, um die Bildqualität zu verbessern, indem "gelernt" wird, wie das ideale Bild aussehen soll.

TAA kann eine Vielzahl von visuellen Fehlern wie Unschärfe und allgemeinem Detailverlust verursachen.

DLSS kann trainiert werden, indem "ideal gerenderte" Beispielbilder untersucht werden, um die Ausgabe mit den ideal gerenderten Bildern zu approximieren, jedoch in Echtzeit.

Kurz gesagt, DLSS kann genau erraten, wie etwas aussehen sollte, ohne den größten Teil der herkömmlichen Verarbeitungsarbeit zu erledigen und so die Leistung zu verbessern.

DLSS ist jedoch keine Plug-In-Technologie für vorhandene Spiele.

Zahlreiche kommende Spiele sollten die Technologie übernehmen, aber zum jetzigen Zeitpunkt gibt es nichts zu testen.

Andere neue Technologien

Ich werde kurz drei weitere wichtige Verbesserungen der Schattierung zusammenfassen, die die GeForce RTX 20-Serie dem Entwicklertisch bietet.

Das erste ist VRS (Variable Rate Shading).

Mit VRS können Entwickler Teile des Bildschirms detaillierter als andere schattieren.

In einem Rennspiel zum Beispiel ist das Beschatten der Straße, das zunächst wie eine Unschärfe aussieht, nicht so wichtig wie das Beschatten des Autos und des Horizonts.

Mit dieser Technologie kann die Rechenleistung der Grafikkarte selektiver und damit effizienter genutzt werden.

Das nächste ist Texture-Space Shading.

Diese Taktik wurde entwickelt, um doppelte Schattierungsarbeiten zu vermeiden, indem Objekte in einem Texturraum schattiert und dann im Speicher gespeichert werden, wo sie erneut abgetastet oder wiederverwendet werden können.

Das letzte ist Multi-View-Rendering (MVR).

Die GeForce GTX 10-Serie kann über ihre Single-Pass-Stereofunktion zwei Ansichten in einem Durchgang rendern, jedoch nur unter demselben Gesichtspunkt (nur mit einem anderen X-Versatz).

Mit MVR der RTX 20-Serie können mehrere Ansichten gerendert werden, die nicht am selben Ansichtspunkt beginnen müssen.

Dies ermöglicht es, dass MVR theoretisch häufiger eingesetzt wird, wodurch wiederum die Effizienz erhöht wird.

Das sind wohlgemerkt die komprimierten Versionen dieser drei Technologien.

Wie ich bereits einige Male bemerkt habe, hängt es davon ab, was passiert, wenn PC Labs die Möglichkeit hat, unterstützte Spiele zu testen.

Um die letzten paar Tech-Talk-Abschnitte abzuschließen, sehen Sie sich die ...

Daxdi

Daxdi.com Cookies

Auf Daxdi.com verwenden wir Cookies (technische und Profil-Cookies, sowohl eigene als auch Cookies von Drittanbietern), um Ihnen ein besseres Online-Erlebnis zu bieten und um Ihnen personalisierte Online-Werbung entsprechend Ihren Präferenzen zu senden. Wenn Sie Weiter wählen oder auf Inhalte auf unserer Website zugreifen, ohne Ihre Auswahl zu personalisieren, stimmen Sie der Verwendung von Cookies zu.

Für weitere Informationen über unsere Cookie-Richtlinie und wie Sie Cookies ablehnen können

Zugang hier.

Voreinstellungen

Weiter