Lorsque Nvidia a dévoilé sa GeForce GTX 1080 alors phare au premier semestre 2016, nous ne nous serions jamais attendus à attendre plus de deux ans pour sa prochaine architecture de carte graphique.
L'architecture "Pascal" derrière les cartes graphiques de la série GTX 10 a très bien vieilli, mais elle a vieilli.
Il est enfin temps pour elle de s'éloigner: la GeForce RTX 2080 est là, propulsée par la toute nouvelle architecture Turing.
Nous avons mis la main sur la GeForce RTX 2080 Founders Edition à 799 $, ainsi que sur son frère plus costaud, la GeForce RTX 2080 Ti Founders Edition, et les avons testées.
La ligne du bas? Cette carte valait bien l'attente, et c'est un tueur pour les jeux 4K complets et détaillés, y compris les jeux avec des moniteurs de jeu à taux de rafraîchissement élevé et en HDR.
Les premiers utilisateurs ne seront pas déçus, mais les deux fonctionnalités phares de la carte, auxquelles nous reviendrons dans un instant, n'en sont qu'à leurs balbutiements.
Tant que cela ne vous dérange pas de payer une prime pour cette pérennité, vous trouverez cette carte comme une bête et une alternative pratique à la déjà excellente GeForce GTX 1080 Ti.
Mais sachez qu'une partie du prix que vous payez est un pari sur l'avenir.
Examens honnêtes et objectifs
Daxdi.com est une autorité de premier plan dans le domaine de la technologie, fournissant des analyses indépendantes basées sur les laboratoires des derniers produits et services.
Nos analyses spécialisées du secteur et nos solutions pratiques vous aident à prendre de meilleures décisions d'achat et à tirer le meilleur parti de la technologie.
Découvrez la GeForce RTX: Quoi de neuf?
La plus grande nouveauté avec la GeForce RTX est son lancer de rayons accéléré par le matériel, grâce aux nouveaux cœurs de traitement RT intégrés à la carte elle-même.
Le lancer de rayons permet des effets d'éclairage et d'ombre photoréalistes dans les jeux.
Bien qu'il ne s'agisse pas d'un nouveau concept, le lancer de rayons n'a jusqu'à présent pas été pratique à utiliser en temps réel en raison de ses énormes frais généraux de performances, mais la série RTX 20 est conçue pour changer cela.
(En savoir plus sur le traçage de rayons dans les cartes Nvidia RTX sur le site sœur ExtremeTech.)
L'autre innovation technologique majeure avec la série RTX 20 est sa prise en charge d'une technologie connue sous le nom de Deep Learning Super-Sampling (DLSS).
Activé par les nouveaux cœurs de traitement Tensor sur la carte graphique, DLSS utilise l'IA pour lisser les bords des objets du jeu plus efficacement que l'approche traditionnelle, l'anti-aliasing.
Là où il est utilisé, Nvidia affirme que des augmentations substantielles des performances sont possibles avec DLSS.
La partie la plus étrange de cette revue est que vous ne verrez pas de tests ou de benchmarks formels avec le traçage de rayons ou le DLSS étant un facteur explicite.
L'obstacle? Le simple fait qu'il n'y avait pas de jeux ou de benchmarks disponibles au moment de la rédaction de cet article qui supportaient pleinement l'une ou l'autre technologie.
De nombreux jeux à venir ont déjà été annoncés avec un support, mais il est peu probable que les jeux existants bénéficient du même traitement.
La situation actuelle rend donc un peu difficile de juger de la valeur des cartes GeForce RTX série 20 par rapport aux cartes actuelles.
À 799 $, la RTX 2080 Founders Edition commande beaucoup plus d'argent que la GeForce GTX 1080 Founders Edition 549,00 $ chez Nvidia qu'elle remplace dans la gamme Nvidia.
Cela dit, la valeur de la série RTX 20 ne dépend pas entièrement de sa prise en charge de ces nouvelles technologies.
La carte apporte également des performances nettement améliorées par rapport à la série GTX 10 pour tous les jeux et benchmarks que j'ai testés, en particulier à une résolution 4K.
Nvidia affirme que les nouvelles cartes graphiques GeForce RTX 2080 offrent jusqu'à deux fois les performances du prédécesseur GTX 1080, mais cela suppose que le jeu en question prend en charge DLSS.
J'arriverai assez tôt aux points de repère; pour l'instant, rejoignez-moi alors que je plonge dans l'arrière-plan de la série GeForce RTX 20 et pourquoi c'est un si gros problème.
Down Memory Lane: Turing et sa lignée
Nvidia a présenté Pascal, le prédécesseur architectural de Turing, au premier semestre 2016.
C'était une étape importante pour l'entreprise car c'était la première fois en quatre ans qu'elle réduisait son processus de fabrication.
Exprimé en nanomètres, le processus de fabrication est la distance minimale entre les transistors sur une puce informatique.
En un mot, plus la distance est petite, plus il y a de transistors pouvant être emballés dans le même espace.
Le nombre de transistors est corrélé à la puissance de calcul, donc plus vous en avez, mieux c'est, toutes choses étant égales par ailleurs.
C'est la prémisse qui sous-tend la loi de Moore.
Pascal était basé sur un processus de 16 nm, considérablement plus petit que le processus de 28 nm des architectures Kepler et Maxwell antérieures qu'il avait remplacées.
Cela seul lui a donné un énorme avantage en termes de performances.
(Maxwell a été introduit en 2014, mais il utilisait le même processus 28 nm que l'architecture Kepler que Nvidia a introduite en 2012.) Avance rapide jusqu'au deuxième semestre 2018, et Turing réduit encore le processus de fabrication à 12 nm.
(C'est sans doute un raffinement du processus 16 nm actuel, mais laissons les détails techniques être des détails techniques.) Cela a aidé le RTX 2080 examiné ici à presque doubler le nombre de transistors de la GTX 1080, à 13,6 milliards de 7,2 milliards.
Voici un aperçu des architectures de cartes graphiques de Nvidia, de leurs processus de fabrication et de leur nombre de transistors au fil des ans ...
Les générations successives ont fait boule de neige d'innombrables améliorations techniques, sans parler des nouvelles technologies qui ont été introduites en cours de route.
(La prise en charge de Microsoft DirectX 12 et HDR vient à l'esprit comme deux des plus récents.) Ainsi, le nombre de transistors ne raconte pas toute l'histoire, mais il joue un rôle important dans la fin du jeu pour obtenir plus de puissance de calcul.
Il est ironique que les plus grands progrès de l'informatique soient souvent réalisés en réduisant les choses, mais c'est vrai, et c'est pourquoi Turing est une grande nouvelle.
Changement de noyau: les cœurs RT contre les cœurs CUDA
Comme plusieurs générations précédentes de cartes graphiques GeForce, la série RTX 20 utilise des cœurs de traitement CUDA pour le traitement 3D traditionnel.
La nouveauté de la série GeForce RTX 20 est l'ajout de cœurs de traçage de rayons (ou RT), qui permettent un traçage de rayons accéléré par le matériel.
La série GTX 10 pourrait faire des opérations de traçage de rayons, c'est pourquoi j'ai souligné que le traçage de rayons n'est pas un nouveau concept, mais il devait les faire dans un logiciel, qui est trop lent pour une application en temps réel.
Nvidia évalue les performances de traçage de rayons de la GTX 1080 à seulement 0,89 gigarays par seconde, tandis que le nouveau RTX 2080 fait 8 gigarays par seconde.
C'est une augmentation massive, et cela devrait rendre pratique le traçage de rayons en temps réel.
(Encore une fois, je n'ai pas encore pu tester le lancer de rayons en action; aucun logiciel n'était disponible.
Donc, nous n'avons tous que ce que Nvidia dit de continuer.)
En parlant de cœurs CUDA, la série RTX 20 y apporte également des améliorations.
Turing a non seulement plus de cœurs CUDA pour commencer, mais Nvidia affirme qu'ils offrent environ 50% de performances en plus par cœur que sous l'architecture Pascal.
Les multiprocesseurs de streaming (SM) sur la carte graphique (c'est-à-dire où résident les cœurs CUDA) ont été repensés pour Turing.
Une grande partie de l'augmentation des performances du cœur CUDA provient d'une deuxième unité d'exécution parallèle qui se trouve à côté de chaque cœur CUDA, ce qui lui permet de traiter simultanément les opérations en nombre entier et en virgule flottante.
En outre, Turing a un chemin de mémoire SM repensé, ce qui, selon Nvidia, est bon pour une bande passante mémoire efficace 50% plus élevée que sous Pascal.
Dramatic Tens-ion: les nouveaux cœurs Tensor
Les cœurs Tensor ont fait leurs débuts en 2017 sur l'architecture Volta de Nvidia, mais ils n'ont pas été introduits dans les cartes graphiques GeForce de Nvidia axées sur les jeux jusqu'à présent.
Leur utilisation est mieux illustrée dans la fonction DLSS de Turing.
Si vous êtes un joueur, vous avez probablement remarqué les "irrégularités" qui peuvent apparaître sur les bords des objets du jeu.
Vous pouvez obtenir une meilleure expérience visuelle si vous activez l'anti-aliasing pour les lisser, mais cela entraîne une baisse significative des performances.
L'anticrénelage peut être effectué de plusieurs manières; Jusqu'à présent, la méthode de référence de Nvidia était l'anti-aliasing temporel, ou TAA.
Il fonctionne en prenant plusieurs scènes en entrée et en les massant en une seule image pour un résultat final plus beau.
Cependant, ce processus entraîne beaucoup de temps système, car la carte graphique doit rendre toutes les images d'entrée à la résolution finale.
(Donc, si vous exécutez un jeu en 1080p, les images d'entrée doivent également être en 1080p.)
DLSS procède différemment.
Il réduit la surcharge car il ne nécessite pas autant d'échantillons d'entrée.
Au lieu de cela, il utilise les capacités AI des cœurs Tensor pour prédire à quoi auraient dû ressembler les autres entrées, et il rend une scène similaire à ce que TAA accomplirait avec environ la moitié de la surcharge.
C'est juste l'aspect performance du DLSS.
Il est également conçu pour améliorer la qualité de l'image en apprenant à quoi doit ressembler l'image idéale.
TAA peut introduire une variété d'imperfections visuelles, telles que le flou et la perte générale de détails.
DLSS peut être formé en lui faisant examiner des images échantillons idéalement rendues pour se rapprocher de sa sortie avec ces images idéalement rendues, mais en temps réel.
En bref, DLSS peut deviner avec précision à quoi devrait ressembler quelque chose sans effectuer la majeure partie du travail de traitement traditionnel, améliorant ainsi les performances.
Cependant, DLSS n'est pas une technologie de plug-in pour les jeux existants.
De nombreux jeux à venir devraient adopter la technologie, mais au moment d'écrire ces lignes, il n'y a rien à tester.
Autres nouvelles technologies
Je résumerai brièvement trois autres améliorations clés de l'ombrage que la série GeForce RTX 20 apporte à la table des développeurs.
Le premier est l'ombrage à taux variable (VRS).
VRS permet aux développeurs d'ombrer certaines parties de l'écran de manière plus détaillée que d'autres.
Dans un jeu de course, par exemple, ombrer la route, qui ressemble à un flou au départ, n'est pas aussi important que d'ombrer la voiture et l'horizon.
Cette technologie permet de tirer parti de la puissance de traitement de la carte graphique de manière plus sélective et donc plus efficace.
Le suivant est Texture-Space Shading.
Cette tactique est conçue pour éliminer le travail d'ombrage en double en ombrant les objets dans un espace de texture, puis en les enregistrant dans la mémoire, où ils peuvent être rééchantillonnés ou réutilisés.
Le dernier est le rendu multi-vues (MVR).
La série GeForce GTX 10 est capable de rendre deux vues en un seul passage via sa fonction Single Pass Stereo, mais uniquement à partir du même point de vue (juste un décalage X différent).
MVR sur la série RTX 20 permet le rendu de plusieurs vues qui n'ont pas à démarrer au même point de vue.
Cela permet théoriquement à MVR d'être engagé plus souvent, ce qui augmente encore l'efficacité.
Ce sont les versions condensées de ces trois technologies, remarquez.
Comme je l'ai déjà noté à quelques reprises, la façon dont tout cela se déroulera dépendra de ce qui se passera une fois que PC Labs aura eu l'occasion de tester les jeux pris en charge.
Pour conclure les deux dernières sections de discussion technique, voici un aperçu de ...








