fwouedd a écrit :
Pour le RT, on savait que ça necessitait plus de puissance. C'est deja le contraire de la logique même du DLSS qui vise à alléger le boulot des CG ou au moins, à leur permettre de rester dignes face à des techno qui, nativement, sont trop lourdes pour le matos moderne. Et puis tu le dis toi même 5 lignes avant :
"surtout qu'on sait pas si la supposée limite technique qui fait que le FG ne marche qu'avec les composants des GF 4000 est vraiment réelle ou bien artificielle"
Tu te souviens du RTX voice exclusif aux series 30x0 pendant un moment qui marchait pareil en délockant le setup sur les 20x0?
Je me demande si c'était pas un test grandeur nature d'acceptation de la pratique.
Zaza le Nounours a écrit :
Ca reste des technos qui ont besoin de composants spécifiques pour fonctionner. AMD a prouvé que ça pouvait marchotter sans, mais le DLSS reste globalement très largement supérieur au FSR, ...
JoWn3 a écrit :
...
aeio a écrit :
The Last of Us Part I c'est justement un jeu qui a un TAA dégueulasse, où les détails les plus fins tels que les cheveux, les brins d'herbe, les grillages, les fils de fer barbelés etc. sont incomplets et scintillent en mouvement, et où DLSS fait des miracles en reconstruisant les parties manquantes et en stabilisant le tout (puisque pour rappel, la techno est entraînée avec des images en 16K et simule ce qu'on obtient normalement en faisant du supersampling).
C'est d'ailleurs dit dans l'article que tu linkes JoWn3, mais on dirait que tu refuses toujours d'essayer pour juger par toi-même et de comprendre comment ça marche.
JoWn3 a écrit :
Sinon le nvidia reflex ne compense pas encore totalement la latence induite par le Dlls3 mais si Zaza dit le contraire alors c'est sûrement vrai.
AlphaBlueLight a écrit :GrudLaBelle a écrit :
Ayant la chance d'avoir une bonne connexion fibre. Je vais tenter l'expérience avec Geforce Now...
Ca m'intéresse, la fibre arrivant par chez moi ! Tu pourrais faire un retour d'expérience une fois le service testé ?
Zaza le Nounours a écrit :
Je me suis pas penché plus que ça sur la question (parce que je m'en branle royalement) mais j'entends souvent dire que la gestion du VRR par la PS5 est vachement moins bonne que celle de la Xbox Series, donc pour l'universalité on repassera.
Vahron a écrit :
C'est tout de même une meilleure situation que dans le monde PC, où un écran est compatible soit G-Sync, soit Freesync, soit les deux, et ça conditionne la carte graphique qui pourra en profiter ou non.
CBL a écrit :
Il faut reconnaitre que la ray-tracing a été survendu par Nvidia. A l'annonce des RTX 20xx, le discours était "le ray-tracing est enfin possible !". 5 ans plus tard, le discours est "le ray-tracing est enfin possible à condition de ne pas rendre en résolution native et de générer des frames interpolées !".
Sans DLSS, Overdrive tourne à 16 FPS sur une carte à 2000 euros. On marche sur la tête à ce niveau.
aeio a écrit :Vahron a écrit :
C'est tout de même une meilleure situation que dans le monde PC, où un écran est compatible soit G-Sync, soit Freesync, soit les deux, et ça conditionne la carte graphique qui pourra en profiter ou non.
Ça fait un peu plus de quatre ans que tous les moniteurs PC sortent avec FreeSync, que ça fonctionne aussi bien sur les cartes NVIDIA que sur les cartes AMD, et que G-SYNC a quasiment disparu de la circulation (il n'y a plus qu'une poignée de modèles ultra haut de gamme qui l'embarque), donc non, la situtation est nettement meilleure sur PC.
fwouedd a écrit :
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.
Zaza le Nounours a écrit :
Hardware Unboxed vient de publier une vidéo comparant la qualité du DLSS vs le FSR, dans 26 jeux, testés en 1440p et 2160p, en modes qualité et performances. Même si y a forcément une part de subjectivité (on parle pas de compter des frames), le résultat est sans appel : dans très exactement zéro cas le FSR est meilleur que le DLSS, au mieux ils sont à égalité, et ça arrive pas souvent.
fwouedd a écrit :
Helas non. T'as plein de dalles VA freesync qui font du brightness flickering en mode gsync. Dont le mien qui a 2 ans et c'est pas un cas isolé, vu que ça arrive aussi sur des freesync gsync compatible.
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.
Ah et la baise, mon écran était Gsync compatible au moment de l'achat. Deux mois plus tard il l'était plus.
Bref, c'est clairement pas au point niveau compatibilité.
aeio a écrit :fwouedd a écrit :
Helas non. T'as plein de dalles VA freesync qui font du brightness flickering en mode gsync. Dont le mien qui a 2 ans et c'est pas un cas isolé, vu que ça arrive aussi sur des freesync gsync compatible.
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.
Ah et la baise, mon écran était Gsync compatible au moment de l'achat. Deux mois plus tard il l'était plus.
Bref, c'est clairement pas au point niveau compatibilité.
C'est un autre problème ça, qui vient du fait que FreeSync ne régule pas le voltage aussi précisément que le module hardware G-SYNC, mais 1) ça n'affecte quasiment que les dalles VA qui sont quand beaucoup moins répandues sur PC que les dalles IPS et TN et 2) ça touche aussi les TV du coup, qui sont très majoritairement équipées de dalles VA.
Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles