Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

Cyberpunk 2077 : l'update "Overdrive" en approche
Fwdd
Mylène Farmer Coréen
Redac 5869 msgs
C'est pas parce que c'est pas la première fois que ça arrive que ça m’empêche de chier sur des pratiques qui sont problématiques d'un point de vue du consommateur.

Pour le RT, on savait que ça necessitait plus de puissance. C'est deja le contraire de la logique même du DLSS qui vise à alléger le boulot des CG ou au moins, à leur permettre de rester dignes face à des techno qui, nativement, sont trop lourdes pour le matos moderne. Et puis tu le dis toi même 5 lignes avant :

"surtout qu'on sait pas si la supposée limite technique qui fait que le FG ne marche qu'avec les composants des GF 4000 est vraiment réelle ou bien artificielle"
Tu te souviens du RTX voice exclusif aux series 30x0 pendant un moment qui marchait pareil en délockant le setup sur les 20x0?
Je me demande si c'était pas un test grandeur nature d'acceptation de la pratique.
 
Zaza le Nounours
Connard aigri
Membre 14268 msgs
fwouedd a écrit :
Pour le RT, on savait que ça necessitait plus de puissance. C'est deja le contraire de la logique même du DLSS qui vise à alléger le boulot des CG ou au moins, à leur permettre de rester dignes face à des techno qui, nativement, sont trop lourdes pour le matos moderne. Et puis tu le dis toi même 5 lignes avant :

"surtout qu'on sait pas si la supposée limite technique qui fait que le FG ne marche qu'avec les composants des GF 4000 est vraiment réelle ou bien artificielle"

Ca reste des technos qui ont besoin de composants spécifiques pour fonctionner. AMD a prouvé que ça pouvait marchotter sans, mais le DLSS reste globalement très largement supérieur au FSR, donc en soi ça peut justifier ces contraintes techniques. On verra ce que donne le FSR 3, s'il se limite à certaines générations de cartes ou s'il marche aussi sur une GeForce 2 MX, et surtout la qualité du rendu par rapport au DLSS 3.

Tu te souviens du RTX voice exclusif aux series 30x0 pendant un moment qui marchait pareil en délockant le setup sur les 20x0?
Je me demande si c'était pas un test grandeur nature d'acceptation de la pratique.

On est d'accord que Nvidia c'est des pros de l'enculade, plus que le RTX Voice je me souviens de l'integer scaling limité aux cartes RTX, ce qui était encore moins justifié. Je les défends pas plus que de raison, je dis juste que c'est pas fondamentalement aberrant que des nouvelles technos ne soient pas toujours compatibles avec du matos plus ancien.
 
JoWn3
Mini-Draikin
Membre 785 msgs
Zaza le Nounours a écrit :

Ca reste des technos qui ont besoin de composants spécifiques pour fonctionner. AMD a prouvé que ça pouvait marchotter sans, mais le DLSS reste globalement très largement supérieur au FSR, ...


Le dernier test de techpowerup sur le sujet prouve que la différence entre les deux n'est pas "très largement supérieure", puis faut arrêter de survendre le dlss ou fsr comme des technos qui rendraient le rendu initial moins bon, j'ai des ados autour de moi qui gobent ces conneries facilement et qui seraient capables de laisser activer le dlss même sur des jeux tournants de base à plus de 120fps...

Faut quand même leurs dire que dans l'état actuel ça reste des technos qui rajoute certes 30% de fps en plus ce qui est très bien, mais c'est au détriment du rendu initial en créant éventuellement des artefacts aléatoires et une dégradation de l'image en fonction de la précision utilisé(et dans certains jeux il n'y a pas la réglette permettant de choisir plus ou moins son piqué), sans parler de la latence induite par la techno malgré le fait que ça parle de nvidia reflex qui est plus un pansement sur une jambe de bois qu'autre chose.

https://www.techpowerup.com/review/the-last-of-us-part-i-fsr-2-2-vs-dlss-comparison/
 
Zaza le Nounours
Connard aigri
Membre 14268 msgs
JoWn3 a écrit :
...

Bon déjà, globalement, t'as tort. Le DLSS pine le FSR dans la quasi-totalité des cas. Et pour ce qui est de DLSS vs. rendu natif : très souvent, t'as au pire une image qui est identique entre DLSS et natif (à moins de jouer en 720p avec du DLSS ultra performance qui tente tant bien que mal de reconstruire depuis du 144p), au mieux et bien souvent l'image est meilleure en DLSS qualité par rapport au rendu natif pour peu que la solution d'anti-aliasing utilisée soit un peu foireuse. Dernier exemple en date : RE4R, qui supporte pas le DLSS nativement mais le fait avec un mod bricolé à l'arrache, qui permet au jeu de tourner encore mieux qu'il ne le fait de base et avec une qualité d'image très largement meilleure que le rendu natif - et le FSR j'en parle même pas, c'est de la bouillie.

Que tu restes campé sur des positions de vieux con qui veut absolument que chaque pixel soit calculé, à la limite on s'en fout, c'est ton choix, mais viens pas affirmer que ça dégrade l'image parce qu'à part quelques très rares cas, c'est juste faux. Et en plus le DLSS 2 n'ajoute aucune latence, le DLSS3 oui mais c'est globalement contrebalancé par l'activation du mode Reflex.
 
aeio
Ami des bêtes
Membre 1481 msgs
The Last of Us Part I c'est justement un jeu qui a un TAA dégueulasse, où les détails les plus fins tels que les cheveux, les brins d'herbe, les grillages, les fils de fer barbelés etc. sont incomplets et scintillent en mouvement, et où DLSS fait des miracles en reconstruisant les parties manquantes et en stabilisant le tout (puisque pour rappel, la techno est entraînée avec des images en 16K et simule ce qu'on obtient normalement en faisant du supersampling).

C'est d'ailleurs dit dans l'article que tu linkes JoWn3, mais on dirait que tu refuses toujours d'essayer pour juger par toi-même et de comprendre comment ça marche.

[EDIT] J'avais déjà posté cette image d'un autre jeu mais je la reposte. 720p upscalé en 1080p par la technologie moderne à gauche, 1080p natif "pixel perfect" auquel tient tant JoWn3 à droite. Ouvrez en grand et regardez les lignes électriques.



Après le véritable SSAA (extrêmement gourmand) et DLAA (DLSS sans l'upscaling), DLSS est tout simplement le meilleur antialiasing qui soit.
 
JoWn3
Mini-Draikin
Membre 785 msgs
aeio a écrit :

The Last of Us Part I c'est justement un jeu qui a un TAA dégueulasse, où les détails les plus fins tels que les cheveux, les brins d'herbe, les grillages, les fils de fer barbelés etc. sont incomplets et scintillent en mouvement, et où DLSS fait des miracles en reconstruisant les parties manquantes et en stabilisant le tout (puisque pour rappel, la techno est entraînée avec des images en 16K et simule ce qu'on obtient normalement en faisant du supersampling).

C'est d'ailleurs dit dans l'article que tu linkes JoWn3, mais on dirait que tu refuses toujours d'essayer pour juger par toi-même et de comprendre comment ça marche.


Regarde ce moment là et dis moi dans quels modes ça clignote et dans lequel ça le fait pas:

https://youtu.be/Eb9OARNd-7A?t=33

(et c'est moi qui refuse de voir la vérité...)

Sinon le nvidia reflex ne compense pas encore totalement la latence induite par le Dlls3 mais si Zaza dit le contraire alors c'est sûrement vrai.
 
aeio
Ami des bêtes
Membre 1481 msgs
Ça a tout d'un simple bug dont les responsables du portage sont à l'origine puisque c'est pas quelque chose qu'on retrouve dans les autres jeux ayant DLSS. Et même avec FSR 2, ce scintillement est relativement courant en mouvement mais pas à l'arrêt, donc là encore, aux devs d'identifier ce qu'ils ont mal fait.

Le véritable problème qui mérite d'être mentionné, c'est le ghosting, mais ça s'est beaucoup amélioré dernièrement et les utilisateurs peuvent eux-même remplacer leurs viellles DLL par les nouvelles donc c'est globalement du passé sauf sur quelques jeux multi à l'anticheat chiant.
 
Zaza le Nounours
Connard aigri
Membre 14268 msgs
JoWn3 a écrit :
Sinon le nvidia reflex ne compense pas encore totalement la latence induite par le Dlls3 mais si Zaza dit le contraire alors c'est sûrement vrai.

Je cite : "globalement contrebalancé". Donc ça veut pas dire que c'est totalement annulé, ça pourra de toute façon jamais l'être de par le concept même de la techno, mais c'est moins pire que ce que ça serait sans.
 
pimpim
Membre Factor
Membre 67 msgs
AlphaBlueLight a écrit :
GrudLaBelle a écrit :
Ayant la chance d'avoir une bonne connexion fibre. Je vais tenter l'expérience avec Geforce Now...


Ca m'intéresse, la fibre arrivant par chez moi ! Tu pourrais faire un retour d'expérience une fois le service testé ?


J'ai terminé cyberpunk en 100h 100% sur geforce now.
D'abord la version gratuite avec la limitation d'1h, pas de RTX et système de file d'attente.
Puis j'ai pris l'abo à 10€ / mois pendant 2 mois car je trouvais que ca marchait super bien.

Ca me va bien de ne pas devoir acheter un nouveau PC pour 1 ou 2 gros jeu, je ne joue pas beaucoup.
C'est juste dommage que tout ne soit pas disponible sur l'offre genre God of War ou autres, faudrait tester Shadow.

Par ailleurs j'ai testé plusieurs Xbox game cloud, malgré ma connexion fibrée la qualité est vraiment HORRIBLE et pourtant j'étais près à faire des concessions, dommage...
 
Vahron
Membre Factor
Membre 704 msgs
Zaza le Nounours a écrit :
Je me suis pas penché plus que ça sur la question (parce que je m'en branle royalement) mais j'entends souvent dire que la gestion du VRR par la PS5 est vachement moins bonne que celle de la Xbox Series, donc pour l'universalité on repassera.


Vachement moins bonne, au sens où chaque jeu doit l'implémenter, ce n'est pas actif au niveau de l'OS, et où la plage active du VRR est moins large (le VRR ne s'active qu'à partir de 48 FPS sur PS5, tout jeu qui tombe en-dessous de ce framerate n'en profite pas). Mais au-delà de ça, il n'y a pas de restriction particulière sur le hardware : une TV compatible VRR est une TV compatible VRR, quelle que soit ta console. C'est tout de même une meilleure situation que dans le monde PC, où un écran est compatible soit G-Sync, soit Freesync, soit les deux, et ça conditionne la carte graphique qui pourra en profiter ou non.
 
CBL
L.A.mming
Admin 17580 msgs
Il faut reconnaitre que la ray-tracing a été survendu par Nvidia. A l'annonce des RTX 20xx, le discours était "le ray-tracing est enfin possible !". 5 ans plus tard, le discours est "le ray-tracing est enfin possible à condition de ne pas rendre en résolution native et de générer des frames interpolées !".

Sans DLSS, Overdrive tourne à 16 FPS sur une carte à 2000 euros. On marche sur la tête à ce niveau.
 
aeio
Ami des bêtes
Membre 1481 msgs
Vahron a écrit :
C'est tout de même une meilleure situation que dans le monde PC, où un écran est compatible soit G-Sync, soit Freesync, soit les deux, et ça conditionne la carte graphique qui pourra en profiter ou non.

Ça fait un peu plus de quatre ans que tous les moniteurs PC sortent avec FreeSync, que ça fonctionne aussi bien sur les cartes NVIDIA que sur les cartes AMD, et que G-SYNC a quasiment disparu de la circulation (il n'y a plus qu'une poignée de modèles ultra haut de gamme qui l'embarque), donc non, la situtation est nettement meilleure sur PC.
 
CBL
L.A.mming
Admin 17580 msgs
Je confirme que FreeSync (ce qu'Nvidia appelle "G-SYNC Compatible") c'est le pied. Même sur mon moniteur à la limite du no name, ça fonctionne au poil.
 
Zaza le Nounours
Connard aigri
Membre 14268 msgs
CBL a écrit :
Il faut reconnaitre que la ray-tracing a été survendu par Nvidia. A l'annonce des RTX 20xx, le discours était "le ray-tracing est enfin possible !". 5 ans plus tard, le discours est "le ray-tracing est enfin possible à condition de ne pas rendre en résolution native et de générer des frames interpolées !".

Sans DLSS, Overdrive tourne à 16 FPS sur une carte à 2000 euros. On marche sur la tête à ce niveau.

Sur un jeu, en 4k, qui cogne le matos fort même sans RT, et avec juste les chiffres de Nvidia.

En attendant, le CP77 actuel, avec les effets RT Psycho, j'ai 59 FPS de moyenne sur une 4090 sans aucun DLSS. Control, qui reste quatre ans après sa sortie l'une des utilisations les plus complètes et abouties du RT, j'ai même plus besoin de DLSS pour le faire tourner tout à fond. Dying Light 2, plus récent, pareil. Donc ça a pas été survendu, c'est juste que la génération Turing, c'était (je persiste) un peu de la merde.
 
Fwdd
Mylène Farmer Coréen
Redac 5869 msgs
aeio a écrit :
Vahron a écrit :
C'est tout de même une meilleure situation que dans le monde PC, où un écran est compatible soit G-Sync, soit Freesync, soit les deux, et ça conditionne la carte graphique qui pourra en profiter ou non.

Ça fait un peu plus de quatre ans que tous les moniteurs PC sortent avec FreeSync, que ça fonctionne aussi bien sur les cartes NVIDIA que sur les cartes AMD, et que G-SYNC a quasiment disparu de la circulation (il n'y a plus qu'une poignée de modèles ultra haut de gamme qui l'embarque), donc non, la situtation est nettement meilleure sur PC.


Helas non. T'as plein de dalles VA freesync qui font du brightness flickering en mode gsync. Dont le mien qui a 2 ans et c'est pas un cas isolé, vu que ça arrive aussi sur des freesync gsync compatible.
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.

Ah et la baise, mon écran était Gsync compatible au moment de l'achat. Deux mois plus tard il l'était plus.

Bref, c'est clairement pas au point niveau compatibilité.
 
Samax
Membre Factor
Membre 510 msgs
fwouedd a écrit :
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.


C'est une technique pour empêcher le brightness flickering ça ? Si oui ça m'intéresse, mon écran fait ça aussi. Du coup tu mets ça en place comment ?
 
Zaza le Nounours
Connard aigri
Membre 14268 msgs
Hardware Unboxed vient de publier une vidéo comparant la qualité du DLSS vs le FSR, dans 26 jeux, testés en 1440p et 2160p, en modes qualité et performances. Même si y a forcément une part de subjectivité (on parle pas de compter des frames), le résultat est sans appel : dans très exactement zéro cas le FSR est meilleur que le DLSS, au mieux ils sont à égalité, et ça arrive pas souvent.
 
Samax
Membre Factor
Membre 510 msgs
Zaza le Nounours a écrit :
Hardware Unboxed vient de publier une vidéo comparant la qualité du DLSS vs le FSR, dans 26 jeux, testés en 1440p et 2160p, en modes qualité et performances. Même si y a forcément une part de subjectivité (on parle pas de compter des frames), le résultat est sans appel : dans très exactement zéro cas le FSR est meilleur que le DLSS, au mieux ils sont à égalité, et ça arrive pas souvent.


En même temps à quel moment ça a fait débat ça? Le DLSS est aidé par les tensor cores de ses cartes alors que le FSR fait ça en software, donc ça semble plutôt logique.

D'ailleurs personnellement je réfléchis même pas en général, dès que le DLSS est dispo je l'active (à moins que ma carte soit particulièrement à l'aise sur un jeu sans l'activer), tellement la différence de rendu est soit imperceptible, soit carrément meilleure du fait de l'antialiasing qui est beaucoup plus net avec.

Mais bon faut admettre que FSR 2 aide pas mal sur des petites machines comme le Deck si on est pas trop exigeant sur la fidélité du rendu (ça reste mieux qu'un simple upscale).
 
aeio
Ami des bêtes
Membre 1481 msgs
fwouedd a écrit :
Helas non. T'as plein de dalles VA freesync qui font du brightness flickering en mode gsync. Dont le mien qui a 2 ans et c'est pas un cas isolé, vu que ça arrive aussi sur des freesync gsync compatible.
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.

Ah et la baise, mon écran était Gsync compatible au moment de l'achat. Deux mois plus tard il l'était plus.

Bref, c'est clairement pas au point niveau compatibilité.

C'est un autre problème ça, qui vient du fait que FreeSync ne régule pas le voltage aussi précisément que le module hardware G-SYNC, mais 1) ça n'affecte que les dalles VA qui sont quand même beaucoup moins répandues sur PC que les dalles IPS et TN, 2) les cartes NVIDIA n'y sont pour rien, ça fait pareil avec les cartes AMD, et 3) ça touche aussi les TV du coup, qui sont très majoritairement équipées de dalles VA.
 
Samax
Membre Factor
Membre 510 msgs
aeio a écrit :
fwouedd a écrit :
Helas non. T'as plein de dalles VA freesync qui font du brightness flickering en mode gsync. Dont le mien qui a 2 ans et c'est pas un cas isolé, vu que ça arrive aussi sur des freesync gsync compatible.
Du coup, si t'es pas trop mal loti, tu peux potentiellement corriger le truc en limitant le VRR entre 70/90 hertz et 144hz.

Ah et la baise, mon écran était Gsync compatible au moment de l'achat. Deux mois plus tard il l'était plus.

Bref, c'est clairement pas au point niveau compatibilité.

C'est un autre problème ça, qui vient du fait que FreeSync ne régule pas le voltage aussi précisément que le module hardware G-SYNC, mais 1) ça n'affecte quasiment que les dalles VA qui sont quand beaucoup moins répandues sur PC que les dalles IPS et TN et 2) ça touche aussi les TV du coup, qui sont très majoritairement équipées de dalles VA.


Si t'as des chiffres pour étayer ce que tu dis ça m'intéresse, parce que je pensais quasi exactement l'inverse (+ d'IPS et d'OLED côté TV, IPS et VA quasi à égalité côté moniteurs gamers freesync).
 
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews