En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.
(23h46)Zaza le Nounours Ben oui mais donc ça c'est parce que le moteur est mal branlé et/ou que les devs sont des branques.
(23h43)Nicouse (23h40) Zaza le Nounours > ben c'est de la chie. C'est vraiment pas normal. Surtout quand tu te tapes des minutes interminables de compilation de shaders de mes deux.
(23h42)Nicouse (23h38) perso mon PC actuel date de 2020, le précédent de 2015 (i7 6700k)
(23h41)Zaza le Nounours Etrangement, les quelques boites qui développent encore leurs propres moteurs, qui savent comment ils marchent et ne se contentent pas d'un gros Klik & Play pour pondre leurs jeux sortent des trucs qui ont beaucoup moins ce soucis.
(23h40)Zaza le Nounours Nicouse > c'est mal engagé ça avec tout le monde qui se rabat sur l'UE5.
(23h38)Nicouse à mon humble avis, avant d'aller vers le RT tout ça, il faudrait d'abord régler les pb de micro-stuttering, c'est insupportable ça.
(23h38)CBL Et mon PC de 2009 a tenu jusqu'en 2013
(23h38)CBL Et j'aurais pu continuer dessus mais je voulais une bécane qui fasse de la VR
(23h38)Zaza le Nounours Si tu veux jouer au dernier quadruple A avec toutes les options à fond, oui. Si tu veux jouer au dernier quadruple A et que tu te fous du RT et compagnie (ce qui est ton droit), il y a des chances que tu puisses en profiter avec une vieille brouette.
(23h37)CBL (14h30) je suis passé sur une 3090 mais mon PC de 2013 a tenu jusqu'en 2019.
(23h36)Nicouse On est sur un plateau depuis quelques années (impact consoles j'imagine).
(23h35)Nicouse Simplement maintenant l'accès à la variété et à des jeux très peu exigeants est infiniment plus simple
(23h35)Nicouse Mais en fait, tout dépend. Si tu veux toujours jouer au dernier jeu +++ forcément tu auras besoin de la conf high end. Il y a 20 ans comme aujourd'hui
(23h34)Nicouse (23h33) sur le rythme de remplacement des configs, tu as peut-être raison, franchement je ne me souviens pas.
(23h33)Nicouse Je me rappelle surtout du T&L introduit par la Geforce 256
(23h33)Zaza le Nounours Y a beaucoup de choses qui vont pas dans le hardware actuel, je le nie pas c'est absolument pas une situation idyllique, mais faut une sacrée dose de mauvaise foi pour pas reconnaitre qu'on est beaucoup plus confort qu'avant sur beaucoup de points.
(23h30)Zaza le Nounours À moins que t'aies changé de carte depuis, t'as encore une 2080 Ti. Deonc une carte sortie il y a plus de 6 ans. En 2005, tu penses que tu jouais à quoi avec une carte achetée en 1999 ?
(23h30)Zaza le Nounours CBL > non, j'ai pas de problème de mémoire pour ça, j'enjolive juste pas le passé.
(23h28)Zaza le Nounours Ta carte que tu as achetée il y a six mois n'est pas compatible avec les shader models 3.0 (whatever the fuck it is) ? Et bien va te faire enculer, retourne jouer à Pong.
(23h27)CBL (14h26) (14h26) Tu as effectivement des problèmes de mémoire
(23h27)Nicouse *de me rappeler de mes différentes configs
(23h27)Nicouse (23h26) il faudrait que je me pose 15 min pour tenter (vainement) de mes différentes configs
(23h26)Nicouse (23h24) C'est-à-dire c'était quoi le JV en 95-2000 pour toi ?
(23h26)Zaza le Nounours Oui, et avant fallait changer de CPU et de GPU tous les ans.
(23h26)Nicouse Zaza le Nounours > (23h23) à la limite je veux bien reconnaître que je développe une allergie à l'IA et compagnie, et que c'est un signe de mon passage vers les vieux cons.
(23h24)Nicouse Chépas.. quand je vois que maintenant il faut une alim d"un putain de kilowatt dans un pc gamer, j'hallucine un peu.
(23h24)Zaza le Nounours J'ai zéro mémoire dans l'absolu, mais pour que vous ayez tous l'air d'avoir oublié ce que c'était le JV il y a 20 ou 30 ans, faut que vous soyez encore pires que moi.
(23h23)Zaza le Nounours Nicouse > non, parce que c'est 100% une réaction de boomers. Ca mène la belle vie pendant des années et subitement il faudrait tout arrêter parce que ça les emmerde pour x ou y raison.
(23h22)Zaza le Nounours Ben ta puissance de calcul requise, tu l'amoindris avec l'upscaling et les diverses bidouilles IA genre ray reconstruction.
(23h21)Nicouse (23h16) c'est pas pire que tes allusions aux boomers dans ton argumentaire ;-)
(23h21)Nicouse Ok ça sert pas à rien. Disons que le coût énergétique est douteux vs la joliesse en plus.
(23h21)Zaza le Nounours Quand c'est bien fait, bien utilisé, c'est sans comparaison. Le problème, c'est quand c'est mal exploité, quand des devs se contentent de "l'UE5 pour les nuls" et te balancent des jeux bourrés de Lumen qui se trainent la bite.
(23h21)CBL Je ne dis pas que ça sert à rien. Je dis que le rapport puissance de calcul/gain de qualité est débile
(23h19)Zaza le Nounours CBL > mais le RT sertdans les jeux, quand on aime avoir des trucs jolis. Que toitu n'en voies pas l'intérêt, je vais pas débattre là-dessus, mais un blanket statement "ça sert à rien le RT", c'est faux.
(23h16)Zaza le Nounours Nicouse > elle est complètement conne, ta comparaison, excuse-moi de te le dire.
(23h15)CBL Mais je ne colle pas de ray-tracing car je me vois mal demander à mes clients d'acheter des 4090 pour trois reflets à la con
(23h15)CBL Je colle DLAA dans mes applis pro au boulot pour avoir une netteté parfaite
(23h15)Nicouse (23h10) c'est ton droit, et on peut ne pas partager ce point de vue. Ce serait comme de dire que tu t'en fous d'avoir des traces d'excrément dans les éclairs au chocolat, tu t'en fous puisque tu ne sentiras pas la différence avec celui 100% chocolat ;-)
(23h14)CBL Ma critique n'est pas sur l'existence de DLSS mais sur le fait que c'est une réponse à une techno bancale
(23h13)CBL Ce qui est fou c'est de ne pas comprendre qu'on peut avoir les deux. On pourrait avoir des jeux optimisés qui n'utilisent pas du RT qui ne sert pas à grand chose ET avoir DLSS
(23h11)Zaza le Nounours C'est juste une manière plus intelligente d'utiliser les ressources du hardware.
(23h10)Zaza le Nounours Le fait de chouiner sur l'upscaling, c'est aussi une réaction de boomer. Rien à branler que mon GPU calcule du 1080p si au final je vois pas la différence avec du "vrai" 4k.
(23h09)Zaza le Nounours C'est du matos d'entrée de gamme de 2020 et malgré ça, ça fait tourner un jeu super beau et tout en RT.
(23h09)aeio s'en plaindre.
(23h09)aeio Ecoute ce qu'il dit à partir de 3:38. C'est totalement vrai. Ça fait 10 ans qu'on joue à des jeux flous à cause du TAA et on a enfin à nouveau des jeux nets grâce à l'upscaling par l'IA. La qualité d'image a progressé et je vois aucune raison de...
(23h09)Zaza le Nounours CBL > tous les jeux Series S sont en 1080p, RT ou pas.
(23h06)aeio (23h01) CBL > Quand le 1080p upscalé défonce la 4K native avec TAA, je vois pas le problème. [youtu.be]
(23h06)CBL Puis quand ce n'était toujours pas suffisant la réponse a été "Vendons des cartes graphiques hors de prix qui génèrent des images avec de l'IA"
(23h05)CBL Et à la place de tenter d'optimiser le tout ou de se rendre compte que ça allait dans le mur, la réponse a été "Générons des pixels avec de l'IA"
(23h05)aeio (23h01) Parce que ça fait 5 ans qu'on bouffe des jeux cross-gen PS4/XBO/PS5/XBS/PC et qu'on en a marre.
(23h04)CBL A savoir que si la montée en résolution fait très mal pour un pixel shader, elle fait doublement mal pour tout ce qui est RT. Le nombre de rayons que tu dois balancer pour du 4K est absoluement débile
(23h02)Nicouse la plateau qualitatif visuel est atteint depuis un paquet de temps maintenant.
(23h02)CBL Grâce au ray tracing, l'éclairage de demain avec la résoluton de 2006
(23h01)Nicouse aeio > pourquoi pas en fait faire tourner des jeux sur du "vieux" hardware ?
(23h01)CBL aeio > En 1080p.
(23h00)CBL Du coup grosse machine arrière et ils ont introduit du "screen space" qui fait le boulot mais pas vraiment
(22h59)CBL Et qu'en qu'en hardware, c'était trop compliqué
(22h59)CBL Puis ils se sont rendus compte qu'en software c'était trop gourmand
(22h59)aeio Indiana Jones avec son RTGI, il est magnfique et il tourne à 60 FPS y compris sur la Xbox Series S.
(22h59)CBL Au départ ils sont partis en mode "ce sera tout en ray-tracing" (Lumen)
(22h58)CBL Le plus gros échec de cette génération, c'est l'Unreal Engine 5
(22h58)aeio Preuve s'il en fallait que le RT est partout aujourd'hui, sous une forme ou une autre (SVOGI et Lumen, ça compte aussi), et que c'est une très bonne chose. "On" ne va pas s'embêter à faire tourner les jeux sur du vieux hardware éternellement.
(22h57)Nicouse (oui c'est constructif)
(22h56)Nicouse Le RT c'est de la couille.
(22h47)CBL aeio > C'est du "voxel cone tracing", une forme très simplifiée (et donc peu gourmande) du ray tracing
(22h47)CBL (13h45) Et je te garantis que c'est purement artificiel comme limitation
(22h45)aeio (22h44) Ta vidéo compare RTGI et Path Tracing. On peut pas jouer à Indiana Jones sans ray tracing hardware.
(22h44)CBL (13h41) Alors qu'elle était vendue $700 à sa sortie. On marche sur la tête
(22h44)CBL Tu prends Indy par exemple et le gain est déjà nettement moins évident [youtube.com]
(22h42)CBL Et ca tient en partie au moteur mais surtout au fait que le délire cyberpunk est parfait pour cela
(22h41)aeio (22h36) SVOGI [cryengine.com] C'est du ray tracing software.
(22h41)Zaza le Nounours Mais le gain de qualité il EST évident, et il va l'être de plus en plus. On commence enfin à t'avoir des jeux qui marchent pas sans carte gérant le RT, il était plus que temps.
(22h41)toof C’est vrai qu’avec ma vieille 3080, je suis souvent obligé de virer le RT pour garder un framerate décent
(22h40)CBL Cyberpunk il faut se rendre que ce n'est pas la règle, c'est l'exception
(22h39)CBL (13h36) Zaza le Nounours > C'est pas une aversion. C'est un simple constat : la puissance de calcul nécessaire pour faire du RT est absolument débile et le gain de qualité n'est pas toujours super évident
(22h38)CBL (13h36) toof > Nope. On sait faire du GI sans RT.
(22h36)toof J’ai vu une histoire de mod de global illumination sur KCD2, c’est pas du RT ? (C’est une vraie question)
(22h36)Zaza le Nounours Cette aversion au RT, c'est vraiment un truc de boomer du jeu vidéo. Je sais pas comment vous avez fait pour survivre aux années 90 et 2000 quand y avait une nouvelle techno tous les six mois qui rendait systématiquement tout le matos existant obsolète.
(22h34)Zaza le Nounours C'est pas parce qu'il y a des jeux qui font bien sans que c'est pas mieux avec. J'échange pas 10 barils de KCD2 contre 1 de CP2077.
(22h31)CBL Et aussi un des mieux optimisés
(22h30)CBL Mais c'est faux. On fait très bien sans. Kingdom Come Deliverance 2 n'a pas un pet de ray tracing et c'est un des plus beaux jeux de cette génération
(22h25)Zaza le Nounours La valeur ajoutée elle est réelle quand son emploi se limite pas à trois reflets dans des flaques d'eau.
(22h25)CBL Du coup on en est réduit à un combat d'upscalers avec les gens qui comparent des pixels
(22h24)CBL Car c'est une techno fondamentalement beaucoup trop gourmande surtout vu la faible valeur ajoutée
(22h24)Zaza le Nounours Mais on s'en fout que ça soit en "natif"...
(22h23)CBL Il est désormais clair que ni AMD ni Nvidia n'arriveront à produire des CG qui supportent efficacement le ray tracing en natif
(22h19)CBL toof > très franchement, parler de cartes graphiques m'intéresse de moins en moins
(21h39)Zaza le Nounours Je vais attendre sereinement que tu viennes me présenter tes plus plates excuses pour avoir douté de mes recommandations toujours très sûres.
(21h20)Palido 10euros, auxquels il faudra probablement en ajouter 15 pour financer l'alcool nécessaire et passer un bon moment, j'imagine.
(21h19)Palido Zaza le Nounours > Fuck. [i.imgur.com]
(21h03)Le vertueux Je l'ai acheté il y a un moment mais je n'y ai toujours pas joué car je voulais le faire en Vr. Mais vu le prix des cartes graphiques...
(21h03)Le vertueux l'avez vous testé en Vr ?
(20h43)Zaza le Nounours Si à ce prix vous passez encore à côté, vous êtes un larbin de l'OCP.
(17h35)Zaza le Nounours Sauf que le vieux FSR, c'était de la bouillie, y avait pas de débat. Maintenant on a un truc qui est good enough, même si pas le meilleur.
(16h43)aeio Il y a du mieux chez AMD mais ils ont toujours une génération de retard. C'est finalement pas si différent que la situation précédente où on avait FSR 3.1 face DLSS 3.8.
(16h42)aeio On en revient à ce que je disais : il y a de très fortes chances que DLSS 4 Performance soit supérieur à FSR 4 Quality.
(16h41)aeio La perte est moindre et la qualité d'image est largement supérieure comme il le montre dans le reste de la vidéo [youtu.be]
(16h41)Fwdd (sur ton lien)
(16h40)Fwdd Tu choisi vraiment comme ca t'arranges, c'est aussi le cas du dlss 4 en transformer qui est aussi meilleur que le dlss 3
(16h38)aeio J'espère que Digital Foundry (ou Hardware Unboxed à la limite) fera une vidéo sur le sujet. Pour l'instant on sait juste que quand on compare DLSS 3 Perf et FSR 4 Perf en 4K, AMD se prend 20% de perte dans les dents [youtu.be]
(16h32)aeio (16h16) Comparer ce qui est comparable, pour moi c'est justement comparer la qualité d'image. La résolution interne importe peu, seule l'image produite à la sortie compte.
(16h17)Zaza le Nounours Enfin ça c'est tant qu'on parle pas de RT, là-dessus AMD se fait toujours dégommer. Et la conso est aussi absolument ridicule.
(16h17)Zaza le Nounours En perfs brutes, 9070XT et 5070Ti sont relativement similaires, avec l'avantage (très théorique) du prix pour AMD.
(16h16)Zaza le Nounours Oui mais compare ce qui est comparable, DLSS qualité vs. FSR qualité. Forcément si le rendu interne est inférieur en DLSS t'auras plus de FPS en sortie.
(15h25)aeio Et ça tu le vois pas dans les tests actuels qui te disent que les deux sont grosso modo à égalité [i.imgur.com]
(15h24)aeio Non, mais si t'as par exemple Stalker 2 qui tourne à 105 FPS en 4K DLSS Perf sur une 5070 Ti et à 70 FPS en 4K FSR Quality sur une 9070 XT avec la même qualité d'image, alors la 5070 Ti est une bien meilleure carte.
(15h23)Zaza le Nounours Oui mais c'est pas parce que le DLSS4 est mieux que ça fait du DLSS3 instantanément de la merde.
(15h17)aeio (14h59) On était content avec mais la donne a changé. Tout le monde a par exemple pu constater que DLSS 4 Performance était souvent supérieur à DLSS 3 Quality en 4K, et que c'était donc un gros gain de perf gratuit.
(15h07)Fwdd Et que finalement, elles vont vite couter 1000 balles aussi,
(15h02)Le vertueux On est en est où d'ailleurs d'une alternative plug and play au cuda ?
(14h59)Zaza le Nounours Le plus gênant avec la 9070 XT, c'est quelle consomme autant qu'une 4090.
(14h59)Zaza le Nounours aeio > si le FSR4 fait visuellement aussi bien que le DLSS3, y a pas trop à redire, le DLSS3 on était très content avec, et ils reviennent de tellement loin avec la bouillie du FSR2/3.
(14h56)Fwdd (ma 4070 ti vient de claquer (super matos pour 1000 boules hein) et je repart sur du DLSS 4 parce que c'est top tier en VR)
(14h54)Fwdd Je résumais vite fait leur dossier dessus.
(14h54)Fwdd aeio > Ecoute emvoie um mail a digital foundry hein
(14h38)aeio Tous ces benchmarks réalisés en résolution native ne valent rien si DLSS 4 (supporté par 730 jeux aux dernières nouvelles) en mode Performance égale ou dépasse par exemple FSR 4 en mode Qualié.
(14h33)aeio (12h36) FSR 4 n'est que dans une petite poignée de jeux, se rapproche plus de DLSS 3 que du 4 visuellement et plombe pourtant davantage les perfs que DLSS 4.
(12h45)toof Le vertueux :) si seulement !
(12h38)Fwdd Fin sauf si y'en a 5 en magasin a 1200 balles chez nous évidemment.
(12h36)Fwdd La 9070 xt sort des grosses perfs pas loin de la 5070 ti ( qui fait mini 1000 balles), le fsr 4 est selon DF meilleur que le dlss 3, et la carte commence a 600 dollars aux us. Ça va être intéressant.
(12h32)Le vertueux toof > Ah ok, Il ne te faut pas grand chose. Ça doit être excellent pour toi quand tu regardes une série comme how i met your mother où quand tu écoutes du Coldplay
(12h26)toof Le vertueux > c’est vrai ? Je trouve ça marrant à chaque fois de découvrir des cartes à peine potable à 50€ de moins que des nvidia déjà pas ouf a des prix déments
(11h26)Le vertueux toof > Y a vraiment pas de quoi espérer une conversation divertissante pourtant.
(11h25)toof J’ai acheté mon popcorn trop tôt.
(11h03)Fwdd A mon avis on attends de savoir quels sont les vrais prix en magasins, elles sont toujours pas référencées.
(10h50)toof Ah ben non. Et pourtant personne ne parle des 9070XT.