Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

Forums

Nvidia annonce les 50xx
Zaza le Nounours
Connard aigri
Membre 14293 msgs
lichen a écrit :
Question naïve

Réponse courte : ça dépend.

Réponse longue : niveau nouvelles features, clairement cette génération 5000, c'est pas ouf. La MFG, c'est "juste" la FG des 4000 mais améliorée pour pouvoir profiter un tant soit peu d'un écran à très haut refresh rate. Et il faut espérer que ça reste cantonné à cette utilisation, et pas que certains développeurs malpropres l'utilisent en disant "regardez, 30 FPS réels et vous montez à 120, 15 FPS réels et vous montez à 60 !". J'ai envie d'y croire, mais d'un autre côté les dernières années nous ont montré que certains devs n'en ont bien souvent rien à foutre et ne se gêneront pas pour prendre tous les raccourcis possibles, même les plus dégueulasses.

Pour ce qui est du reste des apports du DLSS4, ça a l'air de sensiblement améliorer la qualité d'image en se débarrassant de beaucoup d'artefacts causés par les techniques de reconstruction/upscaling, et ça tout le monde en profitera (en espérant que ça soit pas bizarrement moins puissant sur les GF2000/3000/4000 que sur les 5000), donc c'est une bonne chose.

Pour ce qui est des autres nouveautés à base d'IA : de la merde pour surfer sur la vague, comme toutes les autres merdes autour des IA génératives. Vivement que tout ça disparaisse.

Pour ce qui est de l'intérêt de la FG dans l'absolu et de sa démocratisation, ça arrive doucement, ça reste une techno relativement récente et qui ne se prête pas à tous les jeux. Ne jouant pas du tout en multi et me contentant d'un "simple" écran 4k à 120 Hz, ça reste intéressant pour profiter des jeux qui tapent fort dans le GPU pour en mettre plein les yeux genre Alan Wake 2 ou Cyberpunk, et dans leurs cas ça marche vraiment bien. Je ressens pas la latence, et pour ça Reflex doit aider.

Maintenant autant je vois l'intérêt d'un benchmark pour évaluer le gain apporté par le DLSS classique (l'upscaling, quoi), autant dans le cas de la FG, ça me parait plus douteux. C'est facile d'annoncer des 500% de framerate en plus quand les 3/4 des images affichées n'ont pas vraiment été calculées et ne sont que des interpolations à la con. C'est un peu pareil pour le DLSS SR, certes, t'affiches un gros framerate en 2160p alors qu'en réalité le GPU ne calcule que du 1080p, mais je sais pas, ça me parait moins "facile". Au final si la techno marche bien, pour le joueur ça reste un plus, mais j'ai surtout l'impression que c'est une solution de facilité pour sortir des "bigger numbers better", et ça Nvidia l'a parfaitement compris avec ses annonces de "GeForce 5070 au niveau de la 4090", ce qui sera très, très loin d'être le cas en perfs réelles.
 
lichen
Membre Factor
Membre 327 msgs
Merci pour la réponse Zaza !

Petit partage d'expérience sur le DLSS, avec lequel je rencontre encore pas mal de problèmes dans certains jeux.

Dans Red Dead 2 ou Cyberpunk, le DLSS (mode qualité) m'offre par exemple un gain de performances significatif avec un impact visuel minime, c'est vraiment nickel.

Dans d'autres jeux, c'est tellement mal implémenté que je n'utilise pas l'option.
Par exemple dans Vermintide 2 ou Dragon Dogma 2, le DLSS en mode qualité donne chez moi un rendu dégueulasse et baveux, avec parfois des artefacts sur les éléments d'UI.

C'est triste de voir que la technologie n'est pas utilisée dans tous les jeux qui sortent et parfois elle est juste tellement mal intégrée qu'elle n'est pas utilisable.
 
manus
Membre Factor
Membre 122 msgs
@Zaza le Nounours : désolé mais l'IA dans les shaders et pour la compression sont super intéressant, donc ce n'est pas que pour surfer sur le terme, cela va avoir un vrai gain pour le rendu.
 
Zaza le Nounours
Connard aigri
Membre 14293 msgs
lichen a écrit :
Dans d'autres jeux, c'est tellement mal implémenté que je n'utilise pas l'option.
Par exemple dans Vermintide 2 ou Dragon Dogma 2, le DLSS en mode qualité donne chez moi un rendu dégueulasse et baveux, avec parfois des artefacts sur les éléments d'UI.

Bizarre. J'ai pas Vermintide ni DD2, donc je peux pas tester, mais normalement le DLSS est pas censé dégrader l'UI. Les seules fois où ça peut merder en théorie, c'est avec une frame gen mal réglée, mais juste le DLSS SR, non. Regarde si y a pas d'autres options qui entrent en conflit (genre résolution interne <100% avant même de prendre en compte le DLSS), et éventuellement change les DLL, si ça se trouve les jeux viennent avec des vieilles versions du DLSS et n'ont jamais été upgradés.

manus a écrit :
@Zaza le Nounours : désolé mais l'IA dans les shaders et pour la compression sont super intéressant, donc ce n'est pas que pour surfer sur le terme, cela va avoir un vrai gain pour le rendu.

Alors, oui, mais on va quand même attendre que ça existe ailleurs que dans les promesses de Nvidia et leurs beaux Powerpoint pour voir si ça a réellement un intérêt.

Mais sinon je pensais plus au G-Assist, aux NPC IA pour jouer en "coop", aux Neural faces encore moins réalistes que les anims de LA Noire, ce genre de saloperies.
 
kakek
Membre Factor
Membre 1667 msgs
Je vient de remarquer un autre truc marrant : Nvidia met toujours plus d'ecart entre son haut de gamme et son bas de gamme.

C'est un peut dur a quantifier parcequ'il faut aller rechercher des vieux bench, mais vite fait il me semble que la génération des 10xx avait un écart de 80% de perf ( en gros ) entre une 1060 et une 1080ti.
A la génération des 20xx, c'était monté a 100%
sur les 30xx, on a gentiment été a 150% entre une 3060 et une 3090.
Et sur la génération des 40xx, ca fleure les 200%. entre une 4060 et une 4090

En fait, entre une 2060 et une 4060 ( 2 gen d'écart et 5 ans quand même ) il y a juste une progression de 35%, la ou entre une 2080ti et une 4090, il y a une bien plus nette augmentation de 70%.

Je ne suis pas sur de mon analyse, mais en regardant les specs de la génération des 50xx, ça a l'air bien partit pour etre la même.

On dirait qu'il n'y a que le haut de gamme qui progresse.

Quel dommage que AMD se chie dessus. Le salut viendra peut être de Intel avec la génération prochaine finalement.
 
aeio
Ami des bêtes
Membre 1486 msgs
Faudrait voir en prenant en compte les cartes Titan, parce que les 3090, 4090 et 5090 ne sont autres que leurs remplaçantes.
 
Zaza le Nounours
Connard aigri
Membre 14293 msgs
Bof, la Titan X Pascal, elle avait pas grand chose de plus qu'une 1080 Ti.
 
kakek
Membre Factor
Membre 1667 msgs
aeio a écrit :
Faudrait voir en prenant en compte les cartes Titan, parce que les 3090, 4090 et 5090 ne sont autres que leurs remplaçantes.

Vite fait, ça ne change pas grand chose.
De titan RTX ( l'equivalent d'une 2090 donc ) a 4090 on fait plus que doubler les performances. Alors qu'entre une 2060 et une 4060 nettement pas.
Aprés, je le repete, ce n'est que mon impression en cherchant vite fait une petite série de bench sur youtube pour essayer de comparer.
 
Nutz
Membre Factor
Membre 113 msgs
kakek a écrit :
Quel dommage que AMD se chie dessus. Le salut viendra peut être de Intel avec la génération prochaine finalement.


Moi j'ai l'impression qu'ils n'ont pas trop envie de chercher l'affrontement direct.
Intel assume la jeunesse de ces produits et les places sur l'entrée de gamme en faisant probablement des marges ridicules.
Et AMD semble miser sur le milieu de gamme, pour leur nouvelle génération il ne se donne même pas la peine d'annoncer autre chose et n'ont parlé que des 9070 au CES.

Puis ne pas non plus oublier que pour ces deux là c'est important que leur architectures (Xe & RDNA) soit déclinable pour leur APU.
Alors que coté Nvidia me semblait avoir vu passer des articles technique qui expliquait que leur architecture récentes nécessitaient beaucoup de ressources pour s'exprimer au mieux et serait probablement peu adapté à ce type d'exercice ou dans des déclinaison bas de gamme (ça rejoint peut être ton impression sur l'écart de plus en plus marqué pour les déclinaison extrême) même si vu la montagne de pognons dont ils disposent il n'auraient probablement pas de mal à avoir une archi dédié bas de gamme si il le voulait.
 
lichen
Membre Factor
Membre 327 msgs
Je serai curieux de savoir dans quelles proportions les bénéfices actuels de Nvidia proviennent des puces destinées exclusivement à l'IA versus les puces destinées aux GPU grand public.

On tend peut-être vers un ralentissement de l'innovation réelle et des gains de performances pour les GPU destinés au grand public si ça n'est plus la priorité financière de Nvidia ?
 
Zaza le Nounours
Connard aigri
Membre 14293 msgs
lichen a écrit :
Je serai curieux de savoir dans quelles proportions les bénéfices actuels de Nvidia proviennent des puces destinées exclusivement à l'IA versus les puces destinées aux GPU grand public.

C'est extrêmement facile à trouver.

Revenus serveurs / data center : 30.8 miyards
Revenus gaming : 3.3 miyards.

Les GeForce, c'est de l'argent de poche pour eux.
 
Nvidia annonce les 50xx

Règles à suivre

Écrire dans un français correct et lisible : ni phonétique, ni style SMS. Le warez et les incitations au piratage sont interdits. La pornographie est interdite. Le racisme et les incitations au racisme sont interdits. L'agressivité envers d'autres membres, les menaces, le dénigrement systématique sont interdits. Éviter les messages inutiles

 
Rechercher sur Factornews