Connexion
Pour récupérer votre compte, veuillez saisir votre adresse email. Vous allez recevoir un email contenant une adresse pour récupérer votre compte.
Inscription
En vous inscrivant, vous acceptez les conditions d'utilisation du site et de nous vendre votre âme pour un euro symbolique. Amusez vous, mais pliez vous à la charte.

Un Rédacteur Factornews vous demande :

ACTU

Sony : à fond dans la générosité mais pas trop

CBL par CBL,  email  @CBL_Factor
Avant l'annonce du remaster de Horizon: Zero Dawn, la version de base coûtait 20 euros. Mais le prix vient soudainement de grimper à 40 euros sur le PS Store car Sony veut vendre le remaster à 50 euros pour ceux qui n'ont pas le jeu de base ou à 10 euros pour ceux qui prendront juste la mise à jour. C'est assez mesquin. On vous engage donc à choper rapidement une version disque (prenez la Complete Edition) en occasion avant que les trouducs d'Ebay n'aient compris qu'il y a du blé à se faire.
 

Commentaires

Masquer les commentaires lus.
Darkigo
 
Marrant ce récap !
Quand même sacré bond technologique encore, c'est bluffant. Graver en 8nm, on nous aurait dit ça y'a 15 ans ! On trouvait ça dingue les Core 2 Duo gravés en 65 nm...
aeio
 
Petites coquilles dans l'article : c'est GDDR6X, et la RTX 3070 n'en a pas. Elle embarque de la GDDR6 tout court.

Parmi les nouveautés on peut aussi citer RTX IO, qui va permettre aux SSD NVMe de communiquer directement avec la carte graphique (le truc révolutionnaire vanté par Sony et Epic pour la PS5), et une mise à jour de GeForce Experience qui va rajouter l'overclocking automatique "intelligent" et un overlay affichant toutes sortes d'infos telles que le frame rate moyen, la température et la conso : https://www.nvidia.com/en-us/geforce/news/introducing-rtx-30-series-graphics-cards/
hiroshimacc
 
J'étais pas mal hypé jusqu'à la fin mais la séquence "streamers" m'a un peu refroidit. Vous en faites trop les mecs :/
Chouf
 
Merci pour le récap', j'en profite pour demander vos conseils/avis :

Actuellement sur une GTX 1070 (+i7-4770S et 16Go DDR3), j'attendais la sortie de la série 3000 pour changer de CG, et les prix un peu plus bas que prévu me font hésiter entre 3070 et 3080 (j'avais budgété 600€ pour 3070).
Mon utilisation principale : stream de mon PC sur Shield TV en 1080p 60fps (pas trop essayé en 4K je crois qu'il y'a de l'input lag) et VR sur un Reverb G2 en préco (actuellement sur Rift S).

ça me donne donc d'un coté un besoin pour le stream sur ma Shield (1080p) sur des gros jeux (Cyberpunk et Control notamment (en attente de changement de carte pour faire celui là)) et d'un autre un besoin de 4K 90fps pour la VR mais sur des jeux jusqu'ici généralement moins 'beaux'.
Jusqu'ici les séries 70 m'allaient bien d'un point de vue perf/prix mais sur cette gen j’hésite à prendre de l'avance surtout que l'écart entre 70 et 80 me semble important.
Ah aussi mon alim est une Antec 620W 80+ Bronze, peut-être un peu juste pour la 3080 qui est annoncée à 320W contre 220W la 3070 (2 hdd sata, 3 ssd sata, 4 barrettes, alimentation casque VR USB3)
codec-abc
 
Leur truc de latence ne me semble pas très convainquant.

D'un point de vue humain, je trouve plus facile de jouer avec quelques frames bufferisées (ie, plus de latence) mais un framerate plus élevé que l'inverse. J'avais fait le test sur DirtyBomb (qui utilise l'unreal engine et donc le changement d'un setting avait le même que leur SDK) et le résultat était sans appel. Je fraggait beaucoup plus facilement avec un peu plus de latence et un framerate plus fluide. Donc la latence n'est pas la seule chose qui compte contrairement à ce qu'ils essayent de nous faire croire dans la vidéo. De plus sans buffer queue, la variance de la latence risque d'être plus grande puisqu'on ne peut pas la lisser, ce qui ne va pas être confortable non plus pour le cerveau humain.

Ensuite, leurs système de mesure de latence est pas sympa mais il ne mesure pas la latence de la souris vu que l'écran détecte le clic quand l'info arrive sur l'USB. Or, toute la latence lié au de-bounce, puis le temps de traitement du microcontrôleur n'est pas prise en compte. Bien que faible, elle n'est pas forcément négligeable même sur des périphériques gamers. L'autre soucis est qu'elle se base sur du traitement d'image et on ne sait pas comment il fonctionne. Si le jeu affiche le muzzle flash dans un FPS avec un fade-in et fade-out sur 3 frames, peut-être que leur techno ne détectera pas le changement sur la première frame si la différence est trop petite.

Bref, l'effort est louable mais je suis sceptique vis-à-vis du résultat. Après, vu la nouvelle série de GPU qu'ils sortent ils ont le droit de faire un peu n'imp ici. Je leur pardonne de bon coeur.
redtiger
 
Bonjour ! C'est moi, JHH ! Ceci est ma cuisine que vous voyez derrière là, pas mal non ? C'est français.
Spawn
 
AMD va riposter face à cette bombe nucléaire ?

En tout cas, il aura pas fallu attendre longtemps avant que les consoles soient dépassées !
Nutz
 
Peu de chance car les cartes à plus de 500€ c'est un créneau AMD n'occupe pas actuellement (en même temps le marché doit pas avoir une taille de dingue non plus).
Il n'y a probablement que la 3070 qui aura une concurrence directe.

Après attendons de voir les premiers test car si il ne fait pas de doute que ces cartes obtiendrons facilement les meilleures score en valeur absolue ça sera surtout intéressant de voir si les vrais chiffres donne un rapport perf/prix/conso meilleure que sur les 20xx qui n'était pas une grande réussite à ce niveau (la génération précédente et AMD était mieux placé).
Concernant la conso ça semble pas très bien engagé et pas forcément très encourageant (historiquement les nouvelle génération de CPU ou GPU qui ont repoussé les limites de TDP n'ont pas été les meilleures...).
Et il faudra voir aussi ce qui va se passer pour le milieu de gamme, il n'y a pas eu de déclinaison 20xx, probablement à cause de cette difficulté à produire des versions moins coûteuse avec des performance convaincante face à la génération précédente, il faudra voir si cette difficulté est réglé (sinon ça va être la fête chez AMD qui aura champs libre, voir Intel qui a prévu de débarquer sur le secteur l'an prochain).
fennec
 
@Chouf, si t'as un G2 en preco et que tu peux te permettre une 3080 va-y! Le G2 c'est du 4320x2160@90Hz en full res, donc la 3080 ne sera pas de trop. Pour l'alim je pense que 620W ca devrait le faire large avec un CPU a 65W, ca te laisse plus de 200W pour le reste du système.
Manolo
 
Autant attendre la réponse d'AMD, parce que là bon... Les prix pétés de Nvidia me gavent malgré que j'ai été fidèle de la GTX660 à la GTX1060.
Leur haut de gamme c'est vraiment une autre planète pour moi.
Fulgor
 
Une idée du prix de l'écran IPS et des diagonales disponibles ?

Une autre question pour les acharnes de techno.
On arrive à des gravures de 7 nm sur une série 3 xxx
En extrapolant (un peu) on pourrait dire que pour la version 10 xxx on arrivera(it) a des gravures au 1 nm
Mais après le 1 nm c'est quoi l'avenir des gravure pour des GPU ?
Pyjama Wallon
 
Le picomètre ?
BeatKitano
 
Fulgor a écrit :
Une idée du prix de l'écran IPS et des diagonales disponibles ?

Une autre question pour les acharnes de techno.
On arrive à des gravures de 7 nm sur une série 3 xxx
En extrapolant (un peu) on pourrait dire que pour la version 10 xxx on arrivera(it) a des gravures au 1 nm
Mais après le 1 nm c'est quoi l'avenir des gravure pour des GPU ?



Le stacking.
Vous devez être connecté pour pouvoir participer à la discussion.
Cliquez ici pour vous connecter ou vous inscrire.
Rechercher sur Factornews