ACTU
GPU contre CPU
par CBL,
email @CBL_Factor
Une partie de notre lectorat est en vacances et glande devant GTA IV tandis que l'autre compte les secondes en attendant d'être en week-end prolongé ce soir. Bref, c'est le bon moment pour faire une news technique bien lourde. Avant l'apparition des GPU (processeurs dédidés aux graphismes), le monde était simple : le CPU (processeur central) faisait les calculs pour les jeux et la carte graphique les affichait. Les premières GeForce d'nVidia ont rendu ce shéma caduque en prenant en charge une partie des calculs avec le Transform & Lightning et en introduisant les GPU. Depuis, les GPU n'ont cessé de gagner en complexité et en puissance au point de prendre le pas sur les CPU. Selon ce dossier et d'autres, la montée en fréquence/puissance du CPU ne fait plus gagner beaucoup de FPS.
Les deux poids lourds du milieu sont Intel (CPU) et NVIDIA (GPU). L'hégémonie actuelle d'nVidia sur les GPU pour joueurs risque d'être mise à mal par l'arrivée d'Intel sur le marché avec Larrabee, leur GPU maison fondé en partie sur l'architecture x86 qui règne sur le monde des CPU depuis près de 30 ans. En parallèle, les CPU d'Intel sont aussi de plus en plus complexes et comportent surtout de plus en plus de coeurs. Si le double-coeur est la norme actuelle, le prochain CPU que vous acheterez sera surement un octo-coeur. Même si les développeurs de jeux commencent à arriver à exploiter ces architectures multi-coeur, il y a peu de chances pour que les huit coeurs soient exploités un jour. A quoi pourra servir le relicat de puissance ? A traiter les graphismes par exemple. En effet, le but d'Intel est de fondre CPU et GPU en un seul processeur (à la manière de ce que va faire AMD avec les GPU ATI) voir de virer complètement le GPU pour que le CPU s'occupe de tout. Ceux qui se souviennent des promesses du MMX sont en train de rigoler un bon coup.
Evidemment, NVIDIA voit ce futur d'un mauvais oeil et pense l'inverse. Dans les GeForce séries 8xxxx et 9xxx, on trouve des unités de calcul, les fameux stream processors. Ces unités de calcul savent faire bien plus qu'afficher des beaux graphismes. nVidia a même sorti CUDA, une technologie qui permet de développer des programmes en C pour les exécuter sur ... les GPU. Et si un GPU était capable de faire tourner l'ensemble du système ? Le CPU deviendrait alors inutile. Même sans aller jusqu'à cet extrême, un petit CPU pas cher combiné à un gros GPU pourrait bien faire l'affaire. Ca tombe bien, nVidia vient de s'associer à Via (un constructeur de CPU peu puissants) pour sortir une plate-forme low cost commune.
Les moteurs physiques sont un bon exemple de cette lutte entre Intel et NVIDIA. Intel s'est payé Havok, développeur du moteur physique éponyme numéro un sur le marché, et compte se servir de ce moteur pour promouvoir à fond ses CPU multi-coeurs. NVIDIA s'est payé Ageia, développeur du moteur physique PhysX qui est le grand concurrent du Havok, et pourront bientôt booster ce moteur physique. La guerre est déclarée. Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos et que les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique, transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant.
Les deux poids lourds du milieu sont Intel (CPU) et NVIDIA (GPU). L'hégémonie actuelle d'nVidia sur les GPU pour joueurs risque d'être mise à mal par l'arrivée d'Intel sur le marché avec Larrabee, leur GPU maison fondé en partie sur l'architecture x86 qui règne sur le monde des CPU depuis près de 30 ans. En parallèle, les CPU d'Intel sont aussi de plus en plus complexes et comportent surtout de plus en plus de coeurs. Si le double-coeur est la norme actuelle, le prochain CPU que vous acheterez sera surement un octo-coeur. Même si les développeurs de jeux commencent à arriver à exploiter ces architectures multi-coeur, il y a peu de chances pour que les huit coeurs soient exploités un jour. A quoi pourra servir le relicat de puissance ? A traiter les graphismes par exemple. En effet, le but d'Intel est de fondre CPU et GPU en un seul processeur (à la manière de ce que va faire AMD avec les GPU ATI) voir de virer complètement le GPU pour que le CPU s'occupe de tout. Ceux qui se souviennent des promesses du MMX sont en train de rigoler un bon coup.
Evidemment, NVIDIA voit ce futur d'un mauvais oeil et pense l'inverse. Dans les GeForce séries 8xxxx et 9xxx, on trouve des unités de calcul, les fameux stream processors. Ces unités de calcul savent faire bien plus qu'afficher des beaux graphismes. nVidia a même sorti CUDA, une technologie qui permet de développer des programmes en C pour les exécuter sur ... les GPU. Et si un GPU était capable de faire tourner l'ensemble du système ? Le CPU deviendrait alors inutile. Même sans aller jusqu'à cet extrême, un petit CPU pas cher combiné à un gros GPU pourrait bien faire l'affaire. Ca tombe bien, nVidia vient de s'associer à Via (un constructeur de CPU peu puissants) pour sortir une plate-forme low cost commune.
Les moteurs physiques sont un bon exemple de cette lutte entre Intel et NVIDIA. Intel s'est payé Havok, développeur du moteur physique éponyme numéro un sur le marché, et compte se servir de ce moteur pour promouvoir à fond ses CPU multi-coeurs. NVIDIA s'est payé Ageia, développeur du moteur physique PhysX qui est le grand concurrent du Havok, et pourront bientôt booster ce moteur physique. La guerre est déclarée. Pour les joueurs, une fusion GPU-CPU est bénéfique car elle implique qu'il faudra acheter moins de matos et que les jeux seront bien mieux optimisés car les développeurs travailleront sur une architecture unique, transformant finalement les PC en consoles. Par contre pour les constructeurs, elle conduit à la mort ou à la reconversion du perdant.