ARTICLE
Retours sur la GDC 2016
par CBL,
email @CBL_Factor
J’ai assisté à une autre conférence mardi soir que j’ai oublié de mentionner. Elle était donnée par ILMxLAB. C’est une nouvelle division au sein de Lucasfilm qui se concentre sur l’avenir du divertissement. Ils font de la réalité virtuelle, de la réalité augmentée, des films interactifs, des attractions pour les parcs Disney. Elle se situe au croisement d’ILM (effets spéciaux), Lucasfilm (licences) et SkyWalker Sound (son). On parle donc de gens très talentueux ayant accès aux licences les plus juteuses du marché et au financement quasi-illimité.
Ils bossent sur tout plein de choses rigolotes. Ils ont une sorte de cinéma où des projecteurs affichent au sol et aux murs un film en 3D dont la perspective suit le spectateur grâce à des capteurs sur les lunettes 3D. Cela donne une impression bluffante d’hologramme. Ils ont une appli iPad qui utilise SLAM et où C3P0 se promène dans votre salon avant de s'asseoir. Ils ont un système de film interactif : le rendu de la scène (complètement en images de synthèse) est fait dans le cloud et le résultat est streamé sur son appareil. La scène en question permet de suivre des stormtroopers dans Mos Eisley à la recherche de C3P0 et R2D2.
Comme c’est calculé dans le cloud, le rendu est parfait. Mais en plus on peut faire pause à tout moment, déplacer la caméra dans la scène pour changer de point de vue, remonter le temps pour voir les événements d’une autre perspective… On peut attacher la caméra à un personnage ou même passer en vue à la première personne. Au niveau RV, ils ont sorti une appli sur GearVR où on approche de près d’un dinosaure (Jurassic Parc, c’est ILM). Ils bossent aussi sur un outil qui permet de visualiser un décor de cinéma avant qu’il ne soit construit. Il comprend même un “viewfinder” virtuel qui permet de changer de lentille à la volée.
Puis ils ont commencé à bosser sur HTC Vive. Au niveau contenu, Lucas a de quoi faire mais pas exactement pour le temps réel. Par exemple, le Faucon Millenium utilisé dans l’épisode VII comporte 4 millions de polygones. ILMxLAB l’a réduit à un million. Comme tout le monde, ILMxLAB a dû sacrifier un bon paquet d’effets histoire de rester sous la barre des 11ms. Là où ils ont décidé de ne pas faire comme tout le monde est au niveau du son. ILM recommande d’utiliser un kit 5.1 et insiste beaucoup sur le .1, le caisson de basses. Histoire d’appuyer son propos (“Push some air !”), le sound designer de SkyWalker Sound a balancé quelques bruitages célèbres retravaillés pour la RV. Quand le sabre laser a fait “wouwou”, le coeur des fans a fait un bon. Quand le Faucon Millenium s’est posé et que le sol a tremblé sous la pression des basses, la salle a explosé de joie.
Le résultat s’appelle Trials on Tatooine et était jouable sur le salon dans le stand Nvidia. C’est une démo utilisant l’Unreal Engine 4 et tournant avec deux Titan X. SLI et RV ne font pas bon ménage mais Nvidia a sorti une API facilitant la chose (VR works). Grosso modo, chaque carte rend un oeil. J’ai tenté de voir la démo mais tout était complet pour le mercredi.
Jeudi matin, je suis à 9H30 devant les portes du salon. Le but est clair : foncer au stand Nvidia pour être un des premiers à la tester. C’est un succès vu qu’à 10H10 je suis dans une petite pièce fermée, équipé du HTC Vive. Le présentateur essaye de m’expliquer comment tout cela fonctionne mais je lui explique que ce n’est pas mon premier rodéo comme on dit ici. Il balance la démo et me voilà sur Tatooine. Tout y est : le désert, les deux soleils et … le Faucon Millenium qui se pose à 2m de moi dans un vacarme assourdissant. Je prie pour que le présentateur ne remarque pas la bosse au niveau de mon entrejambe.
Je peux marcher dans un espace limité par des caisses et des tonneaux. Les habitudes ont la vie dure. Soudain deux TIE Fighters arrivent en “hurlant” et commencent à canarder. Han Solo les aligne à l’aide d’une des tourelles de tir du Faucon. Mais ce dernier a pris des dégâts. La passerelle descend et R2D2 roule près de moi. Je suis invité à réparer le Faucon en tirant un panneau et en appuyant sur des boutons. Si je ne respecte pas les ordres, j’ai le droit à quelques sarcasmes.
A ce moment une navette impériale se pose et des stormtroopers commencent à attaquer ma position. La tête de R2D2 s’ouvre et je suis invité à prendre un sabre laser. La manette du HTC Vive est grosso modo de la même taille que celle d’un sabre et le trackpad se situe au même endroit que le bouton d’allumage. J’appuie sur ce dernier et le laser sort. J’ai à peine le temps d’admirer la bête en action que les ennemis me tirent dessus. Très vite j’oriente et je bouge le sabre pour bloquer et renvoyer les tirs de blasters si possible dans la tronche des impériaux. Là encore, tout semble naturel alors que pour des raisons évidentes, je n’ai jamais manié un véritable sabre laser. Quelques minutes après j’ai tué tout le monde et c’est la fin de la démo. C’était court mais c’était incroyable.
Terminons cet article sur une dernière conférence à propos de l’importance du son dans la RV. Elle était présentée par Simon Gumbleton, technical sound designer chez SCEE. Le PS VR sera vendu avec un disque de démos appelé Playstation VR Worlds qui contient cinq expériences : VR Luge, London Heist, Into The Deep, Danger Ball et Scavenger’s Odyssey.
Simon Gumbleton a surtout parlé de la partie sonore de London Heist. Selon lui, rendre la RV ne veut pas dire la rendre réaliste. Il ne développe pas des simulations et des expériences et il préfère amplifier la réalité (il parle de “Hollywood real”). Pour le son tout commence avec de bonnes sources. Il faut des enregistrements aussi plats que possible sans le moindre écho et avec une grande gamme de fréquences.
Il faut y aller léger avec la compression des voix enregistrées car les défauts sont encore plus apparents en RV. Comme la plupart des sons proviendront de sources localisées dans l’espace, préférez les enregistrements en mono. Selon Simon, on peut découper le design en trois parties :
-les sons courts comme les coups de feu ou les voix. Ils doivent être localisés avec précision
-les sons d’ambiance comme les bruits de la ville ou d’un autoroute. Ils doivent changer en fonction de l’altitude du joueur
-la musique. Deux écoles à ce niveau : soit elle est globale soit elle fait partie de l’environnement
Les sons courts ne doivent pas être trop courts sinon ils deviennent compliqués à localiser. Par exemple un coup de feu peut être accompagné d’un sifflement histoire de savoir qui nous tire dessus. Les sons d’ambiance sont très importants. Simon a montré un exemple tout bête. Dans London Heist on se retrouve à l’intérieur d’un camion. Si on passe sa tête à travers la porte ou le parebrise, sa tête se retrouve donc “dehors” et le bruit de l’autoroute est alors amplifié.
Il faut éviter les sons du personnage incarné par le joueur comme sa respiration. Cela casse l’immersion car le joueur entend des sons qu’il émet alors qu’il sait qu’il ne les produit pas. Une astuce rigolote proposée par Simon est d’activer le microphone et de balancer les bruits de l’environnement réel dans le virtuel. Les courbes d’atténuation (comment le volume diminue en fonction de la distance avec un son) ne doivent pas forcément être linéaires sinon les sons éloignés se retrouvent étouffés par les sons proches et deviennent difficiles à localiser.
Mais il faut aussi se concentrer sur les sons que le joueur voit et étouffer un peu le reste, ce que Simon appelle l’effet “cocktail party”. Comme les autres intervenants, Simon a insisté sur le fait qu’il faut tester sans cesse afin d’obtenir le résultat voulu. Il a ajouté que pour les voix enregistrées, un bon acteur fait une différence énorme.
Ils bossent sur tout plein de choses rigolotes. Ils ont une sorte de cinéma où des projecteurs affichent au sol et aux murs un film en 3D dont la perspective suit le spectateur grâce à des capteurs sur les lunettes 3D. Cela donne une impression bluffante d’hologramme. Ils ont une appli iPad qui utilise SLAM et où C3P0 se promène dans votre salon avant de s'asseoir. Ils ont un système de film interactif : le rendu de la scène (complètement en images de synthèse) est fait dans le cloud et le résultat est streamé sur son appareil. La scène en question permet de suivre des stormtroopers dans Mos Eisley à la recherche de C3P0 et R2D2.
Comme c’est calculé dans le cloud, le rendu est parfait. Mais en plus on peut faire pause à tout moment, déplacer la caméra dans la scène pour changer de point de vue, remonter le temps pour voir les événements d’une autre perspective… On peut attacher la caméra à un personnage ou même passer en vue à la première personne. Au niveau RV, ils ont sorti une appli sur GearVR où on approche de près d’un dinosaure (Jurassic Parc, c’est ILM). Ils bossent aussi sur un outil qui permet de visualiser un décor de cinéma avant qu’il ne soit construit. Il comprend même un “viewfinder” virtuel qui permet de changer de lentille à la volée.
Puis ils ont commencé à bosser sur HTC Vive. Au niveau contenu, Lucas a de quoi faire mais pas exactement pour le temps réel. Par exemple, le Faucon Millenium utilisé dans l’épisode VII comporte 4 millions de polygones. ILMxLAB l’a réduit à un million. Comme tout le monde, ILMxLAB a dû sacrifier un bon paquet d’effets histoire de rester sous la barre des 11ms. Là où ils ont décidé de ne pas faire comme tout le monde est au niveau du son. ILM recommande d’utiliser un kit 5.1 et insiste beaucoup sur le .1, le caisson de basses. Histoire d’appuyer son propos (“Push some air !”), le sound designer de SkyWalker Sound a balancé quelques bruitages célèbres retravaillés pour la RV. Quand le sabre laser a fait “wouwou”, le coeur des fans a fait un bon. Quand le Faucon Millenium s’est posé et que le sol a tremblé sous la pression des basses, la salle a explosé de joie.
Le résultat s’appelle Trials on Tatooine et était jouable sur le salon dans le stand Nvidia. C’est une démo utilisant l’Unreal Engine 4 et tournant avec deux Titan X. SLI et RV ne font pas bon ménage mais Nvidia a sorti une API facilitant la chose (VR works). Grosso modo, chaque carte rend un oeil. J’ai tenté de voir la démo mais tout était complet pour le mercredi.
Jeudi matin, je suis à 9H30 devant les portes du salon. Le but est clair : foncer au stand Nvidia pour être un des premiers à la tester. C’est un succès vu qu’à 10H10 je suis dans une petite pièce fermée, équipé du HTC Vive. Le présentateur essaye de m’expliquer comment tout cela fonctionne mais je lui explique que ce n’est pas mon premier rodéo comme on dit ici. Il balance la démo et me voilà sur Tatooine. Tout y est : le désert, les deux soleils et … le Faucon Millenium qui se pose à 2m de moi dans un vacarme assourdissant. Je prie pour que le présentateur ne remarque pas la bosse au niveau de mon entrejambe.
Je peux marcher dans un espace limité par des caisses et des tonneaux. Les habitudes ont la vie dure. Soudain deux TIE Fighters arrivent en “hurlant” et commencent à canarder. Han Solo les aligne à l’aide d’une des tourelles de tir du Faucon. Mais ce dernier a pris des dégâts. La passerelle descend et R2D2 roule près de moi. Je suis invité à réparer le Faucon en tirant un panneau et en appuyant sur des boutons. Si je ne respecte pas les ordres, j’ai le droit à quelques sarcasmes.
A ce moment une navette impériale se pose et des stormtroopers commencent à attaquer ma position. La tête de R2D2 s’ouvre et je suis invité à prendre un sabre laser. La manette du HTC Vive est grosso modo de la même taille que celle d’un sabre et le trackpad se situe au même endroit que le bouton d’allumage. J’appuie sur ce dernier et le laser sort. J’ai à peine le temps d’admirer la bête en action que les ennemis me tirent dessus. Très vite j’oriente et je bouge le sabre pour bloquer et renvoyer les tirs de blasters si possible dans la tronche des impériaux. Là encore, tout semble naturel alors que pour des raisons évidentes, je n’ai jamais manié un véritable sabre laser. Quelques minutes après j’ai tué tout le monde et c’est la fin de la démo. C’était court mais c’était incroyable.
Terminons cet article sur une dernière conférence à propos de l’importance du son dans la RV. Elle était présentée par Simon Gumbleton, technical sound designer chez SCEE. Le PS VR sera vendu avec un disque de démos appelé Playstation VR Worlds qui contient cinq expériences : VR Luge, London Heist, Into The Deep, Danger Ball et Scavenger’s Odyssey.
Simon Gumbleton a surtout parlé de la partie sonore de London Heist. Selon lui, rendre la RV ne veut pas dire la rendre réaliste. Il ne développe pas des simulations et des expériences et il préfère amplifier la réalité (il parle de “Hollywood real”). Pour le son tout commence avec de bonnes sources. Il faut des enregistrements aussi plats que possible sans le moindre écho et avec une grande gamme de fréquences.
Il faut y aller léger avec la compression des voix enregistrées car les défauts sont encore plus apparents en RV. Comme la plupart des sons proviendront de sources localisées dans l’espace, préférez les enregistrements en mono. Selon Simon, on peut découper le design en trois parties :
-les sons courts comme les coups de feu ou les voix. Ils doivent être localisés avec précision
-les sons d’ambiance comme les bruits de la ville ou d’un autoroute. Ils doivent changer en fonction de l’altitude du joueur
-la musique. Deux écoles à ce niveau : soit elle est globale soit elle fait partie de l’environnement
Les sons courts ne doivent pas être trop courts sinon ils deviennent compliqués à localiser. Par exemple un coup de feu peut être accompagné d’un sifflement histoire de savoir qui nous tire dessus. Les sons d’ambiance sont très importants. Simon a montré un exemple tout bête. Dans London Heist on se retrouve à l’intérieur d’un camion. Si on passe sa tête à travers la porte ou le parebrise, sa tête se retrouve donc “dehors” et le bruit de l’autoroute est alors amplifié.
Il faut éviter les sons du personnage incarné par le joueur comme sa respiration. Cela casse l’immersion car le joueur entend des sons qu’il émet alors qu’il sait qu’il ne les produit pas. Une astuce rigolote proposée par Simon est d’activer le microphone et de balancer les bruits de l’environnement réel dans le virtuel. Les courbes d’atténuation (comment le volume diminue en fonction de la distance avec un son) ne doivent pas forcément être linéaires sinon les sons éloignés se retrouvent étouffés par les sons proches et deviennent difficiles à localiser.
Mais il faut aussi se concentrer sur les sons que le joueur voit et étouffer un peu le reste, ce que Simon appelle l’effet “cocktail party”. Comme les autres intervenants, Simon a insisté sur le fait qu’il faut tester sans cesse afin d’obtenir le résultat voulu. Il a ajouté que pour les voix enregistrées, un bon acteur fait une différence énorme.
Félicitations ! Vous êtes arrivé à la fin de cet article ! Vous avez bien mérité une conclusion absurde et hors sujet. On va donc parler de toilettes. Dans le West Hall du Moscone Center (deuxième étage), une pancarte indiquait "Gender Neutral Restroom". Des toilettes unisexe ! Comme dans Ally McBeal ! Mais les organisateurs n'avaient pas exactement pensé à tout. Ils ont en fait pris les toilettes des mecs et se sont contentés de mettre une pancarte par dessus celle indiquant "Men". Il n'y a pas de pissotière dans les toilettes du cabinet où bosse Ally McBeal pour une raison simple : cela évite par exemple aux filles de se retrouver nez à nez avec un développeur un peu pressé qui n'a même pas encore fini de remballer son attirail alors qu'il va se laver les mains. Accessoirement, mesdames ont découvert que ces messieurs ont tendance à lacher les gaz suivi d'un soupir de soulagement quand ils pissent. Mais peut être qu'il faut en passer par là pour lutter contre le sexisme. Dans un sens, c'est un petit pet pour l'homme mais un grand pas pour l'humanité.