
Cette semaine, nous apprenons quelque chose de nouveau sur la réalisation de Celeste d'un point de vue audio et dialogue.
Parfois, nous serons intrigués par des histoires sur la fabrication de la sauce de jeu. Pour Shacknews, nous avons adoré le jeu de plateforme indépendant Celeste. Nous en serons toujours ravis et nous saisirons toute occasion d’apprendre quelque chose de nouveau à ce sujet. Dans ce cas, nous avons récemment eu la chance d'en apprendre davantage sur la conception des dialogues de Celeste directement auprès de l'un des développeurs du jeu.
Le directeur créatif de Power Up Audio, Kevin Regamey, a initialement aidé à mettre en place le dialogue de Celeste. Au cours du week-end, il a expliqué comment il avait procédé dans un communiqué informatif.Fil Twitter.
- Tout d'abord, nous avons exploré quelques sons de synthétiseur simples pour trouver un ton général pour la voix d'un personnage donné. Une fois que nous avons établi un timbre de base, nous sommes passés à la configuration de la façon dont ce ton pourrait changer au fil du temps.
- Essentiellement, à l'aide d'un égaliseur paramétrique dans FL Studio, nous avons modélisé ce que l'on appelle des « formants », c'est-à-dire des pics spectraux naturels dans les voyelles humaines. Ces pics spectraux ont des positions et des relations de fréquence spécifiques
- Nous avons ensuite automatisé les positions de fréquence de ces pics au fil du temps, pour ressembler à la façon dont la voix humaine pourrait passer d'une voyelle à l'autre.
- Ensuite, nous avons décomposé la gamme émotionnelle d’un personnage donné et déterminé quelles pourraient être les caractéristiques sonores de ces émotions.
- L’émotion est-elle généralement aiguë ou grave ? Le terrain reste-t-il au même endroit ou bouge-t-il beaucoup ? Le discours est-il lent et prudent, ou est-il rapide et pointu ? Quel type de mouvement de hauteur devrions-nous entendre et quels types de phrases ces sons représentent-ils ?
- En gros, c'était beaucoup de moi qui lisais le scénario et "surjouais" le dialogue.
- Nous avons ensuite appuyé sur PLAY dans FL Studio (pour activer l'automatisation des formants), puis "exécuté" les émotions sur un clavier de piano midi tout en jouant avec la molette de pitch pour essayer d'atteindre toutes les caractéristiques que nous avions exposées ci-dessus.
- Nous avons enregistré la sortie audio de cette performance sur un ordinateur séparé, puis nous avons sélectionné les « bonnes prises ». Ces bonnes prises ont été classées en 3 catégories de base par émotion : syllabes à passage rapide (20), syllabes accentuées (10), fins de phrases (10)
- En utilisant@fmodstudio, nous avons mis en place un système d'événements axé sur les émotions (en fait, sur les portraits des personnages)... Nous avions un événement audio par personnage, et chaque événement de dialogue se joue sans arrêt pendant toute la durée de la conversation d'un personnage donné dans le jeu.
- On boucle sur le silence jusqu'à ce que ce soit au tour de ce personnage de parler. Lorsque ce personnage parle, le côté code envoie les informations actuelles du portrait du personnage à FMOD, et FMOD répond en envoyant la tête de lecture à l'émotion appropriée sur la chronologie de l'événement.
- Lorsque nous arrivons à cette émotion, nous progressons à travers une séquence aléatoire de syllabes via un système de transition que nous avons construit. FMOD ne dispose pas d'un excellent moyen de gérer ce degré de spécificité lors du déplacement dans une séquence aléatoire de fichiers audio, donc réaliser cela était assez fastidieux.
- Cela nécessitait de placer manuellement chaque syllabe sur la timeline et de mettre en place un « hub de transition » qui enverrait rapidement la tête de lecture vers ces différentes syllabes. Aucune syllabe n'était autorisée à être jouée deux fois de suite, et les syllabes accentuées avaient une probabilité plus faible d'être jouées.
- Le hub a également rendu trivial le réglage précis de l'espacement entre les syllabes (car nous pouvions déplacer la position entière du hub plutôt que quarante marqueurs de transition distincts).
- Quoi qu'il en soit, une fois le texte dessiné dans l'interface utilisateur du jeu terminé, FMOD est informé que le discours doit se terminer. La tête de lecture revient ensuite en attente silencieuse du prochain portrait/émotion. (Soit il joue une syllabe de fin avant de revenir, soit il revient immédiatement s'il s'agit d'une syllabe accentuée).
Le fil Twitter lui-même offre bien plus, en termes d’aides visuelles et audio. Ceux qui souhaitent découvrir l’aspect audio du développement de jeux voudront peut-être y jeter un œil. Power Up Audio dispose également d'unYouTubechaîne remplie de vidéos fascinantes. Pour votre commodité, nous avons intégré une vidéo de janvier 2018, quelques jours avant la sortie initiale de Celeste.
Power Up Audio travaille actuellement sur l'audio du prochainDonjon le plus sombre 2, qui devrait sortir sur Steam Early Access plus tard cette année. Alors qu'Extremely OK Games passe à son prochain projet, le mystérieuxLame de terre, nous serons toujours à l'affût d'avoir plus à dire surCéleste, alors gardez-le sur Shacknews pour plus d'histoires et d'anecdotes amusantes.
Ozzie joue aux jeux vidéo depuis qu'il a acheté sa première manette NES à l'âge de 5 ans. Depuis, il s'intéresse aux jeux, ne s'éloignant que brièvement au cours de ses années d'université. Mais il a été rappelé après avoir passé des années dans les cercles d'assurance qualité pour THQ et Activision, passant principalement du temps à aider à faire avancer la série Guitar Hero à son apogée. Ozzie est devenu un grand fan de jeux de plateforme, de jeux de réflexion, de jeux de tir et de RPG, pour n'en nommer que quelques genres, mais il est également un grand fan de tout ce qui a une bonne et convaincante narration derrière. Car que sont les jeux vidéo si vous ne pouvez pas profiter d’une bonne histoire avec un Cherry Coke frais ?