Archive

Posts Tagged ‘Compression’

Mixage et masterisation sous Renoise 2.8 [Français]

11/08/2012 3 commentaires

Mixage et masterisation sous Renoise [en français] **

english version available here

.

INTRODUCTION : C’EST QUOI UNE BONNE IDÉE ?

Premièrement il n’existe pas de méthode miracle et universelle pour mixer et pour masteriser tout et n’importe-quoi. Déjà, le mix dépend d’une chose primordiale, de la musique elle-même et de l’interprétation que vous souhaitez en faire à travers le mix. Et autant le dire d’emblée, si vous n’avez pas une bonne idée musicale de départ, vous pouvez maîtriser les ultimes outils de pro, pour augmenter le volume et forcer l’auditoire a écouter un gros son, tout le monde le fait déjà, et au final, vous obtiendrez un son plus fort, qui mettra encore plus en valeur l’absence de vos bonnes idées musicales de départ.

La musique est jouée pour être écouté par un public (même si c’est un public composé de 2 personnes), elle ne peut donc se concevoir sans les attentes des auditeurs à l’esprit. A propos desdits auditeurs, ils sont fragmentés par l’industrie du disque au sein de marchés et de genres musicaux définis. Mais cette définition est très commerciale. Elle n’a parfois rien à voir avec la vraie vie et la vraie motivation à faire et à écouter de la musique.

Pour sûr, il est très difficile pour moi de définir ce qu’est une «bonne» idée musicale dans l’esprit des auditeurs. Disons que les auditeurs doivent s’attendre à des variations dans le style / genre qu’ils aiment, et ils ont besoin de trouver des ponts qui les mènent à découvrir et apprécier d’autres genres pour lesquels initialement ils n’avaient aucun sentiment.

[A] Mes conseils musicaux

Les genres musicaux doivent être renouvelés, exécutés différemment, avec de nouvelles techniques ou technologies, et aussi, ils ont besoin de ponts qui les portent vers d’autres identités musicales. Le devoir de chaque musicien est alors de jouer avec les répétitions qui renforcent l’identité d’une structure musicale, et d’introduire régulièrement les variations nécessaires qui renouvellent l’intérêt de la structure définie précédemment. Répétitions et variations sont introduites avec une périodicité spécifique. Le devoir d’un musicien est de savoir s’il est possible de faire évoluer la musique vers d’autres formes à travers des explorations et des collaborations.

Vous le devinez probablement, le moyen plus simple de satisfaire les besoins de répétitions de l’audience, sera d’utiliser les fonctions de CopyPaste dans Renoise. Mais il faut le dire : après 3 répétitions, une quatrième itération sonore doit introduire quelque chose de nouveau, une variation. Voilà tout. A l’intérieur de la quatrième répétition, je change un peu la ligne mélodique, je présente une petite pause, je modifie un paramètre, ainsi je fais quelque chose, mais je ne présente pas exactement une copie pure de ce la structure qui précède, ce qui serait considéré par moi comme une sorte de faute, la preuve d’un manque de travail.

Je pense que la chose la plus intéressante qui puisse arriver à la musique (peu importe qui la fait, que ce soient les les professionnels de l’industrie, les musiciens du dimanche comme moi) c’est un cross-over réussi (la fusion de plusieurs genres).

Fondamentalement, mes idées musicales proviennent de la collision de différentes expériences précédentes d’écoute dans le même cerveau. Je ne suis pas exactement inspiré par une chose, mais je me demande souvent si 2 ou 3 choses radicalement différentes pourraient être « unies » ou « jointes » dans une rythmique et / ou une structure mélodique cohérente. J’essaie souvent de saisir la définition d’un style, puis ma motivation première est des jouer avec elle, et de trouver un moyen d’ajouter quelque chose de très différent en elle ; ça peut être un instrument inhabituel ou d’une façon bizarre d’utiliser ou de mélanger cet instrument, un rythme inhabituel, quelque chose qui appartient à un autre genre, des choses comme ça. Je peux aussi essayer de mélanger un genre avec des techniques inspirées d’un autre et d’utiliser des effets appartenant à des horizons différents.

Renoise m’aide à tester mes idées rapidement. Avec Renoise, et sa logique de raccourcis efficace, son interface, tout est rapide, vite fait. Je ne dépasse pas globalement plus de 6 heures pour obtenir une composition achevée de 2:30 mn. Je peux même aller plus vite si j’ai une vision précise de ce que je veux.

[B] Mes conseils et mes stratégies de mixage sur Renoise

Sans rentrer dans un débat classique sur la guerre du décibel qui finit par produire un son aussi énorme qu’il est plat, bourratif, et sans perspective, reconnaissons que si vous voulez que vos idées soient remarquées dans un monde qui monte le volume de plus en plus, il faut qu’elles soient quand même physiquement assez entendues ; et donc il vous faut obtenir le bon compromis, entre un niveau sonore élevé, avec une présence, mais aussi avec suffisamment de fidélité et de précision, sans aucune perte en terme de dynamique, et avec les effets secondaires les plus bas.

Bien sûr, vous allez dire: il me suffit d’acheter OZONE (un plugin professionnel pour le mixage et la masterisation). Mais même OZONE ne fonctionnera pas si vous ne comprenez pas les principes de la dynamique du son et si vous n’analysez pas correctement le spectrum. Je soutiens donc que les DSPs de Renoise et ses outils de visualisation sont suffisamment bien codés, pour se passer d’outils externes et qu’ils permettent de produire un résultat pro, sans besoin du budget requis par un studio professionnel.

Il faut simplement chercher et trouver une bonne configuration, qui ne reposerait pas sur une solution externe. Donc, les bons résultats sous Renoise quand ils se produisent, reposent sur une combinaison de certains « procédés de mixage » que vous connaissez probablement, du moins de nom, et qui sont directement utilisables dans l’interface de Renoise.

J’ai pu créer des configurations plus efficaces sous Renoise quand j’ai laissé tomber l’idée d’obtenir un plugin VST providentiel que je devais mettre sur le Master et qui comme par magie rend le son clair, dynamique, présent et intéressant, comme le son qui sort d’un studio.

Je sculpte mes instruments dans un premier temps

Bon vous avez un samplepack. Mais les échantillons sont souvent sales, mal accordés, bruiteux (ils produisent des clics ou des pops), dénormalisés, ce qui va engendrer des problèmes plus tard, quand il faudra contrôler le volume avec des compresseurs qui marcheront moins bien ou moins facilement. Parfois, certains échantillons sont cool, mais s’ils ont pas de pruneaux à l’intérieur, ils sont «plats», ternes, et n’ont pas de présence. Si vous souhaitez corriger des choses que vous aurez probablement à utiliser la philosophie suivante : 1 instrument = 1 piste digitale.

* Les craquements et les pops

Alors, tout d’abord, nettoyer tous les craquements, il suffit d’utiliser l’outil crayon dans l’éditeur d’échantillon, zoomer la vue au maximum, et dessiner une courbe, où vous pouvez voir les petits accrocs ou des encoches suspectes. Ensuite, vérifiez les paramètres de l’onglet instruments: tous les curseurs ici sont importants ! Chaque échantillon peut avoir son propre niveau de volume, même dans les instruments multisamplés. NE PAS composer directement sans avoir réglé de façon uniforme les volumes. Cette première étape dans le processus, doit être checkée clairement, sans quoi vous le regretterez plus tard quand il faudra gérer les problèmes de niveaux dans le mix. Si votre instrument produit des pops systématiques tout au début de leur lecture, alors il suffit de créer une enveloppe de volume avec une attaque plus lente.

* Fixer le problème du sifflement

Vous avez enregistré votre voix? Votre micro pourri produit un sifflement résonnant ? Ok utiliser l’analyseur de spectre. Mettez le + de la souris où le sifflement résonnant apparaît visuellement et notez quelque part dans un document de la fréquence considérée. Vous avez réalisé qu’il est situé @ 5KHz? Ok, ajoutez un filtre sur votre piste d’enregistrement, avec un modèle de Bandstop, par exemple, définir un Q en colonne et réduisez la fréquence où le sifflement apparaît. Si vous voulez que les choses soient faites une bonne fois pour toutes, vous pouvez appliquer l’effet directement sur votre échantillon.

* Préampli micro

Vous vous dites que vos enregistrements vocaux ne sont pas aussi élevés que prévu ou pas aussi haut que les autres instruments de votre palette de sons sélectionnés ? Pas de problème, utiliser un Mixer EQ, il saura se comporter comme un pré-ampli virtuel. Ensuite, appliquez l’effet. Essayez de «normaliser» tous les échantillons de sorte que leur niveau de sortie est psycho-acoustiquement «similaire». Essayez de commencer à travailler avec le plus grand volume d’échantillon à partir du début, et après vous aurez juste une seule philosophie: ciseler, remodeler, réduire ou couper directement certaines bandes de fréquences avec un égaliseur 5 ou 10 bandes.

Ensuite, jouez avec votre instrument avec votre clavier azerty.

* Multicouche

Le son est il plat ? Bon pas de problème: empilez sur lui des copies de lui-même en utilisant le système de layeurs multicouches proposé par Renoise (je recommande 4 ou 5 couches avec 4 ou 5 copies d’un même échantillon et de régler un peu chaque échantillon sur chaque couche avec des différences de tuning et d’orientation stéréo très subtiles. Définir une stéréo large panoramique pour chaque échantillon, par exemple -25 pour le 25 d’abord pour le second, et + 50 pour le dernier). Vous aurez in fine un meilleur instrument, plus profond, plus riche, plus élaboré. Cette technique basée sur le désaccordage subtil de copies de l’échantillon de base, est souvent utilisé dans les synthés qui font de la trance/ goa. Mais vous pouvez aussi utiliser la technique dans bien d’autres genres avec des résultats très satisfaisants. Notez que dé-tuner et panner le son n’est pas recommandé pour tout et n’importe quoi. Les sons à basse fréquence doivent être peu tunés, et bien centrés, pas élargis. Soyez prudent avec la technique duson multicouche, le volume de votre instrument en sera multiplié par 4 ou par 5, c’est logique, et donc ça vous obligera à réduire chaque volume initial pour chaque échantillon en conséquence !

* La touche finale à vos instruments

Maintenant l’EQing. Lorsque votre échantillon est prêt, lorsque les enveloppes d’instruments et les superpositions éventuelles sont définies, vous pouvez ajouter une dernière touche à votre son en mettant un EQ sur la piste dédiée à votre instrument. Votre instrument peut sonner différemment avec un EQ spécifique. La première fois que vous aurez ajouté un EQ à vos chaînes, ça va juste donner à l’instrument une « coloration » particulière. Avec la nouvelle version de Renoise, les filtres EQ5 ou EQ10 sont encore plus faciles à utiliser, vous changez les bandes de fréquences sans utiliser autre chose que la souris. Puisque vous partez nettement d’un son élevé, vous allez probablement plutôt utiliser les EQ pour abaisser le volume sous certains fréquences, à la façon d’un filtre, plus que pour le ré-hausser.

Plus de présence: les DSP utiles

* Gainer
Tout le monde sait comment améliorer la puissance du son, tout simplement, avec l’unité Gainer qui ajoute un coup de pouce de 12dB. Et je fais comme tout le monde, à ce niveau, vous pouvez faire comme moi aussi. Mais attention, avec les params trop élevés, le gainer va produire des pics indésirables ou des transients indésirables (des dépassements d’amplitude maximale autorisés pour vos haut-parleurs).

* Distorsion
Vous devez ensuite essayer de la « distorsion ». Il ya quelques instruments qui peuvent passer par des modèles de déformation par disto, et qui ne perdent pas trop leurs caractéristiques, et l’avantage est alors que vous obtenez facilement un son tout à fait élevé, sans trop de grésillements. Mais le problème avec la distorsion, c’est qu’elle est souvent «sévère» et rude pour l’oriel le, le son est dur et agressif. Vous pouvez volontairement choisi de rendre votre son dur et agressif, mais cette stratégie sera complètement inutile lorsque vous aurez besoin d’ajouter quelques émotions et une touche de sensibilité à vos lignes.

* Simulateur d’ampli à lampes (+ Auto DC Offset)
Vous pouvez alors essayer d’utiliser le simulateur d’ampli à lampes (Cabinet simulator) qui intègre un astucieux pré-ampli, et une phase EQing 5band dans les routages internes, de sorte que vous pouvez couper des effets secondaires indésirables avec un bon EQing. Vous remarquerez que je recommande d’utiliser un auto-dc offset après un simulateur d’ampli à lampe, en particulier lorsque les paramètres choisis sont très élevés. Le simulateur de baffle a une si forte personnalité que vous aurez parfois besoin de placer un auto-dc offset à la fin pour stabiliser autant que faire ce peu le son.

* Stereo Delay (<30ms) / Surround / Stereo Expander
L’autre ensemble de méthodes que vous pouvez utiliser pour une meilleure présence est produite par des outils qui contrôlent l’image stéréo, directement ou non. Par exemple: le paramètre de largeur de piste Width (situé au début de la partie gauche de chaque chaîne dsp piste). Ou vous pouvez ajouter un effet surround. Ou vous pouvez utiliser l’unité DSP delay. Vous devez simplement réfléchir à la puissance des delay, non seulement les longs mais aussi des délais stéréos très très courts, de moins de 30ms. Plus large l’image de la stéréo est, meilleure sera la présence. MAIS il faut être extrêmement prudent avec des délais stéréophoniques de moins de 30ms, plus vous ajoutez du feedback, plus l’augmentation du volume sonore sera difficile à contrôler, et la saturation produite ne donnera pas beaucoup de place aux autres instruments… alors utiliser les taux de feedback très, très faibles, voire nuls. Attention, je ne vous recommande pas d’utiliser la technique d’élargissement stéréo avec des fréquences trop basses sur des sons tels que les kicks et de la basse sous parce que ces sons entrent déjà bien en collision au centre du champ d’écoute stéréo, et ils n’ont pas besoin d’être amplifié plus. Bien sûr, l’effet de Chorus est censé augmenter la présence, mais ce que vous avez dans un logiciel de mixage digital, ce n’est souvent pas un « vrai » chœur, c’est une émulation mathématique, et je préfère utiliser quelque chose de plus naturel comme la duplication des notes de piste / colonne et en ajoutant quelques vibratos à coup de commandes manuelles, le résultat est beaucoup plus intéressant.

* Les égaliseurs
Maintenant l’EQ. Mes EQs sont placés soit au début soit à la fin de mes chaînes. Nous avons vu que vous pouvez ajouter un peu de « couleur » spécifique à votre instrument avec un EQ. L’égalisation est souvent utilisé à la fin même de mes chaînes, pour fixer de petites choses qui ne vont pas sur les niveaux d’un instrument / qui est globalement trop élevé sur certaines bandes définies plutôt pour d’autres instruments. Donc, je l’utilise souvent comme un filtre évolué, pour abaisser certaines fréquences. Utiliser l’EQ comme un filtre multi-points, c’est ma façon de simplifier la phase de mixage, et de la rendre plus simple, plus rapide.

Sidechain « compression » / Sidechain « Distorsion »

* Suivez-moi
Cette technique utilise le signal du méta device *Signal follower. Il est utilisé pour éviter que le niveau sonore des basses agressives ou grasses, n’altère ou ne détruise le punch des percussions et en particulier du kick.  Alors pourquoi? Parce que le son du kickdrum est devenu omniprésent, et massif, une distorsion lui est appliquée, comme sur la basse, qui devient énorme, et on assiste à une espèce de compétition, où finalement l’un doit laisser la place à l’autre dans le spectre pour ne pas que les deux se bousculent, et finissent par s’auto-détruire. C’est pourquoi vous avez un choix à faire : il faut compresser sur un seuil plus bas le son de la basse, mais seulement lorsque le niveau du kick est trop élevé. Le terme « Sidechaining » consiste à mettre en place une mécanique de balancier et de contrôler la compression de la basse, proportionnellement au signal provenant d’une autre piste, que celle où le compresseur est situé. Le compresseur est donc en l’occurrence modulé par le niveau du signal provenant de la piste du kick. Sous Renoise, vous devez donc mettre un DSP *Signal Follower sur la piste du kickdrum et vous devez relier ce meta device au paramètre du DSP compresseur qui lui est situé sur une autre piste, celle de la basse.

IMPORTANT (1): dans le *Signal follower, vous devez « inverser » les seuils de paramètres de détection de niveau, de sorte qu’une augmentation produira en sortie un abaissement, un abaissement produira en sortie une augmentation. Parfois, vous n’avez pas besoin d’utiliser un compresseur dans la piste cible, une distorsion suffit, et donc vous utilisez la même méthode pour abaisser la « distorsion » en fonction du niveau du kick en la side-chainnant. C’est ce que j’appelle une « sidechain distorsion ».

IMPORTANT (2): ne pas compresser / moduler des fréquences qui ne se battent pas avec celle que vous souhaitez conserver. Je veux dire que vous ne devriez pas baisser les hautes fréquences quand le kick ne s’exprime que sur les basses. C’est cependant une erreur que certains producteurs font. Ils pensent que toutes les pistes doivent être impactées par le kick, et donc tout le spectre qui reste. Bien sûr, cela signifie que rien n’est plus important que le kickdrum, le reste pouvant être abaissé n’importe comment, ce qui est selon moi une définition cynique d’une musique actuelle « réussie ».

NYC / compression multibande parallèle

* La mauvaise stratégie de surcompression multipiste

La compression c’est un concept très facile à comprendre, mais finalement, c’est très difficile à maîtriser. Vous ne compressez pas de la même manière une basse ou un coup de kick, ou une grosse caisse. La forme d’un son définit la façon dont le compresseur doit se comporter (attaque lente ou rapide, à libération lente ou rapide). Vous pouvez bien sûr mettre un compresseur sur chaque piste, sur chaque instrument. Mais avec tous ces compresseurs, vous avez plusieurs problèmes qui ne se révèleront que lorsque vous aurez à mélanger le tout. D’abord, vous aurez à compenser les retards produits par ces unités de compression multiples – merci à Renoise c’est maintenant fait de façon automatique (via l’Automatic plugin delay compensation), mais ça consomme peu de puissance processeur. Et puis, si vous ajoutez trop de compresseurs sur vos dizaines de pistes, chaque instrument prendra facilement toute la place possible, et vous ne serez pas en mesure de créer des ensembles instrumentaux plus complexes et plus vivants, sur des couches de structures mélodiques étendues. Vous aurez le sentiment que tout est saturé, élevé, mais plat, et l’expérience d’écoute va rapidement devenir uniforme, voire fatigante. En même temps je comprends bien que si le niveau de présence est insuffisant, votre piste sera considérée comme mal remastérisée et peu audible. Je vous recommande alors un compromis, à savoir une méthode de compression typique qui est appelé «compression multibande parallèle».

* Comprimer les bandes de fréquences au lieu des pistes
Au lieu de compresser chaque piste différente, vous compressez des bandes de fréquences différentes. Pour l’instant, le méta device *Multiband send, vous permet de traiter séparément 3 bandes de fréquences différentes. Je voudrais bien avoir 4 bandes … comme dans OZONE, mais bon, 3 bandes c’est déjà bien efficace.

* rendre la compression parallèle pour préserver la dynamique
Lorsque vous compressez quelque chose, le son est plus gros, plus tassé, plus chaud, certains pics sont tassés aussi, MAIS l’effet secondaire, c’est que la variabilité du volume, l’amplitude dynamique, est de même compromise. Donc l’intensité devient finalement assez uniforme. L’oreille s’y habitue, et vous avez au final ce que vous redoutiez, à savoir un son pas de tout clair, envahissant, fatiguant, constant. Alors comment préserver la dynamique ? Astuce : en mélangeant le son original avec le son compressé puis en le limitant en fin de course. La compression multibande parallèle (ou New York Compression) utilise ce type de stratégie et vous permet d’obtenir par son aspect multibande un haut niveau sur l’ensemble de l’activité spectrale mais le parallélisme rendre le résultat plus « riche » dynamiquement. Techniquement la compression NYC est une compression multibande mais les amplitudes d’origine sont préservées et mélangées avec le son comprimé. Vous parvenez facilement à produire ce compromis nativement sous Renoise, en usant d’une configuration appropriée basée sur l’usage des send tracks.

AVERTISSEMENT: mélanger 2 sons implique forcément que le son global est naturellement plus élevé, mais cette technique est si puissante que je recommande de ne jamais oublier de limiter le bruit dans la piste master (avec un Maximizer), et même d’ajouter un simple filtre type BW 4n qui, progressivement, coupera les infra sons situés avant 50Hz, juste avant le limiteur de la chaîne. Si vous ne coupez pas les infrasons ils risquent bien de prendre une place élevée dans le casque ou dans les les haut-parleurs et ils produisent souvent par leur présence constante une certaine fatigue de l’oreille.

* Comment définir le niveau plafond du Maximizer (manuellement)

En ce qui concerne le Maximizer, le paramètre plafond (Ceiling) est très différent entre deux musiques… vous aurez alors à le déterminer « manuellement ». Voici comment procéder: d’abord désactiver le soft clipping, puis, mettez le gain automatique sur ON, puis vous avez à mettre le plafond du paramètre Ceiling sur 0 (zéro). Ensuite vous constaterez que le Maximizer comporte un slider Boost, qui amplifiera le son avant qu’il soit limité selon le plafond défini. Si vous souhaier ajouter un peu de Boost, donc partez de zéro, et tirez lentement le slider sur la droite, cependant je vous conseille vivement de ne pas dépasser 3dB en moyenne, ou du moins de faire que la valeur du Boost soit la même que la valeur du ceiling (en positif). Vous constaterez parfois que Booster le signal ajoute trop de saturation au son ou que l’auto-gain réagit trop fortement. Dans ce cas, tirer le paramètre Ceiling vers le bas, mais ne dépassez pas la valeur que vous avez donnée à votre paramètre Boost. Exemple, si vous Boostez à 2dB alors baissez le Ceiling de 2Db pas plus.

* Exciter certains harmoniques

Nous avons vu que vous aviez besoin de décocher le bouton Soft Clipping dans la piste master ce qui vous évite un manque de contrôle, un mécanisme redondant au limiteur, et finalement une perte de punch. Si vous re-cochez ça plus tard pour une raison quelconque, ou si vos niveaux de compression sont trop élevés, vous devriez penser à ajouter un exciteur harmonique au début de votre piste master : (je parle d’ajouter un DSP *Exciter). Bonne chose à savoir : un  (dsp *Exciter) a été introduit dans la dernière version 2.8 de Renoise (!). Je vous recommande quelque chose de « subtil » avec cette bête, parce que si vous avez déjà dégradé / aliasé (par le biais d’un DSP LoFiMat) ou déformé le son (à travers l’unité de distorsion) cet outil « Exciter » est vraiment en mesure de l’aiguiser si bien qu’il ne pouvait en quelque sorte devenu très irritant, surtout dans des fréquences plus élevées. J’ai même envie de vous recommander d’ajouter un autre filtre LP supplémentaire à la fin de votre mix, qui coupe le son après 0.500Hz au-delà de 22KHz, parce qu’avec un Exciter trop haut, ces fréquences sonnent durement, quand elles sont aiguisées. Le produit de l’exciter est cristallin, vous pouvez l’aimer en premier, mais après cela, vous aurez quelques transients ingérables, et quelques difficultés à limiter en natif la totalité des résultats, avec le Maximizer. Donc, gardez à l’esprit que tout ce qui peut accroître / améliorer la hauteur sonore globale, implique une perte de marge dynamique et on annule l’intéret de la compression multibande parallèle. Il faut utiliser cette bête avec beaucoup de soin, car plus les marges dynamiques sont réduites, moins le limiteur final (Maximizer) sera efficace en fin de compte.

* Basses : la solution mono

Vos instruments sont souvent panoramiques, auto déportés de gauche à droite, les réverbérations laissent quelques queues de signaux mobiles dans certains des endroits inattendus du champ d’écoute stéréo. Le casse-tête vient quand ces déportations stéréophoniques concernent les basses fréquences, qui sont les plus élevées. Les pannings automatises sur les basses fréquences qui sortent du champ d’écoute stéréo sont ingérables, il faut fixer leur niveau rapidement, mais si elles bougent tout le temps entre le centre et les frontières vous obtiendrez dans le meilleur des cas un mix diffus, qui sonne fort mais qui manque singulièrement de clarté et donc votre œuvre sera « incomprise » au sens propre. Vous avez un moyen simple de s’en sortir pour de bon: tournez votre premier groupe (les basses fréquences) en un son mono pur. C’est radical, mais ça fonctionne. Mettez un dispositif d’expansion stéréo dans la première piste au sein de votre mécanisme multibande, et sélectionnez le préréglage mono: vous ne le regretterez pas.

* NE sonnez PAS comme moi par défaut
Voici quelques paramètres «par défaut» pour la configuration de compression NYC MB Compression. AVERTISSEMENT: tout d’abord j’ai niqué mes oreilles (et récemment mes haut-parleurs). Ainsi, les paramètres sont fortement influencés par mon limitations physiques et matérielles. Puis, comme tout ce qui est défini par «défaut», ça n’est pas adapté à toutes les situations et tous les styles. Je fais de la musique électronique digitale, avec des samples de piètre qualité, et ce qui vaut pour un style ne vaut pas pour un autre. Si vous voulez sculpter votre propre son, et le rendre identifiable par rapport au mien, vous devrez ruser un peu, sinon vous allez ressembler à moi et faire ma promo au lieu de la vôtre. Globalement, vous devrez d’abord modifier l ‘«attaque» des paramètres et des bandes de fréquences en fonction de la réponse spectrale de vos instruments choisis avec précaution pour leur caractère unique. Un délai plus long sur l’attaque préserve du punch dans vos kicks si ils sont situées dans la première bande par exemple. Mais si la plupart des kicksound est situé dans la seconde vous devez définir une attaque différente. Ensuite, vous allez jouer avec le makeup (la vivacité de l’amplification). Essayez d’augmenter le makeup, mais surtout, évitez d’aller plus haut que 12dB au delà ça n’a plus aucun sens. Vous remarquerez que vous aurez besoin d’ajouter plus de makeup sur les bandes de fréquences inférieures (où vous êtes devenus plus sourdingues) et moins sur la plus hautes (où il vous reste encore quelques capacités).

Piste Master

* Exciter (Renoise 2.8 uniquement)

Bande basse: 0,15 KHz | Bande haute : 4,5 kHz | mid side sur chaque bande, avec une netteté pas supérieure à 20% ; soyez prudent avec l’exciter, pensez à votre Maximizer derrière, à la diminution du compromis dynamique trouvé au sein de la compression parallèle, qui pourrait baisser sur certains pics transitoires certes cristallins mais ingérables. A la limite si vous voulez vraiment délirer avec l’*Exciter, faites-le plutôt au sein des pistes standard, et pas au beau milieu du mécanisme de compression multibandes que vous perturbez au fur et à mesure que vous augmentez les sliders.

* Filtre (HP)
Butterworth 4n
HP Cutoff 0.05KHz
Inertie instantanée

* Filtre (LP) – optionnel et si certains harmoniques sont « durs » et irritants
Butterworth 4n
Cutoff LP de 20.0 à 21 KHz
Inertie instantanée
Note : dans certains mix, si vous positionnez ce filtre APRÈS le Maximizer, vous risquez d’avoir une perte de marge dynamique. Donc par défaut, placez-le bien AVANT le Maximizer dans la chaîne.

* Vérifiez IMPERATIVEMENT le niveau d’entrée moyen du son dans le *Maximizer = -12dB !

Globalement, arrangez-vous comme vous voulez, bidouillez les valeurs de makeup dans vos compresseurs, abaissez les seuils, égalisez, filtrez, sidechainez,  réglez les niveaux des pistes sur le mixeur, mais faites que le niveau du son global pris JUSTE AVANT le *Maximizer, respecte absolument une « marge dynamique » minimum de 10 à 12dB (ce qui n’est en soit pas forcément énorme soit dit en passant on pourrait plutôt choisir du -18dB à -20dB mais bon le public – dont je fais partie – est devenu sourdingue, il veut plus de dB). Si vous ne savez pas comment mesurer correctement cette marge de -12dB, regardez simplement le vu-mètre du post mixeur de la piste master situé tout en haut de Renoise dans un premier temps, vos niveaux cumulés doivent globalement siéger au milieu, et se déporter un peu de 20% à 25% sur la droite lors des refrains. Au besoin, installez là un plugin gratis de K-Metering pour avoir une visualisation exacte du niveau de sortie « moyen » du son. Si vous ne respectez pas cette simple idée de préservation de la marge dynamique, le *Maximizer va simplement saturer / distordre à mort le son, et finalement, au sein de cette purée de pois, l’espace de discernement auditif nécessaire diminue radicalement, et tous vos efforts pour créer  un compromis entre puissance et fidélité sont anéantis.

* Maximizer
Boost 0.0dB (pourrait être porté à 1 ou 2, vous pourriez avoir à le porter à 3 max, mais n’allez pas plus loin, globalement, vous ne devez pas mettre là une valeur supérieure à la valeur Ceiling – donc vous mettez la même chose que sur le paramètre Ceiling mais en positif)
threshold  0.020dB
Peak Rel. 1ms
Slow Rel. 60ms
Ceiling: zéro par défaut, réglage manuel (voir mes explications précédentes) si l’auto-gain réagit trop au boost.

Send : NycMBC

*Multiband Send
Montant 1, 2 & 3: 0,00 dB
KEEP, Stage1
KEEP, Stage2
KEEP, Stage3
LOW 0.15KHz
HI 4.50KHz
filtre allpass (uniquement dispo sur la version 2,8 seulement): éviter le modèle LR2 est basé sur des filtres croisés qui créent dans certains cas des inversions de phase du signal sur la piste send médianne, et donc des annulations partielles sonores (je n’entre pas ici dans le détail de l’explication des problèmes posés par les inversions de phase quand elles interviennent, sur les ondes sonores, mais en gros vous avez une réduction du volume, un résultat entièrement contraire à celui qui est escompté!). Le mode Steep FIR a la meilleure qualité (mais attention, il mange trop de ressource CPU et étouffe certaines fréquences), un bon compromis est le modèle LR8 qui forme un bon compromis entre agressivité et clarté.

Send : Stage 1

* Stéréo Expander
Preset: mono

* Bus Compressor
tresh-24dB
Ratio 3:1 << à modifier selon vos samples, style, et objectifs
Attaque 0,10 << à modifier selon vos samples, style, et objectifs
Release 1ms << à modifier selon vos samples, style, et objectifs
Makeup 12dB
knee: 00 dB

Send : Stage 2

* Bus Compressor
Tresh -12 dB
Ratio: 1.5:1 << à modifier selon vos samples, style, et objectifs
Attaque 0,50 << à modifier selon vos samples, style, et objectifs
Release 1ms << à modifier selon vos samples, style, et objectifs
Makeup 6dB
0.00dB knee

Send : Stage 3

* Bus Compressor
Tresh -0,20 dB
Ratio: 20:1 << à modifier selon vos samples, style, et objectifs
attaque 0.10ms << à modifier selon vos samples, style, et objectifs
Release 1ms << à modifier selon vos samples, style, et objectifs
Makeup  6dB
12dB knee

*** Veuillez ne pas oublier de faire que le son de votre device *multiband send soit bien fixé sur le mode KEEP, sinon il n’y aura aucun parallélisme entre son compressé et dynamique d’origine au niveau de la piste master,  ça sera un compresseur multibande simple, mais pas un compresseur multibande parallèle authentique.

Exceptions

Lorsque cette configuration est prête, il suffit d’utiliser un device *Send à la fin de chaque piste standard vers la piste NycMBC et de couper le son juste après l’envoi.

Lorsque vous avez besoin qu’un instrument ou une série d’instruments ou de quelques effets, puisse être plus facilement perceptible (qu’il saute en première ligne au niveau de la perception psycho-acoustique), vous pouvez parfois d’éviter de l’envoyer à la piste compresseur multibande parallèle, et le router directement vers la piste maître. En effet : une piste qui échappe à un traitement sonore global sera remarquée par le cerveau humain. Notez que cette exclusion doit être unique et particulière dans un mix.

Mes conseils pour l’édition des notes

* NNA ou pas NNA:

Les NNA ou new note actions en anglais, définissent le comportement du playback des instruments une fois qu’une nouvelle note est introduite. On peut choisir de faire que le son continue quand même, ou par exemple, qu’il cesse. Pour simplifier la lecture des notes et éviter les confusions : ma philosophie est globalement d’utiliser une piste / colonne pour chaque instrument / échantillon. Tout d’abord, parce que c’est plus facile de travailler sur les arrangements complexes avec cette règle et parce que c’est plus facile d’obtenir une vision claire de la configuration de mixage. Et ça permet d’avoir une lecture à peu près claire de ce qui va se produire en cas de NNA.

Alors pourquoi je vous parle de ça. Parce qu’une fois que votre musique a beaucoup d’instruments bruyants, ceux qui sont les plus forts « luttent » ensemble dans le spectre. Si vous voulez bien exploiter l’espace spectral disponible, vous devriez arrêter complètement les sons déjà entendus et qui n’ont plus d’intérêt. Vous n’êtes pas obligé de jouer vos échantillons jusqu’à leur fin c’est à dire jusqu’à la fin de leur ultime réverbération. Vous savez peut-être que l’oreille humaine «trie» les sons importants en fonction de leur ordre d’apparition, et qu’elle perçoit plus les nouveaux sons, et beaucoup moins ceux qui sont déjà entendus ; en fait, les cerveaux humains traitent les sons en interne, et ils peuvent même dan certains cas où un son est auditionné de façon répétée et identique, continuer à l’«entendre» alors qui n’existent plus physiquement sous cette forme où alors qu’il a changé, par simple effet de rémanence neurale. Donc sachant cela, continuer à produire physiquement certains sons est parfois un inutile gaspillage de place spectrale. Ainsi, surtout pour les sons très rythmiques à l’attaque forte et punchy, vous pouvez parfois couper certains sustains, certaines sustains de kicks, certaines notes de basse, certaines frappes de clavier, et tout ce qui a un impact gros sur le son, juste au moment où une nouvelle note surgit.

Pour couper les reverbs et sustains des sons, vous êtes chanceux, vous avez un « soundtracker », qui « naturellement » coupe le son quand une note nouvel échantillon est inséré dans la ligne de colonne. Pour ça vous avez donc juste à grouper soigneusement les échantillons dans la même piste / colonne où vous souhaitez échantillons à couper quand un nouvel échantillon arrive.

Cette méthode donne d’assez bons résultats avec les drumkits. Attention: si vous avez défini les spécificités NNA (new note actions) comme « Continuer » ou « Note Off » dans les paramètres des instruments, le tracker va créer une nouvelle piste « interne » à la volée de telle sorte que la vieille note continuera à être jouée, quand une nouvelle arrivera au sein de la piste. Vous ne devez utiliser les NNA en Continu que pour quelque chose comme les cymbales par exemple.

C’est à vous, de définir clairement dans les paramètres Instruments, si un son doit continuer ou non lorsque une nouvelle note qui se passe dans la même colonne de la même piste. Si vous ne voulez pas que vos sons à coupent de façon naturelle, vous pourriez éventuellement ajouter une petite réverbération très subtile sur la piste allouée à l’instrument…

Travaillez en temps réel, rendu en temps réel [version enregistrée seulement]

Renoise exporte vos musiques au format .WAV, cela s’appelle le rendu. Et Renoise a bien plus d’un seul mode de rendu dans sa poche. Vous avez le mode Offline, et le mode temps réel.

Le Rendu Offline, théoriquement vous permet d’obtenir les options de sortie (taux d’échantillonnage plus haut, une profondeurs de bits d’échantillonnage plus grande, des modes d’interpolation alternatifs). Ca pourrait être très cool si vous ciblez un format de sortie et de qualité qui va bien plus haut que ce que votre CPU limité ou votre ordinateur portable pourrait produire en temps réel. Cependant, il ya des différences très subtiles entre les calculs 44KHz et 48Khz pour certains DSP, et entre les rendus 16 bits et 24 bits. Il existe également des différences subtiles mais réelles dans les résultats globaux de mixage en particulier lorsque vous utilisez certains VST IR (impulse response) spéciaux, ou même certains périphériques DSP natifs basés sur l’IR (Cabinet Simulator, Device multibande …). Vous allez vite comprendre que le résultat global peut être meilleur, ou carrément «différent», et enfin, cette «différence» pourrait être si importante, si flagrante, que tous les efforts précédemment effectués sur le mixage la masterisation, pourraient souffrir d’une perte de fidélité radicale.

Je vous recommande fortement de travailler votre mélange dans le «format cible», qu’il vous faut atteindre. Si vous travaillez en 16bits 44kHz, vous exportez en 16bits 44 kHz. Si vous travaillez en 24bits 48KHz, vous exportez en 24bits 48KHz. Toute modification de la fréquence d’échantillonnage au cours de la phase de rendu va forcer le moteur de rendu, à user d’autres références de timing et certains temporisateurs internes en VST ou certains DSP vont se comporter de façon légèrement différente. Si vous n’avez pas une grande oreille vous ne le percevrez peut-être pas immédiatement, mais les discophiles avertis sentiront tout de suite quelque chose. Si vous voulez être sûr et certain  que ce que vous entendez est ce que d’abord vous arrivez finalement, la façon unique est de choisir pour l’instant le mode de rendu en temps réel.

Et that’s all folks

Eh quoi, ? Rien d’autre? Essayez donc, testez ces recommandations, dans un premier temps, nous verrons bien ensuite si quelque chose de plus est véritablement nécessaire.

kurtz / lapiNIC

**Note : cet article est la traduction d’un précédent, écrit en anglais à l’attention de la communauté des utilisateurs de Renoise ; devant le succès rencontré par ce précédent article, j’ai pris la décision de le reformuler dans la langue de molière afin que mes compatriotes ne se sentent point lésés.

Mixing and Mastering with Renoise [English]

11/11/2011 Commentaires fermés

Mixing and Mastering with Renoise [English]

french version available here.

.

INTRODUCTION : GOOD IDEAS FIRST

First of all we should drop the idea to find a « universal method » to perform the right mix and the right master, that could systematically work all the time in every encountered situation with every listeners. Mixing is a question of knowledge about the tools you’re using and what you do is using your tools to produce some desired effects. We should say that what’s the most important to understand first is that the « mix » is NOT based on a « canon listening rule », and a « canon mixing framework », but on the way YOU use your tools, and YOU want the music to be felt by those listeners. And however even if you can’t exactly predict what these listeners want and like, you can be sure that producing a BIG HUGE sound won’t make instant miracles, especially if you don’t have a good musical idea from the start. If you don’t previously have a good musical idea, you can know & use the ultimate mixing pro tips and pro hardware to increase the volume, what you’ll finally get with a louder sound, is ear fatigue, and a louder evidence of your lack of good ideas.

Since music is played to be listened by a public (even if it’s a public made of 2 persons), this music can’t be conceived without the listeners in mind. Speaking about listeners, they are fragmented by the industry into defined markets and genres. But this definition is very commercial. And maybe the fragmentation has nothing to do with the real and true musical expectations.

For sure, it’s very hard for me to define what is a « good » musical idea, in the mind of masses of listeners (if I knew it I’ll be probably far more famous). But let’s supose that listeners expect variations within the style/genre they like, and that they need bonds to reach genres they can’t initially appreciate.

A ] My musical tips with Renoise

So, musical genres need to be renewed, executed differently, with new techniques or technologies, and also, they need to find bonds to reach other defined musical identities. The duty of every musician is then to play with the repetitions that reinforces the identity of a musical structure, and to regularly introduce the necessary variations that renews the interest of the previously defined structure. Repetitions and variations are introduced with a specific periodicity. The duty of a musicien is to expand his musical culture, to « know » other genres, so that evolutions and collaborations are constantly feeding his works.

And you’ll guess that the simpler way to fullfill the repetition needs of listeners is to use the famous copypaste functions within Renoise. BUT after 3 repetitions, the fourth one must introduce something new, a variation. That’s all. Inside the fourth repetition, I change a bit the melodic line, I introduce a small break, I modify a parameter, well I do anything but I don’t exactly introduce a pure copy of what comes before, what would be considered by me as a shameless sin, or the evidence of a lack of work.

I think that the most interesting thing that could happen to music (whoever makes it, professionnals from the industry or computer weekend muzakers like me) is a successfull crossover. Basically, my musical ideas come from the collision of previous different listening experiences in the same brain. I’m not exactly inspired by 1 thing, but I often ask myself if 2 or 3 radically different things could be « united » or « joined » in a same and coherent rythmic  and/or melodic structure. I often try to grasp the definition of a style, and then my motivation is first to play with it, and to find a way to add something very different in it : it can be an-usual instrument, or an unusual way to use or mix this instrument, an unusual rythm, something that belongs to another genre, things like that. I can also try to mix a genre with techniques inspired from another one and use uncommon effects.

Renoise helps me to test my ideas quickly. With Renoise, thanx to shortcuts, and thanx to the overall GUI efficiency, everythings is fast, quick done. I globally don’t exceed 6 hours to achieve a 2:30mn composition. I can even go faster if I have a precise vision of what I want.

B ] My sound mix tips & strategies with RENOISE

I won’t here comment deeper previous debates about the dB war that progressively pushes every people involved in the buisness to bump up the volume, and compress more and more the music so well that the resulting sound is constant, uniform, boring, and lacks of clarity and dynamic range. However we should admit that if you want your music to be noticed during any airplay, you should tru to find a way to get the highest possible sound level / presence / definition, but without any loss in terms of fidelity, dynamic range, and with the lowest possible side effects. Of course you’ll say : go and buy Ozone. But I truely believe that the Renoise internal native DSPs and internal visualisation tools when well mastered, can act like professionnal tools (without the required recording studio budget). I must find a good setup that would not rely on any external solution. So my renoise-based sound results in the combination of some « mixing methods » you probably allready know and that are directly usable inside the Renoise interface.

To sum up things, I’ve build more efficient renoise based mix setups when I dropped the idea to get a providential VST plugin that I’d have to put in the master track and that will magically make the « interesting » studio sound quality I expect.

I sculpt my instruments at first

Okay you’ve got a samplepack. But the samples are often dirty, untuned, « poppy » (they produce clicks or pops), unnormalised, what will produce later big problems when controling the volume with compressors. Sometimes, some samples are cool, but if they’ve no glitches inside, they are « flat » and have no presence. If you want to fix things you’ll probably have to use a 1 instrument = 1 track philosophy.

* glitches & pops
So, first of all, cleanse every glitch, just use the draw pen tool in the sample editor, zoom the view to the max, and draw a curve, where you see glitches, or suspicious notches. Then, check the instruments settings tab : every slider here is important ! Each sample can get its own volume level, even in multisampled instruments. DO NOT compose directly without this first stage in the process, you should regret it then later. If your instrument produces clik sounds or pops sounds when played, just create a Volume – type envelope with a slower attack.

* fix the hiss
You’ve recorded your voice? Your crappy microphone produces a resonnant hiss ? Ok use the spectrum analyser. Put the + of the mouse where the resonnant hiss visually appears and note somewhere in a paper the frequency concerned. You realised that it’s located @ 5KHz ? Ok, add a filter to your recording track, with a bandstop model for example, define a fine Q and cut the frequency where the hiss appears. If you want things to be neat you can apply the effect directly on your sample so that it’s clean one for good.

* preamp that mike
Do you think that your vocal recordings are not as high as expected or as high as the other instruments of your selected soundset ? No problem, use a Mixer EQ, it will be behave like a virtual pre-amp. Then apply the effect. Try to « normalize » all your samples, so that their output level is psychoacousticaly « similar ». Just try to start to work with the highest sample volume from the beginning, and after you’ll just have one philosophy : use EQ (or filters) to minimize or directly cut some frequency bands.

Then play with your instrument with your qwerty keyboard.

* multilayer
Does it sound flat ? Okay no problem : multilayer it (I recommend 4 or 5 layers with 4 or 5 copies of the same sample) and finetune a bit each sample on each layer with very subtle differences. Define some large stereo panning for each sample (-25 for the first +25 for the second, and + 50 for the last one) and you’ll initially get a best sounding instrument. This technique based on slight detunes of sample copies is often used in trance based synths. But you can also use it in lots of other genres with satisfying results. Note that multilayering/detuning isn’t recommended for anything. Low frequency sounds have to be centered and not enlarged. Be carefull with the multilayer thing, your instrument volume will be multiplied by 4 or 5, it’s logical, so reduce each multilayered sample volume !

* the final touch to your instruments
Now EQing. When your sample is ready, when the instrument envelopes and eventual layerings are defined, you can add the last touch to your sound with other filterings through envelopes in the instruments settings tab, and EQ in the track dedicated to your instrument. Your instrument can sound radically different with a specific EQ. The first EQ you’ll add in your chains, will just give to the instrument a special coloration. With the new Renoise EQ5 or EQ10 you’ll get an even more easy way to change frequency bands without using anything else than the mouse. I must confess that since I start my chains with the highest possible volume, I tend to use my EQs more like filters to lower some frequencies bands, more than to raise them.

More presence : what DSP I like to use in individual tracks

* Gainer
Everybody knows how to improve the loudness of the sound, simply, with the Gainer unit that adds a 12dB boost. And I do like everybody, so you can do like me too. But with too high params, the gainer will produce unwanted peaks / transients.

* Distortion
You should then try the « distortion » unit. There are some instruments that can go through some distortion models and don’t lose their caracteristics too much, and the advantage is then that you easily get a quite empowered sound, with no bothering transients. But the problem with the distortion, is that it is often « harsh ». You can willfully chose make sound harsh and agressive, but this strategy will be completely useless when you’ll need to add a emotions and a sensitive touch to your lines.

* Cabinet simulator (+ Auto DC Offset)
You can then try to use the strange Cabinet simulator, that integrates a nifty pre-amp, and a 5band EQing phase in the internal routings, so that you can cut unwanted side effects with a proper EQing. You’ll notice that I’d recommend to use an auto-dc offset after a Cabinet simulator, especially when the chosen parameters are very high. The cabinet simulator has a strong personality and you’ll sometimes need this auto-dc offset dsp in the end.

* Delay (<30ms) & larger stereo image / Track’s width / Surround (in the Stereo Expander DSP)
The other set of tool you can use for a better presence is tools that are controlling the stereo image, directly or undirectly. For example : the track width parameter (located early in the left side of every track dsp chain). Or you can add a stereo expander’s dsp surround. Or you can use the delay dsp unit. You should simply think about the power of delays, not only the long ones but also very small stereo delays, less than 30ms. The larger the stereo image is, the better the presence will be.  BUT be extremely carefull with <30ms stereo delays, the more you add feedback, the more the sound volume increases, the less you control the saturation produced… so use very, very low (or null)  feedback rates. Warning, I DO NOT recommend you to use the stereo widening technique with lower frequencies sounds such as the kicks and sub bass because those sounds will allready collide well, at the center of the stereo listening field, and don’t need to be amplified more. Of course, the Chorus effect is supposed to increase the presence, but what you’ve got in DAWs is often not a « real » chorus, it’s an emulation, and I’d prefer using something more natural like duplicating the track notes/column and adding some pattern-command based vibratos on the duplicated column.

* EQs
Now EQ. My EQ are more and more often placed at the very end of my classic tracks chains. We’ve seen that you could add some specific color to your instrument with an EQ. But I must say that I use EQs to fix little things on a track/instrument that is globally too high at defined bands and that generates a loss of a necessary headroom & in the end a loss of dynamic range. So I often use it to lower frequencies since I always start with very high-sounding instruments. That’s gloablly the way I simplify the mixing phase and make it faster.

Sidechain « compression » / Sidechain « Distorsion »

* follow me
This technique uses the *signal follower meta device. It is used to keep a fat, constant and punchy sound level on BIG FAT instruments like kickdrums. It has to be used nowadays, why ? Because the kickdrum sound has become very… massive, and the distorted / amplified bass sound has also become as massive as the kickdrum sound, and both cannot somehow fit together in the spectrum without destructing themselves. That’s why you’ve got to make a choice and compress or un-distort the bass sound but only when the kick level is too high. « Sidechaining » the compression means that the compressor / distortion action is modulated by the level of the signal coming from the kick track. In Renoise, you’ve got to put a *Signal Follower device on the kickdrum track and you’ve got to link it to the any fat bass track.

IMPORTANT (1) : in the *Signal Follower, you’ve got to reverse the low and high params so that the threshold will raise when the detected signal is low in the source track. Sometimes you don’t need to use a compressor in the target track, just lowering a bit a « distortion » level is often satisfying. That’s what I call a sidechain distorsion.

IMPORTANT (2) : don’t compress / modulate sounds that do not fight with the one you want to preserve. I mean that you should not lower for exemple high frequencies of a pad, especially if they do not harm the kickdrum sound. That’s however a mistake that some producers make. They want the kick to be heard so much that they put a sidechained compressor on everything. Of course, it means that nothing is more important than the kickdrum, the rest can be lowered, what is a cynical definition of a successfull music.

NYC / Parallel Multiband Compression

* the wrong multitrack overcompression strategy

Compression is very easy to understand but a very hard thing to master. You don’t compress the same way a bass or a kick or a snare. The shape of a sound defines the way the compressor has to behave (slow or fast attack, slow or fast release). You can  of course put a compressor on each track, on each instrument. But with all those compressors, you’ve got several problems that will only happen when you’ll mix all your tracks alltogether. First you’ll get the compression units delays to compensate – thanx to renoise this is now automatic but it consumes some precious CPU power. And then, if you add too many compressors on your dozens of tracks, each instrument will easily take all the place and you won’t be able to create some more complex and living layered melodic structures. You’ll hget the feeling that everything is saturated and the listening experience will quickly become uniform, without any dynamic range, and increase ear fatigue. I’d recommend you then to compose your music through a compromise, with a simpler and typical mix setup that’s called « parallel multiband compression ».

* compress frequency bands instead of tracks
Instead of compressing each different track, you compress different frequency bands. For now, the *Multiband send meta device allows you to treat separately 3 different frequency bands. I would like to have 4 bands… like in the Ozone thing, but 3 bands it’s allready quite good and effective.

* to preserve some dynamics, make it parallel
When you compress something, it’s bigger and warmer BUT if some transients are cancelled, you increase the overall uniformity of sound, with the feeling that the sound depth is always the same : in front of you, massive, in your face. When we speek about a parallel compression, we’re  just talking about mixing a compressed sound with a non-compressed sound. Wisely mixing the original sound AND the compressed sound will preserve some interesting dynamics and will allow you to keep some usefull depth range inside the listening field. The parallel (or NYC) multiband compression uses this kind of strategy and finally allows you to get a high level of a clear sound on the whole spectral activity, but some depth is still available that’s the most interesting thing.

You achieve a NYC MB compressor, easily within renoise, through an appropriate SEND TRACKS setup. WARNING : mixing 2 sounds implies that the overall sound is naturally higher ; and this technique is so powerfull that I’d recommend to LIMIT the sound in the master track (with a Maximizer), and even to add a simple B-W 4n filter that progressively cuts the infra-sub-sounds before 50Hz, just before the limiter in the chain. If you don’t cut those infrasounds they finally take high place in the headphones/speakers and often produce some unwanted ear fatigue.

* How to define the Maximizer’s ceiling level (manually)

Concerning the Maximizer, the Ceiling parameter could be very different between two songs… you ‘ll have then to determine it « manually ». Here’s how : first disable soft clipping, then, auto-gain ON, then you’ve got to put the ceiling value to zero. To increase the presence, you’ll have to increase the Boost value. The more you increase it the more the sound will be saturated. However the auto-gain could lower more the final volume . In the end you could loose what you’ve won. If it happens, try to lower the ceiling value a bit BUT be aware of the fact that lowering the Ceiling could also lower somehow the dynamic range. Also if you add 3dB to the Boost value you should not remove mopre than 3dB to the Ceiling level.

* excite some harmonics

We’ve seen that you needed to uncheck the Soft Clipping button in the master track what avoids a lack of control, a redundant limiting mechanism and eventually a loss of signal punch. If you re-check it later for any reason, or if your compression levels are high, you should think to add an harmonic exciter at the end of the setup. Good think, an exciter has been introduced in the 2.8 version. I’d recommend something « subtle » with this beast, because if you’ve previously degraded / aliased (through a LoFi DSP) or distorted (through the Distorsion unit) your sound, this tool’s really able to sharpen it so well that it could become somehow very irritating, especially within higher frequencies. I even recommend you to add another extra LP filter at the end of your mix, that cuts the 1.5 KHz  that goes beyond 21 KHz, that are very harsh when sharpened. Those sharpened sounds are often cristal clear sounds, you could love it first but after that, have some difficulties to limit the whole result with the maximizer. So keep in mind that everything that can increase / improve the overall sound, implies a headroom loss as a drawback. Another good reason to use this beast with a lot of care,because a smaller headroom size will make your final limiter (Maximizer) less efficient in the end.

* the mono solution

Your instruments are often panned, autopanned, reverbs let some moving signal tails in some unexpected places of the stereo listening field. The headache come with low frequencies, that are eating the higher ones, and when you automate pannings of low frequencies outside of the center of the listening field, fixing their level quickly become a pain in the ass if they move all the time between the center and the borders. You’ve got a simple way to work it out for good : turn your first band (the low frequencies) into a pure mono sound. That’s radical, but it works. Put a stereo expander device in the first send track of your multiband mechanism, and select the mono preset : you won’t regret it.

* don’t sound like me by default
Here are some « default » parameters for the NYC MB compression setup. WARNING : first of all I’ve fucked up my ears (and recently my speakers). So the parameters are highly influenced by my musical choices, my (crappy) sample choices, my physical and hardware limitations. Then, like everything that’s defined by ‘default’ it’s not adapted to all the situations as I allready said from the beginning. If you want to sculpt YOUR sound you’ll have to tweak it a bit, otherwise you’ll sound like me but not like YOU. Globally, you will first tweak the « attack » parameter and the frequency bands in function of your the spectral response of your selected instruments. A longer attack delay will preserve some punch in your kicks if they are located in the first band for example. But if most of the kicksound is located in the second one, you should define a longer attack here. Then you’ll play with the makeup. Just try values but nothing higher than 12dB. You’ll notice that youll need to add more makeup on the lower bands than on the higher.

Master track

*Exciter (Renoise 2.8 only)
Low : 0.15 KHz | High : 4.5KHz | Mid-side on each band, with nothing > 20% sharpness max, and 100%  amount ; be carefull with it, think about your Maximizer that could have some troubles with some unexpected cristal transients. Think about the parallel mechanism that needs a 50% mix between the original sound and the compressed sound, that could not work as well as expected with too high parameters. Think about the headroom, that needs some preservation, so really, if you want to improve a lot some dull sounds, put the exciter directly on a track’s chain, and play with the *exciter there, NOT too much withing the NYC MB compression scheme.

*Filter (HP)
Butterworth 4n
HP Cutoff 0.05KHz
Inertia Instant

*Filter (LP) – Optionnal, only if your mix produces some hard/irritating HF sounds – see *Exciter comments
Butterworth 4n
LP Cutoff between 20.0 KHz and 21.0KHz
Inertia Instant
Note : in some of my mixes I’ve put this filter AFTER the *Maximizer, what looked logical & efficient at first BUT in other mixes, it lowers the dynamic range of my track in the end (causing the AGC automatic gain control to react in a wrong way).  So test this filter before the Maximizer first, define your Maximizer settings, then test it after ; if placing it after Maximization doesn’t change anything in your levels, keep this filter after the Maximizer.

* You MUST check the average input level of the sound in the Maximizer * and do something to make it close to -12dB!

Arrange your mix as you want, tweak the values ​​in your makeup compressors, lower thresholds, level, filter, sidechain, set the track levels on the mixer, but make the fucking overall sound level taken JUST BEFORE the *Maximizer keeping a minimum »headroom » of 10 to 12dB (one would rather choose 18dB or -20dB). If you do not know how to properly measure this minimum margin of -12dB, just look at the post mixer of the Master vu-meter located at the top of Renoise, your overall cumulative levels must sit in the middle of the Vu-meter, and should deport on the right side from 20% to 25% when performing choruses for example. If necessary, install a free K-metering external plugin, for a better accurate visualization of the output level. If you do not follow this simple idea of preserving the dynamic range, the * Maximizer will simply saturate / distort the sound to death, and finally, mixing and mastering the song will be like driving madly in the fog, the auditory discrimination space required will decrease dramatically, and all your efforts to create a compromise between power, and fidelity will be destroyed.

*Maximizer
Boost 0.0dB (could be raised to 1 or 2, you could have to raise it to 3 max but don’t go further, the Boost will often be the Positive value of the manually defined Ceiling’s param)
Treshold 0.020dB
Peak Rel. 1ms
Slow Rel. 60ms
Ceiling : zero by default, manualy lower it, if the auto-gain reacts badly (see my previous explanations)

Send name : NycMBC

*Multiband Send
Amount 1, 2 & 3 : 0.00 dB
KEEP, Stage1
KEEP, Stage2
KEEP, Stage3
LOW 0.15KHz
HI 4.50KHz
Allpass filter mode (2.8 only)  : avoid the LR2 model that creates in some situations phase shifts & partial sound cancellations. The Steep FIR has the best quality (but warning, it eats too much CPU power and muffles some sounds), a good compromise is the LR8 model that combines punch/agressivity and clarity.

Send name : Stage1

* Stereo Expander
Preset : mono

*Bus Compressor
tresh -24dB
Ratio 3:1 << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Attack 0.10 << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Release 1ms << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Makeup 12dB
knee : 00 dB

Send name : Stage 2

*Bus Compressor
Tresh -12 dB
Ratio : 1.5:1 << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Attack 0.50 << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Release 1ms << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Makeup 6dB
knee 0.00dB

Send name : Stage 3

*Bus Compressor
Tresh -0.20 dB
Ratio : 20:1 << you’ll have to change it and adapt it to your needs, style, samples, and feelings
attack 0.10ms << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Release 1ms << you’ll have to change it and adapt it to your needs, style, samples, and feelings
Makeup 6dB
knee 12dB

*** Please don’t forget to KEEP the sound in your *Multiband device sends, otherwise it will be a simple multiband compressor but not a true parallel multiband compressor.

Exceptions

When this setup is ready, just route every individual track to the the NycMBC send track and MUTE the sound in the source tracks.

When you need a lead track or an instrument that is allready very high, to be more easily noticeable (front-line perception), you can sometimes avoid to send it to the multiband compressor track, and route it directly in the master channel. A track-instrument that escapes from a global treatment will be noticed by the human brain. Note that this exclusion has to be unique, and exceptionnal.

Notes Editing tips

* NNAS or not NNAS :

My philosophy is to globally use one track/columns for one instrument/sample. First of all, because it’s easier to work on complex arrangements with that rule and get a clear vision of the setup.

Once your music has lots of loud instruments, those loud instruments « fight » together in the spectrum. If you want all the available spectral space for the sounds you should completely stop what has no interest anymore. You’re not obliged to play some samples ‘until their end’. You’ve got to know that the human ear « sort » sounds and concentrate / focus on the new ones and internally lower or even don’t percieve the old ones ; yep in fact the human brains treat sounds, and sometimes, when a sound is heard in a repetitive way, the brain could continue to « hear » this sounds exactly the same, even if its tail has been cut in the end (it’s called remanent perception). Considering these psycho-acoutic facts, sustaining some big sounds is sometimes a futile strategy that waste some usefull spectral place & headroom. So you’ll sometimes have to CUT those sustained notes from kicks, bass, keyboard hits, and whatever has a big sound impact, just when a new note happens.

To cut the sounds at thye right time, you’re lucky, you’ve got a « soundtracker », that « naturally » cuts the sound when a new sample note is inserted in the column line. You just have to carefully group the samples in the same track / column where you want samples to be cut whan a new sample happens.

This method gives quite good results with drumkits. Warning : if you defined specifics NNAs like « Continue » or « Note off » in the instruments settings, the tracker will create a new track « internally » on the fly so that the old note will sustain when a new one happens. You should only use NNAS for something like pads, crash cymbals, background melodic lines.

It’s up to you, to define clearly in the Instruments settings, if a sound should continue or not when a new note happens in the same column of the same track. If you don’t want your sounds to be cut in an unnatural way okay you could eventually add a very subtle reverb on it with a small room size…

When you work in Realtime, Render in Realtime [registered version only]

You’ll understand that a registered version of Renoise can render musics : i.e. export a WAV file that will be played on your system or that could be converted into a .flac, .mp3, .wma, .ogg, … file format to be shared online in your favourite community. And the registered version have more than one rendering mode. You’ve got the offline mode & the realtime mode.

Rendering offline a song theorically allows you to get more output options (more sample rates, more bit depths, more interpolation modes). It could be cool if you target an output format & quality that goes higher than what your limited CPU or laptop could produce in realtime. However there are very subtle differences between 44KHz and 48Khz computations for some DSPs. There are also subtle but real differences in the overall mix results especially when you’re using some IR based VSTs (impulse response reverbs, for example), or even some native IR-based DSPs (Cabinet Simulator, Multiband Device…). You’ll quickly understand that the overall result could be as better as « different », and finally, this « difference » could be so important than all the previously mixing & mastering efforts could be lost.

I highly recommend you to work your mix in the « target format » you’ll expect to reach in the end. If you work in 44KHz 16bits, you export in 44KHz 16bits. If you work in 48KHz 24bits, you’ll export in 48KHz 24bits. Modifying the samplerate during the rendering phase will force the renderer, some  internal timers in VSTs or some DSPs to behave slightly differently.  If you want to be sure that what you initially hear is what you finally get, the unique way is to chose for now the realtime rendering mode.

And that’s all folks

What ? Nothing else ? Hey just try what I’ve recommended to you, at first, we’ll see then when you’ve finished if you really need something more.

kurtz/lapiNIC

TUTORIEL RENOISE #6C – HARD & SOFT COMPRESSEURS [2.6.1]

18/05/2011 Commentaires fermés

Dans cette partie je présente sur le mode du comparatif, un compresseur alternatif, (type soft knee compressor) qui semble de prime abord visuellement reprendre tous les paramètres du compresseur standard précédemment abordé. Cependant, l’expérimentation démontre que ce compresseur traite aussi le signal situé sous le Threshold suivant un second algorythme séparé, d’où un son de sortie globalement plus bas. Avec une courbe de seuil adoucie par un nouveau paramètre (Knee), ce module tasse le son de façon moins rude et produit moins d’effets secondaires (grésillements) ou de distorsion. Son point faible est qu’il exigera un niveau de makeup élevé si vous souhaitez apporter un minimum de présence au son de sortie.

Regarder le tutoriel en HD sur ma page FaceBook.

TUTORIEL RENOISE #6B – COMPRESSER UN SON AVEC MODERATION [2.6.1]

18/05/2011 Commentaires fermés

Au terme de la précédente vidéo, la méthode envisagée pour comprimer le volume aux limites du potentiel matériel était « manuelle », locale et ponctuelle. L’aspect fastidieux d’un tel système se fait surtout sentir si l’on doit surveiller les pics d’une ligne de percussions et de basse slappée par exemple. On peut alors employer un outil qui réalise cette compression de façon automatique et sélective. Renoise intègre plusieurs systèmes de compression automatique et dans cette vidéo je vous en présente le plus simple. Il se définit par un seuil de déclenchement, une intensité, une durée, un éventuel retardateur ( pour préserver le punch naturel de tel ou tel instrument). Conscient qu’une compression abusive peut « boucher » rapidement le spectre et compromettre la place nécessaire pour organiser un véritable arrangement, je mets enfin l’accent au sein de cette vidéo sur une nécessaire modération, dans l’usage des compresseurs sur vos pistes.

Regarder en HD sur ma page FaceBook.

TUTORIEL RENOISE #6A – GRESILLEMENTS & COMPRESSION MANUELLE [2.6.1]

18/05/2011 Commentaires fermés

Pour toutes sortes de raisons, on peut avoir besoin d’augmenter le volume sur un rendu de mix ou sur une des pistes dudit mix. Cependant, l’augmentation du volume induit un risque de grésillement. Pour mieux l’évoquer, je quitte le spectrum et reprends l’oscilloscope. Après une ré-explication rapide et très vulgarisée du phénomène vibratoire mécaniquement produit au sein d’un haut parleur électro-aimanté, je pose un constat sans appel : tout dispositif d’écoute mécanique rencontre inéluctablement un « point de butée » fonctionnel. Un signal électrique trop important peut produire une tentative de dépassement anormale du « point de butée », et un dysfonctionnement membranaire ponctuel s’exprime alors sous la forme de grésillements. Heureusement, à travers ses fonctions de contrôle de volume précis (paramètres de colonnes ou enveloppes automation), Renoise permet la mise en œuvre d’une correction manuelle simple et peu gourmande en temps de calcul. Elle a cependant elle-même ses limites…

Regarder en HD sur ma page FaceBook.