Photo en Une : © Google

L’intelligence artificielle s’établit chaque jour un peu plus fermement comme un incontournable de la production musicale de demain – à l’instar du projet français Flow Machines, qui composait il y a quelques mois un album entier en collaboration avec des musiciens humains. Chez Google, l’une des initiatives dans le domaine se nomme Magenta, un projet de recherche visant à explorer comment le machine learning peut assister les artistes dans la création.

En 2017, Magenta créait NSynth (pour Neural Synthesizer), un algorithme open source capable d’analyser des sons déjà existants (une guitare, un tambour, un chant d’oiseau…) pour en créer un nouveau qui « fusionnerait » leurs caractéristiques distinctives, en s’appuyant sur un réseau neuronal artificiel. Une approche novatrice de la synthèse sonore, dont une description détaillée (en anglais) est à retrouver sur le blog de Magenta, mais qui n'est pas tout à fait inédite : au début des années 2000, le synthétiseur Neuron de Hartmann exploitait déjà les réseaux neuronaux avec une ambition similaire.

Avec le NSynth Super, Google dote son algorithme d’un corps physique aux allures de Kaoss Pad, contrôlable en MIDI. À partir de 16 sources sonores, l’entreprise affirme ainsi avoir généré 100 000 nouveaux sons, embarqués dans le prototype servant à la vidéo de démonstration.

Aucune information n’a pour l’instant été révélée quant à la commercialisation de ce synthétiseur, mais il y a fort à parier que nous assistons là à une étape de plus dans la révolution de notre façon de produire la musique. D'autant que l'intégralité des ressources de NSynth est disponible en open source.