- Présentation de l’option
- Planning 2024
- Intervenants
- Supports de cours
- Sujets de TD
- Sujets de TP
- Sujets de projets
- Archives d’examens
1. Présentation
Rapprocher l’électro-acoustique, l’acoustique des instruments de musique, le traitement du signal, l’IA et l’informatique musicale, voici le mariage un peu “irraisonnable” que propose cette option de 2ème année du cycle ingénieur ENSEA (niveau M1).
Du point de vue “ingénierie sonore”, la connaissance des particularités acoustiques des instruments permet de guider les choix d’une bonne prise de son en studio ou dans un lieu d’écoute, mais a contrario la prise de son elle-même est indissociable des choix esthétiques (couleurs sonores) voulus par celui qui la pratique.
Dans un autre registre, la synthèse sonore et la composition musicale contemporaine, via les outils modernes de l’informatique musicale et du Deep Learning, requièrent une connaissance fine autant des modèles physique d’instruments (rayonnement, propagation, modes propres, amortissement, …) que des techniques de synthèse (FM, guide d’onde, formantique, non-linéaire, …) et d’apprentissage machine (synthèse à IA telle que la proposent WaveNet ou aiva.ai, architectures à Variational Auto-Encoder, etc).
Par ailleurs, le développement de l’électronique embarquée a ouvert de nouvelles opportunités pour le traitement du signal audionumérique sur smartphones bien sûr, mais aussi sur microcontrôleurs ARM et plateformes linux embarquées. Le nombre pléthorique d’applications embarquées autour du son, de la musique, du DJing, … le démontre.
Enfin l’émergence depuis une décennies de techniques performantes dans le domaine du Music Information Retrieval (MIR) ayant abouti au développement d’applications comme Shazam ou de logiciels comme Ableton Live prouve que les liens entre musicologie, informatique distribuée, traitement du signal et intelligence artificielle ouvrent des perspectives extraordinaires.
Notre objectif dans les 64h de l’option est de donner l’opportunité d’approcher ces différentes composantes par la pratique expérimentale (9h de TP et 30h de mini-projets). La partie cours est organisée en trois volets, donnant les grandes lignes de la modélisation en acoustique physique et musicale d’une part, en électroacoustique (transducteurs, amplificateurs) d’autre part, en informatique musicale, traitement du signal pour la musique, audionumérique et MIR enfin.
Complétés par des conférences de spécialistes reconnus du domaine (académique ou industriel), les 30h de cours doivent permettre d’aborder sereinement l’étude bibliographique nécessaire aux TP et/ou mini-projets. Ceux-ci donnent lieu à une démonstration et un rapport écrit.
2. Planning 2024
- 18/1 : de Purcell à Daft Punk, une brève histoire de la facture instrumentale
- 22/1 : TP Initiation à la synthèse sonore avec Max/MSP
- 25/1 : Psycho-acoustique, consonance et gammes
- 29/1 : Deep Learning et IA appliqués à la musique (Romain Hennequin, Deezer)
- 1/2 : TP sur les systèmes de gamme
- 5/2 : Acoustique musicale
- 8/2 : Microphones, haut-parleurs et équipement en studio
- Vacances d’hiver
- 26/2 : Synthèse sonore (FM, Ring mod, etc)
- 4/3 : Applications audio pour Android #1 — voir le code Android
- 7/3 : Applications audio pour Android #2
- 11/3 : Projet #1
- 14/3 : TP1 studio d’enregistrement
- 18/3 : Projet #2
- 21/3 : TP2 studio d’enregistrement
- 25/3 : Projet #3
- 28/3 : Projet #4
- 7/4 : Projet #5
- 4/4 : Soutenances projet
- A fixer : Examen écrit (de 10h à 11h en A103)
Intervenants
Tous les intervenants (ou anciens intervenants) du cours sont à la fois des spécialistes d’acoustique musicale, de traitement du signal audio, d’informatique/IA pour la musique ou de SHS (sciences humaines et sociales) “orientées” musique, et des musiciens accomplis, tous engagés dans une pratique musicale amateur ou professionnelle :
- Dr. Syd REYNAL (Responsable de l’option, enseignant-chercheur ETIS CNRS, musicien pop, artiste)
- Dr. Thomas HEZARD (diplômé ATIAM et docteur IRCAM, ingénieur R et D chez MWM, pianiste, ingé-son)
- Dr. Romain Hennequin (chercheur, Deezer, musicien)
- Dr. Constance DOUWES (chercheuse INRIA, musicienne, DJ & productrice de musique électronique)
- Dr. Joffrey BECKER (anthropologue, enseignant-chercheur ETIS CNRS)
- Dr. Laurent FIACK (enseignant ENSEA, spécialiste de modulaire)
- Wadie MOUTAWAKIL (ingénieur, SONOS)
- Nicolas PAPAZOGLOU (enseignant ENSEA, diplômé ATIAM, ingénieur du son)
Anciens intervenants :
- Prof. Geoffroy PEETERS (enseignant-chercheur, Telecom Paris, ex-IRCAM)
- Dr. Dogac BASARAN (chercheur, Telecom Paristech/IRCAM, bassiste)
- Prof. Bertrand DAVID (enseignant-chercheur à Telecom Paristech/TSI et pianiste du quintet jazz “les évadés”)
- Jérémie HUSCENOT (Acoustic Engineer, Philips Consumer Lifestyle)
- Olivier PASQUET (Producteur à l’IRCAM, artiste performer)
- etc
4. Supports de cours
- le polycopié d’introduction à l’acoustique physique, à l’électro-acoustique , au traitement du signal musical et à la synthèse sonore
- les documents de cours de Geoffroy Peeters (MIR) : Introduction à l’apprentissage machine et Traitement du signal audio musical, descripteurs et estimation
- les documents de cours de Romain Hennequin sur le Deep Learning et la classification en musique
- les documents de cours de Thomas Hézard : transparents du cours
- architectures de traitement audionumérique (transparents du cours)
- les transparents du cours sur le pitch Pitch et Chroma
- le Notebook Mathematica sur les gammes (Pythagore vs. gamme tempérée) et le timbre des instruments à corde.
- Le polycopié sur la synthèse sonore (B. David)
5. Sujets de TD
6. Sujets de TP (séances TP #1 et #2)
- Matlab : les différents systèmes de gammes (en occident)
- Matlab : la modélisation d’un son de corde pincée/frappée pour la synthèse sonore
- HTML5/Javascript : Embarquer de l’audio dans une page web avec l’API webaudio
- Max/MSP : Initiation à la synthèse sonore avec max/msp
- Prolongement en Matlab : méthodes avancées de synthèse sonore et vocodeur de phase, et les scripts matlab nécessaires pour démarrer
- Prolongement en Puredata : un sujet sur la synthèse FM avec le logiciel Puredata (que ceux qui ne connaissent pas Puredata commencent par le TP max/msp d’initiation ci-dessus), ainsi que des documents pour démarrer
- Développement Android pour l’audio (Thomas Hézard) : site Github
- Archive : Initiation à la synthèse sonore avec puredata
7. Sujets de projets
liste des sujets de l’année en cours.
Un patchwork des questions posées depuis le début du millénaire.