Td corrigé Unité mixte de recherche Ircam-CNRS - Examen corrige pdf

Unité mixte de recherche Ircam-CNRS - Examen corrige

2008. 9782723455275. 2 730. Atlas junior pour comprendre le monde des 8 ans ...... Chimie mpsi ptsi tsi exercices corriges fiches methodes 1re annee ..... Mathematiques centrale/supelec mines/ponts ccp 8 ans de problemes corriges filiere ...




part of the document













Ministère de la culture et de la communication
Centre national de la recherche scientifique
Université Pierre et Marie Curie
Institut de recherche et coordination acoustique/musique



Sciences et technologies de la musique et du son
UMR 9912 STMS

Résultats et auto-évaluation
janvier 2007- juin 2012

Table des matières



 TOC \o "1-3" 1 Présentation de l’unité  PAGEREF _Toc209687863 \h 7
1.1 Présentation de l’Ircam  PAGEREF _Toc209687864 \h 7
1.2 Organisation de l’unité  PAGEREF _Toc209687865 \h 8
1.2.1 Organisation et vie de l’unité  PAGEREF _Toc209687866 \h 8
1.2.2 Organisation et gouvernance propres à l’Ircam  PAGEREF _Toc209687867 \h 8
1.2.3 Règlement intérieur  PAGEREF _Toc209687868 \h 9
1.2.4 Organigramme  PAGEREF _Toc209687869 \h 9
2 Activités et résultats  PAGEREF _Toc209687870 \h 10
2.1 Objectifs scientifiques du contrat en cours  PAGEREF _Toc209687871 \h 10
2.1.1 Orientations thématiques transversales  PAGEREF _Toc209687872 \h 10
2.2 Bilan 2007-2012 : éléments de synthèse  PAGEREF _Toc209687873 \h 11
2.2.1 Faits marquants (depuis 2010)  PAGEREF _Toc209687874 \h 11
2.2.2 Rayonnement, attractivité, diffusion et rôle social  PAGEREF _Toc209687875 \h 12
2.2.3 Implication dans la formation par la recherche  PAGEREF _Toc209687876 \h 14
2.2.4 Hygiène et sécurité  PAGEREF _Toc209687877 \h 14
2.3 Analyse des moyens de l’unité  PAGEREF _Toc209687878 \h 15
2.3.1 Situation du personnel au 30 juin 2012  PAGEREF _Toc209687879 \h 15
2.3.2 Evolution du personnel au cours de la période du bilan  PAGEREF _Toc209687880 \h 15
2.3.3 Gestion financière, fonctionnement et investissement  PAGEREF _Toc209687881 \h 16
2.3.4 Conditions d’hébergement  PAGEREF _Toc209687882 \h 17
2.4 Equipe Acoustique instrumentale  PAGEREF _Toc209687883 \h 18
2.4.1 Thèmes de recherche sur les instruments de musique  PAGEREF _Toc209687884 \h 18
2.4.2 Aide à la facture instrumentale : projets PAFI et CAGIMA  PAGEREF _Toc209687885 \h 20
2.4.3 Nouveaux instruments : réels et virtuels - projet IMAREV et synthèse par modélisation physique, logiciel Modalys  PAGEREF _Toc209687886 \h 21
2.4.4 Synthèse sonore par modélisation physique  PAGEREF _Toc209687887 \h 22
2.5 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687888 \h 23
2.5.1 Technologies de reproduction audio spatialisée  PAGEREF _Toc209687889 \h 23
2.5.2 Analyse / Synthèse de réponses impulsionnelles de salles directionnelles (DRIR)  PAGEREF _Toc209687890 \h 25
2.5.3 Intégration multisensorielle pour le traitement de l’information acoustique  PAGEREF _Toc209687891 \h 25
2.6 Equipe Perception et design sonores  PAGEREF _Toc209687892 \h 28
2.6.1 Perception des sons environnementaux  PAGEREF _Toc209687893 \h 28
2.6.2 Signalétique sonore  PAGEREF _Toc209687894 \h 30
2.6.3 Design sonore interactif  PAGEREF _Toc209687895 \h 31
2.7 Equipe Analyse/ synthèse des sons  PAGEREF _Toc209687896 \h 33
2.7.1 Analyse, représentation, transformation, et synthèse du son  PAGEREF _Toc209687897 \h 33
2.7.2 Description des contenus musicaux  PAGEREF _Toc209687898 \h 35
2.7.3 Analyse, traitement et synthèse de la voix  PAGEREF _Toc209687899 \h 36
2.7.4 Modélisation physique pour l’analyse et la synthèse du son  PAGEREF _Toc209687900 \h 37
2.8 Equipe Représentations musicales  PAGEREF _Toc209687901 \h 38
2.8.1 MISA : Modélisation informatique des structures algébriques en musique et musicologie  PAGEREF _Toc209687902 \h 38
2.8.2 Rapports signal-symbolique  PAGEREF _Toc209687903 \h 39
2.8.3 Interaction symbolique  PAGEREF _Toc209687904 \h 40
2.8.4 Composition assistée par ordinateur  PAGEREF _Toc209687905 \h 40
2.8.5 Synchronisations Musicales (MuSync): écoute intelligente et modèles de programmation  PAGEREF _Toc209687906 \h 42
2.9 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687907 \h 44
2.9.1 Processus, acteurs, techniques de la création musicale  PAGEREF _Toc209687908 \h 44
2.9.2 Esthétique et histoire des musiques contemporaines  PAGEREF _Toc209687909 \h 45
2.9.3 Critique et instrumentation des savoirs musicologiques  PAGEREF _Toc209687910 \h 47
2.10 Equipe Interactions musicales temps réel  PAGEREF _Toc209687911 \h 49
2.10.1 Analyse et modélisation de données sonores et gestuelles  PAGEREF _Toc209687912 \h 50
2.10.2 Synthèse et traitement sonores interactifs  PAGEREF _Toc209687913 \h 52
2.10.3 Systèmes interactifs basés sur le geste et nouveaux instruments de musique  PAGEREF _Toc209687914 \h 53
2.11 Médiathèque – Centre de ressources de l’Ircam  PAGEREF _Toc209687915 \h 54
2.11.1 Conservation de la création musicale et scientifique  PAGEREF _Toc209687916 \h 54
2.11.2 Valorisation  PAGEREF _Toc209687917 \h 55
3 Liste des publications et productions  PAGEREF _Toc209687918 \h 57
3.1 Productions inter-équipes et services communs  PAGEREF _Toc209687919 \h 57
3.2 Equipe Acoustique instrumentale  PAGEREF _Toc209687920 \h 63
3.3 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687921 \h 65
3.4 Equipe Perception et design sonores  PAGEREF _Toc209687922 \h 71
3.5 Equipe Analyse/ synthèse des sons  PAGEREF _Toc209687923 \h 75
3.6 Equipe Représentations musicales  PAGEREF _Toc209687924 \h 87
3.7 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687925 \h 97
3.8 Equipe Interactions musicales temps réel  PAGEREF _Toc209687926 \h 103
4 ANNEXES  PAGEREF _Toc209687927 \h 109
4.1 Annexe : Projet scientifique général  PAGEREF _Toc209687928 \h 109
4.2 Annexe : Règlement intérieur de l’unité  PAGEREF _Toc209687929 \h 111
4.3 Annexe : Hygiène et sécurité  PAGEREF _Toc209687930 \h 115
4.4 Annexe : Contributions à la formation initiale  PAGEREF _Toc209687931 \h 116
4.4.1 Parcours de Master ATIAM  PAGEREF _Toc209687932 \h 116
4.4.2 Master en design sonore de l’ESBAM - Parcours DNSEP Design sonore  PAGEREF _Toc209687933 \h 117
4.4.3 Semaine du son  PAGEREF _Toc209687934 \h 119
4.4.4 Autres formations supérieures assurées par les membres de l’UMR  PAGEREF _Toc209687935 \h 119
4.5 Annexe : Contributions à la formation professionnelle  PAGEREF _Toc209687936 \h 124
4.5.1 Equipe Acoustique instrumentale  PAGEREF _Toc209687937 \h 124
4.5.2 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687938 \h 124
4.5.3 Equipe Perception et design sonores  PAGEREF _Toc209687939 \h 124
4.5.4 Equipe Représentations musicales  PAGEREF _Toc209687940 \h 124
4.5.5 Equipe Analyse et synthèse des sons  PAGEREF _Toc209687941 \h 124
4.5.6 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687942 \h 124
4.5.7 Equipe Interactions musicales temps réel  PAGEREF _Toc209687943 \h 124
4.6 Annexe : Contributions à la création artistique  PAGEREF _Toc209687944 \h 126
4.6.1 Equipe Acoustique instrumentale  PAGEREF _Toc209687945 \h 127
4.6.2 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687946 \h 128
4.6.3 Equipe Perception et design sonores  PAGEREF _Toc209687947 \h 130
4.6.4 Equipe Analyse et synthèse des sons  PAGEREF _Toc209687948 \h 130
4.6.5 Equipe Représentations musicales  PAGEREF _Toc209687949 \h 131
4.6.6 Equipes Représentations Musicales  et Interactions musicales temps réel : logiciel AnteScofo  PAGEREF _Toc209687950 \h 135
4.6.7 Equipe Interactions musicales temps réel  PAGEREF _Toc209687951 \h 135
4.7 Annexe : Organisation de colloques et séminaires  PAGEREF _Toc209687952 \h 138
4.7.1 Colloques  PAGEREF _Toc209687953 \h 138
4.7.2 Séminaires  PAGEREF _Toc209687954 \h 162
4.8 Annexe : Développement technologique et valorisation  PAGEREF _Toc209687955 \h 182
4.8.1 Le développement technologique à l’Ircam  PAGEREF _Toc209687956 \h 182
4.8.2 Le Forum Ircam  PAGEREF _Toc209687957 \h 182
4.8.3 La collection Ircam Tools  PAGEREF _Toc209687958 \h 183
4.8.4 La collection IrcaMax  PAGEREF _Toc209687959 \h 184
4.8.5 Principaux environnements logiciels  PAGEREF _Toc209687960 \h 185
4.9 Annexe : Projets de valorisation, contrats et prestations  PAGEREF _Toc209687961 \h 213
4.9.1 Projets multi-équipes  PAGEREF _Toc209687962 \h 213
4.9.2 Equipe Acoustique instrumentale  PAGEREF _Toc209687963 \h 220
4.9.3 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687964 \h 222
4.9.4 Equipe Perception et Design sonores  PAGEREF _Toc209687965 \h 225
4.9.5 Equipe Analyse et synthèse des sons  PAGEREF _Toc209687966 \h 227
4.9.6 Equipe Représentations musicales  PAGEREF _Toc209687967 \h 231
4.9.7 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687968 \h 233
4.9.8 Equipe Interactions musicales temps réel  PAGEREF _Toc209687969 \h 234
4.9.9 Médiathèque  PAGEREF _Toc209687970 \h 235
4.10 Annexe : participation à des instances scientifiques et professionnelles  PAGEREF _Toc209687971 \h 237
4.10.1 Equipe Acoustique instrumentale  PAGEREF _Toc209687972 \h 237
4.10.2 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687973 \h 237
4.10.3 Equipe Perception et design sonores  PAGEREF _Toc209687974 \h 237
4.10.4 Equipe Analyse/synthèse  PAGEREF _Toc209687975 \h 237
4.10.5 Equipe Représentations musicales  PAGEREF _Toc209687976 \h 238
4.10.6 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687977 \h 239
4.10.7 Equipe Interactions musicales temps réel  PAGEREF _Toc209687978 \h 240
4.10.8 Autres  PAGEREF _Toc209687979 \h 241
4.11 Annexe : Collaborations scientifiques  PAGEREF _Toc209687980 \h 242
4.11.1 Equipe Acoustique Instrumentale  PAGEREF _Toc209687981 \h 242
4.11.2 Equipe Espaces acoustiques et cognitifs  PAGEREF _Toc209687982 \h 242
4.11.3 Equipe Perception et design sonores  PAGEREF _Toc209687983 \h 242
4.11.4 Equipe Analyse/ synthèse  PAGEREF _Toc209687984 \h 243
4.11.5 Equipe Représentations musicales  PAGEREF _Toc209687985 \h 244
4.11.6 Equipe Analyse des pratiques musicales  PAGEREF _Toc209687986 \h 245
4.11.7 Equipe Interactions musicales temps réel  PAGEREF _Toc209687987 \h 246

Présentation de l’unité
L’UMR 9912 STMS (Sciences et technologies de la musique et du son) résulte d’une collaboration associant le CNRS, le Ministère de la Culture et de la Communication et l’Institut de Recherche et Coordination Acoustique/Musique (Ircam), association à but non lucratif reconnue d’utilité publique, organisme associé au Centre National d’Art et de Culture Georges Pompidou (Cnac-GP). Le ministère de la culture et de la communication intervient comme tutelle de l’Ircam. L’université Pierre et Marie Curie a rejoint ces établissements pour devenir tutelle universitaire de l’UMR en 2010.
Présentation de l’Ircam
L’Ircam a été fondé en 1977 par Pierre Boulez à la demande du Président Georges Pompidou dans le but de susciter une interaction féconde entre recherche scientifique et technologique et création musicale contemporaine. L’un des principaux enjeux est de contribuer, par les sciences et techniques, au renouvellement de l’expression musicale. Réciproquement, la création musicale contemporaine et, plus généralement, les pratiques musicales, suscitent des problématiques scientifiques originales, nécessitant une approche pluridisciplinaire, et donnent lieu à des avancées tant théoriques, méthodologiques qu'appliquées, dont la portée dépasse largement le seul domaine musical et trouve des applications dans tous les domaines faisant appel aux technologies du son.

Cette médiation entre recherche et création comporte en particulier le développement d’outils logiciels pour la composition, à partir de modèles et prototypes élaborés par des équipes de recherche travaillant dans les différentes disciplines scientifiques en rapport avec la musique : informatique (langages, interfaces homme-machine, temps-réel), traitement du signal, acoustique, psychoacoustique et cognition musicales, musicologie. La mise en place en 1993 du Forum Ircam, club d’utilisateurs des logiciels de l’Ircam, a favorisé la diffusion de ceux-ci auprès d’une communauté musicale élargie, évaluée à 1300 utilisateurs professionnels.

L’organisation de l’Ircam est structurée autour de cette articulation entre recherche scientifique, développement technologique, création musicale et diffusion, dont les modalités font l’objet d’une adaptation constante. L’Ircam a été successivement dirigé par MM. Pierre Boulez (jusqu’en 1991), Laurent Bayle (1992-2001), Bernard Stiegler (de 2002 à 2005) et Frank Madlener depuis 2006.

L’organisation actuelle de l’Ircam comprend quatre départements principaux (Recherche et développement, Création, Pédagogie et action culturelle, Interfaces recherche/création), correspondant à ses principaux secteurs opérationnels, ainsi qu’un ensemble de services généraux (administration, direction artistique, communication, etc.). Le département Création assure la gestion des productions musicales, tant en studio (accueil de compositeurs) que pour la diffusion des œuvres en concert. Le département Pédagogie et action culturelle assure la coordination et l’accueil de divers cursus et actions de formation, s’adressant à des cibles spécialisées (professionnelles, enseignement supérieur, éducation nationale) ou grand public. Citons en particulier l’organisation et l’accueil du parcours (anciennement DEA national) ATIAM (acoustique, traitement du signal et informatique appliqués à la musique) du Master Sciences et technologie de l’UPMC, en collaboration avec Télécom ParisTech (coordonnateur Ircam : Carlos Agon). Le département des Interfaces recherche/ création gère le Forum Ircam, club des utilisateurs des logiciels de l’Ircam, la coordination des développements logiciels du point de vue des utilisateurs et les compositeurs en recherche.

Le département Recherche et développement, dirigé depuis 1994 par Hugues Vinet (directeur scientifique de l’Ircam), regroupe l’ensemble de l’activité scientifique et technique de l’Ircam. Le propre de l’Ircam étant de susciter l’accueil et la coordination de points de vue scientifiques variés sur le phénomène musical, issus de différentes disciplines, le mode d’organisation mis en œuvre à cet effet repose sur une répartition thématique des activités entre équipes spécialisées, chacune d’elles intégrant l’ensemble de la chaîne de travaux correspondant à son domaine : recherche, développement logiciel, contrats et projets extérieurs, diffusion. Depuis sa création en 1995 de l’UMR 9912, l’évolution de celle-ci a consisté à intégrer progressivement différentes équipes et collaborateurs du département pour en arriver début 2012 à une quasi-identité, l’UMR étant un sous-ensemble du département réunissant toutes ses équipes de recherche, le département comportant en outre des services propres à l’Ircam (cf Organigramme §  REF _Ref105152936 \r \h 1.2.3). L’UMR STMS est dirigée par Gérard Assayag depuis son renouvellement au 1er janvier 2011, Hugues Vinet en est le directeur adjoint.
Organisation de l’unité
Organisation et vie de l’unité
Les principaux éléments et instances structurant l’organisation de l’UMR sont les suivants :

la direction, assurée par Gérard Assayag (directeur, Ircam) et Hugues Vinet (directeur adjoint et directeur scientifique de l’Ircam) selon la répartition suivante des missions:
Gérard Assayag : coordination des échanges avec les tutelles hors Ircam/MCC (CNRS, UPMC, ainsi que INRIA), gestion des moyens affectés par ces tutelles (personnel, budgétaire) ;
Hugues Vinet : gestion Ircam (personnel, budgétaire), projets de R&D, valorisation et communication, développement logiciel et coordination artistique ;
Les questions de stratégie scientifique font l’objet d’une constante et étroite coordination entre les deux ;

les équipes et services, au nombre de 9 dont 7 équipes de recherche :
Acoustique instrumentale (E1- AcInstr) – responsable : René Caussé
Espaces acoustiques et cognitifs (E2 - EAC) – responsable : Olivier Warusfel
Perception et design sonores (E3 - PDS) – responsable : Patrick Susini
Analyse et synthèse des sons (E4 - AnaSyn) – responsable : Axel Roebel
Représentations musicales (E5 - RepMus) – responsable : Gérard Assayag
Analyse des pratiques musicales (E6 - APM) – responsable : Nicolas Donin
Interactions musicales temps réel (E7 - IMTR) – responsable : Frédéric Bevilacqua
Médiathèque/– directeur: Michel Fingerhut (jusqu’en 2011) - Centre de ressources de l’Ircam/ responsable Nicolas Donin (depuis 2012) (E8)
Services communs – direction scientifique (E9) – directeur : Hugues Vinet
Chaque équipe dispose d’un budget de fonctionnement, gère son personnel, ses projets de valorisation, etc. Certains personnels, notamment doctorants, sont affectés à 50% dans deux équipes.

le conseil de laboratoire comprend 10 membres. Sa composition au 30 juin 2012 est la suivante :
Membres de droit
Assayag Gérard, dir. de l'UMR (Ircam)
Vinet Hugues, dir. adjoint de l'UMR (Ircam)
Membres élus
Hélie Thomas, chercheur (CNRS)
Noisternig Markus, chercheur (Ircam)
Fdili Alaoui Sarah, doctorante
Hézard Thomas, doctorant
Carpentier Thibaut, Ingénieur (CNRS)
Grospiron Martine, administrative (CNRS)
Membres nommés
Donin  Nicolas, chercheur (Ircam)
Eveno Pauline, doctorante
Organisation et gouvernance propres à l’Ircam
Les aspects de l’organisation de l’Ircam en lien avec les travaux de l’UMR sont présentés ci-après. Dans le cadre de ses statuts, l’Ircam est doté d’un conseil scientifique constitué d’une douzaine d’experts français et étrangers extérieurs à l’Ircam et représentatifs des disciplines abordées. Tous les deux ans, le conseil se réunit, analyse les documents de bilan et de projet, visite les équipes, et émet un rapport écrit à l’intention de la direction de l’Ircam, qui est transmis à son conseil d’administration. Ce conseil constitue une importante composante de l’auto-évaluation de l’unité.

Au sein du département Recherche et développement :
les réunions de chefs d’équipes se tiennent toutes les deux semaines et réunissent la direction et les responsables d’équipes. Leurs comptes-rendus sont diffusés par email à l’ensemble des personnels du département;
un conseil de département est constitué à partir du conseil de laboratoire de l’UMR auquel s’ajoutent d’autres représentants du personnel extérieur à l’UMR ; cette organisation, se traduisant par la tenue de séances plénières, permet que toutes les questions concernant la vie du département soient abordées avec les représentants de l’ensemble des personnels ;
un service de valorisation industrielle négocie et gère, en lien avec les équipes, les projets industriels, notamment sous forme de licences ;
le service informatique assure l’installation et le fonctionnement de tous les ordinateurs, réseaux et logiciels, pour l’ensemble de l’Ircam et notamment l’unité.

Règlement intérieur
Le texte du règlement intérieur en cours de validité à la mi-juin 2012 est donné en annexe au §  REF _Ref207192524 \r \h 4.2.
Organigramme



Activités et résultats
Objectifs scientifiques du contrat en cours
La période contractuelle précédente de l’UMR, relevant de la vague A, ayant porté sur la période 2007-2010, afin de resynchroniser son prochain cycle avec celui de l’UPMC, relevant de la vague D (2014-2018), il a été convenu entre tutelles le renouvellement de l’unité sur une période contractuelle réduite portant sur 2011-2013. Ainsi, l’unité a déjà été évaluée par l’AERES en mars 2010 pour son bilan 2005-2009 et son projet 2011-2014, dont les périodes recouvrent en partie celles des projets et bilans relatifs aux présents documents. Le projet auquel nous nous référons pour le présent bilan est donc celui formulé pour la période 2011-2014, même s’il n’est que partiellement réalisé.

L’énoncé du projet scientifique général de l’UMR, qui en définit notamment le périmètre et les éléments de spécificité, tel qu’il apparaît dans sa convention relative à la période 2011-2013, est donné au §  REF _Ref207182393 \r \h 4.1 en annexe.

Les paragraphes suivants décrivent les principales avancées du bilan, tant du point de vue des lignes directrices de cette période que du projet général de l’unité.
Orientations thématiques transversales
Le projet scientifique de l’UMR pour la période 2011-2014 est structuré en 4 thématiques transversales, qui englobent l’ensemble des travaux et ont pour principale motivation d’assurer une lisibilité d’ensemble des recherches, tant relativement à leur regroupement selon les disciplines scientifiques dont elles relèvent, que dans leur fonction et finalité, à la fois entre elles et en lien avec les enjeux institutionnels de l’Ircam.
Analyse, traitement et synthèse sonores
Cette thématique regroupe les avancées récentes d’un ensemble de lignes de recherche dans le champ de l’acoustique et du traitement de signal : analyse et traitement des sons par modèles de signaux (§ REF _Ref208052416 \r \h 2.7.1,  REF _Ref208052452 \r \h 2.7.3), bases de données et indexation musicales (§ REF _Ref208052618 \r \h 2.7.2), acoustique instrumentale, formalismes de description des systèmes non-linéaires et leurs applications à la synthèse par modélisation physique (§ REF _Ref208052655 \r \h 2.4,  REF _Ref208052683 \r \h 2.7.4), techniques de spatialisation sonore (§ REF _Ref114201207 \r \h 2.5.1,  REF _Ref208052824 \r \h 2.5.2). Elle relève principalement, dans le champ artistique, des catégories de production du matériau (sonore en l’occurrence) et de sa diffusion ;
Représentations et langages
Cette thématique, qui se situe principalement dans le champ de l’informatique, concerne les représentations et traitements symboliques des informations musicales, les langages, modèles et paradigmes de programmation pour la composition (§  REF _Ref208053395 \r \h 2.8.4), les liens entre signaux et informations symboliques (§ REF _Ref208053453 \r \h 2.8.2), la formalisation et l’exécution des processus interactifs (§ REF _Ref208053652 \r \h 2.8.5). Elle relève dans le champ artistique de la catégorie d’écriture entendue dans un sens élargi, relativement à la formalisation des données et processus musicaux.
Interaction musicale, sonore et multimodale
Cette thématique, qui conjugue traitement du signal temps réel et interfaces homme-machine, porte sur les systèmes interactifs articulant performance humaine et production sonore. Elle comprend l’analyse et la modélisation des signaux gestuels et informations issus de la performance (§  REF _Ref209097445 \r \h 2.10.1), les techniques de synthèse et traitement sonore temps réel (§  REF _Ref208054292 \r \h 2.10.2), les modèles d’interaction (§ REF _Ref208054396 \r \h 2.10.3,  REF _Ref114204963 \r \h 2.8.3). Elle relève dans le champ musical de la catégorie étendue d’instrument.
Fondements cognitifs, théoriques et musicologiques
Cette thématique regroupe les apports théoriques et expérimentaux, issus de différentes disciplines, contribuant à formaliser des connaissances sur le musical et le sonore et alimentant, dans un processus top-down, les axes de recherches plus appliqués des autres thématiques d’une part, et des applications relatives à la médiation de ces connaissances d’autre part. Les disciplines convoquées sont la musicologie, l’esthétique et l’anthropologie cognitive (§ REF _Ref208054605 \r \h 2.9) la psychologie cognitive de l’audition (§ REF _Ref208054651 \r \h 2.6.1), la cognition intermodale (§ REF _Ref208054719 \r \h 2.5.3) ; les mathématiques (§ REF _Ref114206128 \r \h 2.8.1). Les applications relatives à la médiation des connaissances concernent le design sonore (§ REF _Ref114206374 \r \h 2.6.2,  REF _Ref114206403 \r \h 2.6.3) et la documentation des œuvres à des fins d’échanges musicologiques et de diffusion culturelle (§ REF _Ref208054882 \r \h 2.9).
Bilan 2007-2012 : éléments de synthèse
Faits marquants (depuis 2010)

Aspects institutionnels
Intégration de l’UPMC comme tutelle: la décision concernant cette importante évolution était en suspens lors de la précédente évaluation ; celle-ci est effective depuis 2010, l’unité étant rattachée à l’UFR 919 Ingénierie, avec l’affectation de moyens de fonctionnement, d’investissement et de postes, le premier poste d’enseignant-chercheur affecté à l’unité ayant été pourvu en janvier 2012 (Professeur section CNU 27) ;
Clarification du périmètre de l’UMR conformément aux préconisations du précédent comité AERES, par l’affectation par l’Ircam à l’unité, à l’occasion de son renouvellement en 2011, de l’ensemble de ses collaborateurs permanents ingénieurs, techniciens et administratifs qui participaient à la vie des équipes ;
Mise en place en 2011 du Master Design sonore à l’ESBAM (Ecole supérieure des beaux-arts du Mans), l’équipe Perception et design sonores étant fortement impliquée dans la définition du projet pédagogique et les enseignements (cf §  REF _Ref207796172 \r \h 4.4.2 en annexe) ;
Préfiguration en 2012 de l’équipe-projet commune avec l’Inria MuSync (Programmation et traitement synchrone temps réel des signaux musicaux), dirigée par Arshia Cont et intégrée à l’équipe Représentations musicales, projet en cours d’évaluation par les instances concernées ;

Aspects scientifiques
Important renouvellement des projets collaboratifs de R&D en particulier au cours de la période 2011/2012 avec le démarrage de nombreux projets ANR blancs, ICT, ANR ContInt, etc., l’unité ayant participé au cours de la période du bilan à 45 projets dont 15 qu’elle coordonne, représentant un financement de plus de 11 M¬ , plus au moins 5 nouveaux projets acceptés pour 1,7 M¬ de financement (cf tableur de bilan et §  REF _Ref207796215 \r \h 4.9 en annexe); trois des projets coordonnés par l unité, Vivos, Sample Orchestrator et Interlude, ont été cités par l’ANR notamment comme  « faits scientifiques marquants » dans ses rapports d’activité (années 2005, 2010 et 2011, département STIC) ;
Renouvellement des objets de recherche dans les différentes équipes, corollairement au point précédent et à l’arrivée de nouveaux chercheurs et doctorants ;
Renforcement sensible des équipes Acoustique instrumentale et Représentations musicales lié à la consolidation de collaborateurs présents et l’arrivée de nouveaux chercheurs en 2011-2012, donnant lieu à la mise en place de nouveaux projets ;
Poursuite de l’effort de publication, avec une augmentation (2010-2011) par rapport à la période de l’évaluation précédente (2005-2008) ;
Systématisation des soutenances d’HDR : processus initié dans différentes équipes, en cours à la date du bilan ;
Aboutissement fin 2011 du projet d’équipement de l’Espace de projection d’un système de diffusion multicanale WFS/ Ambisonique, dispositif sans précédent ouvrant de nouvelles perspectives pour les recherches sur la spatialisation sonore et leurs applications à la création ;

Diffusion et valorisation
Succès du lancement de la collection Ircam Tools démarrée en août 2010, qui, avec plus de 1500 items vendus en 2 ans pour une recette globale de 190 k¬ , et l attribution en 2011 de l’Award du meilleur plug-in de l’année par le magazine professionnel anglais Resolution, a grandement contribué à la diffusion des technologies des équipes Espaces acoustiques et cognitifs (Spat) et Analyse/synthèse (Trax) auprès des professionnels du son et de l’audiovisuel ;
Nombreux contrats de licence industrielle de la technologie SuperVP développée par l’équipe Analyse/synthèse ;
Attribution des prix Gilles Kahn et deuxième accessit du prix ASTI en 2009 à la thèse d’Arshia Cont (équipe Interactions musicales temps réel), et du Prix spécial du magazine « La recherche » 2011 au projet antescofo (équipes Interactions musicales temps réel et Représentations musicales) ; attribution en 2011 des 2 premiers prix du concours international Margaret Guthman Musical Instrument, qui récompense la conception de nouveaux instruments de musique (GeorgiaTech, USA), aux projets de l’équipe Interactions musicales temps réel ;
Positionnement des résultats des recherches sur la recherche d’informations musicales en premières places chaque année dans de nombreuses catégories aux concours international MIREX (équipe Analyse/ synthèse) ;
Organisation de plusieurs colloques de portée internationale par an dont l’accueil de conférences internationales et de colloques interdisciplinaires associant contributeurs scientifiques et artistiques ; ils sont généralement associés à des événements destinés à un public plus large, en présence d’invités prestigieux tels que, pour les colloques récents, Alain Badiou, Pierre Boulez, Alain Connes, Bruno Latour, Raoul Ruiz, Cédric Villani, Lars Von Trier, et font l’objet d’une importante couverture médiatique (cf. §  REF _Ref209148648 \r \h 4.7.1).
Rayonnement, attractivité, diffusion et rôle social
Contribution aux enjeux de la création artistique
La contribution des recherches aux enjeux de la création artistique contemporaine représente l’une des principales missions de l’unité dans le cadre de son inscription à l’Ircam. Les disciplines artistiques concernées sont non seulement la musique, mais aussi les arts du spectacle (danse, théâtre, cinéma) et les installations interactives.

Cette mission concerne la plupart des équipes de l’unité à deux exceptions :
l’équipe Perception et design sonores, dont le domaine principal d’application des travaux, le design sonore, ne se situe pas dans le champ de la création artistique, au sens où il considère la production d’artefacts sonores dans une visée fonctionnelle, intéressant divers domaines d’application ;
l’équipe Analyse des pratiques musicales, pour laquelle la création artistique représente moins un débouché qu’un objet de recherche, et dont les travaux contribuent, par la médiation qu’ils produisent d’analyses et d’informations sur les œuvres, à une activité de diffusion culturelle également inhérente aux missions institutionnelles de l’Ircam.

Le développement technologique constitue un important vecteur de transfert entre recherche et création : l’activité de la plupart des équipes comprend une dimension de développement professionnel produisant des environnements pour la plupart logiciels, intégrant les résultats des recherches au fur et à mesure de leur avancement. Ces environnements sont utilisés comme outils de création par les artistes dans un contexte de production ; ils constituent une base concrète d’échanges entre chercheurs et artistes pour l’élaboration de concepts communs relevant d’une recherche musicale, à l’interface entre recherche scientifique et technologique et pratiques artistiques formalisées. Une présentation des développements technologiques issus des travaux des l’unité est donnée en annexe au §  REF _Ref207955459 \r \h 4.8.1.

L’annexe  REF _Ref207799127 \r \h 4.6 présente les différentes formes d’interactions entre chercheurs et artistes à l’Ircam et fournit une liste non exhaustive de projets auxquels les équipes ont contribué au cours de la période du bilan, à la fois dans le champ prospectif de la recherche musicale et pour la production d’œuvres. On se référera pour une présentation complète des projets artistiques de l’Ircam à ses rapports d’activité.
Diffusion et valorisation
La diffusion et la valorisation des activités de recherche représente un investissement important des équipes, à travers leur participation active, y compris en tant que coordinateurs, à de nombreux projets ANR et européens, mais aussi dans différents cadres de diffusion et transfert : développement logiciel pour le Forum Ircam (1300 utilisateurs professionnels dans le monde) et autres produits comme Ircam Tools, prestations et licences industrielles, organisation de colloques, médias...

Les champs d’application des STMS, qui trouvent des applications de plus en plus larges, se présentent en cercles concentriques autour du noyau de base des missions de l’Ircam relatives aux technologies pour la création musicale contemporaine :
production musicale et sonore (cinéma, audiovisuel, jeu, multimédia) ;
éducation musicale (scolaire, interprétation, composition) et diffusion culturelle ;
technologies pour le spectacle vivant (danse, théâtre, opéra, installations) ;
design sonore et conception de l’environnement sonore quotidien, IHM multimodales ;
réalité virtuelle et simulation multimodale ;
diffusion et distribution de musique enregistrée ;
diffusion de contenus audiovisuels ;

Ces applications font l’objet de nombreux projets de R&D collaboratifs, prestations de recherche et cession de licences de logiciels avec l’industrie. L’Ircam est agréé en tant qu’organisme au titre du Crédit Impôt Recherche depuis 2008.

L’unité a participé au cours de la période de référence à 45 projets de R&D collaborative dont 15 qu elle coordonne, représentant un financement de plus de 11 M¬ , plus au moins 5 nouveaux projets acceptés pour 1,7 M¬ . Le renouvellement est particulièrement important pour la période 2011-2012, avec 16 nouveaux projets démarrant à partir de 2011 et représentant un financement global de 4,3 M¬ . Les graphiques ci-après donnent des éléments d évolution des données correspondantes pour la période du bilan et leur projection jusqu à 2013 sur la base des projets déjà acceptés, sous l hypothèse d une recette uniforme des crédits au cours de la période de leur réalisation.















Nombre de projets actifs par an Financement annuel moyen (k¬ )

On constate une nette augmentation du financement global à partir de 2012.

L’unité est reconnue comme leader au niveau international pour son apport aux technologies de la musique et du son et participe activement aux activités du pôle de compétitivité francilien à vocation mondiale Cap Digital. L’unité est également identifiée, malgré sa petite taille, comme laboratoire de référence en interfaces homme-machine, technologies 3D et technologies de numérisation des contenus dans le rapport « Technologies-clés 2015 » élaboré par le ministère de l’industrie.

La diffusion des recherches passe aussi, dans le contexte de l’Ircam, par l’organisation de plusieurs événements publics par an, sous la forme de colloques scientifiques spécialisés, d’accueils de conférences internationales, de séminaires, et de colloques interdisciplinaires associant chercheurs et artistes sur des question actuelles d’intérêt commun ; généralement associées à des événements publics destinés à une audience plus large, elles contribuent à la fois à l’animation scientifique et au débat public.

La contribution des recherches de l’unité à la vie culturelle passe pour une large part par les projets de création menés par l’Ircam, en collaboration avec de nombreux partenaires nationaux et internationaux (institutions culturelles, festivals), bénéficiant d’une importante couverture médiatique.

La diffusion publique des travaux bénéficie de la part de l’Ircam d’un important soutien en communication : affichage de nouvelles de la recherche en page d’accueil de son site web, agence de presse dédiée aux aspects scientifiques et technologiques et suscitant plusieurs dizaines d’interviews de chercheurs par an (presse écrite, radio, télévision), site dailyMotion recensant les vidéos de l’Ircam, édition bilingue d’une brochure de 80 pages présentant les principaux projets et actualisée annuellement. Un dossier de presse regroupant une sélection de 125 articles parus au cours de la période du bilan est accessible en ligne.

Au-delà des faits marquants mentionnés au §  REF _Ref207801716 \r \h 2.2.1, l’importance de ces activités pour le laboratoire, représentatives de sa visibilité et de sa contribution à des enjeux sociétaux, a motivé l’adjonction à ce bilan d’annexes présentant les actions relatives à ces travaux :
Projets de recherche collaboratifs : §  REF _Ref207796985 \r \h 4.9;
Collaborations scientifiques : §  REF _Ref207797020 \r \h 4.10 ;
Logiciels développés et diffusés, notamment via le Forum Ircam : §  REF _Ref207189953 \r \h 4.8.5 ;
Organisation de colloques et séminaires contribuant à l’animation scientifique et au débat public : §  REF _Ref207797119 \r \h 4.7 ;
Contribution à la formation professionnelle : §  REF _Ref208629175 \r \h 4.5
Participation à des instances scientifiques et professionnelles : §  REF _Ref207797180 \r \h 4.10.
Implication dans la formation par la recherche
L’unité est particulièrement impliquée dans l’organisation du parcours de Master Atiam et, depuis son élaboration en 2009, du Master Design sonore de l’ESBAM. L’ensemble des contributions de l’unité à la formation initiale, y compris les enseignements assurés à titre individuel par les chercheurs, sont données en annexe  REF _Ref207871675 \r \h 4.4. L’Ircam mène par ailleurs de nombreuses autres actions de formation initiale et professionnelle issues des travaux de l’unité dans le cadre de son département Pédagogie et action culturelle, documentées dans ses rapports d’activité NOTEREF _Ref207871860 \h 1,. L’implication de l’unité dans les cursus d’enseignement supérieur va être amenée à s’intensifier dans les années à venir dans le cadre de sa tutelle universitaire UPMC.
On constate un important renouvellement des doctorants accueillis dans l’unité depuis les dernières années, souvent en co-tutelle ou collaboration avec des laboratoires extérieurs, ainsi qu’en co-encadrement entre plusieurs équipes. Le parcours Atiam constitue, entre autres, une importante filière de leur recrutement.
Les équipes sont également très investies dans l’accueil de stagiaires principalement issus de Masters et d’écoles d’ingénieurs avec une moyenne pour la période du bilan de 145 mois pour 29 stages par an, dont le paiement des indemnités représente avec les missions l’un des principaux postes de fonctionnement du laboratoire. Certains d’entre eux issus d’universités étrangères sont accueillis chaque année dans le cadre de programmes européens tels qu’Erasmus.
Les doctorants du laboratoire y ont organisé les JJCAAS en 2010 (cf § REF _Ref208629331 \r \h 4.7.1.25). L’organisation d’une école d’été sur la confluence Homme-ordinateur est également prévue en juillet 2013 dans le cadre du projet européen HC2.
Hygiène et sécurité
Les éléments relatifs à la gestion des procédures d’hygiène et sécurité et aux actions menées au cours de la période du bilan sont donnés en annexe au § REF _Ref209060131 \r \h 4.3.
Analyse des moyens de l’unité
Situation du personnel au 30 juin 2012
Le personnel présent au 30 juin 2012 se présente comme suit :

Structure permanente :
25 chercheurs et enseignants-chercheurs : 17 chercheurs Ircam, 6 chercheurs CNRS (2 DR2, 3CR1, 1CR2), 1 chercheur INRIA (CR1), 1 Professeur UPMC (PR2) ;
6 ingénieurs (5 Ircam, 1 CNRS), 4 techniciens (Ircam), 3 administratifs (2 Ircam 1 CNRS) ;

Autres collaborateurs :
27 Doctorants ;
12 collaborateurs en CDD : 1 Prof émérite (IRCAM-UPMC), 9 chercheurs (post-doc) et 2 ingénieurs (Ircam) ;
6 Enseignants-chercheurs associés et invités : 1 CNSMDP, 1 MCF Université Paris 8, 1 MCF Université de Strasbourg, 1 MCF en délégation CNRS (Univ Lille 3), 3 autres chercheurs étrangers invités (Izmir Institute of Technology Turquie, Univ McGill Canada, Sony Japon) ;

Il est à noter le statut spécifique des collaborateurs Ircam, salariés de droit privé. En ce qui concerne plus particulièrement les chercheurs Ircam, si ceux-ci n’ont pas de charges de cours comme les enseignants-chercheurs, ils ont des missions spécifiques les distinguant de chercheurs à plein temps d’autres établissements de recherche concernant :
l’obtention de financements et de gestion de projets dans le cadre de projets de R&D collaborative et de collaborations industrielles, la subvention attribuée au département R&D de l’Ircam ne couvrant que 72% de la masse salariale du personnel permanent affecté à l’UMR en 2012 ; cette subvention est constante depuis 2007 et n’a pas été réévaluée pour prendre en compte l’évolution des personnels (GVT), ce qui représente un poids croissant pour les équipes. Cette contrainte spécifique s’ajoute à celle, plus standard, d’obtenir des crédits spécifiques pour la gestion de projets de recherche. Ainsi, globalement à l’échelle du laboratoire, les financements non pérennes sont du même ordre de grandeur que les apports institutionnels, masse salariale comprise (hors structure Ircam), représentant un taux d’autofinancement particulièrement élevé dans le contexte national;
la contribution aux enjeux artistiques de l’Ircam, impliquant leur participation à différents cadres d’échange, de coordination, de production et de développements logiciels ; si l’ensemble de ces missions s’articulent en bonne cohérence avec les enjeux de recherche scientifique de l’unité et représentent un important facteur de motivation pour les chercheurs, le temps qu’ils leur consacrent doit être pris en compte dans l’évaluation de leur productivité.
Evolution du personnel au cours de la période du bilan
Les principales évolutions au cours de la période 2007-2009 ayant l’objet de la précédente évaluation AERES sont pour rappel les suivantes :
Affectation en 2007 de 7 nouveaux chercheurs Ircam (J. Bensoam, F. Bevilacqua, N. Misdariis, A. Roebel, G. Peeters, N. Schnell, D. Schwarz) dont ceux de 2 équipes nouvellement intégrées à l’UMR (Perception et design sonores et Interactions musicales temps réel) ;
Recrutement en 2008-2009 de 3 nouveaux chercheurs Ircam (J. Bresson, A. Cont, M. Noisternig) ;
Intégration par voie de mutation de 2 CR1 CNRS (L. Feneyrou, I. Viaud-Delmon) ; départ à la retraite fin 2008 après prolongation de son activité comme chercheur émérite de J. Theureau ; recrutement fin 2009 dans un poste fléché à l’unité d’un CR2 CNRS (M. Lagrange) ;
Recrutement de T. Carpentier début 2009 (IE CNRS).
Départ du gestionnaire CNRS D. Perini (octobre 2009) et remplacement par M. Grospiron (TCS CNRS).

Les évolutions pour la seconde période 2010-juin 2012 sont les suivantes :
Affectation à l’UMR par l’Ircam au 1er janvier 2011, conformément aux recommandations du comité AERES, de l’ensemble des personnels ITA du département R&D participant aux activités des équipes, soit 5 ingénieurs (R. Borghesi et E. Fléty (IMTR), F. Cornu (AnaSyn), N. Ellis (50%, Ac Instr.), S. Goldszmidt (50%, APM)), 3 techniciens (G. Bertrand, S. El-Fakhouri, A. Terrier), 2 administratifs (S. Benoit, C. Tan) ;
Intégration par voie de mutation début 2011 de J.L. Giavitto (DR2 CNRS, RepMus) et changement de corps en octobre 2011 d’I.Viaud-Delmon (DR2 CNRS, EAC).
Recrutement de C. Picasso en janvier 2011 (ingénieur Ircam, AnaSyn) et de O. Houix (chercheur Ircam, PDS, 50%, l’autre mi-temps étant consacré aux enseignements à l’ESBAM) en octobre 2011 ; passage de Joël Bensoam de 50% à 80% en janvier 2010 et à plein temps en octobre 2011 (chercheur Ircam, Ac.Instr.) ; départ de N. Ellis (50%) en septembre 2011 et recrutement de son successeur R. Piéchaud (80%) en janvier 2012 (ingénieur Ircam, Ac. Instr) ; passage de A. Cont de l’équipe IMTR à RepMus (début 2011) ;
Recrutement comme PR2 UPMC de Carlos Agon, précédemment chercheur Ircam (Janvier 2012, RepMus) ;
Affectation par l’INRIA en janvier 2012 de F. Jacquemard (CR1), en préfiguration de l’EPC MuSync en cours d’évaluation (RepMus) ;
Départ de M. Fingerhut, directeur de la médiathèque Ircam, en juin 2011 ; janvier 2012 : évolution de la Médiathèque vers un Centre de ressources Ircam (CRI), nomination de N. Donin comme responsable CRI (20%), affectation de l’autre mi-temps de S. Goldszmidt (ingénieur Ircam) à l’unité dans le cadre du CRI ;

Alors que les effectifs de l’UMR avaient doublé au cours de la période d’évaluation précédente (2005-2009), on constate une poursuite de la croissance de l’UMR, avec notamment :
l’affectation de tous les ingénieurs, techniciens et administratifs Ircam concernés ;
un important renforcement en 2011-2012 de l’équipe RepMus, avec l’arrivée de 3 nouveaux chercheurs et le recrutement de C. Agon comme PR, notamment autour des langages (langages synchrones autour du projet MuSync, langages musicaux pour C. Agon) ;
un renforcement de l’équipe Acoustique instrumentale, avec également l’arrivée fin 2011 en post-doc de A. Mamou-Mani, le démarrage de plusieurs projets ANR et industriels, auxquels s’ajoute la perspective d’intégration fin 2012 de D. Roze (CR2 CNRS) ;
un renforcement de l’équipe PDS, coordonné avec le démarrage du Master ESBAM ;
un renouvellement annuel plus important des doctorants, dont le nombre global a augmenté, notamment dans le cadre de projets ANR d’une part, de co-tutelles et co-encadrements d’autre part, indicatifs de l’attractivité de l’unité ;
le renforcement souhaité de l’équipe Analyse des pratiques musicales, notamment depuis le départ à la retraite de J. Theureau, n’a pu aboutir et reste un objectif pour la période à venir, au-delà de la mise en place du CRI fournissant un cadre propice à la diffusion de ses activités de recherche ;
un processus initié dans différentes équipes de soutenances de HDR, avec trois soutenances pour la période du bilan et plusieurs autres en préparation pour fin 2012-2013 ;
Gestion financière, fonctionnement et investissement
La gestion financière des crédits affectés par l’Ircam et par l’UPMC est assurée par l’Ircam, celle des crédits CNRS par le CNRS. L’Ircam assure, à de rares exceptions près, la gestion des projets collaboratifs et des contrats industriels.

L’attribution aux équipes des crédits de fonctionnement issus de la dotation de base est fonction de leurs effectifs. Les équipes bénéficient de l’intégralité des financements additionnels prévus (personnel CDD, fonctionnement, investissements) pour les projets de R&D collaboratifs et les prestations de recherche auxquels elles participent, et ont également un retour sur les crédits obtenus par les licences de logiciels.

Les dotations en fonctionnement et équipements exceptionnels au cours de la période du bilan sont données dans le tableau ci-après :

Les montants en fonctionnement incluent la dotation de base et les crédits non récurrents obtenus pour le financement d’événements tels que colloques, installation de nouveaux collaborateurs, etc.

La dotation nouvelle en 2010 issue de l’UPMC a été contrebalancée par une tendance à la baisse des apports des deux autres tutelles, la globalité des dotations n’ayant pas suivi l’évolution des effectifs. Les crédits d’investissement attribués par le CNRS en 2007 et par l’UPMC en 2010-2011 représentent leur contribution au projet d’équipement audio multicanal de l’Espace de projection finalisé en 2011.
Conditions d’hébergement
L’Ircam héberge les activités de l’unité, dans des locaux dont elle assure l’entretien, l’équipement et la sécurité, en lien avec le Centre Pompidou.

Outre les bureaux et laboratoires des chercheurs, les locaux affectés à l’unité comprennent une salle de conférences de 77 places, un studio, une chambre anéchoïque, un atelier de mécanique de précision, une médiathèque. De plus, les équipes ont accès à des locaux gérés par d’autres services de l’Ircam, tels que l’Espace de projection, les autres studios de production, des salles de cours et de réunion, etc. L’unité bénéficie d’une connectivité optimale à l’Internet grâce à une double liaison à 10 Gbits/s au réseau Renater.

En dépit d’une occupation déjà dense des locaux, les surfaces attribuées à l’unité ont évolué pour accompagner l’évolution de son personnel, passant d’une surface utile de bureaux (hors circulations) de 1236 m2 en juin 2009 à 1370 m2 en juin 2012.

Equipe Acoustique instrumentale
La compréhension du fonctionnement des instruments de musique, quelle que soit leur origine ou leur époque, est le fil conducteur des recherches menées au sein de l'équipe Acoustique instrumentale. Ces recherches permettent d'enrichir nos connaissances sur les multiples processus d'oscillation, de propagation, de rayonnement mais également sur la manière dont le problème de l'interface entre l'instrument et celui qui le joue se pose dans chaque cas.
Les retombées de ces recherches touchent la synthèse sonore dite par modélisation physique (développement du logiciel Modalys) et l'aide à la conception d'instruments réels (simulations et prototypes pour l'extension de  l'instrumentarium).
Les sujets de recherche menés sur la période 2007-2012 sont nombreux, souvent menés de manière discontinue. La recherche peut apparaître au premier abord sans véritable ligne conductrice, un peu touche à tout. Cette diversité de sujet s’explique par la spécificité de l’équipe, immergée dans la recherche et la production musicales, confrontée à des demandes portant sur toutes les familles d’instruments. Elle s’explique également par le large spectre couvert par le logiciel de synthèse Modalys, véritable environnement de lutherie virtuelle, permettant par sa représentation uniforme des modèles une grande souplesse de construction et même d’hybridation de ces modèles.
Le caractère discontinu est souvent lié à l’inexistence d’une véritable équipe (cf. les recommandations du dernier rapport AERES ou des Conseils Scientifiques) mais aussi à la difficulté d’obtenir des bourses de thèse qui permettent de poursuivre un thème de recherche sur le long terme. L’obtention ou pas de projets ANR conditionne également les orientations données à nos recherches. Signalons le véritable tournant que représente l’année 2011, à la fois pour la constitution et pour les orientations de l’équipe, avec l’arrivée d’Adrien Mamou-Mani (projet ANR Retour Post-Doc), le démarrage du projet CAGIMA (ANR) et de plusieurs thèses liées à ces projets et à un partenariat (Dassault Systèmes/Ircam), ainsi que le passage à plein temps de Joël Bensoam et le départ du développeur du logiciel Modalys et son remplacement.
Thèmes de recherche sur les instruments de musique
Modélisation de l’anche double
Cette étude s’est effectuée dans le cadre de la thèse d’André Almeida, co-encadrée entre les équipes Analyse-synthèse (A/S) et Acoustique instrumentale (A/I). Bien que les instruments à vent de type bois fonctionnent tous sur un principe assez similaire, les modèles mis au point pour l’anche simple (clarinette), ne conviennent pas parfaitement pour l’anche double (hautbois ou basson). Caractériser cette différence et proposer un modèle de synthèse sonore, temps réel, a été le fil conducteur de ce travail. Sur le plan expérimental, une partie importante a consisté à adapter un protocole de mesure de la caractéristique non-linéaire pression/débit, mis au point pour l’anche simple, à l’anche double [Almeida07a et 07b].
Modélisation du registre des aiguës du piano.
Par rapport aux notes des autres registres du piano, les notes aiguës du piano ont un niveau sonore insuffisant et une durée trop courte. Afin de palier ces défauts et rallonger la durée de la note, certains facteurs font jouer un rôle aux longueurs « mortes » (partie de la corde non frappée par le marteau) en les accordant suivant une relation particulière par rapport à la partie « active » (frappée par le marteau). Faisant suite à une étude exploratoire [Zelmar07a], un modèle analytique du couplage entre les cordes et la table d’harmonie a été proposé. Des simulations ont montré que les propriétés élastiques du chevalet sont responsables des interactions mutuelles entre les différentes polarisations de la corde. Elles ont permis de reproduire les phénomènes de battement et de décroissance composite, caractéristiques du piano [Cuenca07a]. Ce modèle a été validé lors d’un stage.
Étude du geste de l’instrumentiste :
Une nouvelle direction de recherche a été ouverte autour du contrôle de la synthèse par modélisation physique à partir de modèles de gestes instrumentaux.

- cas du violon : effectué en collaboration avec le Department of Speech, Music and Hearing du KTH (Stockholm) et le CIRMMT de l’Université McGill, le travail de recherche de Matthias Demoucron a permis de mesurer, grâce à des dispositifs adéquats conçus dans le cadre de sa thèse et couplés avec un dispositif optique de captation du mouvement, les paramètres de jeu du violoniste (position, vitesse, inclinaison et force exercée par l’archet sur la corde).
Les analyses de ces mesures effectuées dans un contexte de performance musicale ont donné lieu à une modélisation des différents modes de jeu étudiés. Utilisés en entrée d’un modèle physique de violon ces modèles de paramètres ont permis de produire une synthèse temps réel très réaliste [Demoucron09b] [Schoonderwaldt09a].
La première utilisation musicale de ce travail date de la création du quatuor de Philippe Manoury, Tensio.

- cas des vents (cuivres) : dans le passé, l’influence du conduit vocal sur le jeu de la clarinette a été abordé. Récemment, une étude poussée sur les gestes du trompettiste a été menée, en collaboration avec V. Fréour et I. Cossette (Schulich School of Music, Université McGill). Deux paramètres de contrôle ont été mesurés sur sept trompettistes dont le niveau variait de jeunes élèves à professionnels, afin de caractériser le lien entre les caractéristiques de geste et celles du son. Elle a permis d’identifier les stratégies propres à chaque instrumentiste et de proposer un bon indicateur de geste, le rapport « force d’appui/ pression buccale ». Ces expériences ont été étendues par la suite à la mesure simultanée du débit et des deux paramètres précédents grâce à la combinaison d’un capteur développé à l’Ircam et de la technique de pléthysmographie de l’Université McGill. Des corrélations entre les paramètres de contrôle et des caractéristiques des sons émis ont été trouvées [justesse, niveau sonore, rapport de l’énergie de bruit sur l’énergie totale du signal (noisiness), indice de la proportion d’énergie harmonique dans les hautes fréquences du spectre (Spectral roll-off)]. [Freour10b].
La thèse de Tommaso Bianco (co-direction équipes IMTR et A/I) a permis de réaliser une étude plus poussée du jeu à la trompette et d’en proposer une modélisation partielle [Bianco12c].

- nouveaux dispositifs expérimentaux : bouche artificielle robotisée dédiée au jeu des instruments de type cuivres.
Un des objectifs du projet ANR Consonnes (2005-2008) était de faire avancer significativement la connaissance et les dispositifs expérimentaux pour l’étude du contrôle des sons produits par les instruments à vent lors de la phase transitoire. Il s’agissait au départ de disposer d’une maquette permettant de faire des expériences automatisées, contrôlées et reproductibles sur le jeu des cuivres. Plusieurs stages lui ont été consacrés, co-dirigés avec l’équipe A/S (T. Hélie) afin de caractériser divers éléments de la bouche, en particulier les lèvres afin d’améliorer les asservissements et de permettre dans le futur une meilleure robustesse.
Le développement est tel qu’il est possible aujourd’hui de mesurer de nombreux signaux (pression de bouche, pression dans l'embouchure, force d'appui, etc.) et de piloter les actionneurs en temps réel par un système dSpace. Ce système est programmable de façon simple et conviviale par Matlab/Simulink et interfaçable avec Max/MSP pour le traitement du signal musical temps réel. Le dispositif a déjà permis d'obtenir outre la calibration des paramètres des lèvres artificielles, d'effectuer des séries d'expériences reproductibles et de fournir des cartographies, c’est-à-dire de mettre en correspondance les paramètres de contrôle de haut niveau de la bouche et les caractéristiques du son émis. A partir de ces résultats, des commandes en boucle ouverte (c’est-à-dire sans aucune correction par rétroaction) ont permis de jouer des séquences simples de quelques notes [Helie12c].
Dernièrement, dans le cadre de la thèse de V. Fréour (Université McGill), la bouche artificielle a permis de simuler l’effet des résonances du conduit vocal du tromboniste et de valider les hypothèses sur le rôle qu’il joue dans le jeu. Une résonance du conduit de la bouche artificielle a été modifiée par un dispositif de contrôle actif. En ajustant l’amplitude et la phase de la pression acoustique dans ce conduit, relativement à celle dans l’embouchure, l’effet sur les paramètres de contrôle, tels que le seuil d’oscillation, ou sur les régimes d’oscillation obtenus, a pu être mesuré.
Propagation non-linéaire :
Une partie de la recherche se rattachant à la synthèse par modélisation physique (logiciel Modalys) a porté sur la modélisation des non-linéarités liées aux grandes amplitudes de vibration. Cette étude a été effectuée lors de la thèse de David Roze (co-direction entre le laboratoire LIST du CEA et les équipes A/S et A/I de l’Ircam). La résolution analytique et/ou numérique des équations relatives à un modèle de corde non-linéaire a été réalisée [Helie08a] puis poursuivie pour le modèle de poutre de Reissner [Roze10a].
Un des objectifs à moyen terme de ce travail est de généraliser aux structures bi et tridimensionnelles, en intégrant les séries de Volterra dans une méthode de résolution par éléments finis, et d’appliquer les résultats à la synthèse sonore en les intégrant dans le logiciel Modalys. La thèse a été soutenue en décembre 2010 [Roze10b]
Un thème de recherche exploratoire (géométrie différentielle et mécanique) est mené en parallèle au précédent afin de pouvoir dans le futur utiliser des modèles ne nécessitant pas des temps de calcul exorbitants. Ce thème sera développé dans la partie PROJET du document.
Rayonnement des instruments de musique : mesure et modélisation
Plusieurs travaux ont été consacrés à la mesure et à la modélisation du rayonnement des instruments de musique en vue d’applications diverses (Synthèse sonore, systèmes de restitution sonore spatiale, etc.). Ces recherches ont été effectuées bien souvent dans le cadre de projets inter-équipes (équipes ESC, PDS et A/I).

- Synthèse par modélisation physique – logiciel Modalys
La méthode des éléments finis de frontière connue plus généralement sous l’acronyme B.E.M. (Boundary Element Method) est une puissante technique de calcul qui s’est imposée comme alternative à la méthode des éléments finis (F.E.M.) en particulier lorsque le domaine de propagation devient infini. Contrairement à cette dernière méthode, on n’a plus besoin de mailler tout le domaine de propagation ce qui permet de réduire la dimension du problème : le champ acoustique en tout point de l’espace étant dû au rayonnement de ses frontières. Il a été donc envisagé d’utiliser la BEM pour étendre les possibilités du logiciel Modalys.
C’est ce qui a été enclenché avec un stage de Master 1 (Mathématiques Appliquées) qui présente l’application de la méthode des solutions fondamentales (Method of fundamental solutions - MFS) pour la synthèse du rayonnement d’instruments à vents. Au cours de ce stage, la MFS a été appliquée à une dimension (corde), à deux dimensions (rectangles et disques) ainsi qu’à trois dimensions (cubes et sphères) avec des conditions aux limites de Dirichlet. Cependant, ces méthodes demandent beaucoup de temps de calcul et doivent donc être dédiées aux pré-calculs – hors synthèse temps réel – des objets vibrants.

- Mesure et reproduction du champ acoustique :
Profitant d’une nouvelle synergie au sein de l’Institut et poussés par les demandes de plus en plus nombreuses de compositeurs, l’approche sur cette problématique a été renouvelée. Le thème du rayonnement regroupe plusieurs volets : modélisation physique, perception de ses effets dans un espace fermé et reproduction. Cependant, selon les applications envisagées, les descriptions du rayonnement ne sont pas les mêmes et les angles d’attaque sont différents.
Dans le cadre d’un stage de Master 2, une campagne de mesure a pu être menée pour deux instruments à trous latéraux, saxophone ténor et cor de basset, dont on peut attendre une variation du comportement angulaire du rayonnement avec la direction mais aussi avec la fréquence.
Cette étude a permis de répondre aux difficultés rencontrées lors de la reconstruction du champ par le dispositif de mesure utilisé en chambre anéchoïque (24 microphones répartis sur en arc de cercle) et de mettre en évidence les bandes passantes et d’arrêt caractéristiques du comportement d’un réseau de trous latéraux [Boyer09a].
A la suite de cette étude, un deuxième stage a été dédié à améliorer un ancien modèle de calcul de rayonnement des instruments à trous latéraux à partir de la connaissance de son champ interne. L’amélioration a porté principalement sur la prise en compte de l’interaction externe entre les trous. Une étude paramétrique a été réalisée, dans laquelle on a examiné l'influence des paramètres géométriques (rayon des trous, distance inter-trous, etc.) sur cette interaction [LePiouffle10a].
Aide à la facture instrumentale : projets PAFI et CAGIMA
Projet PAFI (Plateforme modulaire d’Aide à la Facture Instrumentale)
Ce projet PAFI (ANR Contenus et interactions 2008-2012) a comme objectif la mise en œuvre d’outils de caractérisation et de prédiction acoustique, dédiés à l’analyse et au prototypage virtuel des instruments à vent. La thèse de Pauline Eveno se propose de fournir des modèles physiques qui pourront, à partir d’une perce donnée, munie ou pas de trous latéraux avec clés et tampons et terminée par un pavillon, de prédire le plus exactement possible les caractéristiques acoustiques de cet instrument après fabrication.
Cette thèse qui s’achèvera en 2012 comporte trois volets :
. propagation et rayonnement dans les pavillons : a donné lieu à un article comparant deux modèles, plan et sphérique, chargés par deux impédances de rayonnement différentes [Eveno12a]. Un benchmark sur les différentes méthodes de résolution de l'équation en pavillon (matrice de transfert, éléments de frontière, méthode multimodale, etc.) et impliquant de nombreux partenaires, est toujours en cours. Les premiers résultats ont été présentés au congrès Forum Acusticum à Aalborg [Eveno11a] où P. Eveno a remporté l'« EAA Best Paper and Presentation Award ».
. étude de l’influence des différents types de tampons. Des mesures d'impédance ont été effectuées sur un tuyau surmonté d'une clé munie de différents types de tampons, avec ou sans « résonateurs ». Des mesures vibratoires ont complétées ces mesures et ont montré que les plaques métalliques ou plastiques rajoutées sur la partie souple des tampons, agissaient comme des « raidisseurs » et non comme des « résonateurs ». Un modèle est en cours de réalisation. Enfin des comparaisons, à la fois sur l’impédance et sur le ressenti des instrumentistes lors du jeu de saxophones montés avec différents tampons restent à effectuer. Les résultats de ces travaux ont été présentés aux facteurs d’instruments lors des Journées Facture Instrumentale et Sciences du Mans.
. le dernier volet porte sur l’étude des relations entre les fréquences de résonance et les fréquences de jeu pour une trompette [Kieffer11a]. Trois trompettes ont été choisies, leur impédance d'entrée a été mesurée puis quatre musiciens ont été invités à les jouer, pour plusieurs doigtés et plusieurs nuances. Ce panel de notes a permis de faire une étude statistique poussée sur la relation entre les fréquences de résonance et les fréquences de jeu. Le descripteur « Sum Function » proposé dans la littérature pour calculer la fréquence de jeu à partir des fréquences de résonance a également été analysé. Ce travail a donné lieu à un article soumis au Jounal of Acoustical Society of America (« Relationship between résonance frequencies and playing frequencies in trumpets »).
Conception Acoustique Globale d’Instruments de Musique à Anches justes et homogènes.
Le projet CAGIMA (ANR Blanc, 2012-2016) s’intéresse aux défauts de justesse et d’homogénéité d’émission et de timbre des instruments de musique à anche tant du point de vue de celui qui les joue que de celui qui les fabrique et vise à intégrer au mieux les contraintes relatives à chacun d’eux. Le projet ambitionne de remplacer l’approche incrémentale historique adoptée par les facteurs par une approche rationnelle et globale visant à concevoir ab initio de nouveaux instruments, appelés « logiques » minimisant les défauts identifiés, ce qui constitue un réel saut méthodologique et technologique dans la facture instrumentale.
L’équipe participe dans une moindre mesure au projet LEGOS (Evaluation de l’apprentissage sensorimoteur dans des systèmes interactifs geste-son) coordonné par l’équipe IMTR avec la participation de l’équipe PDS et du Laboratoire de Neurophysique et Physiologique de l’Université Paris Descartes.
Nouveaux instruments : réels et virtuels - projet IMAREV et synthèse par modélisation physique, logiciel Modalys
Projet IMAREV (Instruments de Musique Actifs avec REglages Virtuels)
Un nouveau projet intitulé « Instruments Actifs » a débuté dans l’équipe en octobre 2011. Son objectif est la conception d’instruments de musique dont les propriétés vibratoires sont modifiables grâce aux méthodes du contrôle actif. Ce projet est soutenu par l’ANR (appel ANR Retour Post-Doc , 2011-2014). Il implique actuellement 1 chercheur et 2 doctorants.
Problématique et concepts : la qualité d’un instrument est reliée à ses propriétés vibratoires, par exemple les modes propres de vibration de la table d’harmonie d’un instrument à cordes ou encore ceux du tuyau résonant pour un instrument à vent. La fabrication et les réglages des instruments agissent directement sur ces modes propres. Ainsi, modifier la qualité d’un instrument revient à modifier ses modes propres de vibration. L’approche dite de « Contrôle Actif Modal » consiste à modifier les caractéristiques modales d’un système par contrôle actif. L’action se fait sur le vecteur d’état écrit sur base modale. Cette approche est donc bien adaptée aux instruments de musique, dont la base modale est déjà utilisée en modélisation et synthèse sonore (comme dans le logiciel Modalys par exemple).
Premiers résultats : la démarche de contrôle actif modal se décompose selon les étapes suivantes :
Identification des modes propres de vibration du système
Mise en place du système de contrôle à partir d’une simulation du système à contrôler
Mise en œuvre sur le système réel
Les étapes 1 et 2 ont été réalisées pour 2 prototypes d’instruments de musique actifs simplifiés : un instrument à cordes et un instrument à vent.
Monocorde actif : un instrument à corde simplifié a été construit. Appelé « monocorde », il est constitué d’une corde en acier tendu et d’une table d’harmonie rectangulaire en épicéa encastrée sur tout son contour, reliés par un petit chevalet de bois. Une analyse modale de la table d’harmonie a été effectuée par vibrométrie laser (coll. F. Ollivier UPMC). L’identification des paramètres modaux (fréquences, amortissements) a été effectuée à l’aide du logiciel Modan. L’influence de la tension de la corde sur les propriétés modales de la table a été mesurée.
Un système de contrôle modal a été implémenté sous Simulink. Il est constitué d’un observateur de Luenberger qui permet de reconstruire le vecteur d’état du système à partir de la mesure et d’un contrôleur dont les gains sont calculés par placement de pôles (coll. B. Chomette UPMC). Ce système de contrôle a été validé sur une simulation de la table d’harmonie du monocorde, en montrant la possibilité de modifier fréquences et amortissements des modes de vibration. Les conséquences du contrôle sur le résultat sonore ont été qualifiées à l’aide d’une synthèse sonore faite pour une excitation de type corde frottée (générée par Modalys) comme perturbation à l’entrée de la simulation.
Prototype d’instrument à vent : un instrument à vent simplifié a aussi été construit. Simple tuyau cylindrique ouvert, il contient également un microphone à électret et un haut-parleur collocalisés latéralement au tuyau. L’identification des modes propres du système a été effectuée par une mesure de l’impédance d’entrée à l’aide du système BIAS. Les déformées modales ont été obtenues par des mesures microphoniques en 100 positions dans le système (coll. David Sharp, Open University, UK).
Un système de contrôle modal a été implémenté de la même manière que pour le monocorde et a été validé sur une simulation d’un tuyau cylindrique. Les paramètres modaux obtenus en boucle fermée ont été entrés dans le logiciel Modalys. Les conséquences du contrôle sur le son et la jouabilité de l’instrument ont ainsi pu être évaluées.
Synthèse sonore par modélisation physique
Modalys permet de créer un instrument virtuel et d’en jouer, y compris en temps réel si la charge de calcul n’est pas trop élevée. Pour cela, l’utilisateur dispose d’éléments de base à géométrie simple (cordes, membranes, plaques, tuyaux, etc.), qui peuvent se mettre en interaction avec différents types de connexions (frapper, pincer, frotter, souffler, etc.). Les formes plus complexes, sous la forme d’un fluide ou d’une structure, peuvent se modéliser à l’aide de maillages (technique des éléments finis).
Ces dernières années le logiciel a fait l’objet de nombreuses améliorations, extensions et nouveautés. Citons l’optimisation du moteur, la nouvelle interface Matlab pour une prise en pain plus facile pour les scientifiques… les nouveaux objets et connections. Parmi ces derniers, spring (permet de transférer l'énergie d'un objet à l'autre avec une connexion qui ajuste automatiquement l'impédance), harmonic-oscillator (oscillateur linéaire harmonique), bi-linear-filter et bi-quadratic-filter (la relation récursive entre la force et la vitesse est déterminée par les coefficients d'un filtre linéaire ou quadratique donnés par l'utilisateur).
Un script d’accord automatique pour les structures crées avec les éléments finis a également été réalisé.
Le logiciel offre aujourd’hui à l’utilisateur la possibilité de réaliser toutes sortes d’instruments, de copies d’instruments existants aux instruments virtuels les plus originaux.
Plusieurs projets (ANR VoxStruments) et besoins musicaux nous ont conduit ces dernières années à réaliser des copies les plus fidèles possibles d’instruments existants (clarinette basse, basson, hautbois, trompette, saxophone, etc.).

L’équipe a participé au développement de Mlys2.0 (développement réalisé par M. Poletti au sein de l’équipe Interface Recherche/Création). Mlys est une interface pour Modalys, librairie d’objets Max/MSP qui permet de construire des instruments simples dont le matériau peut être modifié ainsi que les dimensions, et qui peuvent être mis en vibration de plusieurs manières : frappé, frotté, pincé, soufflé, etc. Cette interface permet de contrôler Modalys directement en temps réel à partir de Max/MSP.
Dans le cadre d’une thèse, en partenariat avec Dassault Systèmes, une avancée scientifique et algorithmique dans le domaine de la synthèse physique de son en temps réel sera recherchée. Il restera à en démontrer la valeur ajoutée dans un contexte industriel pour les environnements virtuels dynamiques 3D.
Equipe Espaces acoustiques et cognitifs
L’activité de recherche et de développement de l’équipe Espaces acoustiques et cognitifs est consacrée à la reproduction, à l’analyse/synthèse et à la perception de scènes sonores. Les disciplines scientifiques de l’équipe sont traditionnellement le traitement du signal et l’acoustique pour l’élaboration de techniques de reproduction audio spatialisée et de méthodes d’analyse/synthèse du champ sonore. La convergence des technologies audio 3D dans les secteurs de la musique et de la réalité virtuelle, conjointement à l’évolution des pratiques musicales, a motivé le développement d’un axe de recherche consacré à la cognition auditive spatiale en contexte d’interaction multisensorielle animé par Isabelle Viaud-Delmon (DR2 section 27), intégrée à l’UMR STMS en 2009. Cet axe vise à étendre les approches traditionnelles de modélisation de la perception qui reposent uniquement sur l’information acoustique et ne peuvent expliquer les effets des actions motrices et des autres modalités sensorielles sur le processus aboutissant à la perception auditive. Il s’agit par conséquent de prendre en compte la nature adaptative et multisensorielle des mécanismes mis en œuvre par le système nerveux central pour intégrer les informations spatiales acoustiques. Ces nouveaux thèmes de recherche recouvrent des questions fondamentales liées à la construction de l’espace sur la base d’informations auditives [ViaudDelmon07c,d], aux propriétés d’intégration visuo-auditive [Suied09a,b] et aux liens entre audition spatiale et action dans les domaines artistique [ViaudDelmon12a] ou thérapeutique [ViaudDelmon08a, Londero09a, Suied12a].
Dans le domaine des technologies de spatialisation, un volet majeur a été consacré aux techniques de reproduction reposant sur une description du champ sonore par formalisme intégral comme la Wave Field Synthesis (WFS) [Corteel07a, Sanson08a,10a] ou par formalisme modal comme la famille Ambisonique aux ordres supérieurs (HOA) [Bertet09a, Zotter10a,12a]. Le formalisme développé dans le cadre de l’acoustique sphérique [Noisternig12b] représente un outil puissant pour aborder l’analyse/synthèse de champ sonore, que ce soit pour le développement de méthodes réverbération avancées ayant recours à des réponses impulsionnelles directionnelles [Fazi12a] ou pour l’analyse des fonctions de transfert de la tête (HRTFs) utilisées dans le mode de reproduction binaural [Nguyen10b, Pollow12b].
Concernant la diffusion et l’animation scientifique, cette période 2007-2011 a été marquée par notre participation à l’organisation de 3 conférences internationales (ICAD’08, Ambisonics’10, DAFx’11), l’organisation de 3 colloques internationaux et une forte activité de publication : 24 publications dans des revues à comité de lecture, la direction d’un numéro spécial de la revue Acta Acustica united with Acustica et 30 publications dans les actes de conférence.
Les collaborations scientifiques et industrielles se poursuivent avec la participation à dix projets de recherche (7 nationaux, 3 européens) et des partenariats industriels privilégiés avec la société Flux pour le développement de plugins de spatialiation et avec la société sonic emotion pour la WFS.
Enfin, notre inscription dans l’activité de création musicale de l’IRCAM s’est traduite par une collaboration très étroite avec l’équipe de production pour l’installation d’un ambitieux système de diffusion sonore dans l’Espace de Projection (WFS et HOA) et par notre participation et notre soutien scientifique et technique auprès des compositeurs ou créateurs lors de 15 projets de création.
Technologies de reproduction audio spatialisée
Formats audio hiérarchiques basés sur le formalisme Ambisonic
Parmi les systèmes de reproduction 3D, les technologies Ambisonics et Higher Order Ambisonics (HOA) sont basées sur une décomposition spatiale du champ dont l’ordre de troncature gouverne la résolution spatiale avec laquelle le champ sonore est encodé (Daniel, 2003). Une thèse, effectuée en collaboration avec OrangeLabs et l’INSA et soutenue en 2009 a été consacrée à l’évaluation objective et perceptive de différents dispositifs microphoniques permettant d’encoder le champ sonore aux ordres HOA 2 à 4. Les expériences ont révélé la nécessité de monter à l’ordre 4 pour retrouver l’équivalent des performances naturelles de résolution auditive spatiale [Bertet07a ; Bertet09b].

Une étude théorique a été menée sur l’optimisation des décodeurs Ambisonic dans le cas de distributions non régulières de haut-parleurs. Cette étude a conduit à la proposition d’un décodeur dit à « préservation d’énergie » [Zotter 12b]. Ce décodeur vient s’ajouter aux deux autres types de décodage déjà présents dans le logiciel Spat : les décodages « direct-sampling » (échantillonnage de l’excitation des harmoniques sphériques sur les positions des haut-parleurs) et « mode-matching » (appariement des modes du champ sonore au dispositif de haut-parleurs).
Reproduction de champ sonore par Wave Field Synthesis (WFS)
La technique Wave Field Synthesis (WFS) a l’ambition de capter, reproduire ou synthétiser les propriétés physiques d’un champ sonore liées à la position et au rayonnement des sources qui le composent. Son étude et son usage en concert à l’IRCAM remonte au projet européen Carrouso (2001-2003) et a motivé depuis une série de travaux consacrés au contrôle du champ sonore reproduit, à la synthèse de la directivité des sources et à l’évaluation de ses performances pour la situation de concert. La WFS recourt à des bancs de haut-parleurs et requiert des procédures d’égalisation multi-canal particulières qui ont été évaluées objectivement et perceptivement [Corteel07b]. Nous nous sommes également intéressés à la synthèse des caractéristiques de directivité des sources, en étendant les procédures d’égalisation au contrôle de la directivité et de l’orientation des sources virutelles reproduites et en nous aidant du formalisme des harmoniques cylindriques [Corteel07a]. L’évaluation et l’optimisation de ces procédures de synthèse du rayonnement ont fait l’objet d’un travail de thèse [Caulkins 07a ; Caulkins 08a]. En situation de concert, l’auditeur est en mesure de juger du réalisme de la reproduction des sources virtuelles par comparaison directe avec les sources instrumentales réelles, en s’appuyant non seulement sur les indices de localisation véhiculés par le son direct [Sanson 08a], mais également sur le champ réverbéré associé aux caractéristiques de rayonnement des sources réelles ou virtuelles. Un travail original a été mené lors de la thèse de Joseph Sanson pour objectiver les paramètres de nature à promouvoir le réalisme de la reproduction par WFS en confrontant au cours de tests structurés des sources réelles (acteur) et virtuelles (reproduction de la voix) [Sanson 11a].
Dispositif de reproduction de champ sonore par WFS et HOA dans l’espace de projection
Les travaux précédents sont arrivés à maturité et se sont concrétisés par l’installation, dans l’Espace de Projection, d’un dispositif de reproduction WFS composé de 339 haut-parleurs, se répartissant en 264 pour la couronne horizontale dédiée à la WFS et 75 pour l’hémisphère dédié à la reproduction HOA [Noisternig12c]. L’acquisition progressive de cet équipement entre 2006 à 2011 a été rendue possible grâce au soutien financier de la région Ile de France (appel à projets SESAME), du CNRS et de l’UPMC. Depuis l’achèvement de la première phase de l’équipement en 2008, l’installation a fait l’objet d’expériences scientifiques [Leslie09a ; Sanson11a ; Viaud-Delmon12a], de dix productions musicales (en particulier dans les festivals Agora et Manifeste) et d’une production théâtrale (Festival d’Avignon) (voir liste complète dans l’annexe  REF _Ref207855166 \r \h 4.6 : Contributions à la création artistique).
Technologies binaurales
La technologie de reproduction binaurale reste à ce jour la seule approche permettant d’assurer la reconstruction exacte des indices responsables de la localisation auditive. Elle constitue l’outil privilégié pour le volet de recherche expérimentale lié à la cognition spatiale en contexte multi-sensoriel et plus généralement pour les applications audio interactives ou de réalité virtuelle. Une série d’études portant sur l’optimisation des procédures de mesures, d’analyse ou d’implémentation des fonctions de transfert de tête (HRTFs) ont été menées dans le cadre de la thèse de Khoa-Van Nguyen [Nguyen12a]. Ces travaux étaient motivés par les applications ou expériences développées dans le cadre des projets IST-CROSSMOD, IST-SAME et ANR-Eartoy. Un travail théorique et expérimental a été consacré à l’estimation de HRTFs en champ proche. Il consiste à mener une décomposition de la fonction de directivité de la tête dans le domaine Fourier sphérique à partir de mesures effectuées à une distance de référence et à effectuer une propagation radiale jusqu’à une distance supérieure ou inférieure à l’aide des fonctions de Hankel. Cette approche a fait l’objet de différentes publications [Pollow 12a ; Nguyen 10b] et s’est montrée légèrement supérieure aux modèles de correction de distance décrits dans la littérature (Brungart 99, Romblom 08).

La représentation de la dépendance spatiale des HRTFs dans le domaine des harmoniques sphériques offre plus généralement un cadre intéressant pour mener des opérations de transformation (rotation, interpolation spatiale) ou d’encodage (Larcher et al. 00, Evans et al. 98, Duraiswami et al. 04). L’analyse par transformée en harmoniques sphériques doit être effectuée de manière séparée sur la magnitude et sur l’information de phase des réponses. Pour traiter les problèmes de déroulement de la phase, de sorte à assurer la continuité de la fonction sur la sphère, nous nous sommes inspirés des méthodes développées en recherche graphique et qui opèrent dans le domaine spatial (Constantini et al. 2002). La transposition de ces méthodes pour l’analyse des HRTFs montre de bons résultats et permet de minimiser l’ordre de décomposition nécessaire. Ainsi, une base de données de HRTFs mesurées sur une grille de 1024 directions peut être représentée efficacement avec une décomposition à l’ordre 5, c’est à dire avec 36 composantes [Zaar 12b].
Technologies transaurales
Les travaux pionniers sur la reproduction transaurale remontent aux années 60 et se sont depuis poursuivis de manière épisodique par différentes études consacrées à l’optimisation des structures de filtrage (Atal et Schroeder 63 ; Iwahara et Mori 78 ; Cooper et Bauck 89 ; Gardner 97 ; Takeushi et Nelson 00 ; Vandernoot 01). Par ailleurs, dès sa conception, le Spatialisateur de l’Ircam a été doté de modules de décodage transaural sur deux ou quatre haut-parleurs (Jot et al. 95). Deux nouveaux contextes d’utilisation ont récemment motivé la reprise de nos études sur le mode de diffusion transaural. Dans le premier, il s’agit de proposer l’intégration de modules de traitement transaural dans les environnements de post-production destinés au mixage en format 5.1 [Baskind09]. Dans le second, l’enjeu est de recourir au mode de diffusion transaural pour les environnements de réalité virtuelle dans lesquels l’auditeur est appelé à se déplacer, ce qui nécessite d’adapter en temps réel les filtres du décodage transaural (Lenz 2006). Dans ces contextes, les exigences de qualité de restitution du timbre imposent de revisiter nos travaux de sorte à minimiser les risques de dégradation spectrale. Différentes options de régularisation des filtres directionnels ont été étudiées et comparées objectivement. L’application d’un traitement de compression de la dynamique des filtres directionnels directs offre le meilleur compromis entre la limitation des artefacts spectraux et la préservation de l’information spatiale (notamment pour la reconstruction de l’ITD) [Cornuau 11a ; Phan Quang 11a ; Carton 12a]. Cette approche s’est montrée supérieure aux techniques proposées jusqu’à présent par différents auteurs (Cooper & Bauck 89, Gardner 97].
Analyse / Synthèse de réponses impulsionnelles de salles directionnelles (DRIR)
Mesure et analyse des RI spatiotemporelles
L’analyse d’un champ acoustique fait régulièrement appel à la mesure de réponses impulsionnelles directionnelles (DRIR) caractérisant la transformation d’un signal sonore entre une source et un récepteur disposés dans l’espace. Ces mesures peuvent également servir de signaux de synthèse en appliquant un principe de convolution (réverbérateur). Un programme de recherche sur l’analyse-synthèse de champ sonore a été initié en 2010. Ses principaux enjeux sont de pouvoir reconstruire la réponse impulsionnelle spatiale d’une salle en tout point à partir d’un ensemble parcimonieux de mesures [Fazi12a] et d’autoriser des transformations spatiales ou temporelles sur ces réponses tout en préservant leur caractère naturel (projet ANR-SOR2). La capture et la caractérisation du champ sonore peuvent désormais bénéficier de prise de son multi-canal par réseau de haut-parleurs et réseau de microphones. En 2011, une collaboration a été montée avec le Joanneum Research de Graz (AUT) pour le développement d’une plateforme d’acquisition microphonique massivement multicanal basée sur un circuit logique programmable (FPGA) et permettant la transmission d’un flux de signaux multiplexés sur réseau Ethernet Gigabit. Le protocole de communication xFaceStream® utilisé est basé sur le standard IPv4 UDP et développé par la société xFace (AUT). Cette plateforme permet l’acquisition et la transmission de 64 canaux encodés en 24 bits et avec une fréquence d’échantillonnage réglable jusqu’à 192kHz.

En 2011, un ensemble de bibliothèques d’analyse et de visualisation des DRIRs a été développé [Nicolle 11a, Colafrancesco 11a]. Ces bibliothèques sont basées sur une description du champ sonore dans le domaine des harmoniques sphériques, dans lequel les transformations sont ensuite effectuées. A titre d’exemple, nous nous sommes intéressés à la possibilité de modifier la distribution spatio-temporelle de la réponse impulsionnelle ou de transcoder l’information spatiale vers des formats de prise de son standard (stéréo XY, AB, 5.1, tête artificielle, etc.).
Intégration multisensorielle pour le traitement de l’information acoustique
Toute modélisation ne prenant en compte que l’information acoustique néglige un aspect important de la perception auditive. Celle-ci repose en effet sur des processus intégrant les effets des actions motrices et les informations d’autres modalités sensorielles pour donner un sens au monde environnant.
Intégration visuo-auditive en contexte réaliste
La reconnaissance d’un objet en contexte réaliste implique au moins deux mécanismes distincts : la capacité de combiner des informations provenant de plusieurs modalités sensorielles et se rapportant au même objet, et la capacité à ignorer les informations sensorielles concurrentes relatives à d’autres objets dans la scène. Au moins deux types d’indices peuvent sous-tendre ces mécanismes (Bedford, 2001 ; Bedford, 2004) : des indices structuraux (comme la disparité spatiale ou temporelle entre les différentes informations sensorielles) et des indices cognitifs (comme le contenu sémantique relatif à l’identité des stimuli auditifs et visuels). La plupart des études de neurosciences ont attaché une grande importance à l’étude des indices structuraux, en s’intéressant à la modulation de la perception par l’influence d’une modalité sensorielle sur l’autre, et leurs relations temporelles et spatiales. La prise en compte des indices dits cognitifs vient largement compliquer le tableau, déjà loin d’être élucidé. Pourtant, l’intégration de ces indices aux paradigmes de recherche est importante pour au moins deux raisons :
par l’implication d’objets réalistes dans les expériences, elle justifie l’utilisation de dispositifs de réalité virtuelle (RV), ce qui permet de fournir en retour des pistes importantes aux développeurs d’algorithmes pour l’optimisation du rendu en RV ;
elle permet de se pencher sur l’élucidation des mécanismes en jeu dans les applications thérapeutiques utilisant la RV. En effet, depuis son avènement, la cyberthérapie souffre d’une approche peu scientifique, avec une démarche reposant plus souvent sur l’empirique que sur l’expérimental.
Un des objectifs de cet axe de recherche dans lequel s’inscrivait le projet européen CROSSMOD (FET OPEN IST-014891-2) était par conséquent d’étudier les interactions visuo-auditives afin de comprendre de quelle façon le rendu visuel et auditif d’un environnement virtuel affecte la perception de l’utilisateur. Cette compréhension a conduit au développement de nouveaux algorithmes pour un rendu sélectif des environnements virtuels. Les activités de cet axe de recherche conduisent à deux applications à visée thérapeutique, contribuant au traitement de la phobie des chiens chez l’homme et au traitement des acouphènes.
Facteurs spatiaux et sémantiques pour l’intégration visuo-auditive
De nombreuses études sont consacrées en neurosciences à la notion de fenêtre spatiale d'intégration visuo-auditive qui désigne les conditions suivant lesquelles un stimulus auditif et un stimulus visuel sont perçus sous forme d'un percept unique bien que leurs positions spatiales diffèrent objectivement (Bertelson et al., 1981),(Hairston et al., 2003). Cependant, celles-ci recourent généralement à des stimuli simples diffusés par des dispositifs réels (haut-parleurs, LEDs). Nous nous sommes intéressés à reproduire ce type d’expériences avec un dispositif de réalité virtuelle utilisant conjointement une projection stéréoscopique sur grand écran et une diffusion sonore binaurale sur casque. Nous avons pu vérifier que des propriétés d’intégration visuo-auditive qualitativement et quantitativement similaires étaient observables sur un tel dispositif [Nguyen 09a]. Cette étape de validation a permis de conduire des études faisant appel à des environnements visuels et sonores plus réalistes et plus complexes en exploitant les possibilités de la réalité virtuelle.
Nous avons pu ainsi démontrer, en faisant varier systématiquement le contenu sémantique et la disparité spatiale dans une tâche de reconnaissance d’objets visuels, auditifs et visuo-auditifs (temps de réaction de type go/no-go), que la disparité spatiale entre un stimulus auditif et un stimulus visuel n’affecte pas la reconnaissance d’un objet réaliste. Cependant, nous avons observé un effet d’interférence des distracteurs auditifs, suggérant qu’il est possible d’ignorer un distracteur visuel mais impossible d’ignorer un distracteur auditif. Ce résultat met en avant une asymétrie dans le filtrage attentionnel des informations auditive et visuelle (voir [Suied09a]).
Les causes de cette asymétrie attentionnelle semblent être liées à la catégorie sémantique du distracteur auditif. En effet, l’effet d’interférence n’est observé que lorsque le distracteur auditif est un animal, et ce quelle que soit la catégorie sémantique de la cible. Ces résultats suggèrent un traitement spécifique des sons d’animaux pour lequel la mémoire phylétique pourrait avoir un rôle [Suied09b].
Applications thérapeutiques en réalité virtuelle auditive et visuelle
L’application thérapeutique « Dog Phobia » exploite les différents composants logiciels graphiques et audio développés au cours de deux projets européens, CROSSMOD et VERVE (e.g. [Moeck07a ; N'guyen10b]). Lors d’une immersion dans un environnement virtuel, un sujet est confronté graduellement à une situation potentiellement phobogène (ici appliquée à la phobie des chiens) [Viaud-Delmon08a]. L'intégration d’informations visuelles et auditives doit permettre à un sujet d’apprendre à maîtriser ses réactions émotionnelles lorsqu’il est exposé progressivement à des environnements où il peut rencontrer des chiens. Les évaluations de cette application confirment le rôle majeur joué par la composante auditive dans les réactions émotionnelles. La gestion de la dimension spatiale de la restitution sonore est par conséquent importante pour graduer l'exposition des participants et contrôler leurs réactions émotionnelles [Suied et al in press].
Une autre application thérapeutique consiste à proposer à des patients souffrant d’acouphènes un traitement en réalité virtuelle favorisant la dissociation entre la perception de l’acouphène et sa représentation mentale. En pratique, il s’agit de construire un avatar sonore et visuel de l’acouphène et de fournir au patient les moyens d’en contrôler la localisation dans l’espace, à la fois en direction et en distance [Londero10a].
La stratégie thérapeutique repose sur le choix des caractéristiques acoustiques de l’avatar sonore, sur les modalités de contrôle de sa localisation et sur leur éventuelle évolution au cours des séances. Un essai clinique a été conduit dans le service du professeur Bonfils à l’Hôpital Européen Georges Pompidou, afin de mesurer l’efficacité de la méthode par rapport à une liste d’attente et la thérapie comportementale. Les résultats de cet essai clinique à grande échelle (163 patients) sont encore en cours de traitement mais les premières analyses suggèrent déjà une efficacité de la méthode comparable aux traitements par thérapie cognitive et comportementale.
Audition et proprioception pour la perception de l’espace
La perception auditive est une des voies importantes, avec la vision, par lesquelles nous accédons à la connaissance de l'espace. De plus, l’audition a la particularité d’être la seule modalité sensorielle donnant un accès continu à l’environnement 3D autour du sujet, alors que la vision restreint la prise d’information à l'espace frontal. Malgré cet état de fait, la modalité auditive est encore peu étudiée dans ses dimensions spatiales. Nous nous attachons dans cet axe à démontrer le rôle spécifique de l’audition au sein du système de repérage spatial. Cette approche tente de prendre en compte la nature adaptative et multisensorielle des mécanismes mis en œuvre par le système nerveux central pour intégrer les informations spatiales acoustiques.
De la main à l’oreille : effet d’un retour sonore sur un geste de pointage
Au moyen de tests perceptifs, nous avons cherché à identifier les paramètres acoustiques permettant de développer des avatars sonores améliorant des tâches de pointage dans des environnements virtuels auditifs. Dans une telle tâche, on peut en effet imaginer que la perception de la distance entre une source fixe située dans l'espace proximal et une source dynamique attachée à la main, représente un indice améliorant la précision du mouvement.
On a développé un environnement pour l'évaluation psycho-acoustique des mouvements de préhension dans l'espace proche du sujet. Toutes les étapes de traitement sont implémentées dans MaxMsp, avec les librairies de traitement de l'Ircam (Spat, ftm, etc.). Un système de suivi de mouvements par caméras infrarouges est disponible pour traquer les objets dans l'espace, permettant ainsi d'attacher un objet sonore à un segment corporel du sujet. Le retour auditif des mouvements du sujet dans l'espace constitue une augmentation sensorielle permettant d'affiner le comportement sensorimoteur pour l'exploration du monde virtuel. L'étape finale est de concevoir un avatar auditif pour guider le sujet quand il veut saisir des objets situés dans l'espace virtuel.
Ces études ont été développées dans le cadre du projet ANR EARTOY [ViaudDelmon07a] et se poursuivent actuellement dans le projet ANR LEGOS.
Du corps à l’oreille : influence du retour sonore sur l’appréhension de l’espace scénique en danse
Un travail multidisciplinaire, engagé dans le cadre du projet EARTOY, a étudié la perception de l’espace scénique chez le danseur en manipulant les liens existants entre le son et l’espace. La technologie WFS associée à un dispositif de captation de geste a été utilisée pour que le danseur contrôle en temps réel le flux musical et puisse percevoir un espace sonore dépendant de ses déplacements.
Différentes modalités d’interaction ont pu être testées : un matériau ou une transformation sonore peut être associé à une portion de l’espace, ou attachés à un objet, ou encore déclenchés par un mouvement des marqueurs attachés à différents segments corporels. Nous avons pu observer que lorsque les sons sont attachés à différentes régions de l’espace, ils peuvent permettent au danseur de construire une représentation mentale de l’espace basée sur le matériel sonore. L’association de matériaux sonores à des objets ou des gestes rend ceux-ci plus explicites pour l’audience et permet aux observateurs de partager l’intention du danseur. Dans la plupart des situations, l’interaction permet au danseur de ressentir son contrôle sur le discours musical. Cette situation pourrait promouvoir un nouveau type de dialogue avec l’espace de nature à générer des conditions chorégraphiques innovantes [ViaudDelmon12a].
Equipe Perception et design sonores
L’activité de l’équipe au cours de la période 2007-2012 est conforme aux objectifs fixés dans le projet UMR présenté en 2005, tout particulièrement en ce qui concerne les recherches menées sur la perception des sons environnementaux et les applications en design sonore allant des travaux menés sur les alarmes à ceux consacrés à l’aide à la navigation.
La description morphologique d’un son environnemental est fortement liée aux variations, au cours du temps, de l’intensité perçue. Aussi, les travaux de l’équipe ont été concentrés depuis 2009 sur la caractérisation des profils temporels et sur la sonie des sons non stationnaires. Sur ce thème, l’équipe mène une étroite collaboration avec le LMA-CNRS à Marseille, notamment dans le projet ANR LoudNat, ainsi qu’avec l’équipe Analyse/synthèse de l’Ircam dans le projet ANR Houle. Sur le thème de la signalétique sonore, les travaux ont été poursuivis sur les alarmes sonores notamment dans le cadre du projet ANR RoadSense, et dans le cadre de différentes collaborations avec l’industrie automobile (Renault).
Par ailleurs, les questions théoriques et méthodologiques en perception et en design sonore ont été étendues au nouveau champ de recherche du design sonore interactif au travers de multiples collaborations internationales notamment dans le cadre de la COST-Action SID (Sonic Interaction Design) et du projet européen CLOSED coordonné par l’équipe. Les différents membres de l’équipe ont notamment participé à plusieurs workshops au niveau international ainsi qu’à l’organisation de l’ICAD en 2008 à Paris (International Conference in Auditory Display), en collaboration avec l’équipe EAC. Sur ce nouveau thème du design sonore interactif, l’équipe mène différents projets en collaboration avec l’équipe IMTR de l’Ircam, plus récemment dans le cadre du projet ANR Legos.
Il faut noter que la composante appliquée est toujours une part importante de l’activité de l’équipe puisqu’elle mène régulièrement des projets avec l’industrie, soit sous forme de projets de recherche, soit sous forme de thèse CIFRE. Pour finir, l’équipe s’est impliquée fortement de 2007 à 2010 dans la mise en place du Master Design Sonore qui a démarré à la rentrée 2011 à l’Ecole Supérieure des Beaux-Arts du Mans (ESBAM) en collaboration avec l’ESBAM, le LAUM et l’ENSCI.
Perception des sons environnementaux
Recensement, organisation et description perceptive des sons environnementaux
Le thème concernant la perception des sons environnementaux est une problématique importante que l’équipe traite depuis plusieurs années. L’objectif est de proposer une organisation et une description perceptive des sons environnementaux, et d’appliquer ces connaissances au design sonore d’objets du quotidien. Ces travaux ont été réalisés en grande partie dans le cadre du projet européen CLOSED (Closing the Loop of Sound Evaluation and Design) et du projet ANR SOR (Sample Orchestrator) terminés respectivement en septembre et juin 2009, et se poursuivent dans le cadre de deux projets ANR, respectivement Houle (2011-2014) et LoudNat (2011-2015).
Les classes d’événements sonores
Ces travaux ont permis de formaliser et de valider plusieurs hypothèses quant à la perception des sons environnementaux. Tout d’abord, il a été montré que leur perception repose sur trois niveaux de description : le premier permettant de définir des classes de sons en termes de sonie, de timbre et de profils dynamiques ; le deuxième permettant de représenter ces classes en termes d’événements sonores associés à la production d’un son, on parle de relation causale ; le troisième permettant de relier ces classes à un réseau sémantique représentatif de l’organisation de nos connaissances associées à ce type de son. Les expériences menées ont révélé que le niveau de description dépend, d’une part, de la facilité à identifier l’événement sonore, et d’autre part, du niveau d’expertise des auditeurs dans le domaine du son [Lemaitre09e]. Par ailleurs, ces expériences ont permis de valider expérimentalement la taxonomie des événements sonores, proposée par W. Gaver, fondée sur différentes catégories d’état (solide, liquide, gaz) et sous-catégories d’interaction [Houix12a]. Ces résultats sont importants, et permettent d’élaborer des connaissances sur les modes de perception des sons en relation avec leur mode de production en termes d’action et de geste produit par le sujet. Il faut noter que ce niveau intermédiaire de description des sons en termes d’événements sonores est peu mentionné dans la littérature en dehors de quelques travaux récents combinant approche perceptive, approche physique et comportement gestuel avec une source sonore. Ces travaux auront des implications pour la synthèse sonore par modèle physique mais aussi pour le domaine émergent du design sonore interactif.
Description du timbre et applications
Un recensement des descripteurs du timbre des sons environnementaux a été effectué à partir d’un ensemble d’études déjà publiées. Une expérience de classification des sons provenant de ces études a révélé trois classes de sons qui peuvent être décrites au niveau acoustique [Misdariis10b]. Il apparaît que la description fondée sur des similarités acoustiques est spécifique à chaque classe de sons, mais que le centre de gravité spectral (souvent interprété comme « brillant » « métallique », … ) est un descripteur commun à un grand nombre de classes de sons environnementaux, comme pour les sons musicaux. Cette synthèse concernant les descripteurs du timbre des sons environnementaux fait suite aux travaux, menés dans l’équipe depuis plusieurs années, visant à proposer un ensemble de descripteurs perceptivement pertinents pour décrire le timbre musical [Peeters11d]. L’ensemble des résultats obtenus permettra, d’une part, de développer des outils de recherche par similarités dans des bases de données sonores, et d’autre part, de proposer des descripteurs pertinents pour les études menées en design sonore.
En effet, plus récemment (de 2010 à 2011), ces travaux ont été étendus et appliqués à d’autres classes de sons dans le cadre d’un nouveau projet avec l’industrie – une société horlogère. L’un des objectifs consistait à caractériser le timbre de sonneries produites par des barres métalliques, de petites tailles, excitées par un impact. Les résultats ont révélé que les sonneries peuvent être décrites par deux dimensions correspondant respectivement à la surface modale et à la répartition fréquentielle de l’énergie. Cette étude a permis d’élaborer un cahier des charges pour la création de sonneries en adoptant un processus global de design sonore en trois phases successives – analyse, création et validation – décrit dans [Susini11c].
Pour finir, dans le cadre de la thèse d’Aurélie Frère, effectuée en partenariat (CIFRE) avec Renault et soutenue en septembre 2011  [Frere11a], le timbre des bruits de moteur Diesel a été étudié en s’intéressant à l’influence de la composante vibratoire, d’une part, et à la dimension interculturelle (France/Allemagne), d’autre part.
Description morphologique de la composante temporelle
L’une des propriétés importantes des sons environnementaux reste leur caractère évènementiel, c’est-à-dire leur relation à la cause qui a produit le son. Les travaux effectués [Houix12a] montrent que la composante temporelle du son produit est souvent concomitante à l’action effectuée. Dans le cadre du projet ANR SampleORchestrator (SOR), la description morphologique des sons de l’environnement a été étudiée en considérant les grandes catégories de profils représentatifs de ce type de sons, et leurs représentations graphiques. Les principaux résultats ont mis en évidence la pertinence de la démarche dans le cas des profils dynamiques ; des classes de morphologie ont été formalisées et associées à des profils types, symbolisés graphiquement : stable, impulsif, train d’impulsions, roulement, crescendo, decrescendo [Minard10b]. Le travail se poursuit par la modélisation de ces classes en termes de descripteurs acoustiques (séries temporelles multiples) et l’extraction automatique des profils prototypes permettant de définir symboliquement chacune des classes [Koliopoulou12a].
Sonie des sons environnementaux
La description morphologique d’un son environnemental est fortement liée aux variations, au cours du temps, de l’intensité perçue (sonie ou « loudness » en anglais). Ces variations donnent lieu à trois types de perception : instantanée, à court terme et à long terme (impression globale). Les efforts de l’équipe se sont concentrés sur la perception de deux classes de profils : crescendo et decrescendo. Ces travaux s’inscrivent dans le nouveau champ de recherche consacré à la sonie des sons non stationnaires. Une question soulevée concerne l’asymétrie en termes de sonie et de durée perçues : un crescendo est perçu plus fort et plus long qu’un decrescendo. Ces travaux sont menés depuis 2009 en collaboration avec le LMA-CNRS, et plus récemment dans le cadre du projet ANR Blanc LoudNat (2011-2015). Les derniers résultats indiquent que la sonie relative à l’impression globale d’un crescendo est plus importante comparativement à un decrescendo [Susini07a], que la sonie d’un son crescendo est liée à la sonie de fin [Susini10a] correspondant à une intégration d’environ 300ms de la fin du signal et que cet effet est persistant sur quelques secondes [Susini11b]. D’autre part, l’asymétrie en durée disparaît pour des durées au-delà de 500ms, et par conséquent l’asymétrie avérée en sonie pour des durées au-delà de 2s est fondée sur un autre mécanisme perceptif [Vannier12a].
Mémoire auditive et sons environnementaux
Dans le cadre des travaux sur les sons environnementaux, l’équipe s’est penchée sur la question du stockage en mémoire des sons environnementaux. Des expériences menées par Rowe (1976) et De Gelder (1997) ont permis de mettre en évidence des différences entre mots et sons environnementaux uniquement pour l’effet de récence dans une tâche de rappel sériel, montrant un avantage pour les mots. Une première série d’expériences menée dans l’équipe a mis en évidence l’effet de la tâche – rappel sériel ou libre – sur le rappel de sons environnementaux en fin de liste [Guelton05a]. Dans une tâche de rappel libre, une deuxième série d’expériences visant à comparer des listes de sons environnementaux et de mots associés montrent de nouveau une différence pour l’effet de récence en faveur des mots [Moumne09a]. La différence observée entre les deux listes est donc robuste à travers le type de tâches, et semble permettre de converger vers l’explication proposées par De Gelder pour un codage différent en mémoire.
Contrôle perceptif de la synthèse par modèle physique
L’objectif de ce thème d’étude est de pouvoir proposer des interfaces de haut niveau permettant un contrôle de la synthèse, notamment dans le cadre de l’utilisation d’un logiciel comme Modalys. Des approches préliminaires ont permis de proposer, pour des modèles simples, une relation entre dimensions perceptives pertinentes et paramètres des modèles [Derio05a] [DosSantos06a]. Une autre approche possible est de considérer des classes génériques de sources sonores, et non plus des modèles spécifiques. Cette nouvelle direction a été prise sur la base d’un environnement de synthèse sonore (SDT – Sound Design Toolkit. Nous nous sommes intéressés à des catégories de matériaux (bois, métal, verre, plastique). Nous avons identifié les caractéristiques acoustiques compatibles avec la synthèse SDT (fréquences, gains et amortissements modaux), et nous avons construit un corpus d’étude représentatif pour une expérience de catégorisation aboutissant à la labellisation des sons suivant la typologie étudiée. Dans ce processus expérimental, nous avons introduit des techniques de Machine Learning afin d’orienter le choix des stimuli présentés et converger plus rapidement vers la définition des classes : parmi plusieurs techniques testées, les meilleures performances ont été obtenues avec un modèle de Perceptron. Pour l’instant, les résultats ne permettent pas d’obtenir de meilleures conclusions que ceux de la littérature : la différenciation entre 2 grandes classes (verre, métal) vs. (plastique, bois) [Ludlow08b].
Reproduction du rayonnement
Le travail sur la reproduction du rayonnement s’est focalisé de manière exploratoire sur deux points principaux. D’une part, celui de la Synthèse Additive Spatiale (SAS) qui étudie le principe de couplage d'un moteur de synthèse sonore basé sur la décomposition modale avec un moteur de synthèse du rayonnement capable de reproduire au mieux la fonction de pondération spatiale (directivité) de chacun des modes ; deux études ont alimenté cette réflexion : l’une sur le violon [Misdariis06a] et l’autre sur les instruments à trous latéraux [Misdariis10a]. D’autre part, celui de l’approche perceptive qui part de l’hypothèse que le contrôle du rayonnement permet de réduire l’écart entre un son provenant soit d’une source réelle soit d’un dispositif électro-acoustique ; les résultats d’une étude préliminaire [Lang07a] montrent globalement un effet significatif du rayonnement sur la perception, notamment en termes de distance et de largeur de source.
Signalétique sonore
Dans la continuité des travaux menés tout particulièrement dans le cadre des thèses de Clara Suied et de Julien Tardieu, la création d’une signalétique sonore pour les interfaces homme/machine (IHM) est un domaine d’application important en design sonore dans lequel l’équipe s’est investi depuis plusieurs années en collaboration régulière avec des compositeurs (Hiroshi Kawakami, Andrea Cera, Sébastien Gaxie). Le processus de design sonore en trois phases – analyse, création et validation – décrit dans [Susini11c] peut être véritablement engagé pour la création de signalétiques sonores puisqu’il s’agit de sons sur support numérique qui présentent l’avantage d’être facilement manipulables et intégrables dans un système électronique et informatique. Dans notre démarche, nous considérons des prérequis nécessaires pour la création de ces sons, que nous formulons à partir de recherches menées en perception sur des sons contrôlés en laboratoire mais aussi sur des sons existants d’IHM. Au cours de la période 2007-2012, trois projets ont été réalisés dans ce domaine.
Etude des alarmes : application aux bandes audio-tactiles
La question des alarmes sonores a été de nouveau abordée dans le cadre du projet ANR RoadSense. L’objectif final du projet est de prévenir les sorties involontaires de voies de circulation en optimisant les alertes sonores et vibratoires produites par les bandes de marquage audio tactiles. L’objectif de la première phase du projet menée par l’équipe PDS a consisté à étudier l’intensité de l’effet de la composante vibratoire par rapport à la composante sonore sur la réaction d’un conducteur. Dans un paradigme expérimental de mesure du temps de réaction simple [Suied08a], deux situations ont été comparées: unimodale (stimulus sonore uniquement) et bimodale (stimulus sonore et vibratoire). Les signaux sonores et vibratoires utilisés correspondent à un motif enregistré sur piste – passage d’un véhicule sur une bande audio-tactile – répété en faisant varier l’intervalle de temps entre deux motifs (IOI – Inter Onset Interval). Les résultats des expériences confirment ceux de la littérature : plus l’IOI est petit, plus les temps de réaction sont courts. Par ailleurs, il n’y a pas d’effet significatif de la composante vibratoire sur les temps de réaction [Houix12b]. Ce résultat permet de s’affranchir de cette composante pour affiner le design de la composante sonore.
Sonification d’une structure hiérachique
Nous nous intéressons aux processus de sonification d’une structure hiérarchique d’IHM (type ordinateur de bord – projet Findability). Plusieurs approches de type earcons, auditory icons, mixtes – exploitant le potentiel d’hybridation du moteur de synthèse par modélisation physique, Modalys – ou musème (Tagg, 1982) ont été conçues par le compositeur associé au projet (A. Cera). Des tests de validation menés par Renault montrent, en première approche, que la sonification est bien appréciée et acceptée par les utilisateurs et que les relations sons/fonctions définies sont majoritairement pertinentes dans le cadre de l'application visée [Langlois10a] [Misdariis11a]. Plus récemment, une étude complémentaire au projet a été menée en collaboration avec l'Université de Toulouse, Le Mirail (PETRA) afin de valider, par mesures oculométriques, l'hypothèse selon laquelle la sonification de l'interface de navigation permet de limiter les détournements du regard en situation de conduite. Les premiers résultats obtenus (en cours d’analyse) valident cette hypothèse.
Design sonore du Véhicule Electrique (VE)
Suite au concours remporté en 2009 par l'équipe, associée au compositeur Andrea Cera, le projet de design sonore du VE Renault s’est déroulé en 2010-2011. Il a pris la forme d’un projet central concernant l’un des véhicules de la gamme (Zoé) et de projets connexes focalisés sur des "concept-car" (notamment DeZir). Le travail a consisté, dans un premier temps, à intégrer les spécifications provenant des différents secteurs impliqués dans le projet (Design, Produit, Ingénierie) puis à proposer des esquisses prenant en compte la dimension interactive du problème. A l’issue de plusieurs itérations, une solution prototype a été retenue par un Comité de Décision interne sous la forme de trois variations d'une même base. Le portage vers la technologie embarquée a donné lieu à plusieurs séances de mise au point statique et dynamique [Misdariis12a]. Dans la lignée de ce travail, et sur la base de l’expérience acquise, l’étude de la détectabilité du VE en milieu urbain se poursuit autour de deux grands axes : i) l'influence des propriétés sonores sur la perception de présence et d’allure d’une source en mouvement ; ii) la typologie de l’environnement sonore urbain et la caractérisation des conditions représentatives de l’usage d’un VE [Gruson12a].
Design sonore interactif
La nouvelle problématique de l'interaction dans le design sonore a été au centre d'une partie des travaux menés récemment par l'équipe. Le design sonore interactif consiste notamment à considérer le son comme l’un des principaux canaux pouvant véhiculer de l’information et des qualités esthétiques/émotionnelles, dans un contexte interactif. Il s’agit de mettre en place une interaction dynamique entre un utilisateur et un objet : la manipulation de l’objet produit des sons qui eux mêmes influencent la manipulation. Nos travaux initiés dans ce domaine visent à étudier la pertinence de l’information véhiculée par la composante sonore pour le contrôle, l’apprentissage et l’appréciation d’une action dans un processus dynamique engageant perception et action. Cette thématique étend les travaux menés sur les sons environnementaux en se plaçant dans un processus actif d’écoute. Hormis, les nouvelles questions fondamentales que soulève ce nouveau champ de recherche, il est nécessaire aussi de reconsidérer les approches méthodologiques concernant l’analyse et l’évaluation du son en termes esthétique et fonctionnel. Plusieurs approches – design participatif, bodystorming – et plusieurs types de mesure – évaluation subjective de l’aspect fonctionnel, mesure de la performance et impact émotionnel – ont été considérés dans des tâches impliquant trois dispositifs interactifs différents prototypés pour mener des expériences contrôlés. Les résultats sont très prometteurs :
- Le premier dispositif considéré (Spinotron) visait à évaluer l’influence du son sur les performances d’apprentissage d’un geste nécessaire pour réaliser une tâche. Les résultats montrent que – bien que les participants aient déclaré ne pas avoir été aidés par le son – les performances au cours du temps sont nettement améliorées par la présence du son [Lemaitre09b].
- Le deuxième dispositif (clavier ATM – Automatic Teller Machine) a été élaboré afin d’étudier dans quelle mesure la relation causale entre son et action pouvait renforcer la fonctionnalité perçue d’un dispositif dans une tâche donnée. Les résultats montrent qu’un son « causal » est toujours perçu plus fonctionnel après manipulation. Ce résultat est robuste lorsque le niveau de difficulté de la tâche augmente [Susini12a].
- Le troisième dispositif (Flops) a été développé pour évaluer l’impact du son sur l’expérience émotionnelle. Les résultats montrent qu’un son agréable a un impact favorable, et que l’effet est conservé lorsque la difficulté de la tâche augmente [Lemaitre09d].

Par ailleurs, dans le cadre d’une collaboration avec l’équipe IMTR de l’Ircam, la question du geste a été abordée lorsqu’il s’agit d’imiter des sons causaux et non causaux. Deux types de gestes sont produits selon le type de sons ; respectivement un geste imitant la production du son et un geste suivant les contours du son [Caramiaux11a]. Cette problématique combinant geste et son soulève des questions fondamentales notamment en termes d’apprentissage sensorimoteur avec des systèmes interactifs sonores dans différents champs d’application comme la musique, la réhabilitation et le design sonore interactif (thèse en cours d’Eric Boyer et projet ANR LEGOS).
Equipe Analyse/ synthèse des sons
L’équipe Analyse et Synthèse des Sons a pour objet d’études le signal audionumérique, soit pour en extraire toutes sortes de caractéristiques, soit pour le synthétiser selon les propriétés sonores et musicales souhaitées, soit pour le transformer en fonction de besoins compositionnels ou autre. Les objectifs des travaux sont donnés par les besoins de la création et de la production de l'Ircam, mais aussi par les projets externes (industriels et collaboratifs). Pratiquement, cela implique d'un côté la création et la maintenance d'outils efficaces, performants et robustes, et, de l'autre côté des recherches en amont pour faire évoluer l'état de l'art. Les avancées nous permettent de répondre aux demandes de nouveaux outils ou d’outils plus performants. Dans la description suivante, ces recherches et développements sont organisés suivant quatre axes principaux :
Analyse, représentation, transformation, et synthèse des signaux sonores utilisant des théories et techniques de traitement du signal et de statistique.
Analyse, représentation, transformation, et synthèse de la parole utilisant les techniques spécifiques pour la voix.
Description des contenus musicaux à différents niveaux de description utilisant des descripteurs du signal audio.
Modélisation physique pour l’analyse et la synthèse du son, notamment en utilisant le lien entre la physique et le traitement du signal.
Il y a des relations fortes entre les recherches concernant les points 1/2, 1/3, et 2/4 et plusieurs sujets pourraient apparaître dans les deux rubriques. Néanmoins, celles-ci aident à la structuration des travaux et de la présentation.
Avant d’entrer dans le détail, nous notons quelques points d’ordre général.
Les algorithmes et technologies développés ont des degrés de maturité très différents. Certains, comme le vocodeur de phase étendu SuperVP, ou plusieurs des fonctionnalités développées dans le cadre de la description de la musique (ircamBeat, ircamSimilarity) sont des technologies robustes pour lesquelles un effort considérable de développement a été investi (ceci grâce aux demandes de la production et/ou des projets industriels liés). D’autres sont plus expérimentaux et nécessitent encore des recherches à approfondir avant d’obtenir une stabilité équivalente.
Afin de pouvoir assurer la compétitivité de nos algorithmes, développés sous 1. et 2., nous participons régulièrement aux campagnes d’évaluation internationales MIREX. Pendant la période concernée, nos méthodes ont généralement obtenu de bons résultats. Plus particulièrement, pour les tâches d’estimation de hauteurs multiples, de tempo, de détection d’onsets, les tâches de classification automatique (en single-label et multi-labels), et celles de similarité acoustique, nous avons obtenu des évaluations qui nous permettent de constater que nos algorithmes représentent l’état de l’art.
Nous sommes particulièrement satisfaits que les travaux de l’équipe - pour toutes les thématiques de recherche - aient été financés en grande partie par les projets externes (13 ANR, 2 européens, 4 OSEO/Feder, 13 industriels) et qu’un nombre important de licences des technologies de l’équipe aient été achetées par des partenaires industriels.
Le support à la création de l’IRCAM se fait par l’intermédiaire des outils développés (les objets Max/MSP : SuperVP, Brassify, ircamDescriptor et le logiciel AudioSculpt), ou par le biais d’une interaction directe avec les compositeurs et/ou leurs RIMs associés. Nous notons par exemple ces créations : Lolita, J. Fineberg - Hypermusic Prologue, H. Parra - Un mage en eté, O. Cadiot - Luna Park, G. Aperghis.
Analyse, représentation, transformation, et synthèse du son
Projets concernés:
ANR : Sample Orchestrator (SOR), Sample Orchestrator 2 (SOR2), Houle, Physis
FP7 ICT : 3DTVS, direction WP4 (3D Audio & Multi Modal Content Analysis and Description)
Licences industrielles/produits commerciaux : NeoCraft/SuperVP, MakeMusic/f0, UniversSons/SuperVP, MXP4/SuperVP, OhmForce/SuperVP, Flux/ Ircam Tools/SuperVP, Cycling’74/SuperVP, IrcamMax/SuperVP.
Transformations du son
La transformation des sons est un des objectifs qui alimente directement la création de l’IRCAM. Les recherches effectuées dans ce contexte sont centrées autour de la bibliothèque C++ SuperVP, développée depuis 1995. Cette bibliothèque rassemble un grand nombre d'algorithmes, basés sur un vocodeur de phase étendu, qui permet des analyses et traitements d'une qualité exceptionnelle. Les algorithmes sont accessibles en ligne de commande, dans le logiciel AudioSculpt et dans les objets Max/MSP. Les travaux de recherches ont été marqués notamment par le projet ANR SOR, les projets industriels avec la société Flux (IrcamTools TRaX). Un des résultats marquants est la réduction de la latence des transformations de type transposition grâce à une nouvelle méthode de transposition dans le domaine fréquentiel [Vinet11a]. Un autre axe de recherche implique des travaux sur les modifications des ornementations présentes dans les sons monophoniques. Le premier objectif fut la modification de l’étendu du vibrato. Les algorithmes développés donnent des bons résultats si les segments avec vibrato sont annotés [Roebel11a].
Représentation temps-fréquence adaptive
Un paramètre crucial pour obtenir des résultats de bonne qualité avec les algorithmes basés sur une représentation temps-fréquence est le choix approprié de la résolution temps-fréquence. Ce choix demande une compréhension approfondie des algorithmes, souvent difficile à acquérir pour l’utilisateur habituel (musiciens, ingénieurs du son). Cette difficulté nous a motivé pour développer des méthodes permettant l’adaptation automatique de la résolution temps-fréquence. De premiers résultats ont été obtenu pour les traitements des sons monophoniques dans le cadre du projet SOR [Vinet11a]. Dans le cadre de la thèse de M. Liuni [Liuni12a], nous avons étudié le problème de façon approfondie et développé, entre autre, une méthode pour réaliser une représentation adaptative des signaux polyphonique, variant localement en temps et en fréquence. Les premiers essais d’application dans le contexte des algorithmes de transformation ont montré une amélioration des résultats pour les cas critiques (variation de la musique entre segments avec tempo rapide et spectre très dense).
Synthèse des sons
Ce sujet implique plusieurs axes de recherche. Dans le projet SOR et dans le cadre de la thèse de D. Tardieu, nous avons travaillé sur le problème d’utiliser des descripteurs des sons d’instrument pour l’aide à l’orchestration [Tardieu08c]. Dans le cadre de la thèse de M. Caetano nous avons travaillé sur l’utilisation des descripteurs perceptifs dans le contexte de la transmutation d’instrument [Caetano11c]. Dans le projet SOR2 et la thèse de H. Hahn, nous étudions des modèles permettant de représenter les changements du timbre des sons liés aux changements d’intensité et de hauteur. L’objectif ici est l’établissement de ces modèles à partir de base d’échantillons d’instrument en utilisant des modèles source/filtre étendu [Hahn12a].
Analyse de la fréquence fondamentale pour les sons polyphoniques
Dans le cadre de la thèse de C. Yeh nous avons mené des travaux sur un algorithme pour l’analyse de la fréquence fondamental pour les sons polyphoniques. L’idée de base de l’algorithme est dérivée de notre algorithme d’estimation de F0 monophonique. Au départ, l’approche était locale en analysant une seule trame d’analyse. Au cours des recherches, une distinction entre les composantes sinusoïdales et les composantes bruitées a été intégrée. Cette dernière nous a permis d’améliorer l’estimation du nombre des notes présentes [Yeh10a]. Après la soutenance de la thèse en 2008 [Yeh08a], nous avons continué les recherches en essayant d’améliorer la performance très faible de tous les algorithmes concernant les débuts des notes. Nous avons donc développé la bibliothèque Audio2Note (A2N) permettant la transcription midi de la musique polyphonique. Cette bibliothèque est actuellement en phase d’intégration dans un logiciel commercial qui sera disponible début 2013.
Analyse de la partie percussive des morceaux de musique
Pour permettre la transcription complète d’un morceau de musique, il est souvent nécessaire d’analyser séparément la partie “tonale” jouée par des instruments harmoniques et la partie percussive tant les a priori que l’on peut apporter sont différents. Grâce à une modélisation des propriétés spectro-temporelles, nous avons pu proposer un algorithme efficace de séparation [Rigaud11a] qui se compare favorablement aux algorithmes de l’état de l’art et ce pour un coût de calcul très réduit.
Analyse des scènes sonores
Dans du projet ANR Jeune Chercheur HOULE initié en automne 2012, nous étudions un formalisme de structuration de scènes sonores basé sur des concepts computationnels novateurs. Dans le cadre de ce projet s’attachant à l’analyse de scènes sonores environnementales, nous avons développé un synthétiseur de scènes sonores. Ces scènes synthétiques, dont nous pouvons contrôler finement la complexité, nous permettent également de produire des corpus d’évaluation qui seront utilisés dans le cadre de l’évaluation IEEE ASSP. Le logiciel sera, à terme, mis à disposition de la communauté.
Description des contenus musicaux
Projets concernés
Nationaux : Quaero, Disco, Sample Orchestrator (SOR), Ecoute, MusicDiscover ; FP7 ICT : 3DTVS, MiReS
Collaborations industrielles : Dalet, Orange, Exalead, Kelis, MakeMusic, WMI
Les activités relatives à l'indexation audio/musique se sont fortement développées pendant la période considérée. Ceci est en partie dû au démarrage du projet Quaero financé par l'Oseo dans lequel l'Ircam coordonne les activités relatives à l'indexation musicale (recherche, création de corpus, intégration). Ce projet a permis d'asseoir cette thématique à l'Ircam à travers ces différentes composantes : recherche, évaluation / constitution de corpus et développement / intégration. Durant cette période, nous avons également participé à de nombreux autres projets : ACI Masse de données "Music Discover" (développement d'interface de navigation basé sur le contenu), RIAM Ecoute (indexation musicale et segmentation parole/musique), ANR Sample Orchestrator (indexation des échantillons audio), ANR MDCO DISCO (passage à l'échelle des recherches par similarité) et participons au projet européen MIReS (création d'une feuille de route pour l'indexation musicale). Nous résumons ces évolutions depuis janvier 2007.
Les recherches relatives à l'indexation audio s'articulent autour de deux grandes thématiques reposant sur des techniques différentes : (a) estimation de paramètres musicaux variables en temps (b) estimation de paramètres globaux à un morceau de musique. L'étude de ces différentes facettes vise à fournir une description complète du contenu audio.
Dans la première thématique, nous avons étudié de nouveaux algorithmes pour : " l'estimation du tempo (approche supervisée et non supervisée de création gabarits spectraux représentant les différents patterns rythmiques possibles [Peeters11c], estimation par régression GMM [1]), " l'estimation de la position des battements et des premiers temps (modèle de Markov inversé dans lequel le temps est la variable cachée, utilisant des observations de type énergie, variation temporelle des chromas et balances spectrales [Peeters11a]), " l'estimation de la suite temporelle d'accords et de la tonalité locale (modèle de Markov à états-doubles reposant sur des règles de transition dérivé de la théorie musical permettant le décodage simultané des accords, du premier temps et de la tonalité locale ; [Papadopoulos10a] [Papadopoulos11a]), " de localisation et caractérisation des segments de voix chantés (description du signal par paramètres intonatifs  vibrato, tremolo, portamento  combinés à une description du spectre par true-envelope [Regnier12b]), " pour l'estimation de la structure musicale d'un morceau (utilisation de matrices de similarité d'ordre supérieurs et estimation par approche maximum de vraisemblance [Peeters07c]).
Dans la deuxième thématique, nous avons étudié : " le développement de nouveaux descripteurs audio (pour la description du timbre [Peeters11d], de la morphologie des sons [Peeters10a], de la "production studio" d'un morceau [Tardieu11a]), " de nouveaux algorithmes pour la classification et la segmentation automatique (développement d'un algorithme générique basé sur la sélection automatique des meilleurs descripteurs [Peeters07b], subdivision des problèmes de classification en sous-problèmes binaires résolus par SVM [Burred09b]), ces algorithmes sont ensuite utilisés pour segmenter automatiquement un flux audio en parole / musique, segments chantés / instrumentaux ou fournir un (ou plusieurs) label(s) de type genre, humeur, instrumentation, " de nouveaux algorithmes pour la recherche par similarité acoustique (modélisation des descripteurs par technique « Super Vector » [Charbuillet11a]), " de nouveaux algorithmes permettant le passage à l'échelle des recherches par similarité (transformation des distances afin de palier l'absence d'inégalité triangulaire [Charbuillet10a]), " de nouveaux algorithmes pour l'identification audio par technique de type  fingerprint (utilisation de descripteurs de type  spectre de modulation , synchronisation des codes par détection d'onsets [Ramona11c]).
L'évaluation a une place prédominante dans l'indexation musicale et pour cela nous participons régulièrement aux campagnes d'évaluation internationale MIREX. Afin de palier les défauts méthodologiques de MIREX, nous avons initié la création des campagnes d'évaluation internes du projet Quaero. Pour ces campagnes, nous avons proposé des frameworks d'évaluation [Ramona11b] ainsi que des corpus annotés. Depuis 2009, nous avons effectué un travail important dans le domaine de création de corpus annotés, tant concernant la création/validation de concepts d'annotation pour la musique [Peeters09c], la description du contenu de ces corpus [Peeters12a], que la création même (une base de 8000 titres musicaux annotés a ainsi été crées). Afin de permettre une pérennisation de ces travaux au delà du projet Quaero, l'Ircam a commencé cette année à s'impliquer dans l'organisation de tâches musiques dans les campagnes Media-Eval [Orio12b].
Les méthodes proposées testées positivement lors des évaluations ont ensuite été développées en C++. Ceci a donné naissance à la série de logiciels : ircamclassification, ircambeat, ircamchord, ircamstructure, ircamdescriptor. Certains de ces logiciels sont ensuite intégrés dans des applications spécialisées (ircambeat intégré dans AudioSculpt ou prochainement dans la plate-forme de montage vidéo de Stupeflix), ou publiques comme le moteur de recherche musicale MSSE d'Orange [Peeters12b], ou MUMA d'Exalead [Lenoir11a].
Analyse, traitement et synthèse de la voix
Projets concernés
Nationaux : ANR Vivos, Rhapsodie, Affective Avatars ; Feder Angel Studio, Respoken
Licences/contrats industrielles : Xtranormal /SuperVP-VoiceForger, Studio Parreno/ SuperVP-Voice Converter
Le domaine du traitement de la voix correspond à une demande forte des musiciens de l’Ircam et se trouve en phase avec la forte croissance du multimédia qui réclame des outils d'analyse, de transformation et de synthèse de la parole. Nous mettons aussi l’accent sur les analogies de structure, à tous les niveaux, entre la musique et la parole et sur des collaborations fructueuses avec des équipes de traitement de la parole, de multimédia, et de linguistique notamment. Les résultats de recherche ont été utilisés dans de nombreuses productions musicales et théâtrales (J. Harvey, S. Gervasoni, E. Nunes, J.B. Barrière, H. Parra, G. Pesson, G. Aperghis, J. Rebotier, O. Cadiot et L. Lagarde, compagnie Mabel Octobre, etc.), et ont donné lieu à divers contrats de recherche et de développement, publiques et privés, et à plusieurs logiciels vendus. Les principales thématiques étudiées et résultats obtenus sont :
Segmentation de la parole : La délimitation précise des unités (du phone jusqu'à la phrase) est l'une des bases des traitements. Création du logiciel ircamAlign pour le Français et l'Anglais.
Gestion de corpus oraux : Tous les travaux nécessitent la gestion de bases de données et méta-données d'enregistrements, certaines très grandes. En interne et dans le projet Rhapsodie, étude création des systèmes de gestion de bases de données d'unités de parole IrcamCorpusTools et RhapsodieCorpusTools
Modélisation de la prosodie du Français et du style de parole : En traitement comme en synthèse, la prosodie doit être prise en compte. Un modèle pour l'analyse et la synthèse de la prosodie et du style de parole a été développé. Il repose sur un apprentissage statistique à partie de corpus oraux. La thèse de N. Obin [Obin11e] a reçu le prix de la fondation Des Treilles.
Synthèse à partir du texte : Pour les applications artistiques, un système de synthèse à partir du texte doit être de très haute qualité, extrêmement flexible et pouvoir synthétiser toutes sortes de voix à la demande des artistes. Les logiciels IrcamTTS (par sélection d'unités) et IrcamHTS ont été développés en utilisant IrcamCorpusTools et ont servi dans de nombreuses productions artistiques.
Transformation de la voix : De nombreuses applications réclament diverses transformations, de type et de nature (homme-femme, âge, etc.), de timbre (tendu-relaché, chuchoté, etc.), d’expressivité (vivante-plate, joyeuse-triste, etc.) et de conversion d'identité (faire parler le locuteur B comme le locuteur A). Ces transformations ont été étudiées et des logiciels correspondants ont été développés (Plugin SuperVP-TRAX, bibliothèques VoiceForger et Emotive, logiciel IrcamVoiceConversion)
Séparation de la source glottique et des influences du conduit vocal : Pour les transformations réalistes, il est indispensable de déconvoluer la source et le conduit vocal. C'est un objet de recherche mondiale depuis des années. Nous avons obtenu des résultats remarquables [Degottex10b] permettant l'estimation de paramètres d'un modèle de débit glottique et donc la synthèse.
Les principaux résultats sont :
Nombreuses utilisations du traitement de la voix par les compositeurs.
Une méthode de déconvolution de la source glottique et du conduit vocal.
Mise au point d'une base de données et d'un langage de requêtes en ligne sur un corpus de parole spontanée annoté prosodiquement et syntaxiquement. Ce qui semble être une première mondiale.
Modèle de prosodie sur des segments linguistiques variés et pour plusieurs styles de parole.
Une gamme complète de transformations de la voix.
Une synthèse à partir du texte de voix d'acteurs (André Dussolier) très proche du naturel.
Modélisation physique pour l’analyse et la synthèse du son
Projets concernés:
ANR: Cagima, Consonnes, HamecMopSys ;
Collaboration Industrielle : Orosys ; Collaboration Publique : INRA UR341 MIA-Jouy-en-Josas
Le programme de recherche intitulé "Modélisation physique d’instruments de musique et de la production de la voix : problèmes directs et inverses" a trois objectifs : (1) modélisation physique réaliste de systèmes audio (électro / vibro / aéro-acoustiques) pour la synthèse sonore en temps réel, (2) prédiction et optimisation (des composants, géométries, matériaux), (3) inversion entrée-sortie (trouver un pilotage qui génère un son cible) et problèmes de commande, asservissement, observateurs d’état de systèmes dynamiques. Leurs intérêts sont de fournir : (1) des comportements naturels (attaques, transitoires, etc), (2) des outils d’aide à la lutherie, (3) de bons “gestes de pilotage” et “interprétations”. Ces travaux s’articulent autour de l’acoustique, traitement du signal, théorie des systèmes, automatique, et plus récemment, mécatronique et robotique.
Une part importante de ces travaux concerne les instruments à vents. Pour combiner réalisme et temps réel, nous avons cherché des modélisations, approximations et réductions d’ordre de tubes acoustiques à section variable, qui préservent des raffinements importants. Concernant la géométrie, nous avons établi une impédance de rayonnement compatible avec une équation des pavillons obtenue par redressement de la carte isobare, pour une hypothèse de quasi-sphéricité d’ordre minimal. L’approximation de profils R en tronçons à paramètre Y=R’’/R constant par morceaux (cas convexe R (0)) a permis de traiter correctement les profils réguliers (C1) avec des matrices de transfert acoustiques analytiques. Concernant les pertes, les dissipations visco-thermiques (terme en dérivée temporelle d’ordre fractionnaire 3/2) introduisent des effets de “mémoire longue” (réponse impulsionnelle à décroissance plus lente que toute exponentielle). Avec D. Matignon, nous avons déployé des outils théoriques et pratiques pour analyser, représenter et simuler de tels systèmes fractionnaires ou irrationnels dont le spectre rassemble des singularités dénombrables (pôles) et continues (coupures C) [Helie07a]. Grâce à un formalisme en  représentations intégrales (dites  diffusives si C=R"), des approximations optimisées réduisent cette complexité à une dimension typique de 10 à 20. Avec cette approche, dans la thèse de R. Mignot, nous avons introduit des systèmes à retards conduisant à des “guides d’ondes numériques”, et résolu le problème d’instabilité (considéré jusqu’alors paradoxal) d’ondes progressives dans les tubes convexes [Helie07a, Mignot08a, Mignot10a, Mignot11a, Mignot11b]. La pertinence de tous ces “ingrédients” a été validée par des mesures (géométrie, impédance) [Helie11d], article de revue en révision]. Une simulation à passivité garantie impliquant des ondes progressives globalement découplées (inconditionnellement stables) est à l’étude [Helie12b].
Un autre volet concerne les systèmes entrée-sorties non linéaires, capables de représenter les variations de timbres aux nuances fortissimo. Ainsi, nous avons adapté les séries de Volterra au cas d’équations aux dérivées partielles faiblement non linéaires : application au cas de la propagation dans les instruments de type cuivres (eq. de Burgers modifiée avec pertes, avec dérivation fractionnaire) et, pendant la thèse de D. Roze, corde amortie en grande déformation [Helie08a] et poutres de Reissner. Une généralisation en série de “Green-Volterra” (noyaux spatio-temporels) combinant les formalismes à fonction de Green et séries de Volterra [Roze12a] vient d’être soumis en revue. Th. Hélie a aussi proposé un changement d’état “localement linéarisant” qui étend l’efficacité des séries de Volterra à des systèmes à forte saturation (application au circuit du filtre de synthétiseur Moog) [Helie10b]. Des Plug-Ins audio temps réel ont été développés d’après ces résultats. Avec B. Laroche, nous avons établi des théorèmes fournissant des bornes garanties calculables du rayon convergence et d’erreur de troncature de séries de Volterra pour des classes de systèmes (non-linéarité quadratique en l’état [Helie08b], polynomiale [Helie09b], analytique [Helie10b], à entrée multiple [Helie10j], en dimension finie puis infinie [Helie10j, article de revue soumis]). Dans le cadre de la thèse CIFRE d’I. Cohen, une approche plus classique en systèmes non linéaires algébro-différentiels avec mise en équation automatique de circuit électronique a été appliquée à la simulation temps réel d’amplificateurs guitare à lampes (un banc de mesure de triodes à vide a été développé et des améliorations de leurs modèles proposées).
Enfin, pour appliquer des outils d’inversion, nous avons développé avec B. d’Andréa-Novel et J.-M. Coron, un observateur d’état d’un modèle complet de cuivre (système différentiel à retard non linéaire “neutre”) [AndreaNovel10a]. Afin d’étudier et valider des modèles aéro-acoustiques par des mesures et expériences automatisées reproductibles, depuis le projet ANR Consonnes, nous avons coordonné avec l’Ecole des Mines-ParisTech, puis encadré des travaux de mécatronique et robotique : une bouche artificielle robotisée dédiée au jeu des cuivres a été construite.
Equipe Représentations musicales
L'équipe Représentations musicales est spécialisée dans l’étude des représentations symboliques des structures et des processus musicaux et leurs applications à la composition assistée par ordinateur (CAO), aux approches computationnelles de la théorie et de l’analyse musicales, à l’intelligence de l’écoute et de l’interaction improvisée. Ce travail se fonde notamment sur une importante activité de recherche et de développement dans le domaine des paradigmes de programmation, langages et architectures adaptés à la musique. La réflexion sur les représentations formelles des concepts musicaux, appuyée sur les langages informatiques et les environnements développés par l’équipe, débouche sur l’implémentation de modèles expérimentaux, de prototypes, de logiciels applicatifs qui peuvent se tourner vers la création comme vers l’analyse et la performance vivante.
Une part importante de l’activité de l’équipe a ainsi été dédiée à l’élaboration de langages (langages visuels, langages multiparadigmes incluant les aspects fonctionnels, objet et logiques, plus récemment langages synchrones) et d’architectures (architectures à composants, environnements mixtes de programmation et d’édition visuelle de données). Un des ses fleurons est le langage OpenMusic largement utilisé par la communauté des compositeurs et des musicologues. En 2011 l’équipe a accueilli A. Cont (ex IMTR) et J.L. Giavitto (DR CNRS ex Ibisc), rejoints en 2012 par F. Jacquemard (CR Inria), pour y former le projet MuSync, une équipe projet commune avec l’Inria, en cours de validation, sur l’écoute, l’alignement et la synchronisation, qui renforcent notamment la thématique langage et programmation.
Toutes ces modélisations informatiques et musicales visent à définir des représentations et des algorithmes susceptibles de capturer les phénomènes musicaux dans leur richesse en intégrant, au dessus du niveau du signal audio, certaines de leurs structure symboliques, sémantiques et cognitives.
MISA : Modélisation informatique des structures algébriques en musique et musicologie
Le projet « Modélisation Informatique des Structures Algébriques en musique et musicologie : aspects cognitifs, philosophiques et épistémologiques » (en abrégé : MISA) a été envisagé en 2007-2012 selon une double perspective, à la fois de recherche théorique et d’« institutionalisation » du rapport mathématiques/musique en tant que discipline (avec l’organisation de nombreux séminaires d’études, le lancement de deux collections d’ouvrages et la participation à la création d’une revue de mathématiques à comité de lecture sur les liens mathématiques/musique). Les deux problèmes théoriques sur lesquels le projet MISA a donné les résultats les plus intéressants sont les suivants :
1. Formalisation algébrique et catégorielle de la théorie des ensembles des classes de hauteurs (Set Theory) et de la théorie transformationnelle (Transformational Theory)
2. Etude algébrique du processus de construction des mosaïques et des pavages en théorie et composition musicales.
Les deux résultats principaux du travail de recherche sur la Set Theory ont été d’un coté la mise en place d’une approche dite « paradigmatique » assistée par ordinateur dans le problème de la classification des structures musicales via l’action d’un groupe (ou paradigme) sur un espace des paramètres et de l’autre coté la formalisation catégorielle de la théorie transformationnelle (D. Lewin), ainsi que la formalisation à base de DFT.
Le deuxième sujet concerne le problème de la construction de canons rythmiques ayant une propriété globale de réaliser un pavage de la ligne du temps (canons rythmiques mosaïques). Un numéro spécial du Journal of Mathematics and Music (sous la direction de M. Andreatta et C. Agon) a été consacré à ce problème [Andreatta09c] et deux articles du Perspectives of New Music par M. Andreatta et C. Agon reviennent sur la construction des canons et les aspects computationnels du projet [Andreatta11a] [Agon11b].
Plusieurs thèses soutenues dans l’équipe s’inscrivent, directement ou indirectement, dans le projet MISA, comme la thèse de Yun-Kang Ahn sur l’analyse musicale computationnelle [Ahn09a], celle de Stephan Schaub [Schaub09a] sur Xenakis et dans la tradition set-théorique américaine ainsi que la thèse (sur travaux) d’Emmanuel Amiot, sur la modélisation algébrique [Amiot10a]. D’autres thèses, en cours, prolongent le projet MISA dans ses dimensions à la fois logiques et cognitives, ainsi que dans ses aspects informatiques. C’est le cas de la thèse en cours de John Mandereau (en cotutelle Université de Pise / UPMC) sur les aspects computationnels des Systèmes évolutifs à mémoire ainsi que la thèse en cours de Louis Bigo sur la programmation spatiale et ses rapports avec l’analyse musicale néo-riemannienne. Ce dernier travail étudie l’apport de notions issues de la topologique algébrique à l’analyse musicale notamment à l’aide du langage MGS [Giavitto12a]. Un premier résultat a été la construction systématique d’une représentation simpliciale des réseaux de notes et des progressions d’accords par une procédure d’auto-assemblage ainsi qu’une classification des séries tout intervalle à partir d’une construction topologique [Bigo11c].
Enfin une branche plus orientée Ethno-musicologie expérimentale et modélisation est animée par Mondher Ayari, chercheur associé dans les équipes PDS et RepMus. Elle est notamment attachée au projet ANR CreMusCult (2011-2013) qui associe outre l’Ircam, les Universités de Stasbourg, de Jyvaskyla et McGill.
Rapports signal-symbolique
Représentation et écriture du son
L'intégration des techniques de création électroacoustiques (synthèse, analyse, traitement des sons) dans le contexte de processus compositionnels pose la question de l'articulation du signal sonore et du signe musical dans les outils de calcul et de représentation. Cette thématique, présente dans les travaux de l'équipe Représentations Musicales depuis plusieurs années, a été explorée spécifiquement à travers la thèse de Jean Bresson (soutenue fin 2007), visant à explorer les nouvelles modalités d'écriture musicale mettant en jeu les sons et la synthèse sonore. C'est ici l'écriture, en tant qu'activité de modélisation, qui est mise en avant plutôt que les données musicales à proprement parler. En étendant cette notion au domaine du signal, une nouvelle approche de la synthèse émerge, axée prioritairement sur des considérations d'ordre symboliques et compositionnelles, plutôt que sur les problématiques liées aux données et au traitement du signal. Un ensemble de bibliothèques ont été développées depuis et utilisées pour le contrôle de différents outils d’analyse, de traitement et de synthèse sonore dans l’environnement OpenMusic. La bibliothèque OMChroma fait partie des composantes majeures de ce projet. En 2011, l’étude a porté sur le synthétiseur CHANT, posant de nouveaux problèmes de représentation continu/discret. Ces travaux ont été prolongés en 2012 lors du stage ATIAM de Raphaël Foulon, et utilisés pour la production de la partie électronique de l'opéra Re Orso de M. Stroppa, créé à l’Opéra Comique de Paris en mai 2012.
Contrôle de la spatialisation et synthèse sonore spatialisée.
À la suite des travaux concernant l'intégration de processus de synthèse et traitement sonores dans l'environnement de composition assistée par ordinateur OpenMusic, ce projet s'est intéressé aux contrôle compositionnel de la spatialisation sonore, et plus généralement à l'idée de synthèse sonore spatialisée (une extension de la notion de processus de synthèse faisant intervenir la spatialisation en amont et au moment même de la production des sons par la synthèse). De nouveaux objets ont été développés dans OpenMusic pour représenter et manipuler les données spatiales (géométriques et acoustiques). Ces objets peuvent être créés et manipulés grâce à des éditeurs graphiques, ainsi que par des opérateurs géométriques et autres fonctions offrant richesse et expressivité dans la spécification de scènes spatiales. La notion de synthèse sonore spatialisée est introduite par l’intégration de ces outils aux processus de synthèse sonore développés dans l’environnement, et permet un approche inédite de la création sonore incluant paramètres de synthèse et données spatiales au sein de processus unifiés. Les scènes et descriptions spatiales créées dans OpenMusic peuvent être interprétées par la plupart des moteurs de rendu.
Orchestration assistée par ordinateur
Ce projet a fait l’objet d’une thèse par Grégoire Carpentier [Carpentier08a] et a constitué un paquet du projet ANR multi-équipe « Sample Orchestrator » (2006-2009). L’objectif était de réaliser un environnement d’aide à l’orchestration imitative d’un son cible par une mixture d’instruments acoustiques, en utilisant les ressources disponibles en termes de bases de données d’échantillons. Nous avons proposé une formalisation générique et extensible en nous plaçant dans un cadre de recherche combinatoire multi-critère sous contraintes, dans lequel plusieurs dimensions perceptives sont optimisées conjointement pour approcher un timbre cible. Nous avons présenté un algorithme évolutionnaire (Orchidée) permettant de découvrir en un temps raisonnable un ensemble de solutions optimales [Vinet11a], [Carpentier09a, 09c, 12a]. Ce prototype a été utilisé pour l’écriture de la pièce Speakings de Jonathan Harvey (création 2008, royal Albert Hall, Orchestre de la BBC), et, depuis, par un nombre croissant de compositeurs.
Cette première avancée dans un domaine de recherche encore inexploré ne permettait que l'utilisation de descripteurs audio moyennés sur l'ensemble du spectre. Les résultats ainsi obtenus ne concernaient donc que des timbres statiques omettant toute évolution temporelle. Une nouvelle thèse a été initiée en 2009 par Philippe Esling dont l’objectif principal est la conception d'algorithmes d’analyse et d’indexation massive et multi-objectif sur des séries temporelles. Nous avons mis au point un nouveau paradigme de classification audio HV-MOTS (Hyper Volume MultiObjective Time Series) dont les applications donnent des résultats très supérieurs aux meilleurs connus en classification audio générique, justifiant une publication dans les ACM Computing Surveys [Esling11a]. Un nouveau prototype d’orchestration dynamique [Esling10c] a été proposé sur la base de ces idées qui trouvent par ailleurs des développements dans d’autres domaines, notamment médicaux.
Interaction symbolique
Modélisation du style, de l’interaction, de l’improvisation
Le projet Omax vise à constituer un système d’improvisation automatique qui écoute un musicien jouer, analyse sa substance sonore et son style musical, en construit un modèle formel, et génère ses propres séquences en se référant à ce modèle. Ces quatre opérations doivent être supportées par des processus concurrents et interactifs dans un cadre temps réel de manière à se rapprocher au mieux du système complexe de l’improvisation. A partir du stage de Master de B. Lévy [Lévy09a] puis de son début de thèse en 2010, une nouvelle architecture complètement redessinée et une implémentation en Max et en C sont à l’œuvre. Cette nouvelle approche permet la découverte adaptative d’alphabets d’unités musicale, la séparation du modèle formel (Oracle des facteurs) et des données, et une meilleure heuristique de navigation avec anticipation [Assayag07a, Bloch08a, Dubnov08a, Cont10c, Lévy12a]. Une seconde thèse menée par F. Maniatakos, et soutenue en juin 2012, s’est attachée aux aspects mathématiques de la structure formelle d’Oracle de facteurs dont elle a pu surpasser les principales limitations [Maniatakos 10a, 10b, 10c, 12a]. Un fil de recherche en collaboration avec S. Dubonv (UCSD) et A. Cont, permet d’explorer les potentialités de notre modèle de séquence dans le domaine de l’indexation audio et de la théorie de l’information musicale (Musical Information Dynamics) [Cont07a, 10b, Dubnov11a]. Enfin, une nouvelle branche (SoMax) du projet est portée par Laurent Bonasse-Gahot (Post-Doc ANR SOR2). Il s’agit de dévier le concept d’improvisation vers celui d’accompagnement en contraignant pas à pas la production de l’Oracle selon le flux d’entrées du musicien, avec un modèle appris dans de grands corpus liés à un genre donné.
A ce jour le projet OMax a donné lieu à plus de 50 concerts et a été utilisé par des musiciens de réputation internationale.
REACT : Robust theories for emerging applications in concurrency theory
Ce projet en deux phases (2007-2009 et 2011-2013) monté avec l’université de Cali et le laboratoire LIX de l’Ecole Polytechnique est financé par le Colciencias Colombien.
Il s’agissait de déployer le calcul formel de processus concurrents dans trois directions : les protocoles de sécurité, la biologie moléculaire et l’interaction en musique et multimédia. L’équipe RepMus s’est impliquée dans à ce troisième volet. Les contributions de l’équipe ont permis de nouvelles implémentations de machines d’éxécutions de NTCC (Non Deterministic Timed Concurrent Constraints), un calcul formel de type CCP développé par l’équipe de Camilo Rueda à Cali, l’implémentation de l’Oracle de facteurs (le modèle formel du logiciel OMax) en NTCC et un prototype d’éxécution dans l’environnement Max (stage de Mauricio Toro).
Composition assistée par ordinateur
L’équipe Représentations musicales assure le dévelopement de l’environnement de composition assistée par ordinateur OpenMusic (OM), dans lequel sont intégrés les résultats de nombreux projets et collaborations artistiques. OpenMusic est utilisé par un grand nombre de compositeurs et de musicologues. Il est enseigné dans les principaux centres d’informatique musicale ainsi que dans différentes universités en Europe et dans le monde.
OpenMusic
OpenMusic (OM) est un environnement de programmation visuelle pour la composition ou l’analyse musicale assistées par ordinateur. OM offre à l’utilisateur de nombreux modules associés à des fonctions et de s éditeurs graphiques, connectés les uns aux autres pour constituer un programme (ou patch) permettant de générer ou transformer des structures et données musicales. Les années 2007-2008 ont marqué une étape technologique majeure pour l’environnement OpenMusic réécrit sur le compilateur LispWorks en version multi-plates-formes pour Macintosh Intel/PPC et Windows. Ce passage a été l'occasion de redéfinir certains aspects du design général et des bases de l'application. Un effort de compatibilité et de documentation a également été fourni, permettant d'assurer le portage des travaux provenant de versions antérieures dans le nouveau système. Plus récemment, une architecture a été mise au point pour intégrer la notion de segmentation dans les objets musicaux existants, et permettre le développement de modèles d'analyse musicale dans les éditeurs et autres processus développés dans OpenMusic. La représentation de segments abstraits est un pré-requis important à toute démarche d'analyse musicale assistée par ordinateur notamment la quantification rythmique.
Partitions et notations temporelles
Le sheet est un nouveau type de document hétérogène et dynamique développé dans OpenMusic de 2009 à 2011 et permettant d'intégrer objets et processus musicaux hétérogènes (partitions, signaux, fonctions) dans une représentation temporelle favorisant la forme traditionnelle de notation musicale. Les évènements simultanés doivent se situer à la même position sur l'axe temporel, de sorte qu'il faille satisfaire à la fois la contrainte d'affichage spatial, et celle de synchronisation. Différents systèmes temporels peuvent donc être intégrés dans une telle représentation : temps pulsé, temps proportionnel, ou encore temps continu. Le deuxième aspect de l'éditeur de sheet concerne ses possibilités de programmation. En proposant de fédérer données musicales et processus de création de ces données, OpenMusic étend en effet le concept de notation au domaine de la programmation même de ces processus. Dans le cas d'un objet comme le sheet, cette intégration se manifeste par la possibilité d’y attacher un ou plusieurs programmes visuels capables d’accéder à son contenu afin de lire, modifier ou générer les objets musicaux qu’il contient.
Le projet de « partitions interactives » qui a fait l’objet de la thèse d’Antoine Allombert soutenue en 2009 (co-direction avec M. Desainte Catherine, au Labri) a permis de rajouter un système de contraintes temporelles statiques à l’outil « maquettes » et une machine d’exécution basée sur un réseau de Petri pour conjoindre ces contraintes « compositionnelles » et les points d’interaction fluctuants attachés au jeu réel des musiciens [Allombert09a, 11a, 12a].
Musique Lab 2 : De la CAO à l’enseignement musical
Musique Lab 1 est un projet initié en 2004 en partenariat avec le Ministère de l'Education Nationale, visant à développer des applications pédagogiques pour l'enseignement de la musique tirant parti des techniques de calcul et de représentation, ainsi que du savoir faire de l'Ircam dans les domaines de la composition assistée par ordinateur, du traitement du signal ou encore de l'analyse musicale. Le partenariat a été renouvelé en 2008-2009 pour l’adaptation à l’environnement OpenMusic multi-plates-formes et la constitution d’archives pédagogiques.
Une application (baptisée elle-même Musique Lab 2) a été développée à partir de l'environnement OpenMusic afin de permettre aux professeurs ou élèves de classes de musique de construire des structures musicales par des processus calculatoires inspirés de la CAO. Cette application est destinée à des utilisateurs non expérimentés (professeurs, élèves des classes de musique), et a donc nécessité une remise en question des principes d'interaction classiques de OpenMusic en tant que langage de programmation visuel (patchs, connections, etc.), pour aller vers un nouveau type d'interaction intuitive entre objets musicaux et opérateurs préprogrammés. Les documents pédagogiques créés avec cette application concrétisent des situations pédagogiques dans lesquelles sont étudiés des concepts ou extraits musicaux, dans une interaction pédagogique entre professeur et élèves. Divers formalismes et concepts musicaux sont abordés, tels que les différents paramètres des structures musicales, les transformations et opérations sur ces structures, l'harmonie, l'intégration temporelle des objets musicaux.
Interactions musicales avec le papier et les environnements de composition assistées par ordinateur
Après avoir implémenté divers systèmes pour la génération de partitions instrumentales et électroniques, nous avons orienté nos recherches sur un système de partition favorisant l’interaction directe entre la feuille de papier et l’ordinateur. Le papier interactif se base sur la technologie ANOTO qui associe du papier pré-imprimé avec une trame de points et un stylo doté d’une caméra dans la pointe. L’analyse de la trame permet au stylo de se repérer de manière absolue sur un espace d’une surface équivalente à 60 millions de km2. La division de cet espace en pages permet au stylo de déduire la page utilisée et sa position précise sur celle-ci. Le but de ce projet est de comprendre les modalités d’expression sur le papier qui, associées aux systèmes informatiques, favorisent la création. Ce projet a commencé par une évaluation exploratoire avec des compositeurs à l’Ircam afin de mieux comprendre le rôle du papier dans le processus créatif. À partir de ces entretiens, nous avons réalisé de prototypes d'interaction pour tester la richesse et la souplesse du papier lors de l’expérimentation avec les logiciels OpenMusic et Max/MSP. Des recherches se poursuivent actuellement dans la création d'outils, avec la participation de compositeurs, pour la saisie et la manipulation de données musicales complexes sur le papier en interaction avec le logiciel OpenMusic. Une application de ces travaux nous a conduit à réaliser un outil spécifique permettant d'utiliser des représentations spatiales comme support pour la composition. Ce travail recoupe les projets de thèse en cours de Jérémie Garcia et de Louis Bigo, en collaboration avec le laboratoire InSitu (Inria / LRI paris Sud).
Synchronisations Musicales (MuSync): écoute intelligente et modèles de programmation
Ce travail s’effectue dans le cadre d’une équipe-projet commune (MuSync) Inria/CNRS/Ircam en cours de formation et rattachée à RepMus en janvier 2012. Deux chercheurs RepMus (A. Cont et J.L. Giavitto) ainsi qu’un CR Inria (F. Jacquemard) sont rattachés au projet. Ce projet de recherche est à la confluence de deux problématiques importantes en informatique musicale : la reconnaissance et l’extraction des données musicales en temps réel depuis un signal audio, et la programmation synchrone réactive pour l’écriture du temps et de l’interaction. Cette synergie s’incarne à travers le logiciel Antescofo qui intègre l’état de l’art en suivi de partition temps réel avec un langage de programmation synchrone offrant au compositeur un outil expressif pour l’écriture des parties électroniques. Antescofo a très vite connu une large reconnaissance  (plus de 40 créations artistiques Ircam et des ensembles de renommée mondiale tels que l’Orchestre Philharmonique de Berlin ou celui de New York). Antescofo est lauréat du prix spécial du jury du magazine La Recherche en 2011.
Écoute artificielle
Le suivi de partition ou alignement temps réel de l’audio sur une partition symbolique à l’Ircam, à travers Antescofo, constitue l’état de l’art dans la littérature en terme de modélisation et de performance. Depuis 2011, la machine d’écoute a été étendue par des capacités de reconnaissance polyphonique et a été évaluée dans plusieurs situations de concert. En 2011, Nicola Montecchio (doctorant) a étudié l’apport des algorithmes de décodage temps réel de filtrage particulaire pour étendre le champ du suivi de partition vers l’alignement de signaux audios [Montecchio11a] ainsi que pour l’alignement des pistes dans les sessions d’enregistrement, une application d’aide au mixage dont la valorisation sera étudiée en 2012-13.
La transcription en temps réel consiste en la reconnaissance des hauteurs multiples (polyphonique) à partir d’un flux audio temps réel et en utilisant des méthodes de factorisation non-négative. Les algorithmes existants ont été étudiés et plusieurs améliorations en termes d’optimisation des recherches et de parcimonie ont été proposées [Dessein11c]. L’application a été également étendue vers la reconnaissance des événements sonores. Enfin, de nouveaux algorithmes de transcription polyphonique en temps réel fondés sur les divergences de Bregman (Géométrie de l’information) ont été développés, dont un prototype qui a été implémenté dans l’environnement musical temps réel Max/MSP en collaboration avec Thomas Goepfer, référent pour les réalisateurs en informatique musicale de l’Ircam, et avec des compositeurs tels que Gilbert Amy, Philippe Manoury, Peter McCulloch.
Le thème de la géométrie de l’information exploré par Arshia Cont dans sa thèse soutenue en octobre 2008 (Prix de thèse Gilles Kahn) est poursuivi dans le cadre d’une nouvelle thèse entamée en 2009 par Arnaud Dessein.
La géométrie de l’information est un domaine récent des mathématiques qui étudie les notions de probabilité et d’information par le biais de la géométrie différentielle. L’idée est de représenter les signaux musicaux dans un tel cadre pour bénéficier de ses outils géométriques et statistiques puissants aux fins de fouille de données musicales et d’extraction de contenus à partir de flux audio pour l’analyse et la transformation. De nouveaux algorithmes de détection de changements en temps réel pour les familles exponentielles ont été proposés avec des applications en segmentation spectrale et timbrale de musique, de parole, et de textures sonores. A partir de cette segmentation, des premiers exemples de recherche de structures et de synthèses sonores ont été ébauchés et seront poursuivis en collaboration avec Carmine Emanuele Cella, compositeur en recherche musicale.
L’aspect communautaire a également été développé, notamment par le biais du séminaire Léon Brillouin organisé par l’Ircam en partenariat avec Thales et le LIX, et la participation à des sessions spéciales en conférences et à des ateliers de travail, entre autres MIG, SMAI, GRETSI.
Langage synchrone pour la musique mixte
L’architecture d’Antescofo couple la machine d’écoute avec un langage synchrone permettant de relier l’écriture du temps musical dans les partitions de musique mixte et son instantiation lors de la performance actuelle.
En 2011, nous avons augmenté la sémantique du langage d’Antescofo en étudiant plusieurs stratégies de synchronisation des groupes d’actions électroniques pour un meilleur rendu au moment de l’exécution. Cette étude, menée dans le cadre d’un travail de Master, a proposé une sémantique formalisant ces stratégies tout en prenant en compte la gestion des erreurs en temps réel (erreurs issues de la reconnaissance automatique ou du musicien sur scène) [Echeveste11a]. Ces résultats ont été présentés à la communauté des langages réactifs synchrones [Echeveste11c] et ont été intégrés dans le langage d’Antescofo.
Ce travail se poursuit avec la thèse de José Echeveste (UPMC, Dir. J.-L. Giavitto, encadrement A. Cont) entamée en septembre 2011. L’objectif est d’étendre le langage synchrone dédié d’Antescofo vers des stratégies de synchronisation et de rattrapage plus robustes et plus fines, de simplifier le moteur réactif afin de diminuer la charge de calcul, et d’intégrer des parties calculatoires plus complexes (gestion déclaratives d’événements logiques, horloges calculées, variables de flux) afin de proposer aux compositeurs une puissance d’expression plus grande. A plus long terme, cette recherche vise à comprendre et maitriser les relations temporelles entre les parties synchrones (e.g., flux audio) et asynchrones (e.g., événement de la partition) dans une œuvre interactive et à proposer de nouveaux types de couplages et de nouvelles dimensions créatives dans l’interaction.
Equipe Analyse des pratiques musicales
L’équipe mène des recherches musicologiques (en dialogue étroit avec les autres sciences humaines et sociales) sur les œuvres, les pratiques et les situations musicales contemporaines. Ses travaux se concentrent sur ce qui constitue le cœur de l’activité de l’Ircam : composition et recherche musicale, interprétation du répertoire contemporain, écoute attentive, théorie et analyse musicales. L’accent est mis sur la musique strictement contemporaine (celle dont le chercheur peut observer directement la genèse ou l’évolution), complétée par une mise en perspective historique à travers le XXe siècle.
La période 2007-2012 a permis de valider et d’étendre des axes de recherches mis en place pendant le quadriennal précédent, en particulier l’étude génétique du répertoire contemporain. Nous avons créé une conférence internationale régulière permettant de fédérer largement la communauté de recherche sur ces processus de création musicale. En outre, une nouvelle forme de valorisation de cette recherche – la réalisation de courts-métrages documentaires – a été développée en partenariat. Mais ces cinq années ont aussi permis d’installer de nouvelles activités dans l’équipe, telles que l’édition scientifique d’écrits et d’œuvres de compositeurs, l’analyse musicale du répertoire mixte ou encore le développement de frameworks web pour la publication musicologique. Enfin, le dialogue avec les sciences sociales, constitutif de notre projet depuis ses débuts, s’est concrétisé institutionnellement par de nouvelles collaborations avec l’EHESS, incluant la contribution active au Master Musique (coord. E. Buch) et la participation au LabEx CAP piloté par le PRES Hésam.
Processus, acteurs, techniques de la création musicale
La composition musicale implique à la fois une dimension théorique (qui précède la conception de l’œuvre ou bien la rationalise a posteriori) et un artisanat, transmis par des formes plus ou moins implicites et plus ou moins institutionnalisées de compagnonnage (impliquant désormais ingénieur ou chercheur aux côtés du compositeur et de l’interprète). Ces deux dimensions sont traitées de front par notre démarche d’explicitation des savoirs et savoir-faire des compositeurs contemporains.
Musicologie des techniques de composition contemporaines
Au croisement d’une analyse cognitive, d’une critique génétique et d’une analyse musicale, cette recherche a donné lieu à de nombreuses publications et communications dans les domaines correspondants, mais dans les autres disciplines partenaires (musicologie historique, psychologie, sociologie, sciences de la gestion). Un dialogue soutenu avec la critique génétique (en collaboration avec l’ITEM) a été jalonné par les colloques d’Urbana-Champaign (2007) et de Paris (2008).
Afin de développer des analyses extensives de la composition contemporaine (portant horizontalement sur une multiplicité de cas), complémentaires de nos analyses intensives d’une seule activité de composition (celle de Philippe Leroux pour deux de ses œuvres entre 2002 et 2006), nous avons procédé à des études coordonnées qui étendaient les hypothèses initiales à la fois dans le type de corpus documentaire, dans la période de temps historique, et dans la largeur du spectre esthétique considéré. Après avoir validé cette approche dans une publication collective (Circuit, vol. 18, n° 1, 2008), nous l’avons implémentée au sein d’un projet ANR : Musicologie des Techniques de Composition Contemporaine (MuTeC).
Etude approfondie et coordonnée de plusieurs processus créateurs représentatifs de la musique savante des XXe et XXIe siècles, impliquant chacun une technologie spécifique (montage d’enregistrements sonores, musique mixte avec sons de synthèse, installation sonore avec traitement temps réel, etc.), MuTeC a permis de nombreuses avancées en direction d’une musicologie empirique des processus créateurs. D’abord en éclairant sous un jour nouveau un ensemble d’œuvres de référence de la musique contemporaine (notamment Traiettoria de Stroppa et les Espaces acoustiques de Grisey). Ensuite, en enrichissant et renouvelant les méthodologies existantes de remise en situation de composition sur la base des traces de l’activité (notamment à propos de deux œuvres étudiées pendant leur genèse : Tobi-Ishi de Hervé et Gramigna de Gervasoni). Enfin en proposant un ensemble d’heuristiques et de notions analytiques de façon transversale aux divers cas d’études (qu’ils soient actuels ou historiques). Plus largement, il a ouvert la voie à de nouvelles études de la cognition musicale abordant cette dernière à travers une de ses formes à la fois les plus expertes et les moins étudiées par la psychologie.
Aboutissement public du projet, la 1ère conférence internationale TCPM (Tracking the Creative Process in Music s’est tenue à Lille en 2011. Elle a réuni pour la première fois des chercheurs d’origine disciplinaire différente travaillant sur les processus de création musicale. De nombreux doctorants et post doctorants ont participé, prouvant le caractère très actuel de ces études. Les sessions ont été accompagnées notamment d’une table ronde "Analyse des processus créateurs et recherche en art" avec les représentants de plusieurs grands programmes de recherche/création en Conservatoire et à l’Université, dans plusieurs pays, inscrivant nos travaux dans la perspective du rapide développement institutionnel des doctorats en art. Enfin, le principe d’une conférence TCPM tous les deux ans a été admis (2ème édition à Montréal en octobre 2013, 3ème édition en discussion).
Suivi de la conception collaborative d’un « quatuor augmenté »
L’élargissement de la composition au processus créateur en général (avec ses différents acteurs) a été concrétisé par une observation de terrain, de longue durée, portant sur la conception d’un « quatuor à cordes augmenté » (où instruments et instrumentistes sont munis de capteurs gestuels permettant la reconnaissance par un système technique des modes de jeu employés, reconnaissance qui commandera des transformations électro-acoustiques), dans lequel étaient engagés une compositrice, un groupe de recherche de l’Ircam sur le geste musical, un assistant musical et un quatuor. Le recueil des données a porté, de décembre 2006 à l’été 2007, sur la co-construction du système technique et de la partition (électronique incluse), et de septembre 2007 à l’automne 2008, sur la construction de l’interprétation par le quatuor dans cette situation inédite. Les analyses ont porté principalement : 1) sur les traits spécifiques de l’activité musicale du quatuor confronté à une situation de jeu inédite qui interfère avec ses savoir faire usuels ; 2) sur la créativité distribuée ; 3) sur les définitions (explicites et implicites), par les acteurs, de l’objet d’un tel projet de « recherche musicale ».
Réalisation de court-métrages sur les processus de création musicale à l’Ircam
Dans la continuité des projets « MuTeC » et « Quatuor augmenté », plusieurs courts-métrages (10 sur les 16 de la série Images d’une œuvre) ont été réalisés par des membres de l’équipe en partenariat avec le département PAC, le Centre Pompidou (coproducteur) et plusieurs réalisateurs. Chacun rend compte d’une œuvre nouvelle, commande de l’Ircam, en donnant à voir des moments choisis dans le long processus menant à sa création. Outre le film lui-même comme enjeu de vulgarisation artistique et scientifique, les tournages ont produit des dizaines d’heures de rushes constituant un matériau de recherche pour l’équipe.
Ouvrage de référence sur les théories compositionnelles du xxe siècle
Ce projet amorcé en 2003 visait à publier un panorama des principales théories compositionnelles du xxe siècle. Alors que certains corpus théoriques ont été largement diffusés et commentés (Schoenberg, Xenakis, Boulez, Stockhausen…), d’autres restent très mal connus. Musiciens et musicologues ne disposent pas à ce jour d’un ouvrage de référence sur la relation féconde entre composition et théorie au cours du siècle passé. Pour y remédier, nous avons réuni une soixantaine de spécialistes internationaux dont les travaux paraîtront sous forme d’un livre collectif. Croisant musicologie historique, exégèse des corpus théoriques et analyse musicale, l’ouvrage comporte deux grands types de chapitres : les uns sur les théories compositionnelles spécifiques d’individus (ou d’écoles), de Schoenberg à Rihm en passant par Hindemith ou Carter ; les autres sur les catégories et problématiques ayant émergé au long du siècle, telles que : « musique mixte », « théâtre musical », « spectralisme », etc. Les contributions proposent un exposé synthétique, à la fois technique et historique, de ces notions et/ou doctrines, en se basant à chaque fois de façon aussi documentée que possible sur les articles, manifestes, etc. des compositeurs étudiés. La parution, encouragée par des subventions du Réseau international d’Étude des Écrits de Compositeurs (OICCM, Université de Montréal) et du Centre National du Livre (France) est prévue en janvier 2013.
Esthétique et histoire des musiques contemporaines
Edition scientifique d’œuvres et d’écrits de compositeurs
Ces recherches s’articulent selon trois axes :
1. Œuvres et Jours de Louis Saguer (Paris, Basalte, 2010). Cet ouvrage regroupe l’essentiel des écrits de Saguer, dont un grand nombre d’inédits, retrouvés manuscrits ou tapuscrits dans des archives privées. Outre l’appareil critique établi avec B. Schweyer, L. Feneyrou a traduit ou supervisé les traductions de l’allemand, de l’italien, de l’anglais et du portugais, et écrit une introduction biographique et un commentaire des principaux textes de Saguer.
2. Origine des idées subtiles de Salvatore Sciarrino (Paris, L’Itinéraire, 2012). Traduction française (avec G. Giacco) d’un texte majeur du compositeur, d’après la transcription des cours de composition qu’il donna à Città di Castello. Un colloque international sur l’écologie de l’écoute, catégorie centrale de cette poétique, s’est tenu au CDMC en mars 2012 (dir. L. Feneyrou) et sera publié en 2013.
3. Dans des archives privées a récemment été redécouvert un corpus d’œuvres que Jean Barraqué composa avant sa Sonate pour piano : mélodies, chœurs et cantate, et une Sonate pour violon seul. L. Feneyrou en a réalisé l’édition Urtext, précédée d’une introduction historique, philologique et analytique, en cours de publication chez Bärenreiter (Kassel). Ces œuvres ont été créés à Berlin, dans le cadre du festival Ultraschall, en janvier 2012, et radiodiffusées.
Autour du Requiem de Zimmermann
Cet axe de recherche, qui a donné lieu à deux missions à l’Akademie der Künste (Berlin) dans le cadre de l’ANR MuTeC, pour étudier les esquisses du Requiem pour un jeune poète et d’autres œuvres du compositeur allemand, ainsi qu’à une mission à Cologne, dans les archives privées de Sabine von Schablowsky-Zimmermann, s’inscrit dans un projet monographique pluridisciplinaire sur la dernière œuvre monumentale de Zimmermann, incluant l’étude : de l’atelier du compositeur, des ouvrages de sa bibliothèque et de ses documents de travail, ainsi que des structures de l’œuvre et des catégories spatiales et temporelles de la phénoménologie, dont la philosophie s’accorde avec les théories de Zimmermann (lecteur assidu de Husserl, Heidegger, Conrad-Martius ou Walter Biemel). Les recherches ont déjà donné lieu à un séminaire au CNSMDP, à la publication d’un entretien avec Sabine von Schablowsky, à l’établissement du catalogue complet des œuvres non radiophoniques du compositeur, et à plusieurs articles, portant sur ses mises en musique de poèmes d’Ezra Pound et surtout sur sa conception des relations entre intervalle et temps.
Entre esthétique et technologie
Plusieurs recherches exploratoires ont ciblé des points d’articulation essentiels entre logiques esthétiques et technoscientifiques : musique mixte, illusions auditives, synchronisation.
Méthodologies d’analyse de la musique mixte
Dans le cadre de sa délégation CNRS (sept. 2011-sept. 2012), V. Tiffon (prof. Univ. Lille-Nord de France) a entamé, d’une part, la documentation d’œuvres mixtes majeures réalisées notamment à l’Ircam (poursuivant ainsi sa thèse de doctorat sur le sujet allant des origines du genre à 1990), et d’autre part, une analyse systématique de la bibliographie. Objectif : concevoir une méthodologie unifiée pour l’analyse des œuvres mixtes, qu’elles soient historiques (donc souvent conçues avec des technologies obsolètes) ou contemporaines (environnements numériques modulables). Ce champ de recherche, paradoxalement vierge en musicologie, est de nature à remettre en question les méthodes d’analyse actuellement valides dans les domaines (séparés) de la musique instrumentale pure et de l’électroacoustique. Il suppose notamment d’intégrer à l’analyse les avant-textes (sources génétiques) et les différents témoins de la réalisation des œuvres (RIMs [Réalisateurs en Informatique musicale] et interprètes). La thèse de doctorat en cours de N. Sprenger-Ohana (dir. V. Tiffon, 2009-2013) propose une première implémentation d'une méthodologie intégrant ces préoccupations, en croisant analyse des partitions, entretiens de compositeurs, études des écrits autoanalytiques, à travers un corpus de 5 oeuvres (Manoury, Kessler, Naon, Smalley, Stroppa). Enfin, un colloque international co-organisé avec la Société Française d’Analyse Musicale, « Analyser la musique mixte », s’est tenu en avril 2012 à l’Ircam, rassemblant pour la première fois les spécialistes de ce domaine émergent.
Illusions auditives et création musicale
Les illusions perceptives représentent un point de convergence entre les sphères scientifiques et musicales : elles suscitent l’intérêt des chercheurs en révélant de complexes mécanismes perceptifs ; elles sont d’autre part explorées par les artistes pour leurs sensations incongrues et souvent inouïes. Dans le prolongement de sa thèse de doctorat sur ce sujet, F.-X. Féron a co-organisé en 2011 au CIRMMT (Montréal) un workshop avec C. Guastavino (McGill), interrogeant la place des phénomènes illusoires dans les pratiques musicales et soulevant plusieurs problèmes terminologiques.
Questions de synchronisation
Deux livraisons conjointes de Circuit : Musiques Contemporaines et Intermédialités : Histoire et théorie des arts, des lettres et des techniques (Presses Universitaires de Montréal) ont été coordonnées par Ph. Despoix (UdeM) et N. Donin en 2012 autour de la question de la synchronisation, spécifiquement dans la musique (tant instrumentale que mixte, tant au niveau compositionnel que de l’exécution ou de l’improvisation), permettant notamment d’interroger les modes d’articulation entre image et son dont héritent les arts et techniques de notre ère multimédia.
L’enjeu spirituel dans la musique contemporaine
Cet axe de recherche de L. Feneyrou s’est décliné selon trois corpus :
- Stockhausen. Discussion des sources bibliques, religieuses et sectaires, dans les textes chantés et dans les principes théoriques de Stockhausen, chez qui se manifeste moins un principe d’intelligibilité du monde que d’union de l’homme à Dieu.
- Zimmermann. Etude de la théologie de L’Ecclésiaste à l’œuvre chez Zimmermann (s’inscrivant dans une recherche plus vaste sur sa philosophie du temps, cf.  REF _Ref208293916 \r \h 2.9.2.2). Interprétation de la cantate Omnia tempus habent à l’aune des termes par lesquels Qohélet désigne le temps.
- Andre. L’étude de …auf… de Mark Andre a mesuré l’influence des écrits de Duns Scot, de sa notion de compossible et de sa définition de Dieu comme ens infinitum, sur l’Ars subtilior et sur le mensuralisme propre à l’œuvre du compositeur franco-allemand.
L’enjeu institutionnel et politique dans la musique contemporaine
Outre une synthèse de L. Feneyrou sur le réalisme socialiste, à l’occasion de l’exposition que la Cité de la musique y a consacré, l’essentiel des recherches en histoire sociale et politique de la musique a porté sur l’Allemagne des années 1967-1989, autour de la violence, politique et musicale, ainsi que de l’état d’exception. L’œuvre de Helmut Lachenmann a été au centre des recherches de L. Feneyrou (Salut für Caudwell et La Petite Fille aux allumettes).
D’autre part, plusieurs « lieux » de définition de la musique contemporaine entre la Libération et aujourd’hui ont fait l’objet de travaux : les revues et les sociétés de concerts de l’après-guerre (colloque « Horizons de la musique en France 1944-1954 », 2010, CDMC) ; la revue Musique en jeu, organe essentiel du débat esthétique francophone pendant les années 1970 (publication N. Donin) ; l’activité pédagogique du Centre Acanthes, dans le domaine de la composition, de l’interprétation et de la direction d’orchestre, a fait l’objet d’un colloque au CDMC (juin 2010, L. Feneyrou et C. Samuel).
Critique et instrumentation des savoirs musicologiques
Musique, musicologie et société
Dimensions politiques de la musicologie et de l’analyse
Plusieurs collaborations avec le CRAL (EHESS-CNRS) ont permis de cerner les dimensions politiques de la musicologie et de l’analyse musicale dans le prolongement de  REF _Ref209148059 \r \h 2.9.3.2.1. Un colloque international, organisé à l’Ircam en 2008, a donné lieu à l’ouvrage collectif Du politique en analyse musicale (Vrin, 2012). La collaboration avec le CRAL se poursuit depuis 2011 dans le cadre du LabEx « Création, arts, patrimoines » (dir. Ph. Dagen) en dialogue avec historiens et ethnomusicologues.
Relectures de la sociologie de la musique de Max Weber
L’exploration des relations entre musicologie et sciences humaines suppose aussi de réévaluer la place de la musique au sein des corpus fondateurs des sciences humaines et sociales. Un groupe interdisciplinaire de chercheurs a été réuni par Ph. Despoix (UdeM) et N. Donin autour de la Sociologie de la musique de Max Weber. Bien que publiée après sa mort, cette œuvre inachevée a été peu exploitée par les musicologues et les sociologues, même depuis sa parution en anglais puis français. Le séminaire a débouché en 2008 sur deux numéros thématiques de la Revue de Synthèse.
Opérations analytiques : de l’explicitation des pratiques à la concrétisation technologique
Épistémologie historique de l’analyse musicale
Une série de travaux sur la relation entre l’analyse musicale et les pratiques de composition, d’interprétation et d’écoute, ont débouché sur une épistémologie historique des « instruments de musicologie » : tables motiviques, représentations graphiques de la partition, procédures de constitution de données ethnomusicologiques, etc. En quoi les techniques du texte (et du son) utilisées par les analystes pour stabiliser et étudier leurs objets sont-elles porteuses de théorie musicale ? Retracer la généalogie de ces techniques a permis de formuler la notion d’« opération analytique », transversale à l’histoire des pratiques érudites du texte musical et à la conception d’outils logiciels d’aide à l’analyse musicale. La conception du collectif L’Analyse musicale, une pratique et son histoire (2009, avec R. Campos) s’est accompagnée de projets spécifiques résumés ci-dessous.
La segmentation linéaire, opération minimale de l’analyse
Les membres du HYPERLINK "http://www.labo-mim.org/"laboratoire Musique-Informatique Marseille ont une pratique d’écoute originale : identifier dans une œuvre une succession d’Unités Sémiotiques Temporelles (UST) au cours de séances d’écoute acousmatique collective. Dans le cadre de HYPERLINK "http://scenari-platform.org/"ScenariPlatform (ANR RIAM), nous avons réalisé un outil de segmentation pour réaliser, puis publier une analyse en UST. En parallèle, nous avons abordé cette activité d’écoute instrumentée comme objet ethnographique, y retrouvant la problématique analytique de l’interrelation entre segmentation et dénomination d’un flux musical.
De l’annotation statique à l’annotation hypermédia
L’apprentissage et la pratique de l’analyse musicale procèdent beaucoup par annotations portées sur la partition ou sur une autre représentation. Nous avons intégré le logiciel pédagogique Musique Lab Annotation (Ircam / Ministère de l’Éducation nationale), à une chaîne éditoriale pour la publication musicale hypermédia (collaboration avec Kelis, Compiègne) dans le cadre de l’ANR RIAM Ecoute. Avec un groupe de travail de professeurs et analystes de la région PACA et du CNSMDL, nous avons produit deux CD-Rom éducatifs utilisant et validant cette chaîne éditoriale (voir § REF _Ref208294254 \r \h 3.7, section AP).
La mise en tableau de partition
La mise en tableau est une opération classique depuis le xixe siècle : tables de leitmotive wagnériens, comparaison entre un thème et ses variations, analyse sémiologique de partition (Ruwet/Nattiez), sont autant de façons très variées de l’effectuer. Comment fait-on un tel tableau ? Comment le lire ? Ces questions pragmatiques ont été reformulées à travers la co-conception d’un outil de découpe, étiquetage et mise en tableau de documents musicaux, en collaboration avec un ingénieur (Thomas Bottini, UTC) et un analyste (Jonathan Goldman, Université de Victoria, Canada).
Instrumenter le discours sur la musique avec les technologies multimédia
Développement de démonstrateurs innovants utilisant la balise
Avec l’avènement du web multimédia (et la diffusion massive de contenus audios et vidéos), les constructeurs de navigateurs, par l’intermédiaire du W3C, ont fait évoluer la norme HTML en proposant la recommandation HTML5 qui établit (notamment) des balises et , permettant de lire fichiers audios et vidéos dans le navigateur sans application tierce telle que Flash.
Après avoir réalisé pour Mozilla un démonstrateur de cette nouvelle fonctionnalité lors de son ajout à Firefox 3.6.10, nous avons développé une application de consultation d’une œuvre segmentée en plusieurs parties (enrichissant certains passages du fichier audio par des contenus textuels) : la librairie JavaScript générique « timeline-js » permet de représenter et éditer une segmentation de ficher temporel en respectant les standards et drafts du W3C. Le projet ANR Contint WAVE (Web Audio Visualisation/Edition) prolongera cet axe de recherche à partir de 2012.
Développement d’un outil d’annotation intensive de corpus musicologique
Le projet ANR MuTeC a permis de développer un prototype d’outil d’annotation de corpus musicologiques, PACOME (PAcours dans un COrpus de MEdias). Des méthodes de co-conception avec les partenaires du projet ont abouti à trois fonctionnalités primordiales : 1) importation de médias (adaptée à l’importation par lots et aux fichiers volumineux) ; 2) annotation de média (images, sons et vidéos, avec système de tag entièrement paramétrable) ; 3) création de parcours dans ces corpus annotés (en vue d’une publication basée sur un système de type rich-text editor permettant d’inclure des pointeurs vers des annotations). Ce prototype, testé pendant le MuTeC et présenté au colloque TCPM2011, a permis de valider un ensemble de briques fonctionnelles et technologiques dont le développement accompagnera les nouveaux projets de musicologie empirique menés par l’équipe.
Contributions aux projets documentaires de l’Ircam
Nos recherches ont largement alimenté les projets documentaires de l’Ircam (pilotés par les départements PAC et MRC jusqu’en 2011) au long de la période quinquennale. La base de données BRAHMS (encyclopédie en ligne de la musique contemporaine) a été développée et maintenue par S. Goldszmidt ; N. Donin et L. Feneyrou ont assuré le conseil éditorial auprès de C. Béros, incluant la supervision éditoriale et scientifique de nombreux textes et index ; L. Feneyrou a rédigé un ensemble d’entrées (essais sur l’esthétique d’un compositeur) tels que Barraqué, Dallapiccola, Feldman, Nunes, Zimmermann, etc. La base de données REPERTOIRE (collection d’analyses musicales sur les œuvres essentielles du répertoire de l’Ircam) a été développée par S. Goldszmidt. N. Donin en a assuré la co-conception éditoriale auprès d’A. Gerzso, incluant la supervision éditoriale et scientifique de nombreux textes et index en collaboration étroite avec un groupe international d’auteurs.
Equipe Interactions musicales temps réel
L’équipe Interactions Musicales Temps Réel (IMTR), qui a intégré l’UMR STMS début 2007, mène des recherches et développements sur les systèmes interactifs temps réel dédiés à la musique et au spectacle vivant. L’équipe IMTR a fortement accru ses activités de recherche, effectuées en parallèle avec des développements de logiciels et de systèmes de captation du geste. Ceux-ci nous permettent de concrétiser des prototypes et démonstrateurs valorisés dans des productions artistiques, des produits industriels ou encore des installations pour le grand public.
Le nombre de doctorants accueillis dans l’équipe a été en constante augmentation pendant cette période : les deux premiers doctorants de l’équipe ont soutenus en 2008, suivis par trois autres entre 2009 et 2012. Actuellement nous encadrons cinq doctorants, dont trois sont en cotutelle (avec le LIMSI-CNRS, Université Paris Descartes et Goldsmiths University of London).
Nous avons également poursuivi notre effort d’organisation de séminaires (GDR ISIS) et de workshops (sur les formats GDIF-SpatDIF, la modélisation de qualités de mouvements, et workshops satellites des conférences IHM 07, Dafx 11, NIME 11).
Nous avons contribué à 2 projets européens, 11 projets ANR, 1 projet Feder, 2 projets Région Ile de France/Futur en Seine et 3 contrats industriels (avec OrangeLab, PSA et VoxLer).
Ces projets ont renforcé notre réseau national et international de collaborations. Le nombre croissant d’invitations dans des conférences, séminaires et workshops représente un indicateur de la reconnaissance internationale de nos travaux (plus de 20 séminaires/conférences invités et 40 workshops).
Nous avons obtenu le financement de trois projets en tant que coordinateurs:
Le projet ANR Interlude a permis de valoriser nos recherches et développements en créant des interfaces musicales originales appelées MO – Modular Musical Object. Ces travaux ont trouvé une reconnaissance internationale en remportant le 1er prix Guthman des nouveaux instruments de musique en 2011 aux USA, et ont été présentés lors de quatre expositions internationales (dont au MoMa - New York).
Le projet Urban Musical Game a permis de valoriser nos travaux sur l’interaction musicale grâce à une installation financée dans le cadre de Futur en Seine 2011, reprise depuis dans plus de 7 autres festivals et conférences comme CHI 2012. Une valorisation industrielle est en cours de négociation.
Le projet ANR Blanc Legos, démarré en octobre 2011, nous permet d’aborder de nouvelles questions de recherche sur l’apprentissage sensori-moteur dans le contexte d’interfaces gestuelles couplées à un retour sonore, et de mettre en place des nouvelles collaborations avec des chercheurs en neurosciences.
Nos travaux ont fait régulièrement l’objet de collaborations avec des artistes, généralement dans le cadre de recherches musicales ou de productions à l’Ircam. Par exemple, nous avons été impliqués chaque année par les projets de compositeurs en résidence, comme Mari Kimura (violon augmenté), Thomas Grill (nouvelles interfaces tactiles), Marco Suarez-Cifuentes (audio mosaicing), Ben Hackbarth (synthèse concaténative).
Notons encore des collaborations industrielles (PSA, Universal SoundBank, OrangeLab, Voxler) et des installations grand public comme celle de Grainstick, à la Cité des sciences et de l’industrie, réalisée dans le cadre du projet européen SAME (contrôle gestuel de synthèse sonore), ainsi que le projet Topophonie Mobile au Festival Futur en Seine 2011 et 2012, où nos technologies de synthèse sonore interactive ont été intégrées par la société Orbe dans des plates-formes mobiles.

L’ensemble de ces résultats a confirmé l’identité de l’équipe IMTR autour des problématiques de développement de systèmes interactifs sonores, impliquant à la fois des nouveaux paradigmes d’interaction gestuelle et de synthèse interactive. Nous résumons ci-dessous les principaux faits marquants de nos recherches et développements:

Nos travaux sur le suivi et la reconnaissance de gestes ont connus un cycle complet de recherche et développement, notamment grâce à des projets financés (projets européen i-Maestro, SAME, projet ANR Eartoy, Interlude) et des collaborations dans le cadre de projets artistiques (quatuor augmenté, compositeurs en résidence, collaborations avec des compagnies de danse). De nouvelles applications ont émergé comme Mogees (Grand Prix du Jury de la conférence Laval Virtual 2012), qui utilise des gestes captés par micros de contact.
Les travaux de recherche sur le suivi de gestes ont été effectués en synergie avec nos recherches concernant le geste instrumental et les relations geste-son. Ces résultats ont fait récemment l’objet de 4 publications dans un numéro spécial du Journal of New Music Research (Performance Monitoring and Data Analysis). Nous avons également contribué à un livre de référence récent sur le sujet [Dahl09a].
Nos travaux sur l’analyse de mouvements dansés a permis de formaliser une approche de l’interaction basée sur des notions de qualités de mouvement, ce qui a été reçu positivement dans la communauté IHM (Honorary Mention à DIS 2012). Ces travaux ouvrent une voie innovante dans le contrôle gestuel continu que nous allons poursuivre.
Les travaux sur la synthèse sonore interactive basée sur des sons enregistrés se sont fortement développés depuis un de nos articles de référence dans IEEE Signal Processing en 2007 [Schwarz07a], notamment dans le cadre de projets ANR (Interlude, Topophonie, SampleOrchestrator). Cette recherche est effectuée en parallèle avec de nouveaux développements logiciels (bibliothèques MuBu, IAE, ImtrEditor, ZsaZsa, RTA) [Schnell09a]. Ils ont été valorisés dans diverses installations, dont Topophonie Mobile et l’installation audiovisuelle MindBox (exposée en Europe, aux Etats-Unis, et au Japon) qui a gagné le deuxième prix du concours Guthman des nouveaux instruments de musique.
Les travaux sur le suivi de partition, effectués en parallèle avec un travail fondamental sur l’anticipation musicale, ont abouti à des publications importantes (par exemple [Cont08b] dans TPAMI) et un logiciel stabilisé appelé Antescofo, désormais largement diffusé et utilisé lors de concerts. Ces travaux ont obtenu plusieurs prix (prix de thèse ASTI et Gilles Kahn à Arshia Cont en 2008, et plus récemment le prix spécial du jury de La Recherche). L’aboutissement de cet axe de recherche a ouvert une problématique plus large concernant l’écriture de l’interaction et les langages de programmation synchrones, et a abouti à la création de l’équipe MuSync, rattachée à l’équipe Représentations Musicales. Ce changement est conforme aux recommandations du dernier rapport AERES afin de garder une identité cohérente de l’équipe IMTR.
Nous développons ci-dessous les résultats de ces différents thèmes de recherche.
Analyse et modélisation de données sonores et gestuelles
Suivi et reconnaissance de morphologies sonores et gestuelles
Le suivi de gestes permet de synchroniser des médias numériques lors de performances instrumentales ou dansées. Ce type d’application est complémentaire au suivi de partition. Contrairement au suivi de partition, le suivi de geste n’est pas déterminé à partir d’une partition symbolique mais à partir d’exemples enregistrés de gestes continus. Ce système intègre directement la possibilité d’effectuer non seulement du « suivi » mais également de la « reconnaissance de gestes » sur la base d’un lexique défini par des exemples choisis par l’utilisateur.
Le système développé, basé sur des Modèles de Markov Cachés, permet de généraliser les notions de « geste » en s’appliquant à tout profil temporel provenant de capteurs ou de descripteurs sonores [Bevilacqua07a, 09a, 11b]. Dans le cas de descripteurs sonores, le « geste » correspond donc à des profils temporels de paramètres déterminés à partir du flux audio. Par exemple, un suivi de voix a été réalisé récemment en utilisant des coefficients mfcc et semble très prometteur.
Depuis 2007, cet axe de recherche s’est considérablement étendu. Le développement d’une version entièrement nouvelle a favorisé un nombre croissant d’expérimentations. Ces travaux ont été réalisés en partie dans les projets de recherche européens i-Maestro et SAME et les projets ANR EarToy et Interlude. De plus, un effort de publication a été fourni, assurant désormais une meilleure visibilité de ce travail. Cette recherche a également été valorisée dans des productions artistiques comme le quatuor augmenté [Bevilacqua12a], des installations interactives [Bevilacqua10b] et dans un DVD interactif [Bevilacqua07b].
Des extensions de ce système ont fait l’objet de plusieurs thèses. Baptiste Caramiaux a démontré la pertinence du filtrage particulaire comme méthode d’inférence, permettant une adaptation continue de paramètres comme l’orientation et l’amplitude du geste. Jules Françoise généralise également le suivi de geste en travaillant actuellement sur une structuration hiérarchique de Modèles de Markov [Françoise12a].
Bruno Zamborlin (en collaboration avec Goldsmiths University of London) poursuit un travail sur le suivi de gestes, notamment dans le de gestes captés avec des micros de contacts (prototype appelé Mogees).
Plus spécifiquement sur les morphologies temporelles sonores, la thèse de Julien Bloit concernait la modélisation et la reconnaissance d'événements musicaux en temps réel dans un flux audio. Dans une première partie de sa thèse, un algorithme appelé Short-time Viterbi a été proposé pour effectuer, avec une latence minimale, un décodage optimal de modèles de Markov Cachés (HMM). Les performances de cette approche ont été étudiées sur une tâche de segmentation en phonèmes de la voix parlée [Bloit08a]. Nous avons montré, en collaboration avec l’équipe analyse synthèse, qu’il était possible de reconnaître les phonèmes de manière quasi synchrone, avec une latence de l’ordre de la durée du phonème.
Un autre résultat important de cette thèse a concerné une modélisation de l’évolution temporelle de descripteurs en utilisant des modèles de Markov cachés segmentaux [Bloit09a, 10a]. L’intérêt réside dans le fait que ces modèles permettent de segmenter une courbe de descripteurs en unités interprétables et définies par l’utilisateur. Ce travail a été poursuivi par Baptiste Caramiaux qui a utilisé cette approche avec succès dans le cadre de gestes ancillaires de clarinettistes [Caramiaux12a].
Etude du geste instrumental
Notre travail sur les instruments augmentés et les nouvelles interfaces musicales nous amène à étudier le geste instrumental de musiciens. En effet, l’étude des gestes employés par les interprètes apporte des éléments essentiels pour la modélisation du geste dans une situation de contrôle sonore.
Dans le cadre de la thèse de Nicolas Rasamimanana [Rasamimanana08a], le cas des cordes frottées a particulièrement été étudié, en se fixant dans un cadre défini à la fois par les contraintes acoustiques de l'instrument et les contraintes physiologiques de l'instrumentiste. À l’aide de mesures des gestes d'instrumentistes en situation de jeu, nous avons pu caractériser différents modes de jeux et mettre en évidence des phénomènes d’anticipation et de coarticulation gestuelle [Rasamimanana09b,12a]. Ce travail a également débouché sur le concept de temporal mapping [Rasamimanana09a], qui est une nouvelle approche pour mettre en relation gestes et sons, utilisable pour le design d’interfaces gestuelles.
Ce travail a été poursuivi par le travail de thèse de Tommaso Bianco, qui s’est particulièrement attaché au jeu de trompettistes en mesurant la pression intra-orale, la force des lèvres sur l’embouchure et l’activation musculaires des joues [Bianco9b,12a]. Une modélisation pour la co-articulation dans ce contexte a été proposée et a été validée expérimentalement.
Relations entre gestes et perception des sons
En collaboration avec l’équipe PDS, Baptiste Caramiaux a étudié dans le cadre de sa thèse différentes relations qui peuvent exister entre gestes et sons, lorsque le geste est effectué de manière synchrone à l’écoute d’un son [Caramiaux11a]. Nous avons montré expérimentalement que la description gestuelle de sons causaux (i.e. identifiables à une action) était liée à la sémantique du son : les participants mimaient, avec leurs gestes, l’action qui était à l’origine du son. Dans le cas des sons non-causaux, la description était liée à des paramètres acoustiques intrinsèques : les paramètres gestuels étaient corrélés avec certains descripteurs sonores. De plus, nous avons observé que les gestes des participants étaient plus variables dans le cas causal que dans le cas non-causal. Ces études apportent des fondements expérimentaux sur les différents types de relations entre gestes et sons.
Etude de mouvement dansé et « qualité de mouvement »
Sarah Fdili Alaoui, en collaboration avec le LIMSI-CNRS, poursuit dans sa thèse des travaux sur la reconnaissance de gestes dansés. En particulier, elle a étendu cette problématique au domaine plus général du contrôle gestuel et corporel dans les interfaces homme-machine.
Dans le cadre de l’installation pédagogique « Double Skin Double Mind», nous avons conçu un système d’analyse de mouvements permettant le contrôle temps réel d’un retour visuel et sonore [FdiliAlaoui12a]. Le rendu graphique est basé sur des modèles physiques masse-ressort. En particulier, une stratégie de contrôle spécifique a été développée afin d’établir des correspondances de haut niveau entre les mouvements du danseur et le rendu graphique. Cette approche prend en compte des notions de « qualités de mouvement », correspondant à une formalisation sur la manière d’effectuer certains mouvements. Par la suite, cette démarche a été généralisée, et l’utilisation de « qualités de mouvement » a été proposée comme modalité d’interaction dans les interfaces homme-machine [FdiliAloui12b].
Modélisation anticipative et suivi de partition
Dans le cadre de sa thèse, Arshia Cont a étudié l’anticipation musicale [Cont08b]. Un cadre mathématique, nommé géométrie d’informations musicales, a été introduit pour représenter les contenus pertinents de l’information musicale, combinant la théorie de l’information, la géométrie différentielle, et l’apprentissage statistique (ce travail est actuellement poursuivi par la thèse d’Arnaud Dessein, désormais rattaché à l’équipe Représentation Musicale).
Ce travail de thèse a également abouti, en collaboration avec l’équipe Représentation Musicale, à plusieurs avancées concernant l’apprentissage automatique de structures musicales à partir de signaux sonores (AudioOracle) [Dubnov07a], la recherche d’unités sonores sur un corpus (Guidage) [Cont07c] et l'apprentissage adaptatif en temps réel, générant des structures temporelles correspondants à la forme musicale du style musical en cours [Cont07].
Ces travaux ont également été appliqués au suivi de partition, dont le but est la synchronisation temps réel entre une partition symbolique et l’interprétation d’un musicien. Un nouveau système a été développé, Antescofo, qui est un outil de suivi et un outil d’écriture du temps et de l’interaction musicale [cont08a, cont09a]. Une modélisation anticipative donne un accès direct au temps musical, en détectant des fluctuations du tempo en temps réel [Cont09a, Cont08a].
Un travail d’évaluation a été effectué dans le cadre de MIREX (Music Information Retrieval Evaluation eXchange) en proposant un format de référence de partition et d’alignement audio/partition [Cont07d]. L’extension de ce système au suivi polyphonique et à la transcription temps réel a également fait l’objet de recherches, notamment en utilisant des méthodes de Factorisation Matricielle Non-Negative [Cont07a]. A partir de 2008, Antescofo, a été intégré dans de nombreuses œuvres (dont Boulez, Manoury, Harvey, Stroppa, Nicolau) et a été utilisé lors de nombreux concerts. Il a été présenté notamment dans un colloque intitulé "Seven Keys to the Digital Future" organisé par le Collège de France et la Royal Society of Edinburgh, ainsi qu’au méridien arts/science co-organisé avec la Cité des Sciences.
Synthèse et traitement sonores interactifs
Nous avons développé ces dernières années plusieurs approches originales de synthèse sonore interactive basées sur des contenus sonores enregistrés et analysés [Schnell11a]. L’enjeu de ces travaux est de pouvoir transformer de manière interactive certains aspects de la séquence, ou encore de recomposer par synthèse concaténative/granulaire de nouvelles séquences ou textures sonores. Ce travail est soutenu par nos développements logiciels spécifiques concernant les structures de données sonores, incluant sons, descriptions, annotations et visualisations (bibliothèques MuBu, ImtrEditor [Schnell09a]) et diverses méthodes de synthèse (FTM & Co, bibliothèques ZsaZsa, ImtrAudio Engine, RTA et SuperVP pour Max en collaboration avec l’équipe Analyse/Synthèse). Des prototypes d’applications ont été développés dans le cadre des projets ANR Interlude, Topophonie, SampleOrchestrator, Urban Musical Game:
Applications artistiques musicales et multimédia (par exemple les projets de création Ircam avec Marco Suarez Cifuentes et le projet MindBox collaboration avec Humatic à Berlin)
Jeux musicaux dans le cadre de pédagogie musicale (projet ANR Interlude, EU i-Maestro)
Création musicale avec des nouveaux instruments numériques (projets 2PIM/MI3, Interlude)
Simulation sonore pour l’industrie automobile (projet HARTIS sous contrat avec PSA)
Des collaborations avec des compositeurs alimentent ces travaux, dont Marco Suarez-Cifuentes [SuarezCifuentes10a], Aaron Einbond [Eibond 9a, 10a, 11a, 12a] ou Ben Hackbarth [Hackbarth10a] pour n’en citer que quelques uns. Les outils logiciels développés ont été utilisés dans de nombreuses productions à l’Ircam et à l’extérieur (avec les compositeurs Tutschku, Fujikura, Gervasoni, Rivas, Parra, Aperghis, Harvey, Baschet).
Synthèse concaténative basée sur des corpus
La synthèse concaténative basée sur des corpus peut être considérée comme un exemple de synthèse interactive mettant à profit une analyse de sons enregistrés avec des descripteurs sonores (voir la publication dans IEEE signal processing [Schwarz07a]). Cette méthode, implémentée sous la forme du logiciel CataRT, a fait l’objet d’améliorations constantes, en introduisant par exemple une mesure de continuité entre segments sonores, l’utilisation de réduction de dimensionnalité, utilisant des méthodes de multi-dimensional scaling combinées avec des arbres de recherche binaire (kD-Trees) [Schwarz09a, 09b], et des systèmes de visualisation adaptés pour l’interaction [Lallemand11a].
Depuis 2010, le projet ANR Topophonie nous a permis de développer CataRT dans un contexte plus large, en considérant des formes appelées « audiographiques », dans lesquelles les modalités visuelles et sonores sont synchronisées. Précisément, nous avons étendu la synthèse par corpus au problème de la génération de textures sonores en utilisant des paramètres phénoménologiques. Un large travail de recherche bibliographique effectué dans ce contexte a fait l’objet d’une publication et présenté comme une des trois contributions « State of the Art » de la conférence DAFx [Schwarz11c].
Un autre fait marquant concerne la dissémination par deux workshops internationaux que nous avons co-organisé sur la modélisation audiographique en 2011.
Ce travail a établi une base solide pour la thèse de Ianis Lallemand qui, en collaboration avec le Lip6 (UPMC), concerne la structuration des données sonores pour la synthèse concaténative. Une première étape a consisté à caractériser de textures sonores [Lallemand12a].
Systèmes interactifs basés sur le geste et nouveaux instruments de musique
Projet ANR Interlude
Le but du projet Interlude, coordonné par l’équipe IMTR, était de développer des systèmes interactifs permettant une exploration gestuelle et expressive de contenus musicaux enregistrés. Ce projet a intégré divers aspects de recherche et développement de l’équipe IMTR (logiciel et matériel) dont les systèmes de captation sans fil, la reconnaissance de gestes et la synthèse sonore interactive.
L’idée centrale du projet était de concevoir un système ouvert d’interfaces tangibles et logicielles permettant à des utilisateurs de créer leurs propres instruments de musique numérique ainsi que les gestes associés. Cet ensemble d’objets forme ce que nous avons appelé les MO pour « Modular Music Objects ». Ce projet visait une communauté d’utilisateurs en plein essor, composée aussi bien de professionnels que du grand public, qui s’intéresse à une utilisation gestuelle et expressive des nouveaux outils numériques.
Différents paradigmes de contrôle gestuel de synthèse sonore ont été implémentés, en se basant sur des métaphores musicales ou sur des manipulations d’objets du quotidien. Nous avons également exploré des gestes effectués sur des surfaces, captés par des micros de contact et analysés par nos systèmes de reconnaissance. Les interfaces MO offrent de nouvelles possibilités pour contrôler par le geste (et donc de s’approprier) des contenus sonores existants (« sound/music embodiment »). Ces interfaces ont été utilisées dans des applications pédagogiques, en collaboration avec l’Atelier de Feuillantines [Guédy11a].
Cette approche a été reconnue comme innovante (1er prix Guthman des nouveaux instruments de musique, invitation au Electronic Music Week - Shanghai) dans le monde de l’informatique musicale, mais également dans des communautés plus larges. En effet, les interfaces MO ont fait l’objet d’invitation dans plusieurs expositions internationales sur les objets communicants (« Talk to Me » MoMa - New york), les nouveaux objets du numérique (Lieu du Design – Paris) et sur l’innovation technologique (Lift Experience – Genève, Biennale internationale du Design - St-Etienne).
Ce projet a fortement profité à l’équipe en développant des collaborations avec le GRAME à Lyon ainsi que des designers (No Design), des partenaires industriels (Voxler et DaFact), et des pédagogues (Atelier des Feuillantines). Ce projet a permis à l’équipe de produire 13 publications scientifiques, et de faire connaître nos travaux internationalement à travers des conférences, des séminaires, des expositions, des articles de presses et des blogs en Europe, aux USA, en Australie et en Chine. Notons enfin que le projet a favorisé le démarrage d’une start-up par un des membres de l’équipe (Phonotonic SAS).
Projet Urban Musical Game
Dans le cadre du Festival Agora et Futur en Seine 2011, nous avons réalisé une installation interactive mettant en œuvre différents aspects de nos recherches sur les systèmes d’interactions musicales collectives. Le dispositif interactif Urban Musical Game est basé sur des jeux de ballons qui, équipées de capteurs de mouvement, fonctionnent comme des interfaces musicales interagissant avec les paramètres d’un environnement sonore pré-composé. Sur la base des résultats du projet Interlude, nous avons poursuivi le développement de modules de captation sans fil et de logiciels pour l’interaction gestuelle avec des sons enregistrés. Ce projet nous a confronté à de nouvelles problématiques sur l’interaction collective et collaborative, ouvrant ainsi de nouvelles voies de recherche.
Suite au Festival Futur en Seine, l’installation a été présentée dans plus de 6 autres manifestations et festivals, dont la conférence CHI 2012 à Austin et la conférence Lift11 à Marseille. Une valorisation industrielle est également actuellement en négociation.
Médiathèque – Centre de ressources de l’Ircam
Depuis son ouverture en 1996, la Médiathèque développe un fonds documentaire sur la musique contemporaine et les domaines connexes – et principalement scientifiques et techniques – composé de ressources matérielles (livres, partitions, périodiques, notes de programme…) et immatérielles (textes divers, enregistrements sonores, films, bases de données…). Ce fonds spécialisé, multilingue, comprend environ 31 000 documents et est accessible autant pour le personnel de l’Ircam que pour le public externe, en consultation sur place ou en prêt (sous certaines conditions).

En outre, la Médiathèque assure non seulement la valorisation d’un volume croissant d’archives de la production artistique, culturelle et scientifique de l’institut (enregistrements sonores, textes s’y rapportant, publications scientifiques internes et externes) mais aussi leur conservation sous forme numérique. Elle s’attache à développer des méthodes, des outils et des dispositifs destinés à optimiser l’identification et la circulation du document numérique depuis son lieu de production dans l’institut jusqu’à ses systèmes informatiques chargés de sa pérennisation et de sa diffusion en interne (le système Archiprod) et sur l’Internet sur ses propres sites (le site institutionnel et sa rubrique Ressources) et dans des portails nationaux (le portail des ressources de musique contemporaine en France et de là dans la base Collections du ministère de la culture et de la communication) et internationaux (Europeana). Ces activités s’accompagnent d’un travail théorique de modélisation original et d’une mise en œuvre de systèmes opérationnels.

La Médiathèque est intégrée depuis début 2012 au Centre de ressources de l’Ircam, placé sous la responsabilité de Nicolas Donin.
Conservation de la création musicale et scientifique
Deux systèmes spécialisés, développés à la Médiathèque depuis sa création, servent à conserver et à diffuser les archives de la création à l’Ircam. Les accès publics à la consultation et à la diffusion de leurs contenus sont mutualisés par l’entremise du nouveau site Ressources et par les sites et les portails destinés à leur valorisation.
Architextes
Fruit de développements successifs depuis la fin des années 1980 (d’abord au Service informatique puis à la Médiathèque après sa création), est destiné à traiter les publications scientifiques et musicologiques de l’institut.

Les auteurs y inscrivent leurs textes, les y déposent éventuellement. Architextes fournit alors un identifiant unique et des styles de référencement bibliographiques (utilisés entre autres dans ce Bilan), se charge de les diffuser dans des portails internes et externes et fournit des méthodes permettant le référencement sélectif de listes de publications (par exemple, celles d’une équipe choisie) et les contenus eux-mêmes, s’ils sont disponibles en ligne.

Dans le cadre de deux stages, une étude et des développements ont été menés en vue d’automatiser le transfert automatique de la base et des nouveaux articles au fur et à mesure de leur création dans HAL.

En outre, la Médiathèque héberge, depuis 2002, tous les sites Web des conférences annuelles ISMIR (International Conference in Music Information Retrieval) à partir de la première qui s’était tenue en 2000. En 2007, elle a créé une base de données répertoriant tous les actes, article par article, et permettant d’y effectuer des recherches par divers critères.
Archiprod
Archiprod, développé depuis fin 2006, est chargé de la gestion des archives sonores et visuelles – cette dernière fonctionnalité y a été rajouté récemment) et de leurs documentations associées (brochures de saison, notes de programmes… et à terme aussi les contrats).

Les contenus – documents audiovisuels et textuels – y sont déposés directement par leurs producteurs – notamment le département Création et Production – ou par la Médiathèque, qui corrige, complète et valide leurs métadonnées. Archiprod se charge de conserver le document d’origine, et en décline des versions plus légères ou plus courtes destinées à la diffusion.

Archiprod inclut le temps comme concept de base dans sa modélisation, permettant de décrire une hiérarchie d’événements, auxquels sont « liées » leurs traces numériques ; c’est l’un des types d’affichages proposés par le site Ressources pour « naviguer » dans les archives.. Cette hiérarchie (en fait, un graphe dirigé) reflète les saisons musicales de l’Ircam depuis son ouverture dans les années 1970. Le projet Europeana, auquel ce modèle a été présenté, a aussi adopté cette démarche.

Un développement effectué à l’origine dans le cadre du Portail de la musique contemporaine a été repris dans Archiprod : il fournit un widget permettant d’incruster dans une page web un lecteur audiovisuel enrichi qui diffuse des contenus choisis dans ceux conservés par Archiprod. Cette fonctionnalité est utilisée sur la page d’accueil du site institutionnel et sur celle du site Ressources.
Valorisation
La valorisation du fonds documentaire de la Médiathèque et des archives qu’elle détient se fait directement par son système documentaire (Flora) et le site associé (Ressources), et indirectement par les portails qui en moissonnent les notices et par les widgets qui permettent d’en réutiliser les contenus.
Site Ressources
En 2009, une action de mécénat de la société Ever, éditrice du logiciel bibliothéconomique utilisé à la Médiathèque depuis sa création, a permis le changement de cette plateforme et de passer à sa nouvelle génération, appelée Flora. Le principal bénéfice de cette migration a été non seulement le passage à un logiciel plus modulaire et ouvert, mais sa capacité à moissonner (par le protocole OAI) des entrepôts de notices externes à Flora – Archiprod, Architextes et Brahms –, les y intégrer et d’y fournir des accès fédérés (en OAI, eux aussi) permettant leur réutilisation dans d’autres systèmes, à l’instar de ce qui avait été fait précédemment dans le cadre du Portail de la musique contemporaine.

Ce sont ces développements qui ont permis de réaliser le site Ressources (ouvert à l’automne 2011) : recherche « expresse » enrichie dans l’ensemble des ressources ainsi référencées, affichage multimédia intégré dans la page et complété par d’autres bases professionnelles auxquelles la Médiathèque est abonnée (Grove, RILM, IIMP, IIPA) et par des informations supplémentaires (« Dans les médias »). Le site propose aussi des accès et donc des recherches et des modes de navigation spécifiques à chacune des bases documentaires.
Portail de la musique contemporaine
L’acceptation en 2007 par le ministère de la culture et de la communication du projet de Portail des ressources de la musique contemporaine en France (dans le cadre de son appel annuel à projets de numérisation) a fourni à l’institut des moyens pour poursuivre la numérisation rétrospective des archives sonores et des notes de programme.

Ce portail, imaginé, conçu et développé à l’Ircam, a été monté avec le CDMC (Centre de documentation de la musique contemporaine) et en partenariat avec la Cité de la musique, le Conservatoire de Paris, l’Ensemble intercontemporain et la Médiathèque musicale Mahler. Ce projet comprenait deux volets : d’une part, la numérisation sélective de ressources chez ces partenaires, et, d’autre part, leur valorisation sur l’internet, par l’entremise d’un portail – moteur de recherche spécialisé qui permettrait non seulement de localiser ces ressources mais aussi toutes celles qui s’y rapportent détenues par les partenaires, et d’y accéder sur l’internet.

Ouvert fin 2007 avec les ressources des six membres fondateurs, son développement se poursuit jusqu’à ce jour avec le soutien de l’Ircam. Il compte aujourd’hui une quarantaine de partenaires – archives, bibliothèques, centres de création, centres de recherche, conservatoires, ensembles, festivals… – et référence près qu’un quart de millions de leurs ressources, et fournit un accès direct à celles d’entre elles qui sont disponibles en ligne. D’autres modes de consultation et d’affichage y ont été associés (lecteur audio, radio Internet, frise temporelle, etc.).

Les informations et les contenus du portail sont aussi diffusés ailleurs : radio internet (dispositif Shoutcast), Wikipedia (pages consacrées aux principaux compositeurs contemporains en français, anglais, italien). Le portail est un fournisseur de contenus direct à la base Collections du ministère de la culture et de la communication, ainsi qu’à Europeana (Michel Fingerhut est membre de l’équipe de modélisation de ce grand projet culturel européen). Enfin, un éditeur de « playlists » a été développé pour permettre aux partenaires de référencer sélectivement, sur leurs sites, des contenus sonores du Portail.
Liste des publications et productions

Il est à noter que cette partie ne comprend pas les productions logicielles, qui sont partiellement documentées en Annexe §  REF _Ref207189953 \r \h 4.8.5.

L’ensemble des références des publications de l’Ircam sont accessibles sur le site : HYPERLINK "http://articles.ircam.fr"http://articles.ircam.fr ; les cotes uniques figurant dans ce rapport sont celles issues de ce système. Une liste actualisée des publications de chaque équipe est produite dynamiquement à tout accès des pages correspondantes du site Web de l’Ircam, ce qui permet leur référencement par les moteurs de recherche, y compris pour le corps de texte des articles déclarés accessibles de l’extérieur par leurs auteurs.

Pour le choix des 10 productions principales de chaque équipe, la règle appliquée a consisté à sélectionner les publications de plus fort impact actuel ou potentiel, en éliminant les doublons et en tâchant de donner un ensemble aussi représentatif que possible de l’ensemble des avancées produites.

Le choix des 15 publications principales du laboratoire a répondu à l’objectif de rendre compte de manière aussi exhaustive que possible des travaux de recherche effectués au cours de la période de référence. A cet effet, deux à trois articles de revue ou ouvrages de chaque équipe ont été sélectionnés selon trois critères principaux : importance et impact de la publication, caractère récent de la recherche, affiliation du premier auteur à l’UMR.

Productions inter-équipes et services communs
ACL - Articles dans des revues à comité de lecture répertoriées
2008
[Helie08a] Hélie, T., Roze, D., « Sound synthesis of a nonlinear string using Volterra series », Journal of Sound and Vibration, Mars 2008, vol. 314, pp. 275-306
[Vinet08a] Vinet, H., « Science and Technology of Music and Sound: The Ircam Roadmap », Journal of New Music Research, 2008, vol. 36, n° 3, pp. 207-226.
2009
[Carpentier09b] Carpentier, G., Tardieu, D., Harvey, J., Assayag, G., Saint James, E., « Constrained Multiobjective Optimization for Computer-Aided Orchestration: Theory and Applications », Journal of New Music Research, 2009
2010
[Cont10b] Cont, A., Dubnov, S., Assayag, G., « On the Information Geometry of Audio Streams with Applications to Similarity Computing », IEEE Transactions on Audio, Speech, and Language Processing, Août 2011, vol. 19, n° 1, pp. 837-846
2011
[Lartillot11a] Lartillot, O., Ayari, M., « Cultural impact in listeners’ structural understanding of a Tunisian traditional modal improvisation, studied with the help of computational models », Journal of Interdisciplinary Music Studies, 2011, n° 5, pp. 85-100
[Peeters11d] Peeters, G., Giordano, B., Susini, P., Misdariis, N., McAdams, S., « The Timbre Toolbox: Audio descriptors of musical signals », JASA, Novembre 2011, vol. 5, n° 130
[Vinet11a] Vinet H., Assayag G., Burred J.J., Carpentier G., Misdariis N., Peeters G., Roebel A., Schnell N., Schwarz D., Tardieu D., « Sample Orchestrator : gestion par le contenu d’échantillons sonores », Traitement du Signal, Vol. 2011, n° 3, Lavoisier, 2011, pp. 417-468
2012
[Bianco12b] Bianco, T., Freour, V., Cossette, I., Bevilacqua, F., Caussé, R., « Measures of facial muscle activation, intraoral pressure and mouthpiece force in trumpet playing », Journal of New Music Research, 2012, vol. 41, n° 1, pp. 49-65.
[ViaudDelmon12a] Viaud-Delmon, I., Mason, J., Haddad, K., Noisternig, M., Bevilacqua, F., Warusfel, O., « A sounding body in a sounding space: the building of space in choreography – focus on auditory-motor interactions », Electronic Dance Research, Special Issue: Dance and Neuroscience- New Partnership, 2011, vol. 29, n° 2, pp. 433-449
ACLN - Articles dans des revues à comité de lecture non répertoriées
2010
[ViaudDelmon10b] Viaud-Delmon, I., Acotto, E., Andreatta, M., « Interview with Fred Lerdahl and Ray Jackendoff », Musicae Scientiae Discussion Forum, 2010, n° 5, pp. 257-267
ASCL - Articles dans des revues sans comité de lecture
2007
Fingerhut, M., IAML Newsletter n° 22-27.
2008
Fingerhut, M., « Le Portail de la musique contemporaine », Culture et recherche, automne-hiver 2008-2009, n° 118-119.
Fingerhut, M., IAML Newsletter n° 28-30.
2009
Fingerhut, M., IAML Newsletter n° 31-33.
[Vinet09c] Vinet, H., « Recherche et innovation à l’Ircam », Culture et recherche, n°121, 2009, pp. 32-33
2010
[Vinet10a] Vinet, H., « 40 ans de recherche à l’Ircam », Culture et recherche, n°122-123, pp. 62-63
2011
[Fingerhut11a] Fingerhut, M., « IRCAM-Moscow », Fontes Artis Musicae, Janvier-Mars 2011, vol. 58, n° 1, pp. 55-71.
C-INV – Conférences invitées dans des congrès nationaux et internationaux
2007
Fingerhut, M., « Description et utilisation de l’information musicale », séminaire Technologies du sonore, Paris, Juin 2007.
Fingerhut, M., « Un portail pour la musique contemporaine », séminaire Technologies du sonore, Paris, Juin 2007.
Fingerhut, M., séminaire sur les portails culturels, ministère de la culture et de la communication. Paris, Octobre 2007.
Fingerhut, M., table ronde « Paris, capitale des livres », école normale supérieure. Paris, Décembre 2007.
Vinet, H., « The Ircam SMC Roadmap », Sound and Music Computing in Europe : the Workshop, Future and Emerging Technologies, Commission européenne, Bruxelles, 6 avril 2007
Vinet, H., « Research and Development at Ircam », Bridging Science & Technology - New practices for long-term research in ICT, FET-Open Workshop, Commission européenne, Bruxelles, 13 juin 2007
Vinet, H., « Les extensions techniques de l’écriture musicale », Colloque Mutations de l’écriture – Arts & Sciences, École Normale Supérieure, Paris, 19 octobre 2007
Vinet, H., « Indexation, synthèse et traitement sonores », Grand colloque STIC 2007, Paris, 6 novembre 2007
Vinet, H., « Technologies musicales et IHM », Keynote, Colloque IHM’07, Paris, 13 novembre 2007
Vinet, H., « Memory of gesture, Memorization by gesture », Colloque international Enactive’07, Grenoble, 21 novembre 2007
2008
Fingerhut, M., « Complex Digital Objects in Real Life », Europeana WG2 meeting, Århus (Danemark), Septembre 2008.
Fingerhut, M., « Interoperability », Conférence Music in the Digital Era, Athènes (Grèce), Octobre 2008.
Fingerhut, M., « The Ircam Médiathèque: a physico-digital music archive and library », Music in the Digital Era Conference, Athènes (Grèce), Octobre 2008.
Fingerhut, M., « Preserving, organizing and accessing records of past musical events: two projects of the Ircam Multimedia Library », conférence Opera vs. Fonte, Turin (Italie), Octobre 2008.
Fingerhut, M., « Preservation and online access to archives of music events », conférence Eva/MINERVA, Jérusalem (Israël), Novembre 2008.
Fingerhut, M., « An integrated management system for music archives: digitization, preservation and online publication », conférence Eva/MINERVA, Jérusalem (Israël), Novembre 2008.
[Fingerhut08e] Fingerhut, M., « Le Portail de la musique contemporaine. http://www.musiquecontemporaine.fr », conférence internationale Numérisation du patrimoine culturel en Europe, Paris, Novembre 2008.
Vinet, H., « Audio Research Challenges », 1st FP7 Networked Media Concertation Meeting, Vilamoura-Algarve, Portugal 16-17 April 2008, HYPERLINK "http://cordis.europa.eu/fp7/ict/netmedia/concertation/0408_en.html"http://cordis.europa.eu/fp7/ict/netmedia/concertation/0408_en.html
Vinet, H., « Audio and Music Research Challenges », Keynote, Quaero project Kick-off meeting, 20 Mai 2008, Paris
Vinet, H., « Musique et transistors : les techniques de l’Ircam », Colloque D’une révolution à l’autre : l’électronique aujourd’hui, Conservatoire national des arts et métiers, 20 juin 2008, Paris
2009
Fingerhut, M., table ronde « Online audio, research and creativity », conférence internationale Unlocking Audio 2, British Library, Londres (Royaume Uni), mars 2009.
2010
Vinet, H., « Les extensions techniques de l’écriture musicale », Colloque Notations et écriture musicales en Occident, Académie des sciences, 17 mars 2010
Vinet, H., «  Description automatique, navigation et traitement par le contenu d'échantillons sonores », Grand colloque STIC, Paris, 5-7 janvier 2010
Vinet, H., «  Approches techniques et managériales du temps », séminaire annuel de direction du groupe Hermès International, octobre 2010.
2011
[Helie11a] Hélie, T., Lopes, N., Caussé, R., « Robotized artificial mouth for brass instruments: automated experiments and cartography of playing parameters », PEVOC, Marseille, 2011
[Hezard11a] Hézard T., Hélie T., Doval B., Caussé R.,. , Glottal area waveform study from high speed video-endoscopic recordings and voice production model with aeroacoustic coupling driven by a forced glottal folds model, Congrès PEVOC 9 (Pan-European Voice Conference), Marseille, août 2011.
Vinet, H., « Recent advances in music works documentation and preservation at Ircam », International Symposium »art::archive::architectures«, ZKM – June 24-25 2011 – Karlsruhe
2012
Vinet, H., « Recherche et développement à l’Ircam », Table-ronde « Problématiques de la recherche en art : le cas de la musique », Colloque international Art et recherche, Ecole nationale supérieure d'architecture de Paris-Belleville, 9-10 février 2012
Vinet, H., « Research and Creation @ Ircam », ICT and Art Connect Workshop, DG INFSO, Brussels, 26-27 Avril 2012
Vinet, H., « Research and Creation at Ircam », Arts/Sciences in Research, Festival Printemps de la culture, Université Paris sud, 23 mai 2012
C-ACTI- Communications avec actes dans un congrès international
2007
[Carpentier07a] Carpentier, G., Tardieu, D., Assayag, G., Rodet, X., Saint-James, E., « An Evolutionary Approach to Computer-Aided Orchestration », EvoMUSART, vol. LNCS 4448, Valence, 2007, pp. 488-497
[Cont07c] Cont, A., Dubnov, S,. Assayag G. « GUIDAGE: A Fast Audio Query Guided Assemblage », International Computer Music Conference, Copenhagen, 2007
[Dubnov07a] Dubnov, S., Cont, A., Assayag, G. « Audio Oracle: A New Algorithm for Fast Learning of Audio Structures », International Computer Music Conference, Copenhague, 2007
[Tardieu07a] Tardieu, D., Carpentier, G., Rodet, X., « Computer-Aided Orchestration Based on Probabilistic Instruments Models And Genetic Exploration », ICMC, Copenhagen/Denmark, 2007
[Tardieu07b] Tardieu, D., Peeters, G, Rodet, X., « An Instrument Timbre Model For Computer Aided Orchestration », WASPAA, New Paltz, NY, 2007.
2008
[Bloit08a] Bloit, J., Rodet, X., « Short-time Viterbi for online HMM decoding : evaluation on a real-time phone recognition task », ICASSP, Las Vegas, Mars 2008
Burred08a] Burred J.J., Cella C. E., Peeters G., Roebel A., Schwarz D., Using the SDIF Sound Description Interchange Format for Audio Features. International Conference on Music Information Retrieval (ISMIR). Septembre 2008
[VassiliosFivos08a] Vassilios-Fivos, M., Christian, J., « Towards an affective gesture interface for expressive music performance », NIME 08, vol. NIME08, Genova, 2008, pp. 122-127
2009
[Bloit09a] Bloit, J., Rasamimanana, N., Bevilacqua, F., « Towards morphological sound description using segmental models », DAFX, Milan, Italie, 2009
[Camurri09a] Camurri, A., Volpe, G., Vinet, H., Bresin, R., Maestre, E., Llop, J., et al., « User-centric context-aware mobile applications for embodied music listening », 1st International ICST Conference on User Centric Media, Venise, 2009.
[Demoucron09a] Demoucron M. and Rasamimanana N., Score based real-time performance with a virtual violin, 12th International Conference on Digital Audio Effects (DAFx), Milan, September 2009.
[Leslie09a] Leslie, G., Schwarz, D., Warusfel, O., Bevilacqua, F., Jodlowski, P., « Wavefield synthesis for interactive sound installations », 127th AES Convention, New-York, 2009
[Einbond09a] Einbond, A., Schwarz, D., Bresson, J. « Corpus-Based Transcription as an Approach to the Compositional Control of Timbre », International Computer Music Conference (ICMC), Montreal, QC, 2009
[Nouno09a] Nouno, G., Cont, A., Carpentier, G., Harvey, J. « Making an orchestra speak », Sound and Music Computing Conference, Porto, 2009
[Schnell09a] Schnell, N., Röbel A., Schwarz D., Peeters G., Borghesi R., MuBu & Friends –Assembling Tools for Content Based Real-Time Interactive Audio Processing in Max/MSP. International Computer Music Conference (ICMC), Montreal, 2009
2010
[Dessein10a] Dessein, A., Cont, A., Lemaitre, G., « Real-time polyphonic music transcription with non-negative matrix factorization and beta-divergence », Sixth International Society for Music Information Retrieval (ISMIR’10), Utrecht, 2010, pp. 489-494
[Leslie10a] Leslie, G., Schwarz, D., Warusfel, O., Bevilacqua, F., Zamborlin, B., Jodlowski, P., Schnell, N., « Grainstick: A Collaborative, Interactive Sound Installation », International Computer Music Conference (ICMC), New York, 2010
[Maniatakos10a] Maniatakos, F., Assayag, G., Bevilacqua, F., Agon, C., « On architecture and formalisms for computer assisted improvisation », Sound and Music Computing conference, Barcelona, 2010
[Roze07a] : Roze D. and Hélie T., Sound synthesis of a nonlinear string using Volterra series, Proceedings of 19th International Congress on Acoustics, September 2007, Madrid, p. 209.
2011
[Ayari11b] Ayari, M., Lartillot, O., « Analysis of performances and computational modelling of maqam improvisations », 7th Symposium of the International Council for Traditional Music, Baku, 2011
[Caramiaux11a] Caramiaux, B., Susini, P., Bianco, T., Bevilacqua, F., Houix, O., Schnell, N., Misdariis, N., « Gestural Embodiment of Environmental Sounds: an Experimental Study », New Interfaces for Musical Expression (NIME), 2011
[Lartillot11b] Lartillot, O., Ayari, M., « The creative act between oral culture and music cognition : analysis of performance and computer modelling », VII European Music Analysis Conference, Rome, 2011
[Lartillot11c] Lartillot, O., Ayari, M., « Maqam improvisation analysis based on an integrated modelling of surface-based and culture-dependent rules », First International Workhop of Folk Music Analysis : Symbolic and Signal Processing, Athens, 2011
[Zamborlin11b] Zamborlin, B., Partesana, G., Liuni, M., « (LAND)MOVES », Conference on New Interfaces for Musical Expression, NIME, Oslo, 2011
2012
[Causse12a] Caussé, R., Noisternig, M., Le Piouffle, V., Misdariis, N., « Modeling the radiation characteristics of woodwind instruments », CFA - Congres Français d'Acoustique, Nantes, 2012
[Cauchi12a] Cauchi, B., Lagrange, M., Misdariis, N., Cont, A., « Sparse representations for modeling environmental acoustic scenes, application to train stations soundscapes », CFA - Congres Français d'Acoustique, Nantes, 2012
C-ACTN- Communications avec actes dans un congrès national
2007
[Guedy07a] F. Guédy, J. Bresson, G. Assayag « Musique Lab 2 - Un environnement d'aide à la pédagogie musicale », Journées d'Informatique Musicale - JIM'07, 2007
[ViaudDelmon07a] Viaud-Delmon, I., Bresson, J., Pachet, F., Bevilacqua, F., Roy, P., Warusfel, O., « Eartoy : interactions ludiques par l'audition », Journées d'Informatique Musicale - JIM'07, Lyon, 2007
2010
[Boyer10a] Boyer E., Misdariis N., Caussé R., Noisternig M., Le contrôle du rayonnement appliqué à la reproduction d'un instrument de musique, Congrès Français d’Acoustique, Lyon, avril 2010.
[Roze10a] Roze D., Merlhiot X., Hélie T. Bensoam J., Simulation de la dynamique d’une poutre de Reissner par les séries de Volterra, Congrès Français d’Acoustique, Lyon, avril 2010.
2012
[Hezard12a] Hézard T., Hélie T., Caussé R., Doval B., Analysis-synthesis of vocal sounds based on a voice production model driven by the glottal area, Acoustics 2012, Nantes, 2269-2273, Avril 2012.
[Roze12a] Roze D., Hélie T., Proposition of a Green-Volterra formalism to solve dynamics of a non-linear string, Acoustics 2012, Nantes, 1179-1184, Avril 2012.
C-COM – Communications sans actes dans un congrès international ou national
2008
[Demoucron08b] Schoonderwaldt E., Demoucron M. and Rasamimanana N., A setup for measurement of bowing parameters in bowed-string instrument performance, Acoustics’08, Paris, juillet 2008 [J. Acoust. Soc. Am. vol. 123(5), p.3664].
Fingerhut, M., « A portal for contemporary music resources in France », IAML, Naples (Italie), Juillet 2008.
Fingerhut, M., « Online preservation and access to the records of past musical events », IAML, Naples (Italie), Juillet 2008.
[Roze08a] Roze D., Hélie T. and Bensoam J., Application of Volterra series to simulate dynamics of a Reissner beam Sound synthesis of a nonlinear string using Volterra series, Acoustics’08, Paris, juillet 2008 [J. Acoust. Soc. Am. vol. 123(5), p.3523].
2009
Fingerhut, M., « The IRCAM-Moscow connections », IAML, Moscou (Russie), Juin 2009.
Fingerhut, M., “Music information: a converging view of digital, physical and temporal resources”, conférence IASA, Athènes (Grèce), Septembre 2009.
2010
Fingerhut, M., « Displaying hierarchical objects in Europeana », Europeana Conference, La Haye (Pays-Bas), Septembre 2010.
[Misdariis10a] Misdariis, N., Boyer, E., Causse, R.,, Noisternig, M. , « Le contrôle du rayonnement appliqué à la reproduction d’un instrument de musique », 10ème Congrès Français d'Acoustique, Lyon, Avril 2010
2012
[Helie12c] Hélie, T., Lopes, N., Caussé, R., « Open-loop control of a robotized artificial mouth for brass instruments », Acoutics 2012 (ASA), Hong Kong, 2012
C-AFF – Communications par affiche dans un congrès international ou national
2007
[Vinet] Poster au Grand Colloque STIC: Projet Sample Orchestrator. La Villette, Paris, 2007
[Vinet] Poster au Grand Colloque STIC: Projet Voxstruments. La Villette, Paris, 2007
[ViaudDelmon07b] Viaud-Delmon, I., Bevilacqua, F., Warusfel, O., « Multisensory memory span », IMRF - International Multisensory Research Forum, Sydney, 2007
2009
[Dessein09c] Dessein, A., « La géométrie de l'information pour l'analyse et le traitement des flux audio », 5e Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio, Marseille, 2009
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2008
[Bloit10b] Bloit, J., « Interaction musicale et geste sonore : modélisation temporelle de descripteurs audio », Thèse Paris 6, 2010
2010
[Roze10b] Roze, D., « Simulation de la propagation d’onde non linéaire par les séries de Volterra », Thèse en Acoustique musicale, Thèse Université Paris VI, 2010
OS-C – Chapitres d’ouvrages
2007
[Carpentier07a] Carpentier, G., Tardieu, D., Assayag, G., Rodet, X., Saint-James, E., « An Evolutionary Approach to Computer-Aided Orchestration », EvoMUSART, Lecture Notes in Computer Science, vol. 4448, Springer Verlag, 2007, pp. 488-497
[Cont07a] Cont, A., Dubnov, S., Assayag, G., « Anticipatory Model of Musical Style Imitation using Collaborative and Competitive Reinforcement Learning », Anticipatory Behavior in Adaptive Learning Systems (Martin Butz and Olivier Sigaud and Gianluca Baldassarre Eds, Berlin), 2007, pp. 285-306
[Rodet07b] X. Rodet, Schwarz, D., Spectral Envelopes and Additive+Residual Analysis-Synthesis. James W. Beauchamp. Analysis, Synthesis, and Perception of Musical Sounds. The Sound of Music. New York, Springer. 2007, p. 175-227
2009
[Ayari09c] Ayari, M., « Can one speak of meaning in music? », Musique, Signification et Émotion, ed. AYARI Mondher. (DELATOUR-France, Paris), 2009
[Ayari09b] Ayari, M., Makhlouf, H., « Musique, Signification et Émotion », Musique, Signification et Émotion, ed. AYARI Mondher. (DELATOUR-France, Paris), 2009
[Bianco09b] Bianco, T., Freour, V., Rasamimanana, N., Bevilacqua, F., Caussé, R., « On gestural variation and coarticulation effects in sound control », Lecture Notes in Computer Science (LNCS), Gesture in Embodied Communication and Human-Computer Interaction (Springer Verlag), 2010, pp. 134-145
[Fingerhut09a] Fingerhut, M., Donin, N., “Filling Gaps between Current Musicological Practice and Computer Technology at Ircam”, in: Crawford, T., Gibson, L., Modern Methods for Musicology. Prospects, Proposals and Realities, Ashgate, 2009, pp. 47-57 + iv.
2010
[Cont10c] Cont, A., Assayag, G., Dubnov, S., Bloch, G., « Interaction with Machine Improvisation », The Structure of Style, ed. Kevin Burns, Shlomo Argamon, Shlomo Dubnov. (Springer Verlag), 2010, pp. 219-246
2012
[Dessein12b] Dessein Arnaud, Cont Arshia, Lemaitre Guillaume, Real-time detection of overlapping sound events with non-negative matrix factorization. Frank Nielsen and Frederic Barbaresco. Matrix Information Geometry. Springer. 2012
OV – Ouvrages de vulgarisation ou chapitres de ces ouvrages
PV-A – Articles de vulgarisation
2008
« Les murs du son », article dans le Journal du CNRS, N°221, Juin 2008, pp. 6-7
AP – Autres productions: bases de données, logiciels enregistrés, traductions, comptes rendus d’ouvrages, rapports de fouilles, guides techniques, catalogues d’exposition, rapports intermédiaires de grands projets internationaux, etc.
2007
Fingerhut, M., base de données des actes de toutes les conférences ISMIR (depuis 2000).
Fingerhut, M., base de données et portail des ressources de la musique contemporaine.
2008
Fingerhut, M., « About Library Portals », déclaration écrite à la direction du projet Europeana, Mai 2008.
Fingerhut, M., rapport d’étude pour le compte de l’Aga Khan Music Initiative in Central Asia, 2008.
Fingerhut, M., participation à la rédaction de « Europeana Outline Functional Specification for development of an operational European Digital Library », EDLnet Deliverable 2.5.
Radio RFI, Emission Net Plus Ultra – La Recherche à l’Ircam par Dominique Desaunay, Rencontre avec Hugues Vinet pour la préparation de la série d’émissions et des enregistrements . Emissions enregistrées : René Caussé - Acoustique Instrumentale, Gérard Assayag et Georges Bloch – Omax, Frédéric Bévilacqua et Norbert Schnell – Intéractions musicales temps réel, Geoffroy Peeters – Indexation automatique. Emissions diffusées au mois d’août, à raison d’une par semaine.
[Schnell08a] Schnell N., Bevilacqua F., Guedy F., Barthelemy J. et al., Practice Training Paradigm, and Annotation & Description Models, I-Deliverable 5.4.1r of the European IST Project MAESTRO – Interactive Multimedia Environment for Technology Enhanced Music Education and Creative Collaborative Composition and Performance, Sixth Framework Programme Priority 2.4.10 Technology Enhanced Learning.
2009
[Vinet09a] Vinet, H., et al., « Projet ANR Voxstruments - rapport final », 2009
[Vinet09b] Vinet, H., et al., « Projet ANR Sample Orchestrator - rapport final », 2009
2010
Fingerhut, M., « Future of IAML », rapport à IAML, Mars 2010.
Fingerhut, M., déclaration orale et écrite au Comité des Sages sur la numérisation du patrimoine culturel européen, Bruxelles (Belgique), Octobre 2010.
2011
Fingerhut, M., « Reflections about the IAML web site », rapport à IAML, October 2011.
Prix et distinctions
L’ensemble des posters présentés par l’Ircam au grand colloque STIC’2007 ont obtenu le prix de l’ANRT du meilleur poster.
Equipe Acoustique instrumentale

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Almeida07a] Almeida A., Vergez C. and Caussé R., Quasistatic nonlinear characteristics of double-reed instruments, J. Acoust. Soc. Am. 121 (1), 536-546, january 2007.
[Almeida07b] Almeida A., Vergez C. and Caussé R., Experimental Investigation of Reed Instrument Functionning Through Image Analysis of Reed Opening, Acta Acustica united with Acustica, Vol. 93, 645-658, juillet/août 2007.
2009
[Demoucron09b] Demoucron M., Askenfelt A. and Caussé R., Measuring Bow Force in Bowed String Performance: Theory and implementation of a Bow Force Sensor, Acta Acustica united with Acustica, Vol. 95, 718-732, 2009.
[Schoonderwaldt09a] Schoonderwaldt E. and Demoucron M., Extraction of bowing parameters from violin performance combining motion capture and sensors, J. Acoust. Soc. Am. 126 (5) , 2695-2708, 2009.
2012
[Eveno12a] Eveno P., Dalmont J.P., Caussé R., Gilbert J. : Wave Propagation and Radiation in a Horn: Comparisons Between Models and Measurements. Acta Acustica United with Acustica 98, 158-165, 2012.
[Eveno12b] Eveno P., Kieffer B., Caussé R., Gilbert J., Petiot J.F. : Relationship between resonance frequencies and playing frequencies in trumpets, soumis au J. Acoust. Soc. Am., mai 2012.
[MamouMani12a] Mamou-Mani A., Sharp D., Meurisse T., Ring W., Investigating the consistency of woodwind instrument manufacturing by comparing five nominally identical oboes, J. Acoust. Soc. Am. 131 (1), 728-736, 2012.
[MamouMani12b] Mamou-Mani A., Le Moyne S., Ollivier F., Besnainou C., Frelat J., Prestress effects on the eigenfrequencies of the soundboards: Experimental results on a simplified string instrument, J. Acoust. Soc. Am. 131 (1) , 872-877, 2012.
C-INV – Conférences invitées dans des congrès nationaux et internationaux
2009
[Causse09a] Caussé R., Evaluation of two control parameters of trumpet players as function of sound features, 157th meeting Acoustical Society of America, Vol. 125(4), p.2597, april 2009.
2011
[Causse11c] Causse R., Bensoam J., Ellis N., Modalys, a physical modeling synthesizer : more than twenty years of researches, developments and musical uses, 162nd meeting Acoustical Society of America, Vol. 130(4), p.2365, november 2011.
C-ACTI- Communications avec actes dans un congrès international
2007
[Bensoam07a] Bensoam J. and Roze D., Modelling and numerical simulation of strings based on Lie groups and algebras. Applications to the nonlinear dynamics of Reissner beams, Proceedings of 19th International Congress on Acoustics, September 2007, Madrid, p. 202.
[Freour07a] Fréour V. and Caussé R., Mechanical behaviour of artificial lips, Proceedings of International Symposium on Musical Acoustics, September 2007 , Barcelona, p. 34.
[Cuenca07a] Cuenca J. and Caussé R., Three-dimensional interaction between strings, bridge and soundboard in modern piano’s treble range, Proceedings of 19th International Congress on Acoustics, September 2007, Madrid, p. 203.
[Demoucron07a] Demoucron M. and Caussé R., Sound synthesis of bowed string instruments using gesture based control of a physical model, Proceedings of International Symposium on Musical Acoustics, September 2007 , Barcelona, p. 48.
[Petiot07a] Petiot J.F. and Caussé R., Perceptual differences between cellos : a subjective/objective study, Proceedings of International Symposium on Musical Acoustics, September 2007 , Barcelona, p. 27.
[Zelmar07a ] Zelmar P. and Caussé R., Experimental and theoretical study of the vibration of strings in the high register of the piano. The effect of the « duplex scale ». Proceedings of 19th International Congress on Acoustics, September 2007, Madrid, p. 203.
2009
[Bensoam09a] Bensoam J., A reciprocal variational approach to the two-body frictionless contact problem in elastodynamics, 7th EUROMECH Solid Mechanics Conference (ESLC2009), Lisbonne, Septembre 2009.
2011
[Eveno11a] Eveno P., Dalmont J.P., Causse R. Gilbert J., Comparisons between models and measurements of the input impedance of brass instruments bells, Forum Acusticum, Aalborg, Juin 2011.
C-ACTN- Communications avec actes dans un congrès national
2010
[Causse10a] Caussé R., Fréour V. and Cossette I., Simultaneous Measurements of Pressure, Flow and Sound During Trumpet Playing, Congrès Français d’Acoustique, Lyon, avril 2010.
2012
[Eveno12c] Eveno P., Kieffer B., Gilbert J., Petiot J.F., Caussé R., How far can the resonance frequencies give informations about the playing frequencies ?, Acoustics 2012, Nantes, 2723-2728, Avril 2012.
[Eveno12b] Eveno P., Curtit M., Dalmont J.P., Caussé R., The acoustical effect of the pad resonator in the saxophone, Acoustics 2012, Nantes, Avril 2012.
[MamouMani12c] Mamou-Mani A., Placido L., Sharp D., Physical and perceptual differences between two trumpets of the same model type, Acoustics 2012, Nantes, 2683- 2688, Avril 2012.
[Meurisse12a] Meurisse T., Mamou-Mani A., Caussé R. Sharp D., Active control applied to wind instruments, Acoustics 2012, Nantes, 3831-3836, Avril 2012.
[Benacchio12a] Benacchio S., Mamou-Mani A., Chomette B., Caussé R., Active control applied to string instruments, Acoustics 2012, Nantes, 425-430, Avril 2012.
[Bensoam12a] Bensoam J., Differential geometry applied to acoustics: non linear propagation in Reissner beams, Acoustics 2012, Nantes, 1199-1203, Avril 2012.
[Causse12a] Caussé R., Noisternig M., LePiouffle V., Misdariis N., Modeling the radiation characteristics of woodwind instruments, Acoustics 2012, Nantes, Avril 2012.
C-COM – Communications sans actes dans un congrès international ou national
2008
[Bensoam08a] Bensoam J., Digital algorithm for sound synthesis : realism and complexity for creativity, Acoustics’08, Paris, juillet 2008 [J. Acoust. Soc. Am. vol. 123(5), p.3523].
[Causse08a] Caussé R. and Fréour V., Study of Brass Performer Gestures, Acoustics’08, Paris, juillet 2008 [J. Acoust. Soc. Am. vol. 123(5), p.3658].
[Demoucron08a] Demoucron M., Askenfelt A. and Caussé R., Observations on bow changes in violin performance, Acoustics’08, Paris, juillet 2008 [J. Acoust. Soc. Am. vol. 123(5), p.3123].
[Demoucron08b] Schoonderwaldt E., Demoucron M. and., A setup for measurement of bowing parameters in bowed-string instrument performance, Acoustics’08, Paris, juillet 2008 (J. Acoust. Soc. Am. vol. 123(5), p.3664).
2009
[Caussé09] Caussé R., Ellis N. and Bensoam J., The making of a virtual bass clarinet : geometrical measures, model comparison and experimental validation, Wind Instrument Acoustics Symposium, Edinburgh( , July 2009.
2011
[Causse11a] Causse R., Eveno P., Kieffer B., Gilbert J., Dalmont J.P., J.F. Petiot, Validation of a descriptor, The « sum function », related to quality and derived from the input impedance of wind instruyments, 162nd meeting Acoustical Society of America, Vol. 130(4), p.2509, november 2011.
Equipe Espaces acoustiques et cognitifs

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Corteel07a] Corteel, E., « Synthesis of directional sources using Wave Field Synthesis, possibilities and limitations », EURASIP Journal on Advances in Signal Processing, special issue on Spatial Sound and Virtual Acoustics, Janvier 2007 Volume 2007 (2007), Article ID 90509, doi:10.1155/2007/90509
[Moeck07a] Moeck, T., Bonneel, N., Tsingos, N., Drettakis, G., Viaud-Delmon, I., Alloza, D., « Progressive perceptual audio rendering of complex scenes », ACM Symposium on interactive 3D Graphics and Games, New York, 2007, pp. 189-196
[ViaudDelmon07c] Viaud-Delmon, I., Brugger, P., Landis, T., « Hemineglect: Take a look at the back space », Annals of Neurology, 2007, n° 62, pp. 418-422
2008
[Bonneel08a] Bonneel, N., Drettakis, G., Tsingos, N., Viaud-Delmon, I., James, D., « Fast Modal Sounds with Scalable Frequency-Domain Synthesis », ACM Transactions on Graphics, 2008, vol. 27, n°3, pp. 24-29
[Dubal08a] Dubal, S., Viaud-Delmon, I., « Magical ideation and hyperacusis », Cortex, 2008, vol. 10, n° 44, pp. 1379-1386
[Noisternig08a] Noisternig, M., Katz, B., Siltanen, S., Savioja, L., « Framework for Real-Time Auralization in Architectural Acoustics », Acta Acustica united with Acustica, Novembre 2008, vol. 94, n° 6, pp. 1000-1015
2009
[Ferey09a] Férey, N., Nelson, J., Martin, C., Picinali, L., Bouyer, G., Tek, A., Bourdot, P., « Multisensory VR interaction for Protein-Docking in the CoRSAIRe project », Virtual Reality (special issue on Virtual Reality Applications, 2009. A paraître.
[Londero09a] Londero, A., Viaud-Delmon, I., Baskind, A., Bertet, S., Delerue, O., Bonfils, P., Warusfel, O., « Auditory and visual 3D virtual reality therapy for chronic subjective tinnitus: theoretical framework », Virtual Reality, 2010, vol. 2, n° 14, pp. 143-151
[Suied09a] Suied C., Bonneel N., Viaud-Delmon I., « Integration of auditory and visual information in the recognition of realistic objects », Experimental Brain Research, 2009, vol. 194, n°1, pp. 91-102.
[Suied09b] Suied C., Viaud-Delmon I.,«  Auditory-visual object recognition time suggests specific processing for animal sounds », PLoS ONE, 2009, 4(4):e5256
[Vezien09a] Vezien, J.M., Ménélas, B., Nelson, J., Picinali, L., Bourdot, P., Mehdi, A., Katz, B., « Multisensory VR exploration for Computer Fluid Dynamics in the CoRSAIRe project », Virtual Reality, 2009, vol. 13, n°4, pp. 257-271
2010
[Bonneel10a] Bonneel, N., Suied, C., Viaud-Delmon, I., Drettakis, G., « Bimodal perception of audio-visual material properties for virtual environments », ACM Transactions on Applied Perception, 2010, vol. 7, n° 1, pp. 1-16
[Brugger 10a] Brugger, P., Viaud-Delmon, I., « Superstitiousness in obsessive-compulsive disorder », Dialogues in clinical Neurosciences, 2010, vol. 12, n°2, pp. 250-254
[Viaud-Delmon10a] Viaud-Delmon, I., Venault, P., Chapoutier, G., « Behavioral models for anxiety and multisensory integration in animals and humans », Progress in Neuro-Psychopharmacology and Biological Psychiatry, 2011, vol. 35, n° 6, pp. 1391-1399
2012
[Noisternig12b] Noisternig, M., Lokki, T., « Introduction to the Special Issue on Recent Advances in Ambisonics and Spherical Acoustics », Acta acustica united with Acustica, Janvier 2012, vol. 98, n° 1
[Pollow12b] Pollow, M., Nguyen, K.V., Warusfel, O., Carpentier, T., Müller-Trapet, M., Vorländer, M., Noisternig, M., « Calculation of head-related transfer functions for arbitrary field points using spherical harmonics decomposition », Acta acustica united with Acustica, Janvier 2012, vol. 98, n° 1, pp. 72-82
[Zotter12b] Zotter, F., Pomberger, H., Noisternig, M., « Energy-preserving Ambisonics decoding », Acta acustica united with Acustica, Janvier 2012, vol. 98, n° 1, pp. 37-47
ACLN - Articles dans des revues à comité de lecture non répertoriées
2007
[ViaudDelmon07d] Viaud-Delmon, I., « Corps, action et cognition : la réalité virtuelle au défi des sciences cognitives », Intellectica, 2007, n° 45, pp. 37-58
2009
[Nguyen09a] Nguyen, K.V., Suied, C., Viaud-Delmon, I., Warusfel, O., « Spatial audition in a static virtual environment : the role of auditory-visual interaction », Journal of Virtual Reality and Broadcasting, 2009, vol. 6, n° 5, pp. 1-10
2010
[Jacquemin10a] Jacquemin, C., Ajaj, R., Le Beux, S., D'Alessandro, C., Noisternig, M., Katz, B., Planes, B., « Organ Augmented Reality : Audio-Graphical Augmentation of a Classical Instrument », International Journal of Creative Interfaces and Computer Graphics, Novembre 2010, vol. 2, n° 1, pp. 51-66
2011
[ViaudDelmon11a] Viaud-Delmon, I., « Les effets de soin du virtuel », Sciences-croisées, 2011, n° 7-8 « Soin de l’âme ».
2012 (in press)
[Suied inpress] Suied C., Drettakis G., Warusfel O., Viaud-Delmon I., « Auditory-visual virtual reality as a diagnostic and therapeutic tool for cynophobia », J. Cybertherapy and Rehabilitation [accepted]
C-INV- Conférences données à l'invitation du comité d'organisation dans un congrès national ou international
2007
[Viaud-Delmon] Viaud-Delmon, I., « Clinical exploration and therapeutic research with VR », Virtual Reality Generator workshop, European Space Research & Technology Centre, Noordwijk, Netherlands, June 2007.
[Viaud-Delmon] Viaud-Delmon, I., « Aspects sensoriels et cognitifs des mondes virtuels pour la psychopathologie clinique », Congrès national de la Société Française de Psychologie, Nantes, France, 13-15 septembre 2007.
2008
[Viaud-Delmon] Viaud-Delmon, I., « Immersion and interaction: A view from the brain », The Dassault Systèmes Developer Conference, Paris, France, 17-18 juin 2008.
[Viaud-Delmon] Viaud-Delmon, I., « Assets and Challenges of Virtual Reality for Health Care », OFHEC special hearing research seminar, University of Auckland, Nouvelle Zélande, 16 avril 2008.
2009
[Baskind09] Baskind, A., Lyzwa, J-M, « Técnicas de espacialização binaurais e transaurais », 7ème AES Conference Brasil, Sao Paulo, 26-28 mai 2009
[Noisternig09a] Noisternig, M., Katz, B., « Reconstructing sound source directivity in virtual acoustic environments », Int. Workshop on the Principles and Applications of Spatial Hearing (IWPASH), Miyagi, ZAO, 2009
[Viaud-Delmon09] Viaud-Delmon I., « Virtual Reality for tinnitus réhabilitation », 3rd Tinnitus REsearch Initiative Meeeting, Stresa, Italie, 23-26 juin 2009
[Warusfel09] Warusfel, O., « 3D audio models and technologies », FET’09 ‘Science beyond fiction’, Prague, République Tchèque, 21-23 Avril 2009.
[Viaud-Delmon] Viaud-Delmon, I., « Virtual reality works because reality is virtual », FET'09 'Science beyond fiction', Prague, République Tchèque, 21-23 avril 2009.
[Viaud-Delmon] Viaud-Delmon, I., « Introduction to the symposium and presentation of the EarToy project », Symposium “Body, Space and hearing: An interdisciplinary approach”, Ircam, Paris, 10 novembre 2009.
[Viaud-Delmon] Viaud-Delmon, I., « The neuropsychology of creativity: what makes a musical computer games an interesting cognitive task? », keynote lecture du CSL Sony lab Offsite meeting, Morzine, France, 26 janvier 2009.
2010
[Noisternig10b] Noisternig, M., « Sound spatialization over the network using Ambisonics », Network Performing Arts Production Workshop, Paris, 2010
[Noisternig10c] Noisternig, M., « La spatialisation du son aujourd'hui », Colloque International ARIAS-CRI sur le Son au théâtre / International ARIAS-CRI Colloquium on Sound and Theatre, Paris, 2010
[Noisternig] Noisternig, M., Schuhmacher, M., Schmeder, A., Bresson, J., « New Paradigms for Spatial Sound in Music Composition », Seminaire mathématiques, musique et relations avec d'autres disciplines, Paris, May 14, 2010
[Viaud-Delmon] Viaud"Delmon, I., Baskind, A., Bertet, S., Bonfils, P., Warusfel, O., Lépine, C., Leroy, C., Londero, A., « Virtual reality protocol for tinnitus rehabilitation », International TRI Tinnitus Conference 2010 Frontiers in Tinnitus Research, Dallas, USA, 8-11 juin 2010.
[Warusfel] Warusfel, O. « Spatialisation sonore en contexte immersif », Colloque Espace/Corps/Son - Méridien Arts-Sciences-Société, Cité des Sciences, Paris, 8 juin 2010
2011
[Noisternig11a] Noisternig, M., Zotter, F., Desmonet, R., Ritsch, W., « Preserving sound source radiation-characteristics in network-based musical performances », 37th Annual Convention of Acoustics (DAGA), Duesseldorf, 2011
[Noisternig11b] Noisternig, M., Zotter, F., « On the decomposition of acoustic source radiation patterns measured with surrounding spherical microphone arrays », 37th Annual Convention of Acoustics (DAGA), Duesseldorf, 2011
[Noisternig11d] Noisternig, M., « Les technologies de reproduction sonore spatiale, immersive et interactive appliquées à la réalité virtuelle », La réalité virtuelle au service de la recherche, Caen, 2011
[Noisternig11e] Noisternig, M., « Variable acoustics and research in spatial audio », Workshop on variable acoustics in large spaces for music, Montreal, 2011
[Noisternig11g] Noisternig, M., « L'acoustique virtuelle dans les salles de spectacle », L’espace sonore du théâtre: approches scientifiques et artistiques, Paris, 2011
[Viaud-Delmon] Viaud-Delmon, I., « Striving for realism in virtual worlds: the role of auditory information », Todai Forum 2011, Paris, October 2011.
2012
[Fazi12b] Fazi, F., Noisternig, M., Warusfel, O., « Representation of the spatial impulse response of a room. », Acoustics 2012 (ASA, ASC, WESPAC, HIOK meeting), vol. 131, Hong Kong, 2012, pp. 3209-3209
[Noisternig12d] Noisternig, M., Carpentier, T., Warusfel, O., « Perceptual control of convolution based room simulators », Acoustics 2012 (ASA, ASC, WESPAC, HIOK meeting), vol. 131, Hong Kong, 2012, pp. 3215-3215
C-ACTI- Communications avec actes dans un congrès international
2007
[Bertet07a] Bertet, S., Daniel, J., Parizet, E., Gros, L., Warusfel, O., « Investigation of the Perceived Spatial Resolution of Higher Order Ambisonic Sound Fields: A Subjective Evaluation Involving Virtual and Real 3D Microphones », 30th AES Conference - Intelligent Audio Environnments, Saariselkä, 2007
[Corteel07b] Corteel, E., Nguyen, K.V., Warusfel, O., Caulkins, T., Pellegrini, R., « Objective and subjective comparison of electrodynamic and MAP loudspeakers for Wave Field Synthesis », 30th AES Conference - Intelligent Audio Environnments, Saariselkä, 2007
[Delerue07a] Delerue, O., Donikian, S., Clénet, G., « Creating Interactive Poly-Artistic Works: The ConceptMove Project », ICVS - International Conference on Virtual Storytelling, vol. 4871, Saint-Malo, 2007, pp. 214-218
[Drettakis07a] Drettakis, G., Bonneel, N., Dachsbacher, C., Lefebvre, S., Schwarz, M., Viaud-Delmon, I., « An Interactive Perceptual Rendering Pipeline Using Contrast and Spatial Masking », Eurographics Symposium on Rendering, Grenoble, 2007, pp. 297-308
[Donikian07a] Donikian, S., Delerue, O., Clénet, G., Bianco, T., « Toward a complete open source software environment for the creation of interactive poly-artistic works », ICMC, vol. II, Copenhagen/Denmark, 2007, pp. 161-164
[Katz07a] Katz, B., Warusfel, O., Bourdot, P., Vezien, J.M., « Combination of Sensori-motor Rendering for the Immersive Analysis of Results », International Workshop on Interactive Sonification, York, 2007
2008
[Katz08a] Katz, B., Rio, E., Picinali, L., Warusfel, O., « The effect of spatialisation in a data sonification exploration task », International Congress on Auditory Display, Paris, 2008
[Sanson08a] Sanson, J., Corteel, E., Warusfel, O., « Objective and subjective evaluation of localisation accuracy in wave field sysnthesis », Audio Engineering Society, vol. preprint 7361, Amsterdam, 2008
[Suied08c] Suied, C., Viaud-Delmon, I., « The role of auditory-visual integration in object recognition », British Society of Audiology, York, 2008
[Suied08d] Suied, C., Bonneel, N., Viaud-Delmon, I., « Integration of auditory and visual information in fast recognition of realistic objects », ICON X (International Conference on Cognitive Neuroscience), Bodrum, 2008
[ViaudDelmon08a] Viaud-Delmon, I., Znaïdi, F., Bonneel, N., Doukhan, D., Suied, C., Warusfel, O., Nguyen, K.V., Drettakis, G., « Auditory-visual virtual environments to treat dog phobia », Intl. Conf. DIsability, Virtual Reality & Assoc. Techniques, Porto, 2008, pp. 119-124
2009
[Bertet09b] Bertet, S., Daniel, J., Parizet, E., Warusfel, O., « Influence of microphone and loudspeaker setup on perceived higher order ambisonics reproduced sound field », Ambisonics Symposium 2009, Graz, 2009
[Dalessandro09a] D'Alessandro, C., Noisternig, M., Le Beux, S., Katz, B., Picinali, L., « The ORA project: Audio-Visual Live Electronics and the Pipe Organ », International Computer Music Conference (ICMC), Montreal, 2009
[Jacquemin09a] Jacquemin, C., Ajaj, R., Le Beux, S., d'Alessandro, C., Noisternig, M., Katz, B., Planes, B., « The Glass Organ: Musical Instrument Augmentation for Enhanced Transparency », International Symposium on Smart Graphics, Salmance, 2009
[Okamoto09a] Okamoto, T., Katz, B., Noisternig, M., Iwaya, Y., Suzuki, Y., « Implementation of real-time room auralization using a surrounding loudspeaker array », Conference of the Virtual Reality Society of Japan, Tokyo, 2009
2010
[Cabrera 10a] Cabrera, D., Okamoto, T., Katz, B., Noisternig, M., Iwaya, Y., Suzuki, Y., « Considerations in characterising an almost anechoic room for interactive spatial audio reproduction », Int. Symposium on Room Acoustics (ISRA), Melbourne, 2010
[N'guyen 10b] Nguyen, K.V., Carpentier, T., Noisternig, M., Warusfel, O., « Calculation of head related transfer functions in the proximity region using spherical harmonics decomposition: comparison with measurements and evaluation », 2nd Int. Symposium on Ambisonics and Spherical Acoustics, Paris, 2010
[Noisternig10a] Noisternig, M., Zotter, F., Desmonet, R., Ritsch, W., « Streaming directional instruments over the Internet », 2nd Int. Symposium on Ambisonics and Spherical Acoustics, Paris, 2010
[Okamoto 10a] Okamoto, T., Cabrera, D., Noisternig, M., Katz, B., Iwaya, Y., Suzuki, Y., « Improving sound field reproduction based on higher-order ambisonics in a small room with a 157-loudspeaker array », 2nd Int. Symposium on Ambisonics and Spherical Acoustics, Paris, 2010
[Zotter 10a] Zotter, F., Pomberger, H., Noisternig, M., « Ambisonic Decoding with and without Mode-Matching: A Case Study Using the Hemisphere », 2nd Int. Symposium on Ambisonics and Spherical Acoustics, Paris, 2010
2012
[Fazi12a] Fazi, F., Noisternig, M., Warusfel, O., « Representation of sound fields for audio recording and reproduction », 11ème Congrès Français d’Acoustique and Annual IOA Meeting (Acoustics 2012), Nantes, 2012
[Noisternig12c] Noisternig, M., Carpentier, T., Warusfel, O., « ESPRO 2.0 – Implementation of a surrounding 350-loudspeaker array for sound field reproduction », 4th Int Symp on Ambisonics and Spherical Acoustics / Audio Engineering Society 25th UK Conference, York, 2012
[Zaar12a] Zaar, J., Zotter, F., Noisternig, M., « Phase Unwrapping on the Sphere for Directivity Functions and HRTFs », 38th Annual Convention of Acoustics (DAGA), Darmstadt, 2012
C-ACTN- Communications avec actes dans un congrès national
2007
[Corteel07d] Corteel, E., Nguyen, K.V., Warusfel, O., Caulkins, T., Pellegrini, R., « Objective and subjective comparison of electrodynamic and MAP loudspeakers for Wave Field Synthesis », DAGA 2007, Stuttgart, 2007
2010
[Nguyen10a] Nguyen, K.V., Suied, C., Viaud-Delmon, I., Warusfel, O., « Etudes de l'intégration visuo-auditive dans un contexte de réalité virtuelle », Congrès Français d'acoustique, Lyon, 2010
[Sanson10a] Sanson, J., Warusfel, O., « Evaluation perceptive des apports de la reproduction sonore par WFS pour une situation de concert », Congrès Français d'acoustique, Lyon, 2010
C-COM – Communications sans actes dans un congrès international ou national
2008
[Bertet08b] Bertet, S., Daniel, J., Parizet, E., Warusfel, O., « Investigation on the restitution system influence over perceived Higher Order Ambisonics sound field: a subjective evaluation involving from first to fourth order systems », Journal of the Acoustical Society of America, vol. 123 (5), Paris, 2008
[Caulkins08a] Caulkins, T., Corteel, E., Sanson, J., Warusfel, O., « Wave Field Synthesis: Implications for live music performances », Journal of Acoustical Society of America, vol. 123 (5), Paris, 2008
[Nguyen08a] Nguyen, K.V., Suied, C., Viaud-Delmon, I., Warusfel, O., « Investigating the effects of spatially disparate visual stimuli on auditory localization in VR environments », Journal of the Acoustical Society of America, vol. 123 (5), Paris, 2008
[Noisternig08b] Noisternig, M., Savioja, L., Katz, B., « Real-time auralization system based on beam-tracing and mixed-order Ambisonics », 155th ASA, 5th Forum Austicum, and 2nd ASA-EAA Joint Conference (Acoustics'08), vol. 123, Paris, 2008, pp. 3935-3935
[Noisternig08c] Noisternig, M., Katz, B., D'Alessandro, C., « Spatial rendering of audio-visual synthetic speech use for immersive environments », 155th ASA, 5th Forum Austicum, and 2nd ASA-EAA Joint Conference (Acoustics'08), vol. 123, Paris, 2008, pp. 3939-3939
[Sanson08b] Sanson, J., Corteel, E., Warusfel, O., « Subjective and objective evaluation of localisation accuracy in wave field sysnthesis », Acoustics'08, vol. 123 (5), Paris, 2008,
[Suied08e] Suied, C., Bonneel, N., Viaud-Delmon, I., « The Role of Auditory-Visual Integration in Object Recognition », Acoustics'08, vol. 123 (5), Paris, 2008, pp. 3568-0
2009
[Baskind09a] Baskind, A., Bertet, S., Bonfils, P., Londero, A., Viaud-Delmon, I., Warusfel, O., « Virtual Reality for Tinnitus Rehabilitation », 3rd Tinnitus Research Initiative Meeting, Stresa, Italy, 2009, pp. 25-25
2010
[Noisternig10d] Noisternig, M., « Extension of the notion of spatialization: Acoustic spaces and sound source directivity in network performing arts », Music in the Global Village Workshop, Pecs, 2010
[Schmeder10a] Schmeder, A., Noisternig, M., « Spatialization schemata for high-order source directivity », GDIF/SpatDIF Meeting, Paris, 2010
[Warusfel] Warusfel, O., Bertet, S., Baskind, A., Bonfils, P., Viaud"Delmon, I., Londero, A., « Virtual reality protocol for tinnitus rehabilitation: Tinnitus recreation method », International TRI Tinnitus Conference 2010 Frontiers in Tinnitus Research, Dallas, USA, 8-11 juin 2010.
2011
[Noisternig11f] Noisternig M., "La WFS à l’Ircam, une technologie de reproduction sonore spatiale, immersive et interactive", 3ème journée d’Acoustique virtuelle, CFPTS, Juin 2011, Bagnolet, France
[Noisternig11h] Noisternig, M., Carpentier, T., Warusfel, O., « Immersive 2D/3D audio for live sound and studio productions », International Conference on Spatial Audio (ICSA), Detmold, 2011
2012
[Viaud-Delmon] Viaud-Delmon, I., Londero, A., Bonfils, P., Warusfel, O., « Virtual Reality exposure therapy for unilateral tinnitus », 6th Tinnitus Research Initiative Conference, Bruges, June 2012
C-AFF – Communications par affiche dans un congrès international ou national
2007
[Nguyen07a] N’guyen, K-V., Suied, C., Dellepiane, M., Warusfel, O., Viaud-Delmon, I., « Investigation of Auditory-visual integration in VR environments ». 7th IMRF - International Multisensory Research Forum, 2007.
[Suied07b] Suied, C., Bonneel, N., Viaud-Delmon, I., « Role of semantic vs spatial congruency in a bimodal go/no-go task », IMRF Internation Multisensory Research Forum, Sydney, 2007
2008
[Suied08f] Suied, C., Viaud-Delmon, I., « The role of object categories in auditory-visual object recognition », IMRF International Multisensory Research Forum, Hambourg, 2008
2009
[Bertet09a] Bertet, S., Baskind, A., Londero, A., Warusfel, O., Viaud-Delmon, I., Bonfils, P., « Definition of a procedure for creating a synthetic tinnitus auditory image », 3rd Tinnitus Research Initiative Meeting, Stresa, Italy, 2009, pp. 54-54
DO – Direction d'ouvrages ou de revue
2012
[Noisternig12b] Noisternig, M., Lokki, T., Special Issue on Recent Advances in Spherical Acoustics, Janvier 2012, vol. 98, n° 1
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2007
[Caulkins07a] Caulkins T., «Caractérisation et contrôle du rayonnement d’un système de Wave Field Synthesis pour la situation de concert», Thèse de doctorat, Université Paris 6, soutenue le 10 décembre 2007
2008
[Bertet08a] Bertet, S., « Formats audio 3D hiérarchiques: caractérisation objective et perceptive des systèmes Ambisonics d'ordres supérieurs », thèse de l’INSA Lyon, soutenue le 24 mars 2009.
[Tsingos08a] Tsingos N., Warusfel, O. « Restitution sonore spatiale, Dispositifs et Interfaces », in Techniques de l’Ingénieur, 2008, TE 5912 pp 1-21
[Tsingos08b] Tsingos N., Warusfel, O. « Modèles pour le rendu sonore », in Techniques de l’Ingénieur, 2008, TE 5914 pp 1-29
2009
[Klinger09a] Klinger, E., Viaud-Delmon, I., « L’humain virtuel en neurosciences cliniques », Le traité de la Réalité Virtuelle, ed. P. Fuchs. (Presse des Mines, Paris), 2009, vol. 5, pp. 399-418
2011
[Daniel11a] Daniel A., « Spatial Auditory Blurring and Applications to Multichannel Audio Coding», Thèse de doctorat de l’UPMC, soutenue le 23 juin 2011
[Noisternig11c] Noisternig, M., Zotter, F., Katz, B., « Reconstructing sound source directivity in virtual acoustic environments », Principles and Applications of Spatial Hearing, ed. Yôiti Suzuki, Douglas Brungart, Hiroaki Kato. (World Scientific Publishing Co. Pte. Ltd.), 2011, pp. 357-373
[Okamoto11a] Okamoto, T., Katz, B., Noisternig, M., Iwaya, Y., Suzuki, Y., « Implementation of Real-Time Room Auralization Using a Surrounding 157 Loudspeaker Array », Principles and Applications of Spatial Hearing, ed. Yôiti Suzuki, Douglas Brungart, Hiroaki Kato. (World Scientific Publishing Co. Pte. Ltd.), 2011, pp. 373-382
[Sanson11a] Sanson, J., « Contrôle musical et perceptif de la spatialisation sonore en zone étendue», Thèse de doctorat de l’UPMC, soutenue le 11 juillet 2011
2012
[Dalessandro12a] D'Alessandro, C., Noisternig, M., « Orgue : intérieur/extérieur », Simulation technologique et matérialisation artistique, une exploration transdiciplinaire Arts/sciences, ed. Samuel Bianchini, Nathalie Delprat, Christian Jacquemin. (Harmatan), 2012, pp. 161-178
[Nguyen12a] Nguyen, K.-V., «Technologie binaurale et contexte de réalité virtuelle : études perceptives et optimisation», Thèse de doctorat de l’UPMC, soutenance automne 2012.
PAT : Productions artistiques théorisées (compositions musicales, cinématographiques, expositions, installations …)
[Dalessandro] d'Alessandro, C., Noisternig, M., Jacquemin, C., Ajaj, R., Le-Beux, S., Katz, B.F.G., Planes, B., "Orgue et réalité augmentée", Exposition et concert, Science sur Seine, May-June, 2008
[Noisternig] Noisternig, M., Sluchin, B., Carpentier, T., « Concert et atelier WFS », International Conference on Spatial Audio (ICSA), Detmold, 2011
PV - Publications de vulgarisation
PV-A – Articles de vulgarisation
2007
[Warusfel07a] Warusfel, O., « De l'acoustique virtuelle à la réalité virtuelle », Rue Descartes, Avril 2007, n° 56, pp. 82-95
2008
[ViaudDelmon08c] Viaud-Delmon, I., « Réalité virtuelle, Entendre dans un monde virtuel », Pour La Science, Novembre 2008, n° 373, pp. 108-114
[ViaudDelmon08d] Viaud-Delmon, I., « L’application de la réalité virtuelle aux pathologies psychiatriques », NeuroPsy News, Septembre 2008
[Warusfel08a] Warusfel, O., « La spatialisation des sons », Pour la Science, Novembre 2008, n° 373, pp. 100-106
2009
[Chouchan] Chouchan, D. & Viaud-Delmon, I., « Phobies à l'épreuve du virtuel », La Recherche, 427:75, 2009.
2010
[Viaud-Delmon 10c] Viaud-Delmon, I., « Entendre dans un monde virtuel », L'essentiel Cerveau & Psycho, 2010, n° 4, pp. 80-85
[Noisternig10e] Noisternig, M., « L'Ircam au théâtre », Le son du théâtre, II. Dire l'acoustique, 2010, vol. 2, pp. 43-43
2012
[Viaud-Delmon] Viaud-Delmon, I., « Les vertiges de l'anxieux », L’essentiel Cerveau & Psycho, 10:58-63, Mai-Juillet 2012

AP - Autres productions :
[Viaud-Delmon] Viaud-Delmon, I., Prendre soin par le virtuel, Chantier Philosoin UNESCO 2011
Equipe Perception et design sonores

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Lemaitre07a] Lemaitre, G., Susini, P., Winsberg, S., Letinturier, B., McAdams, S., « The sound quality of car horns: a psychoacoustical study of timbre », Acta acustica united with Acustica, 2007, vol. 93, n° 3, pp. 457-468
[Susini07a] Susini, P., McAdams, S., Smith, B., « Loudness asymmetries for tones with increasing and decreasing levels using continuous and global ratings », Acta acustica united with Acustica, 2007, vol. 93, n° 4
2008
[Lemaitre08a] Lemaitre, G., Letinturier, B., Gazengel, B., « Model and estimation method for predicting the sound radiated by a horn loudspeaker - With application to a car horn », Applied Acoustics, Janvier 2008, vol. 69, n° 1, pp. 47-59
[Suied08a] Suied, C., Susini, P., McAdams, S., « Evaluating Warning Sound Urgency With Reaction Times », Journal of Experimental Psychology: Applied, 2008, vol. 14, n° 3, pp. 201-212
[Tardieu08a] Tardieu, J., Susini, P., Poisson, F., Lazareff, P., McAdams, S., « Perceptual study of soundscapes in train stations. », Applied Acoustics, Décembre 2008, vol. 69, n° 12, pp. 1224-1239
2009
[Lemaitre09a] Lemaitre, G., Susini, P., Winsberg, S., Letinturier, B., McAdams, S., « The sound quality of car horns: Designing new representative sound », Acta acustica united with Acustica, 2009, vol. 95, n° 2, pp. 356-372
[Lemaitre09b] Lemaitre, G., Houix, O., Visell, Y., Franinovic, K., Misdariis, N., Susini, P., « Toward the Design and Evaluation of Continuous Sound in Tangible Interfaces: The Spinotron », International Journal of Human Computer Studies, 2009
[Susini08b] Susini, P., Houix, O., Misdariis, N., Smith, B., Langlois, S., « Instruction's effect on semantic scale ratings of interior car sounds. », Applied Acoustics, 2009, vol. 70, n° 3, pp. 390-399
[Tardieu09a] Tardieu, J., Susini, P., Poisson, F., Kawakami, H., McAdams, S., « The design and evaluation of an auditory way-finding system in a train station », Applied Acoustics, 2009
2010
[Lemaitre09e] Lemaitre, G., Houix, O., Misdariis, N., Susini, P., « Listener Expertise and Sound Identification Influence the Categorization of Environmental Sounds », Journal of Experimental Psychology: Applied, 2010, vol. 16, n° 1, pp. 16-32
[Misdariis10b] Misdariis, N., Minard, A., Susini, P., Lemaitre, G., McAdams, S., Parizet, E., « Environmental Sound Perception: Metadescription and Modeling Based on Independent Primary Studies », EURASIP Journal on Audio, Speech, and Music Processing, Février 2010
[Suied10a] Suied, C., Susini, P., McAdams, S., Patterson, R., « Why Are Natural Sounds Detected Faster than Pips? », J. Acoust. Soc. Am. EL, Mars 2010, vol. 127, n° 3, pp. 105-110
[Susini10a] Susini, P., Meunier, S., Trapeau, R., Chatron, J., « End Level Bias on Direct Loudness Ratings of Increasing Sounds », J. Acoust. Soc. Am. EL, Octobre 2010, vol. 128, n° 4, pp. 163-168
2011
[Lemaitre11a] Lemaitre, G., Dessein, A., Susini, P., Aura, K., « Vocal imitations and the identification of sound events », Ecological Psychology, 2011, vol. 4, n° 23, pp. 267-307
2012
[Frere12a] Frère, A., Susini, P., Misdariis, N., Weber, R., Peteul-Brouillet, C., Guyader, G., « Vibrations’ influence on Dieselness perception », Applied Acoustics, 2012 (en cours de révision)
[Houix12a] Houix, O., Lemaitre, G., Misdariis, N., Susini, P., Urdapilleta,f I., « A Lexical Analysis of Environmental Sound Categories », Journal of Experimental Psychology: Applied, 2012
[Susini12a] Susini, P., Misdariis, N., Lemaitre, G., Houix, O., « Naturalness influences the perceived usability and pleasantness of an interface's sonic feedback », Journal on Multimodal User Interface manuscript, 2012
ACLN - Articles dans des revues à comité de lecture non répertoriées
2007
[Manetta07a] Manetta C., Urdapilleta I., Houix O., Montet A., Richard J. F., « Approche cognitive et langagière de la description de parfums », Bulletin de Psychologie, vol. 2, n° 60, 2007.
2009
[Tardieu09b] Tardieu, J., Susini, P., Poisson, F., Lazareff, P., McAdams, S., « Auditory information in the soundscape of a train station. Noise & Vibration Worldwide, Volume 40, Number 8, September 2009, pp. 13-19. », Noise & Vibration Worldwide, 2009, vol. 40, n° 8, pp. 13-19
2011
[Gaillard11a] Gaillard, A., Urdapilleta, I., Houix, O., Manetta, C., « Effects of task and category membership on representation stability. », Psicológica: Revista de metodología y psicología experimental, 2011, vol. 32, n° 1, pp. 31-48
ASCL - Articles dans des revues sans comité de lecture
2007
[Susini07b] Susini, P., Misdariis, N., « Perspectives en design sonore », Biennale du Design de Saint-Etienne, Azimuts N°28, 2007.
C-INV – Conférences invitées dans des congrès nationaux et internationaux
2008
[Houix08a] Houix O., Lemaitre G., Misdariis N., Susini P., « Classification of everyday sounds : influence of the degree of sound source identification », Invited paper for Acoustics'08, Paris, 2008.
[Lemaitre08b] Lemaitre G., Houix O., Misdariis N., Susini P., « Naïve and expert listeners use different strategies to categorize everyday sounds », Invited paper for Euronoise - Acoustics 08, Paris, 2008.
[Susini08a] Susini P., McAdams S., « Loudness asymmetry ratings between accelerating and decelerating car sounds », Invited paper for ASA/SFA Special Session on Loudness, Acustics'08, Paris, 2008.
2009
[Susini09b] Susini, P., « Qu’est-ce qu’on entend quand on écoute? », Mots du son, Limoges, 2009
C-ACTI- Communications avec actes dans un congrès international
2008
[Aura08a] Aura, K., Lemaitre, G., Susini, P., « Verbal imitations of sound events enable recognition of the imitated sound events », Acoustics'08, Paris, 2008
[Minard08a] Minard A., Susini P., Misdariis N., Lemaitre G., McAdams S., Parizet E., « Environmental sound description : a meta-analysis of timbre perception », Computer-Human Interaction conference (CHI) / Sonic Interaction Design workshop (SID), Florence, Italie, Avril 2008.
[Minard08b] Minard A., Susini P., Misdariis N., Lemaitre G., McAdams S., Parizet E., « Two-level description of environmental sounds : comparison and generalization of 4 timbre studies », Acoustics’08, Paris, France, 2008.
[Misdariis08a] Misdariis N., Lang A., Katz B., Susini P., « Perceptual effects of radiation control with a multi-louspeaker device », Acoustics’08, Paris, 2008.
[Suied08b] Suied, C., Magnin, M., Langlois, S., Susini, P., McAdams, S. « Fast Detection for Natural Animal Sounds », Acoustics'08, Paris, 2008
2009
[Dessein09a] Dessein A., Lemaitre G., « Free classifications of vocal imitations of everyday sounds », Sound and Music Computing conference (SMC), Porto, Portugal, Juillet 2009.
[Frere09a] Frère, A., Péteul-Brouillet, C., Guyader, G., Misdariis, N., Susini, P., Weber, R., « Which driving situations best represent “the characteristic sound” of diesel engines? », Euronoise, Edinburgh, 2009
[Lemaitre09d] Lemaitre G., Houix O., Franinovic K., Visell Y., Susini P., « The Flops glass: a device to study emotional reactions arising from sonic interactions », Sound and Music Computing conference (SMC), Porto, Portugal, Juillet 2009.
[Lemaitre09f] Lemaitre, G., Dessein, A., Aura, K., Susini, P., « Why and how do we vocally imitate sounds? », SID Workshop "Sketching Sonic Interaction Design", Holon, 2009
[Lemaitre09g] Lemaitre, G., Houix, O., Misdariis, N., Susini, P., « Emotional reactions to the manipulation of a sonically augmented interactive device », Auditory Perception and Cognition Meeting (APCAM), Boston, 2009
[Lemaitre09h] Lemaitre, G., Dessein, A., Aura, K., Susini, P., « Do vocal imitations enable the identification of the imitated sounds? », Auditory Perception and Cognition Meeting (APCAM), Boston, 2009
[Susini09a] Susini P., Misdariis N., Houix O., Lemaitre G., « Does a "natural" sonic feedback affect perceived usability and emotion in the context of use of an ATM? ». Sound and Music Computing conference (SMC), Porto, Portugal, Juillet 2009.
2010
[Frere10a] Frère, A., Misdariis, N., Susini, P., Weber, R., Péteul-Brouillet, C., Guyader, G., « Which Driving Situations Best Represent "the Characteristic Sound" of Diesel Engines? Comparison between Germany and France », DAGA, Berlin, 2010
[Frere10b] Frère, A., Weber, R., Péteul-Brouillet, C., Guyader, G., Misdariis, N., Susini, P., « What is the Influence of Vibrations on the Diesel Character Rating of a Vehicle ? », Internoise, Lisbonne, 2010
[Houix10a] Houix, O., Lemaitre, G., Misdariis, N., Susini, P., Urdapilleta, I., « A Perceptive Categorization of Sounds Produced the Interaction of Solid Objects », 158th meeting of the Acoustical Society of America, Baltimore, 2010
[Houix10b] Houix, O., Lemaitre, G., Misdariis, N., Susini, P., Urdapilleta, I., « Catégorisation des sons produits par des objets solides », 10ème Congrès Français d'Acoustique, Lyon, 2010
[Houix10c] Houix, O., Lemaitre, G., Misdariis, N., Susini, P., Urdapilleta, I., « A perceptive categorization of sounds produced the interaction of solid objects. », The Journal of the Acoustical Society of America, 2010, vol. 3, n° 127, pp. 1899-1899
[Langlois10a] Langlois, S., Loiseau, S., Tardieu, J., Cera, A., Misdariis, N., « Evaluation de la sonification d’un système multimédia automobile », 22ème conférence francophone sur l'Interaction Homme-Machine, Luxembourg, 2010
[Lemaitre10a] Lemaitre, G., Dessein, A., Aura, K., Susini, P., « Les imitations vocales de sons environnementaux permettent-elles leur reconnaissance ? », 10ème Congrès Français d'Acoustique, Lyon, 2010
[Lemaitre10b] Lemaitre, G., Dessein, A., Aura, K., Susini, P., « Perception of Vocal Imitations and Identification of the Imitated Sounds », 158th meeting of the Acoustical Society of America, Baltimore, 2010
[Meunier10a] Meunier, S., Susini, P., Trapeau, R., Chatron, J., « Global Loudness of Ramped and Damped Sounds », 20th International Congress on Acoustics, Sydney, 2010
[Meunier10b] Meunier, S., Susini, P., Trapeau, R., Chatron, J., « Asymmetry in Loudness Change of Ramped and Damped Sounds », 10ème Congrès Français d'Acoustique, Lyon, 2010
[Minard10b] Minard, A., Misdariis, N., Houix, O., Susini, P., « Catégorisation de sons environnementaux sur la base de profils morphologiques », 10ème Congrès Français d'Acoustique, Lyon, 2010
[Susini10b] Susini, P., Meunier, S., Trapeau, R., Chatron, J., « Loudness of Ramped and Damped Sounds: Comparison of Global Loudness and Loudness Change », 10ème Congrès Français d'Acoustique, Lyon, 2010
[Tardieu10a] Tardieu, J., Susini, P., Poisson, F., Kawakami, H., McAdams, S., « Auditory Information In The Soundscapes Of Train Stations : From Perceptual Analysis To Sound Design », EAA EuroRegio, Congress on Sound and Vibration, 2010
[Tardieu10b] Tardieu, J., Susini, P., Poisson, F., Kawakami, H., McAdams, S., « Sound Signals to Improve Way-Finding in a Train Station », IoA/ABAV, Noise in the Built Environment, 2010.
2011
[Hug11a] Hug, D., Misdariis, N., « Towards a Conceptual Framework to Integrate Designerly and Scientific Sound Design Methods », Audiomostly, Coimbra, 2011
[Susini11b] Susini, P., Ponsot, E., Meunier, S., « End-level dependency of loudness of increasing sounds: a time persistent effect », Forum Acusticum, Aalborg, 2011
2012
[Houix12b] Houix, O., Bonnot, S., Vienne, F., Vericel, B., Pardo, L.F., Misdariis, N., Susini, P., « Perceptual influence of the vibratory component on the audio component of alarms produced by rumble strips, by measuring reaction times », CFA - Congres Français d'Acoustique, Nantes, 2012
[Misdariis12a] Misdariis, N., Cera, A., Levallois, E., Locqueteau, C., « Do electric cars have to make noise? An emblematic opportunity for designing sounds and soundscapes », CFA - Congres Français d'Acoustique, Nantes, 2012
[Ponsot12a] Ponsot, E., Susini, P., Meunier, S., « Effect of the ISI on the asymmetry in global loudness between upramp and downramp sounds in a paired comparison experiment », Acoustics2012 - CFA - Congres Français d'Acoustique, Nantes / France, 2012
[Vannier12a] Vannier, M., Meunier, S., Susini, P., Chatron, J., « Perceptual asymmetry in the subjective duration of ramped and damped sounds », Acoustics2012 - CFA - Congres Français d'Acoustique, Nantes / France, 2012
C-ACTN- Communications avec actes dans un congrès national
2008
[Urdapilleta08a] Urdapilleta I., Giboreau A., Manetta C., Houix O., Richard J.F., « Mise au jour des représentations de parfums à l’aide d’une tâche de catégorisation et de l’analyse textuelle des verbalisations associées », Journées internationales d’Analyse statistique des Données Textuelles (JADT), France, 2008.
C-AFF – Communications par affiche dans un congrès international ou national
2007
[Houix07c] Houix O., Lemaitre G., Misdariis N., Susini P., « Nouveaux outils d’évaluation perceptive pour le design sonore : le projet CLOSED », 1ères journées SFA/GPS, Lyon, France, Janvier 2007.
[Misdariis07a] Misdariis N., Houix O., Derio M., Dos Santos R., « Approche Perceptive pour la Synthèse Sonore par Modélisation Physique (Modalys) », 1ères journées SFA/GPS, Lyon, France, Janvier 2007.
2008
[Minard08b] Minard A., Susini P., Misdariis N., Lemaitre G., McAdams S., Parizet E., « Two-level description of environmental sounds: comparison and generalization of 4 timbre studies », Acoustics’08, 10ème Congrès Français d’Acoustique (CFA), Paris, France, Juillet 2008.
[Misdariis08a] Misdariis N., Lang A., Katz B. F. G., Susini P., « Perceptual effects of radiation control with a multi-louspeaker device », Acoustics’08, 10ème Congrès Français d’Acoustique (CFA), Paris, France, Juillet 2008.
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2011
[Susini11c] Susini, P., « Le design sonore : un cadre expérimental et applicatif pour explorer la perception sonore », Habilitation à Diriger des Recherches, Université de la Méditerranée - Aix-Marseille II, 2011
OS-C – Chapitres d’ouvrages
2011
[Misdariis11a] Misdariis, N., Tardieu, J., Langlois, S., Loiseau, S., « Menu Sonification in an Automotive Media Center : Design and Evaluation », Human-Computer Interactions in Transport, ed. Christophe Kolski. (ISTE Ltd - John Wiley & Sons Inc), 2011, pp. 233-281
[Susini11a] Susini, P., Lemaitre, G., McAdams, S., « Psychological Measurement for Sound Description and Evaluation », Measurement With Persons, ed. B. Berglund, G. B. Rossi, J. T. Townsend, L. R. Pendrill. (Taylor & Francis Group, New York), 2011, pp. 227-254
AP – Autres productions: bases de données, logiciels enregistrés, traductions, comptes rendus d’ouvrages, rapports de fouilles, guides techniques, catalogues d’exposition, rapports intermédiaires de grands projets internationaux, etc.
2007
[Houix07a] Houix O., Lemaitre G., Misdariis N., Susini P., Visell Y., Franinovic K., Rochesso D., « Everyday sound classification: Sound perception, interaction and synthesis Part I - State of the art », deliverable 4.1 - part I, projet CLOSED, 2007.
[Houix07b] Houix O., Lemaitre G., Misdariis N., Susini P., « Everyday sound classification. Part 2 : Experimental classification of everyday sounds », deliverable 4.1 - part I, projet CLOSED, 2007.
2009
[Tardieu09c] Tardieu J., « Findability / Sonification des menus hiérarchiques – Deliverable 1 (revue bibliographique) », rapport industriel, Renault, 06/2009.
[Tardieu09d] Tardieu J., Misdariis N., Cera A., « Findability / Sonification des menus hiérarchiques – Deliverable 2 », rapport industriel, Renault, 09/2009.
Equipe Analyse/ synthèse des sons

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Helie07a] Hélie, T., Laroche, B., « Criterion design for optimizing low-cost approximations of infinite-dimensional systems: towards efficient real-time simulation », International Journal of Tomography and Statistics. 2007, vol. 7, p. 13-18
[Roebel07a] Roebel, A., Villavicencio, F., Rodet, X., « On Cepstral and All-Pole based Spectral Envelope Modeling with unknown Model order », Pattern Recognition Letters, Août 2007, vol. 28, n° 11, pp. 1343-1350
2008
[Helie08b] Hélie, T., Laroche, B., « On the convergence of Volterra series of finite dimensional quadratic MIMO systems », International Journal of Control, special issue in Honor of Michel Fliess 60 th-birthday, Mars 2008, vol. 81, n° 3, pp. 358-370
[Lanchantin08b] Lanchantin, P., Lapuyade-Lahorgue, J., Pieczynski, W., Unsupervised Segmentation of Triplet Markov Chains Hidden with Long-Memory Noise : hidden Markov chains, Triplet Markov Chains, Copulas, non-Gaussian correlated noise. Signal Processing. Mai 2008
[Obin08d] Obin, N., Lacheret-Dujour, A., Veaux, C., Rodet, X., Simon, A., « A Method for Automatic and Dynamic Estimation of Discourse Genre Typology with Prosodic Features », Interspeech, Septembre, 2008
[Roebel08a] Roebel, A., « Frequency-Slope Estimation and Its Application to Parameter Estimation for Non-Stationary Sinusoids », Computer Music Journal, 2008, vol. 32, n° 2, pp. 68-79
[Zivanovic08a] Zivanovic, M., Roebel, A., Rodet, X., « Adaptive Threshold Determination for Spectral Peak Classification », Computer Music Journal, 2008, vol. 32, n° 2, pp. 57-67
2009
[Beller09b] Beller, G., Veaux, C., Degottex, G., Obin, N., Lanchantin, P., Rodet, X., « Ircam Corpus Tools: Système de Gestion de Corpus de Parole », TAL, Juillet 2009
[Livshin09a] Livshin, A., Rodet, X., « Purging Musical Instrument Sample Databases Using Automatic Musical Instrument Recognition Methods », IEEE Transactions on Audio, Speech, and Language Processing, vol. 17, n° 5, 2009
[Mignot09c] Mignot, R., Hélie, T., Matignon, D.,« On the singularities of fractional differential systems, using a mathematical limiting process based on physical grounds » (Accessible uniquement depuis l'Ircam), Physica Scripta, n° 136, Octobre, 2009
2010
[Burred10a] Burred J., Roebel A., Sikora T.,« Dynamic Spectral Envelope Modeling for the Analysis of Musical Instrument Sounds » (Internal access only), IEEE Transactions on Audio, Speech and Language Processing, vol. 18, no 3, Mars, 2010
[Helie10a] Hélie, T., « Volterra series and state transformation for real-time simulations of audio devices including saturations: application to the Moog ladder filter », IEEE Transactions on Audio, Speech and Language Processing, vol. 18, no 4, 2010
[Lagrange10a] Lagrange, M., Scavone, G., Depalle, P., « Analysis / Synthesis of Sounds Generated by Sustained Contact between Rigid Objects », IEEE Transactions on Audio Speech and Language Processing, vol. 18, no 3, 2010
[Mignot10a] Mignot, R., Hélie, T., Matignon, D., « Digital waveguide modeling for wind instruments: building a state-space representation based on the Webster-Lokshin model », Special Issue on Virtual Analog Audio Effects and Musical Instruments for the IEEE Transactions on Audio, Speech and Language Processing, 2010
[Papadopoulos10a] Papadopoulos, H., Peeters G. (2010). « Joint Estimation of Chords and Downbeats From an Audio Signal » IEEE Transactions on Audio, Speech, and Language Processing 19(1): 138 – 152
[Peeters10a] Peeters, G., Deruty, E., « Sound indexing using morphological description » IEEE Transactions on Audio, Speech, and Language Processing 18(3 (Special issue on Signal Models and Representations of Musical and Environmental Sound)): 675-687.
[Yeh10a] Yeh, C., Roebel, A., Rodet, X., « Multiple Fundamental Frequency Estimation and Polyphony Inference of Polyphonic Music Signals », IEEE Transactions on Audio, Speech and Language Processing, vol. 18, n° 6, Août, 2010
[AndreaNovel10a] Andréa-Novel B., Coron J., Hélie T., « Observers for brass instruments », Acta Acustica, vol. 96, no 4, 2010
2011
[Avanzi11a] Avanzi, M., Obin, N., Lacheret, A., Victorri, B., « Vers une modélisation continue de la structure prosodique. Le cas des proéminences accentuelles. », Journal of French Languages Studies, vol. 1, n° 21, 2011
[Degottex10c] Degottex, G., Röbel, A., Rodet, X., « Phase minimization for glottal model estimation », IEEE Transactions on Acoustics, Speech and Language Processing, vol. 19, n° 5, Juillet, 2011
[Helie10b] Hélie, T., Laroche, B., « Computation of convergence bounds for Volterra series of linear analytic single input systems » (Accessible uniquement depuis l'Ircam), IEEE Transactions on Automatic Control, vol. 56, n° 9, Septembre, 2011, p. 2062-2072
[Lanchantin11a] Lanchantin, P. , Lapuyade-Lahorgue, J., Pieczynski, W., « Unsupervised Segmentation of Randomly Switching Data Hidden With Non-Gaussian Correlated Noise : Hidden Markov chains, Triplet Markov Chains, Copulas, non-Gaussian correlated noise », Signal Processing, vol. 91, n° 2, Février, 2011
[Mignot11a] Mignot, R., Hélie, T.,, Matignon, D., « From a model of lossy flared pipes to a general framework for simulation of waveguides », Acta Acustica, vol. 97, 2011
[Mignot11b] Mignot, R., Hélie, T.,, Matignon, D., « Simulation en guides d’ondes numériques stables pour des tubes acoustiques à profil convexe : quelques apports de l’automatique et du traitement du signal pour la résolution numérique en temps réel de problèmes de dimension infinie intervenant en acoustique musicale » Journal Européen des Systèmes Automatisés. 2011, vol. 45, n° 7, p. 547-574
[Murphy11a] Murphy, E., Lagrange, M., Scavone, G., Depalle, P., Guastavino, C., « Perceptual evaluation of rolling sound synthesis », Acta acustica united with Acustica, vol. 5, n° 97, 2011
[Papadopoulos11a] Papadopoulos, H., Peeters, G., « Local Key Estimation from an Audio Signal Relying on Harmonic and Metrical Structures », IEEE Trans. on Audio, Speech and Language Processing, 2011
[Peeters11a] Peeters, G., Papadopoulos, H. « Simultaneous beat and downbeat-tracking using a probabilistic framework: theory and large-scale evaluation », IEEE. Trans. on Audio, Speech and Language Processing, vol. 19, n° 6, Août, 2011
[Peeters11b] Peeters, G., « Copy and Scale'' Method for Doing Time-Localized M.I.R. Estimation: Application to Beat-tracking », Journal of New Music Research (Special issue on Music and Machine Learning), vol. 40, n° 2, 2011
[Peeters11c] Peeters, G., « Spectral and temporal periodicity representations of rhythm for the automatic classification of music audio signal », IEEE. Trans. on Audio, Speech and Language Processing, vol. 19, n° 5, 2011
[Ramona11b] Ramona, M., Fenet, S., Blouet, R., Bredin, H., Fillon, T., Peeters, G., « Audio Fingerprint: a Public Evaluation Framework Based on a Broadcast Scenario », Journal of Experimental & Theoretical Artificial Intelligence (Special Issue on Event Recognition), 2011
2012
[Lagrange12a], Lagrange, M., Ozerov, A., Vincent, E.,« Uncertainty-based learning of acoustic models fron noisy data », Conputer Speech and Language, 2012
[Lagrange12c] Lagrange, M., Badeau, R., David, B., Bertin, N., Derrien, O., Marchand, S., « Décompositions en éléments sonores et applications musicales », Traitement du signal, 2012
[Orio12b] Orio, N., Liem, C. C. S., Peeters, G., Schedl, M., « Musiclef : Multimodal music tagging task », in CLEF Conference and Labs of the Evaluation, 2012
[Tardieu12a] Tardieu, D., McAdams, S., « Perception of dyads of impulsive and sustained instrument sounds », Music Perception, 2012
[Ramona11b] Ramona, M., Fenet, S., Blouet, R., Bredin, H., Fillon, T., Peeters, G., « A public audio identification evaluation framework for broadcast monitoring », Journal of Experimental and Theoretical Artificial Intelligence (Special Issue on Event Recognition), 2012
ASCL - Articles dans des revues sans comité de lecture
2008
[Beller08b] Beller, G., « Semi-Parametric Synthesis of Speaker-Like Laughter », Phonetica, 2008
C-INV – Conférences invitées dans des congrès nationaux et internationaux
2007
Hélie, T., Inversion-observation d’un système neutre : modèle simplifié d’un instrument à vent. Séminaire, projet blanc ANR-CONSONNES, Paris, Mai 2007.
Hélie, T., Séries de Volterra et simulation du cuivrage des sons. Séminaire, Ecole thématique Acoustique et ondes non linéaires et applications, Juin 2007
Hélie, T., Inversion d’un modèle simplifié d’instrument à vent. Séminaire, Ircam-CNRS UMR 9912, Paris, Novembre 2007
Peeters, G, Technologie du sonore, Indexation audio. Radio-France, Paris, France, 2007
Peeters, G., EuroMIREX. Vienna, Austria. 2007
Peeters, G., Goldszmidt, S., et al. Séminaire Ircam, Projet Ecoute. Ircam, Paris, France, 2007
Peeters, G., Fenech, D., Séminaire Ircam, Projet Music Discover. Ircam, Paris, France, 2007
Peeters, G., Grand Colloque STIC, Projet Ecoute et Music Discover, La Villette, Paris, France, 2007
Rodet, X., Grand Colloque STIC, Projet Vivos, La Villette, Paris, France, 2007
2008
Burred, J.J. « Musical Source Separation: Principles and State of the Art », Int. Workshop on Learning the Semantics of Audio Signals (LSAS), Paris, Juin 2008.
[Helie08f] Hélie, T., « Tutoriel "séries de Volterra" et applications », Journée Non-Linéarité et instruments de musique - GSAM-SFA, Paris, France, 2008
Rodet, X., « Analyse, transformation et synthèse de la voix », Colloque de rentrée du Collège de France, 16 octobre 2008
Roebel, A., « On sinusoidal modeling of nonstationary signals ». Acoustics 08, Paris, 2008.
Rodet, X., « Methods for Singing Voice Control and Synthesis ». Acoustics 08, Paris, 2008.
2009
[Helie09e] Hélie, T., « Séries de Volterra : tutoriel et applications pour la synthèse sonore par modèle physique ». Séminaire du CETHIL (CNRS UMR 5008), Lyon, France, Février 2009.
[Helie09d] Hélie, T., « Des mathématiques pour le son, son analyse, son traitement et sa synthèse. » Séminaires de l’IREM sur "Les métiers des Mathématiques" (Math CLub), Paris, France, Novembre 2009
2010
Hélie, T., Laroche, B., « Représentation de systèmes non linéaires par les séries Volterra : Calcul de domaines de convergence et applications », Séminaire du Centre de Mathématiques Appliquées de Polytechnique, Palaiseau, France, Mai 2010
[Roebel10a] Roebel, A., « Between Physics and Perception: Signal Models for High Level Audio Processing », Digital Audio Effects (DAFx), Graz, 2010.
2011
[Helie11b] Hélie T., « TUTORIAL: Introduction to Volterra series and applications to physical audio signal processing ». DAFx. Paris : Septembre 2011, vol. 14, p. 1-1.
[Helie11f] Hélie, T., « Représentation de systèmes non linéaires par les séries Volterra : Calcul de domaines de convergence et applications », Séminaire de Mathématiques et de leurs Applications, LMAP - CNRS UMR 5142, Pau, France, 2011
2012
[Helie12d] Hélie, T., « Quelques résultats pour l'étude d'instruments de musiques: Tubes acoustiques - Séries de Volterra - Robot trompettiste », Séminaire du département Parole et Cognition, GIPSA-Lab. Grenoble, 2012
C-ACTI- Communications avec actes dans un congrès international
2007
[Beller07a] Beller, G., Rodet, X., « Content-based transformation of the expressivity in speech », ICPhS, Allemagne, 2007.
[Beller07b] Beller, G., « Context Dependent Transformation of Expressivity in Speech Using a Bayesian Network », ParaLing, 2007.
[Beller07c] Beller, G., « Influence de l'expressivité sur le degré d'articulation », RJCP, France, 2007.
[Beller07d] Beller, G., « Transformation de la parole dépendante de l'expressivité et du texte », JSP, 2007.
[Helie07c] Hélie, T., Mignot, R., Matignon, D., « Waveguide Modeling of Lossy Flared Acoustic Pipes: Derivation of a Kelly-Lochbaum Structure for real-time simulations », IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, Mohonk, 2007.
[Lanchantin08a] Lanchantin, P., Morris, A., Rodet, X., Veaux, C., « Automatic Phoneme Segmentation With Relaxed Textual Constraints », Language Resources and Evaluation Conference (LREC2008), vol. ND, Marrakech, 2008
[Kaprykowsk07a] Kaprykowsky, H., Rodet, X., « Musical Alignment Using Globally Optimal Short-Time Dynamic Time Warping », DAGA, Stuttgart, 2007.
[Papadopoulos07a] Papadopoulos, H., Peeters, G., « Large-Scale Study of Chord Estimation Algorithms based on Chroma Representation », CBMI, Bordeaux, 2007.
[Peeters07b] Peeters, G., « A generic system for audio indexing: applcation to speech / music segmetation and music recognition », DAFX, Bordeaux, 2007.
[Peeters07c] Peeters, G., « Sequence representation of music structure using Higher-Order Similarity Matrix and Maximum-Likelihood approach », ISMIR, Vienna, 2007.
[Peeters07a] Peeters, G., Fenech, D., Rodet, X., « Interface de navigation musicale par le contenu », IHM, Paris, 2007.
[Roebel07b] Roebel, A., « Parameter Estimation for linear AM/FM sinusoids using frequency domain demodulation », International Conference on Signal and Image Processing, vol. 1, 2007.
[Roebel07c] Roebel, A., « Frequency slope estimation and its application for non-stationary sinusoidal parameter estimation », Digital Audio Effects (DAFx), Bordeaux, 2007, pp. 77-84.
[Roebel07d] Roebel, A., Fineberg, J., « Speech to chant transformation with the phase vocoder », Interspeech, Antwerpe, 2007.
[Roze07a] Roze, D., Hélie, T., « Sound synthesis of a nonlinear string using Volterra series », International Congress on Acoustics, Madrid, 2007.
[Trabelsi07a] Trabelsi, K., Hélie, T., Matignon, D., « Time-domain simulation of functions and dynamical systems of Bessel type », WAVES - The 8th conference on Mathematical and Numerical aspects of waves, Reading, 2007, pp. 3-0.
[Veaux08a] Veaux, C., Beller, G., Rodet, X., « IrcamCorpusTools: an extensible platform for speech corpora exploitation », LREC, Marrakech, 2008.
[Villavicencio07a] Villavicencio, F., Röbel, A., Rodet, X., « All-Pole Spectral Envelope Modeling with Order Selection for Harmonic Signals », ICASSP, Honolulu, 2007.
[Villavicencio08a] Villavicencio, F., Röbel, A., Rodet, X., « Extending efficient spectral envelope modeling to mel-frequency based representation », ICASSP, Las Vegas, 2008.
[Yeh07a] Yeh, C., Bogaards, N., Roebel, A., « Synthesized polyphonic music database with verifiable ground truth for multiple F0 estimation », International Conference on Music Information Retrieval (ISMIR'07), Vienna, Austria, 2007, pp. 393-398.
[Zivanovic07a] Zivanovic, M., Roebel, A., Rodet, X., « Adaptive Threshold Determination for Spectral Peak Classification », Digital Audio Effects (DAFx), Bordeaux, 2007, pp. 47-54.
2008
[Beller08a] Beller, G., Obin, N., Rodet, X., « Articulation Degree as a Prosodic Dimension of Expressive Speech », Speech Prosody 2008, campinas, 2008.
[Beller08c] Beller, G., Veaux, C., Rodet, X., « IrcamCorpusExpressivity: Nonverbal Words and Restructurings », LREC workshop on emotions, 2008.
[Bogaards08a] Bogaards, N., « Sound Editing on the Sonogram », ICAD, Paris, 2008.
[Bogaards08b] Bogaards, N., Yeh, C., Burred, J.J., « Introducing ASAnnotation: a tool for Sound Analysis and Annotation », ICMC, Belfast, 2008.
[Burred08a] Burred, J., Cella, C., Peeters, G., Roebel, A., Schwarz, D., « Using the SDIF Sound Description Interchange Format for Audio Features », International Conference on Music Information Retrieval (ISMIR), 2008.
[Chang08a] Chang, W.C., Su, A., Yeh, C., Roebel, A., Rodet, X., « Multiple-F0 tracking based on a high-order HMM model », Digital Audio Effects (DAFx-08), Espoo, 2008.
[Degottex08a] Degottex, G., Bianco, E., Rodet, X., « Usual to particular phonatory situations studied with high-speed videoendoscopy », International Conference on Voice Physiology and Biomechanics, Tampere, 2008, pp. 19-26.
[Helie08c] Hélie, T., Smet, V., « Simulation of the weakly nonlinear propagation in a straight pipe: application to a real-time brassy audio effect », Mediterranean Conference on Control and Automation, vol. 16, Ajaccio, Corsica, France, 2008, pp. 1580-1585.
[Helie08d] Hélie, T., Laroche, B., « Convergence radius and guaranteed error bound for the Volterra series expansion of finite dimensional quadratic systems », Mediterranean Conference on Control and Automation, vol. 16, Ajaccio, Corsica, France, 2008, pp. 741-746.
[Lanchantin08a] Lanchantin, P., Morris, A., Rodet, X., Veaux, C., « Automatic Phoneme Segmentation With Relaxed Textual Constraints », Language Resources and Evaluation Conference (LREC2008), vol. ND, Marrakech, 2008.
[Mignot08a] Mignot, R., Hélie, T., Matignon, D., « On the appearance of branch cuts for fractional systems as a mathematical limiting process based on physical grounds », Fractional Differentiation and its Applications, vol. 3, Ankara, 2008.
[Mignot08b] Mignot, R., Hélie, T., Matignon, D., « Stable Realization of a Delay System Modeling a Convergent Acoustic Cone », Mediterranean Conference on Control and Automation, vol. 16, Ajaccio, 2008, pp. 1574-1579.
[Obin08a] Obin, N., Rodet, X., Lacheret-Dujour, A., « French Prominence: A Probabilistic Framework », 33rd International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Las Vegas, 2008.
[Obin08b] Obin, N., Goldman, J.P., Avanzi, M., Lacheret-Dujour, A., « Comparaison de trois outils de détection automatique de proéminences en français parlé », Journées d'étude de la parole, Avignon, 2008.
[Obin08c] Obin, N., Rodet, X., Lacheret-Dujour, A., « Un modèle de durée des syllabes fondé sur les propriétés syllabiques intrinsèques et les variations locales de débit », Journées d'étude de la parole, Avignon, 2008.
[Obin08d] Obin, N., Lacheret, A., Veaux, C., Rodet, X., Simon, A.C., « A Method for Automatic and Dynamic Estimation of Discourse Genre Typology with Prosodic Features », Interspeech, Septembre 2008.
[Papadopoulos08a] Papadoupoulos, H., Peeters, G., « Simultaneous estimation of chord progression and downbeats from an audio file », ICASSP, Las-Vegas, 2008.
[Papadopoulos08b] Papadoupoulos, H., Peeters, G., « Chord Estimation Using Chord Templates and HMM », Extended Abstract MIREX08, Philadelphie, 2008.
[Peeters08a] Peeters, G., Fenech, D., Rodet, X., « MCIpa: A Music Content Information Player and Annotator for Discovering Music », ISMIR, Philadelphie, 2008.
[Peeters08b] Peeters, G., Deruty, E., « Automatic morphological description of sounds », Acoustics 08, Paris, 2008.
[Peeters08d] Peeters, G., « A Generic Training and Classification System for MIREX08 Classification Tasks: Audio Music Mood, Audio Genre, Audio Artist and Audio Tag », Extended Abstract MIREX08, Philadelphie, 2008.
[Veaux08a] Veaux, C., Beller, G., Rodet, X., « IrcamCorpusTools: an extensible platform for speech corpora exploitation », LREC, Marrakech, 2008.
[Villavicencio08a] Villavicencio, F., Röbel, A., Rodet, X., « Extending efficient spectral envelope modeling to mel-frequency based representation », ICASSP, Las Vegas, 2008.
[Yeh08b] Yeh, C., Roebel, A., Chang, W.C., « Mutiple-F0 Estimation for MIREX 2008 », 9th International Conference on Music Information Retrieval (ISMIR'08), 2008.
2009
[Avanzi09a] Avanzi, M., Obin, N., Lacheret-Dujour, A., « Vers une modélisation continue de la structure prosodique du français : le cas des proéminences accentuelles », Conscila, Paris, 2009.
[Beller09b] Beller, G., Veaux, C., Degottex, G., Obin, N., Lanchantin, P., Rodet, X., « Ircam Corpus Tools: Système de Gestion de Corpus de Parole », TAL, Juillet 2009.
[Burred09a] Burred, J., Röbel, A., Sikora, T., « Polyphonic Musical Instrument Recognition Based on a Dynamic Model of the Spectral Envelope », IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Taipei, 2009.
[Cohen09a] Cohen, I., Hélie, T., « Simulation of a Guitar Amplifier Stage for Several Triode Models : Examination of Some Relevant Phenomena and Choice of Adapted Numerical Schemes », AES Convention, New York, Octobre 2009, vol. 127, p. 1-4
[Caetano09a] Caetano, M., Rodet, X. Evolutionary Spectral Envelope Morphing by Spectral Shape Descriptors, Proc. ICMC 2009.
[Degottex09a] Degottex, G., Roebel, A., Rodet, X., « Shape parameter estimate for a glottal model without time position », International Conference on Speech and Computer, SPECOM, St-Petersbourg, 2009
[Degottex09b] Degottex, G., Roebel, A., Rodet, X., « Glottal Closure Instant detection from a glottal shape estimate », International Conference on Speech and Computer, SPECOM, St-Petersbourg, 2009.
[Farner09a] Farner, S., Roebel, A., Rodet, X., « Natural transformation of type and nature of the voice for extending vocal repertoire in high-fidelity applications », The 35th International AES Conference (Audio for Games), vol. CD, Londres, 2009.
[Helie09b] Hélie, T., Laroche, B., « Computation of convergence radius and error bounds of Volterra series for single input systems with a polynomial nonlinearity », IEEE Conference on Decision and Control, Shanghai, Décembre 2009, vol. 48, p. 1-6
[Mignot09b] Mignot, R., Hélie, T., Matignon D., State-space representations for digital waveguide networks of lossy flared acoustic pipes. Conference on Digital Audio Effects (DAFx-09). Como, Septembre 2009.
[Obin09a] Obin, N., Rodet, X., Lacheret-Dujour, A., « A Syllable-Based Prominence Detection Model Based on Discriminant Analysis and Context-Dependency », International Conference on Speech and Computer, SPECOM, Saint-Pétersbourg, 2009
[Obin09b] Obin, N., Rodet, X., Lacheret-Dujour, A., « A Multi-Level Context-Dependent Prosodic Model Applied to Durational Modeling », Interspeech, Brighton, 2009
[Papadopoulos09a] Papadopoulos, H., Peeters, G., « Local Key Estimation Based on Harmonic and Metric Structures », DAFX 2009, Como, 2009
[Peeters09a] Peeters, G., « Beat-Marker Location Using a Probabilistic Framework and Linear Discriminant Analysis », DAFX, Como, 2009
[Peeters09b] Peeters, G., Deruty, E., « Toward Music Structure Annotation », ISMIR (Late-Breaking News), 2009
[Regnier09a] Régnier, L., Peeters, G., « Singing Voice Detection in Music Tracks using Direct Voice Vibrato Detection », ICASSP, Taipei, 2009.
[Yeh09a] Yeh, C., Roebel, A., « The expected amplitude of overlapping partials of harmonic sounds », International Conference on Acoustics, Speech and Signal Processing (ICASSP'09), Taipei, 2009.
2010
[Barton10a] Barton, S., V. Gouet-Brunet, et al., « Estimating the indexability of multimedia descriptors for similarity searching ». International Conference RIAO'10 on Adaptivity, Personalization and Fusion of Heterogeneous Information, Paris, 2010.
[Barton10b] Barton, S., V. Gouet-Brunet, et al., « Qualitative Comparison of Audio and Visual Descriptors Distributions. » Proc. of MCIT'10 (International Conference on Multimedia Computing and Information Technology), Sharjah, 2010.
[Beller10b] Beller, G. , « Expresso: Transformation of Expressivity in Speech », Speech Prosody, Chicago, 2010
[Burred10b] Burred, J., Roebel, A., « A Segmental Spectro-Temporal Model of Musical Timbre », Digital Audio Effects (DAFx), Graz, 2010
[Caetano10a] Caetano, M., Rodet, X., « Automatic Timbral Morphing of Musical Instrument Sounds by High-Level Descriptors », International Computer Music Conference, New York / Stony Brook, 2010
[Caetano10b] Caetano, M., Burred J.J., Rodet, X., « Automatic Segmentation of the Temporal Evolution of Isolated Acoustic Musical Instrument Sounds Using Spectro-Temporal Cues », Digital Audio Effects, Graz, 2010
[Caetano10c] Caetano, M., Rodet, X., « Independent Manipulation of High-Level Spectral Envelope Shape Features for Sound Morphing by Means of Evolutionary Computation », Digital Audio Effects, Graz, 2010
[Caetano10d] Caetano, M., « Sound Morphing by Feature Interpolation. », Digital Music Research Network, Londres, 2010.
[Charbuillet10a] Charbuillet C., Peeters, G. , Barton S., Gouet-Brunet, V., « A fast algorithm for music search by similarity in large databases based on modified symetrized Kullback-Leibler divergence ». CBMI'10: 8th International Workshop on Content-Based Multimedia Indexing, Grenoble, France, 2010.
[Cohen10a] Cohen, I., Hélie, T. ,« Simulation temps réel d'un Etage Electronique non linéaire d'amplificateur guitare, et améliorations à l'aide de mesures de triodes » (Internal access only), 10ème Congrès Français d'Acoustique, 2010.
[Cohen10b] Cohen, I., Hélie, T. ,« Measures and parameter estimation of triodes, for the real-time simulation of a multi-stage guitar preamplifier » (Internal access only), 129th convention of Audio Engineering Society, 2010
[Cohen10c] Cohen, I., Hélie, T. ,« Real time simulation of a guitar power amplifier », 13th Int. Conference on Digital Audio Effects (DAFx-10), 2010.
[Degottex10a] Degottex, G., Roebel, A., Rodet, X.,« Joint estimate of shape and time-synchronization of a glottal source model by phase flatness », ICASSP, Dallas, 2010
[Hahn10a] Hahn, H., Roebel, A., Burred, J.J., Weinzierl, S., « Source-Filter Model for Quasi-Harmonic Instruments », Digital Audio Effects (DAFx), Graz, 2010
[Helie10c] Hélie, T., Hézard, T., Mignot, R., « Représentation géométrique optimale de la perce de cuivres pour le calcul d'impédance d'entrée et de transmittance, et pour l'aide à la lutherie », Congrès Français d'Acoustique, Lyon, 2010
[Helie10a] Hélie, T., Hézard, T., Mignot, R., « Input impedance computation for wind instruments based upon the Webster-Lokshin model with curvilinear abscissa » (Internal access only), ISMA, Sydney, 2010.
[Helie10d] Hélie, T., Vergez, C., « Nonlinear propagation with frequency-independent damping: input-output simulation of entropic solutions » (Internal access only), ISMA, Sydney, 2010.
[Helie10g] Hélie, T., Vergez, C., « Propagation non linéaire avec amortissement proportionnel: simulation entrée -sortie de solutions entropiques » (Internal access only), Congrès Français d'Acoustique, Lyon, 2010.
[Helie10i] Hélie, T., Laroche, B., « Représentation de systèmes non linéaires par les séries Volterra: Calcul de domaines de convergence et applications » (Internal access only), Séminaire du Centre de Mathématiques Appliquées de Polytechnique, Palaiseau, 2010.
[Helie10j] Hélie, T., Laroche, B., « Computation of convergence radius and error bounds of Volterra series for multiple input systems with an analytic nonlinearity in state » (Internal access only), IEEE Conference on Decision and Control, Atlanta, 2010.
[Helie10f] Hélie, T., Laroche, B., « Convergence of series expansions for some infinite dimensional nonlinear systems », IFAC SSSC, Ancone, 2010.
[Mignot10b] Mignot, R., Hélie, T., Matignon, D., « Simulation de Guides d'Ondes stables pour des tubes acoustiques convexes », Congrès Français d'Acoustique (CFA10), 2010
[Mignot10c] Mignot, R., Hélie, T., Matignon, D., « Acoustic Modelling of a Convex Pipe Adapted for Digital Waveguide Simulation », Conference on Digital Audio Effects (DAFx-10), Graz, 2010
[Laukka10a] Laukka, P., Eerola, T., S. Nutankumar, T. Yamasaki, Beller, G. « Universal and Culture-Specific Factors in the Recognition and Performance of Musical Emotions », ICMPC2011, Seattle/USA, 2010
[Lanchantin10b] Lanchantin, P., Rodet, X. « Dynamic Model Selection for Spectral Voice Conversion », InterSpeech, Makuhari, 2010
[Lanchantin10a] Lanchantin, P., Degottex, G., Rodet, X. « A HMM-Based Speech Synthesis System Using a New Glottal Source and Vocal-Tract Separation Method » , ICASSP, Dallas, 2010
[Obin10c] Obin, N., Rodet, X., A. Lacheret, « HMM-based Prosodic Structure Model Using Rich Linguistic Context », Interspeech, Makuhari, 2010
[Obin10b] Obin, N., Dellwo, V., A. Lacheret, Rodet, X. « Expectations for Discourse Genre Identification: a Prosodic Study », Interspeech, Makuhari, 2010
[Obin10a] Obin, N., Lanchantin, P., Avanzi, M., Lacheret-Dujour, A., Rodet, X. « Toward Improved HMM-based Speech Synthesis Using High-Level Syntactical Features », Speech Prosody, Chicago, 2010
[Peeters10b] Peeters, G. . « Template-based estimation of tempo: using unsupervised or supervised learning to create better spectral templates ». Proc. of DAFX, Graz, Austria, 2010.
[Peeters10c] Peeters, G. , « Copy and Scale method for doing time-localized M.I.R. estimation: application to beat-tracking ». ACM Multimedia 2010, MML 2010: 3rd International Workshop on Machine Learning and Music, Firenze, Italy, 2010.
[Regnier10a] Regnier, L., Peeters, G., « Partial Clustering Using a Time-Varying Frequency Model for Singing Voice Detection », ICASSP, Dallas, USA, 2010.
[Roebel10b] Roebel, A., « A Shape-Invariant Phase Vocoder for Speech Transformation », Digital Audio Effects (DAFx), Graz, 2010.
[Roebel10c] Roebel, A., « Shape-invariant speech transformation with the phase vocoder », InterSpeech, Makuhari, 2010.
[Lacheret10a] Lacheret A., Obin, N., Avanzi, M., « Design and Evaluation of Shared Prosodic Annotation for Spontaneous French Speech: From Expert Knowledge to Non-Expert Annotation », Linguistic Annotation Workshop, 2010
[Liuni10a] Liuni, M., Roebel, A., Romito M., Rodet, X., « An Entropy Based Method for Local Time-adaptation of the Spectrogram », Computer Music Modeling and Retrieval, Malaga, 2010
[Liuni10b] Liuni, M., M. Gentilucci, « Multifog: a Multi-Level Control Device for FOG Granular Synthesis in Max/MSP », Computer Music Modeling and Retrivial, Malaga, 2010.
[Liuni10c] Liuni, M., Roebel, A., M. Romito, Rodet, X., « A Reduced Multiple Gabor Frame for Local Time Adaptation of the Spectrogram », Digital Audio Effects, Graz, 2010
[Lagrange10c] Lagrange, M., R. Badeau, B. David, N. Bertin, J. Echeveste, O. Derrien, « The DESAM Toolbox: Spectral Analysis of Musical Audio », International Conference on Digital Audio Effects, Gratz, 2010
[Lagrange10b] Lagrange, M., Serra, J., « Unsupervised accuracy improvement for cover song detection using Spectral Connectivity Network », International Conference on Music Information Retrieval, Utrecht, 2010
[Yeh10b] Yeh, C., Roebel, A., « Multiple-F0 Estimation For MIREX 2010 », ISMIR/MIREX, Utrecht, 2010
2011
[Avanzi11b] Avanzi, M., Bordal, G., Obin, N., « Typological Variations in the realization of French Accentual Phrase », ICPhS, Honk-Kong, 2011
[Avanzi11c] Avanzi, M., Obin, N., Lacheret-Dujour, A., Victorri, B., « Toward a Continuous Modeling of French Prosodic Structure: Using Acoustic Features to Predict Prominence Location and Prominence Degree : prominence, automatic detection, degree of prominence, prosodic structure, French », Interspeech, Florence, 2011
[Beller11b] Beller, G., Aperghis, G., « Gestural Control of Real-Time Concatenative Synthesis in Luna Park », P3S, International Workshop on Performative Speech and Singing Synthesis, Vancouver, 2011
[Beller11c] Beller, G., « Gestural Control Of Real Time Concatenative Synthesis », ICPhS, Hong Kong, 2011
[Beller11d] Beller, G., « Gestural Control of Real-Time Speech Synthesis in Luna Park », SMC, Padova, 2011
[Charbuillet11a] Charbuillet, C., Tardieu, D., Peeters, G., « GMM supervector for Content Based Music Similarity », DAFx, Paris, 2011
[Caetano11a] Caetano, M., Rodet, X., « Sound Morphing by Feature Interpolation » (Accessible uniquement depuis l'Ircam), Inter. Conf. on Acoustics Speech and Signal Processing, Prague, 2011
[Caetano11b] Caetano, M., Rodet, X., « Improved Estimation of the Amplitude Envelope of Time-Domain Signals Using True Envelope Cepstral Smoothing » (Accessible uniquement depuis l'Ircam), Inter. Conf. on Acoustics Speech and Signal Processing, Prague, 2011
[Degottex11a] Degottex, G., Roebel, A., Rodet, X., « Pitch transposition and breathiness modification using a glottal source model and its adapted vocal-tract filter » (Accessible uniquement depuis l'Ircam), Inter. Conf. on Acoustics Speech and Signal Processing, Prague, 2011
[Degottex11b] Degottex, G., Roebel, A., Rodet, X., « Function of phase-distortion for glottal model estimation 4608-4611, 2011. » (Accessible uniquement depuis l'Ircam), International Conference on Acoustics, Speech, and Signal Processing (ICASSP), 2011
[Helie11b] Hélie, T., « TUTORIAL: Introduction to Volterra series and applications to physical audio signal processing » (Accessible uniquement depuis l'Ircam), DAFx, Paris, 2011
[Helie11d] Hélie, T., Hézard, T., Mignot, R., Matignon, D., « On the 1D wave propagation in wind instruments with a smooth profile » (Accessible uniquement depuis l'Ircam), Forum Acusticum, Aalborg, 2011
[Helie11c] Hélie, T., « Lyapunov stability analysis of the Moog Ladder Filter and dissipativity aspects in numerical solutions » (Accessible uniquement depuis l'Ircam), DAFx, Paris, 2011
[Lagrange11a] Lagrange, M., Tzanetakis, G., « Adaptive N-normalization for enhancing music similarity », ICASSP, Prague, 2011
[Lanchantin11c] Lanchantin, P., Farner, S., Veaux, C., Degottex, G., Obin, N., Beller, G., « Vivos Voco: A survey of recent research on voice transformation at Ircam », DAFx, Paris, 2011
[Lanchantin11b] Lanchantin, P., Rodet, X., « Objective Evaluation of the Dynamic Model Selection for Spectral Voice Conversion », ICASSP, 2011
[Lenoir11a] Lenoir, A., Landais, R., Peeters, G., Oudre, L., Fillon, T.,« MUMA: A Music Search Engine Based on Content Analysis », IEEE ICME, Barcelona, 2011
[Liao11a] Liao, W., Su, A., Yeh, C., Roebel, A., « On the Use of Perceptual Properties for Melody Estimation », Intl. Conf. on Digital Audio Effects (DAFx-11), Paris, 2011
[Liuni11c] Liuni, M., Balazs, P., Roebel, A., « SOUND ANALYSIS AND SYNTHESIS ADAPTIVE IN TIME AND TWO FREQUENCY BANDS », DAFx, Paris, 2011
[Liuni11b] Liuni, M., Roebel, A., M. Romito, Rodet, X., « Rényi Information Measures for Spectral Change Detection », ICASSP, Prague, 2011
[Obin11c] Obin, N., Lanchantin, P., Lacheret, A., Rodet, X., « Reformulating Prosodic Break Model into Segmental HMMs and Information Fusion », Interspeech, Florence, 2011
[Obin11b] Obin, N., Lanchantin, P., Lacheret, A., Rodet, X., « Discrete/Continuous Modelling of Speaking Style in HMM-based Speech Synthesis: Design and Evaluation », Interspeech, Florence, 2011
[Obin11a] Obin, N., Lacheret, A., Rodet, X., « Stylization and Trajectory Modelling of Short and Long Term Speech Prosody Variations », Interspeech, Florence, 2011
[Peeters11e] Peeters, G.,« Music Structure Discover: Measuring the State-ness of Times », Proc. of ISMIR (Late Breaking News), Miami, 2011
[Ramona11c] Ramona, M., Peeters, G., « Audio Identification based on spectral modeling of bark-bands energy and synchronization through onset detection », ICASSP, Prague, 2011
[Ramona11f] Ramona, M., Peeters, G., « Automatic verification and high-precision alignment of audio fingerprinting annotations », Proc. of DAFX, Paris, 2011
[Regnier11a] Régnier, L., Peeters, G., « Combining classifications based on local and global features: application to singer identification », Proc. of DAFX, Paris, 2011
[Rigaud11a] Rigaud, F., Lagrange, M., Roebel, A., Peeters, G., « Drum Extraction From Polyphonic Music Based on a Spectro-Temporal Model of Percussive Sounds » (Accessible uniquement depuis l'Ircam), Proc. of ICASSP, Prague, 2011
[Roebel11a] Roebel, A., Maller, S., Contreras, J., « Transforming Vibrato Extent in Monophonic Sounds », International Conf on Digital Audio Effects, Paris, 2011
[Tardieu11a] Tardieu, D., Deruty, E., Charbuillet, C., Peeters, G., « Production Effect: Audio Features For Recording Techniques Description And Decade Prediction », Int. Conference on Digital Audio Effects (DAFx-11), Paris, 2011
[Yeh11a] Yeh, C., Roebel, A., « MULTIPLE-F0 ESTIMATION FOR MIREX 2011 », International Society for Music Information Retrieval Conference (ISMIR'11), Miami, 2011
2012
[Avanzi12a] Avanzi, M., Obin, N., Bordal, G., Bardiaux, A., « Speech Prosody of French Regional Varieties », Speech Prosody, Shanghai, 2012
[Avanzi12b] Avanzi, M., Obin, N., Bordal, G., Bardiaux, A., « La Variation Prosodique Dialectale en Français. Données et Hypothèses », JEP, Grenoble, 2012
[Avanzi12c] Avanzi, M., Dubosson, P., Schwab, S., Obin, N., « Accentual Transfer from Swiss-German to French A Study of Français Fédéral », Interspeech, Portland, 2012
[Bordal12a] Bordal, G., Avanzi, M., Obin, N., Bardiaux, A., « Variations in the realization of the French Accentual Phrase in the light of language contact », Speech Prosody, Shanghai, 2012
[Cohen12a] Cohen, I., Helie, T., « Measures and models of real triodes, for the simulation of guitar amplifiers » (Accessible uniquement depuis l'Ircam), Acoustics 2012, Nantes, 2012
[Dubois12a] Dubois, F., Greff, I., Hélie, T., « On least action principles for discrete quantum scales », Quantum Interaction, Paris, 2012
[Foucard12a] Foucard, R., Essid, S., Lagrange, M., Richard, G., « A regressive bossting approach to automatic audio tagging based on soft annotator fusion », ICASSP, 2012
[Hahn12a] Hahn, H., Röbel, A., « Extended Source-Filter Model of Quasi-Harmonic Instruments for Sound Synthesis, Transformation and Interpolation » (Accessible uniquement depuis l'Ircam), Sound and Music Computing 2012, Copenhagen, 2012
[Helie12b] Hélie, T., Hézard, T., Delebecque, L., Mignot, R., « Considerations on travelling waves in the horn equation and energetic aspects » (Accessible uniquement depuis l'Ircam), Acoutics 2012, Nantes, 2012
[Hezard12b] Hézard, T., Hélie, T., Doval, B., Henrich, N., Kob, M., « Non-invasive vocal-folds monitoring using electrical imaging methods », 100 years of electrical imaging, Paris, 2012
[Lagrange12b] Lagrange, M., Ozerov, A., Vincent, E.,« Robust singer identification in polyphonic music using melody enhancement and uncertainty-based learning », International Conference on Music Information Retrieval, 2012
[Lagrange12d] Lagrange, M., Martins, L., Tzanetakis, G., « Cluster aware normalization for enhancing audio similarity », ICASSP, 2012
[Liao12a] Liao, W., Roebel, A., Su, A., « On Stretching Gaussian Noises with the Phase Vocoder », International Conference on Digital Audio Effects, York, 2012
[Obin12a] Obin, N., Avanzi, M., Bordal, G., Bardiaux, A., « Regional Variations of Speech Rhythm in French: In Search of Lost Times », Speech Prosody, Shanghai, 2012
[Obin12b] Obin, N., Veaux, C., Lanchantin, P., « Making Sense of Variations: Introducing Alternatives in Speech Synthesis », Speech Prosody, Shanghai, 2012
[Obin12c] Obin, N., Avanzi, M., Bordal, G., Bardiaux, A., « A la recherche des temps perdus : Variations sur le rythme en français », JEP, Grenoble, 2012
[Obin12d] Obin, N., « Cries and Whispers - Classification of Vocal Effort in Expressive Speech », Interspeech, Portland, 2012
[Orio12a] Orio, N., Liem, C., Peeters, G., Schedl, M., « MusiClef: Multimodal Music Tagging Task », CLEF, Pisa, 2012
[Peeters12a] Peeters, G., Fort, K., « Towards A (Better) Definition Of The Description Of Annotated M.I.R. Corpora », ISMIR, Porto, 2012
[Peeters12b] Peeters, G., Cornu, F., Tardieu, D., Charbuillet, C., Burred, J., Vian , M., « A Multimedia Search And Navigation Prototype, Including Music And Video-Clips », ISMIR, Porto, 2012
[Regnier12a] Régnier, L., Peeters, G., « Singer verification : singer model .vs. song model », IEEE ICASSP, Kyoto, 2012
[Roebel12a] Roebel, A., Huber, S., Rodet, X., Degottex, G., « Analysis and modification of excitation source characteristics for singing voice synthesis » (Accessible uniquement depuis l'Ircam), International Conference on Audio, Speech and Signal Processing (ICASSP), Kyoto, 2012
[Salomon12a] Salomon, J., Peeters, G., Roebel, A., « Statistical Characterisation Of Melodic Pitch Contours And Its Application For Melody Extraction », ISMIR, Porto, 2012
C-ACTN- Communications avec actes dans un congrès national
2008
[Bianco08a] Bianco, E., Degottex, G., Rodet, X., « Mécanismes vibratoires ou registres ? », Congrès de la société française de phoniatrie, Paris, 2008
C-COM – Communications sans actes dans un congrès international ou national
2007
[Roebel07e] Roebel, A., « Onset Detection in Polyphonic Signals by means of Transient Peak Classification - Version 3 », Music Information Retrieval Evaluation eXchange (MIREX), Vienna, 2007.
[Yeh07b] Yeh, C., « Multiple F0 estimation for MIREX 2007 », International Conference on Music Information Retrieval (ISMIR'07), Vienna, Austria, 2007.
2008
[Degottex08c] Degottex, G., Bianco, E., Rodet, X., « Estimation of glottal area with high-speed videoendoscopy », Speech production workshop : instrumentation-based approach, Paris, 2008
[Farner08b] Farner, S., Veaux, C., Beller, G., Rodet, X., Ach, L., « Voice transformation and speech synthesis for video games », Paris Game Developers Conference, Paris, 2008.
[Obin08e] Obin, N., « Dimensions musicales de la voix parlée : expression (material and forms) in speech and music », Expressivité dans la musique et la parole, Paris, 2008
[Helie08e] Hélie, T., Andréa-Novel, B., Coron, J.M., « Inverse problem: recovering the full-state of a simplified model of a trumpet-like instrument from the radiated pressure », Acoustics'08, Paris, 2008.
2009
[Helie09a] Hélie T., Andréa-Novel B., Coron J.M., Observers of a nonlinear neutral system modelling a musical brass instrument. IFAC Workshop on Control of Distributed Parameter Systems. Toulouse, Juillet 2009.
[Mignot09a] Mignot, R., Hélie, T., Matignon D., Puzzles in pipes with negative curvature: from the Webster PDE to stable numerical simulation in real time. IFAC Workshop on Control of Distributed Parameter Systems. Toulouse, Juillet 2009.
[Peeters09c], Peeters, G., Deruty, E., "Is music structure annotation multi-dimensional? a proposal for robust local music annotation", in Proc. of LSAS (Int. Workshop on Learning Semantics of Audio Signals), Graz, Austria, 2009.
[Smith09a] Smith L., Evaluation of a Multiresolution Model of Musical Rhythm Expectancy on Expressive Performances. Rhythm Perception and Production Workshop. Lille, Juillet 2009.
[Burred09b] Burred J.J., Peeters G., An Adaptive System for Music Classification and Tagging. International Workshop on Learning the Semantics of Audio Signals (LSAS). Graz, Décembre 2009.
2010
[Helie10h] Hélie,T., « Fractional and irrational systems: approximation and optimization », Journées « Dynamiques fractionnaires et Applications », Laboratoire de Mathématiques et de leur Applications, CNRS UMR 5142, Pau, 2010
2011
[Foucard11a] Foucard, R., Essid, S., Lagrange, M., Richard, G., « MULTI-SCALE TEMPORAL FUSION BY BOOSTING FOR MUSIC CLASSIFICATION », International Conference on Music Information Retrieval, Miami, 2011
[Helie11e] Hélie, T., « Représentation de systèmes non linéaires par les séries Volterra: Calcul de domaines de convergence et applications » (Accessible uniquement depuis l'Ircam), Séminaire de Mathématiques et de leurs Applications - LMAP - CNRS UMR 5142, Pau, 2011
[Obin11d] Obin, N., Avanzi, M., Lacheret, A., « Transcription of French Prosody: the Rhapsodie Protocole », Interface Discours Prosodie, Manchester, 2011
[Ozerov11a] Ozerov, A., Lagrange, M., Vincent, E., « GMM-based classification from noisy features », 1st Int. Workshop on Machine Listening in Multisource Environments (CHiME), 2011
[VonColer11a] von Coler, H., Roebel, A., « Vibrato Detection Using Cross Correlation Between Temporal Energy and Fundamental Frequency » (Accessible uniquement depuis l'Ircam), 131st AES Convention, New York, 2011
2012
[Helie12d] Hélie, T.,« Quelques résultats pour l'étude d'instruments de musiques: Tubes acoustiques - Séries de Volterra - Robot trompettiste », Séminaire du département Parole et Cognition, GIPSA-Lab, Grenoble, 2012
C-AFF – Communications par affiche dans un congrès international ou national
2007
[Peeters] Poster au Grand Colloque STIC: Projet Ecoute et Music Discover. La Villette, Paris, 2007
[Rodet] Poster au Grand Colloque STIC: Projet Vivos. La Villette, Paris, 2007
2009
[Caetano09b] Caetano, M. ,« Applications des Algorithmes Genetiques en Synthèse et Transformation Sonore par Descripteurs Haut-Niveau ». JJCAAS. Marseille, Novembre 2009.
[Liuni09a] Liuni, M., Roebel, A., Romito, M., Rodet, X., « Different resolutions for different information ». JJCAAS 2009, Marseille, Novembre 2009.
2010
[Caetano10e] Caetano, M. ,« Morphing des Sons des Instruments de Musique par Descripteurs Haut-Niveau », Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio (JJCAAS), Paris, 2010.
[Degottex10d] Degottex G., Roebel, A., Rodet, X., « Transformation de la voix à l'aide d'un modèle de source glottique », Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio (JJCAAS), Paris, 2010.
[Obin10d] Obin, N., « Modélisation du Style de Parole en fonction du Genre de Discours pour la Synthèse de Parole par HMM », Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio (JJCAAS), Paris, 2010
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2008
[Tardieu08c] Tardieu, D., Modèles d'instrument pour l'aide à l'orchestration, Thèse de l’Université Paris 6, Décembre 2008, Ircam.
[Yeh08a] Yeh, C., « L'Estimation de de Fréquences Fondamentales Multiples dans des Signaux Polyphoniques », Thèse de l’Université Paris 6, 2008.
2009
[Beller09a] Beller, G., « Analyse et Modèle Génératif de l'Expressivité : application à la parole et à l'interprétation musicale », Thèse de l’Université Paris 6 - Ircam, Juin 2009.
[Mignot09d] Mignot, R., « Réalisation en guides d'ondes numériques stables d'un modèle acoustique réaliste pour la simulation en temps-réel d'instruments à vent », Thèse Edite de Paris - Telecom ParisTech, 2009.
2010
[Degottex10b] Degottex, G., « Glottal source and vocal-tract separation : Estimation of glottal parameters, voice transformation and synthesis using a glottal model », Thèse UPMC, 2010
[Papadopoulos10b] Papadopoulos, H., « Joint Estimation of Musical Content Information », Thèse Université Paris VI, 2010
[Villavicencio10a] Villavicencio, F., « Conversion de la voix de haute qualité », Thèse Université Paris 6 (UPMC), 2010
2011
[All11a] a. All, « Proceedings of the 14th Internation Conference on Digital Audio Effects : DAFx-11 », ed. Ircam Centre Pompidou (Geoffroy Peeters, Paris), 2011
[Caetano11c] Caetano, M., « Morphing Isolated Quasi-Harmonic Acoustic Musical Instrument Sounds Guided by Perceptually Motivated Features. », Thèse Université Pierre and Marie Curie (UPMC), University of Paris VI, 2011
[Obin11e] Obin, N., « MeLos: Analysis and Modelling of Speech Prosody and Speaking Style », Thèse Ircam-UPMC, 2011
2012
[Liuni12a] Liuni, M., « Automatic Adaptation of Sound Analysis and Synthesis », Thèse Università di Firenze / Ircam, 2012
[Regnier12b], Régnier, L., "Localization, characterization and recognition of singing voices", Ph.D. dissertation, Université Paris VI, Paris, France, March 2012.
OS-C – Chapitres d’ouvrages
2008
[Beller08e] Beller, G., « Transformation of Expressivity in Speech », The Role of Prosody in the Expression of Emotions in English and in French, ed. Peter Lang. (Peter Lang), 2008
2009
[Beller09c] Beller, G., « Transformation of Expressivity in Speech », The Role of Prosody in the Expression of Emotions in English and in French, ed. Peter Lang. (Peter Lang), 2009
[Rodet09b] Rodet, X., Beller, G., Bogaards, N., Degottex, G., Farner, S., Lanchantin, P., Roebel, A., Veaux, C., Villavicencio, F., « Transformation et Synthèse de la Voix Parlée et de la Voix Chantée », Parole et Musique. Aux Origines du Dialogue Humain, (Odile Jacob, Paris), 2009
2011
[Liuni11a] Liuni, M., Roebel, A., Romito, M., Rodet, X., « An Entropy Based Method for Local Time-Adaptation of the Spectrogram », Lecture Notes in Computer Science. Computer Music Modeling and Retrieval. Exploring Music Contents, ed. S. Ystad M. Aramaki R. Kronland-Martinet K. Jensen (Springer Verlag, Berlin), 2011
[Martins11a] Martins, L., Lagrange, M., Tzanetakis, G., « Modeling Grouping Cues for Auditory Scene Analysis Using a Spectral Clustering Formulation », Machine Audition: Principles, Algorithms and Systems, (IGI Global, Berlin), 2011
2012
[Helie12a] Hélie T., Vocoder par LPC, d'Andréa-Novel B., Fabre, B., Jouvelot, P., « Acoustique-Informatique-MusiquE. Outils scientifiques pour la musique », Paris, Presses des Mines. 2012, p. 351-380
OV – Ouvrages de vulgarisation ou chapitres de ces ouvrages
PV-A – Articles de vulgarisation
2007
[Martin07a] Martin, F., Hélie, T., « Zoom sur les métiers: Les métiers des mathématiques : Fiche métier de Thomas Hélie », ONISEP-Ministère de l'Education nationale, de l'Enseignement supérieur et de la Recherche, Janvier, 2007
Hélie, T., SMAI-SMF-SFDS-AFM, editor. Gazette des Mathematiciens, volume 113, chapter Lancement de «Zoom sur les metiers des mathematiques», page 129. Societe Mathematique de France, 2007.
2008
[Helie08g] Hélie, T., Vergez, C., « Des instruments de musique virtuels », Pour la science, Novembre 2008, n° 373, pp. 70-77
[Peeters08c] Peeters, G., « Indexer la musique », Pour la science, Octobre 2008, n° 373
AP – Autres productions: bases de données, logiciels enregistrés, traductions, comptes rendus d’ouvrages, rapports de fouilles, guides techniques, catalogues d’exposition, rapports intermédiaires de grands projets internationaux, etc.
2007
TV FRANCE 24, « Le Magazine du futur » / Olivier Ponthus, Diffusion d’un second reportage (2 min) sur le projet Vivos et la contribution de l’Ircam au film d’Eric Rohmer, avec démonstration et interview de Xavier Rodet, juin 2007
TV PARiS CAP’, « Le Carrousel de Paris » / Antoine Sachs, du lundi 9 au dimanche 15 avril, Diffusion d’un reportage global sur l’Ircam avec interview de Frank Madlener, images de la répétition du concert du 29 mars, de l’Espace de projection et de la chambre sourde, démonstration du projet Vivos et interview de Xavier Rodet
Emission ‘France Culture’ dans le ‘Science Publique’ , par l’Ircam, sur la synthèse expressive dans Vivos, le 2 mai 2007.
Dépêche AFP du 28 Septembre 2007 ‘Cinéma : quand l’ordinateur vient au secours de la voix des acteurs’, Ircam, par R. Frasquet
Article dans la ‘Charente Libre’ du 29 Septembre 2007 « Changer le sexe de la voix sans dommages ... » avec l’Ircam.
Article dans la ‘Le journal de l’île’ de la Réunion du 29 Septembre 2007 « Cinéma : quand l’ordinateur vient au secours de la voix des acteurs »
[Beller07e] Beller, G., « Modèle statistique de l'expressivité dans la parole pour le projet VIVOS », 2007
[Boudard07a], Boudard, L., « Adaptation des tailles de fenêtre pour les représentations temps fréquence », Ecole Polytechnique [Stage d'option scientifique], 2007
[Cohen07a] Cohen, I., « Simulation de circuits audio analogiques non linéaires par les séries de Volterra », Université Paris VI [Master 2 recherche ATIAM], 2007
[Degottex07a] Degottex, G., « Séparation de la source glottique et du conduit vocal : Rapport pour projet VIVOS », 2007
[Derio07a] Derio, M., « Segmentation automatique mère/bébé dans un environnement bruité », 2007
[Farner07a] Farner, S., « Comparison of transposition methods », 2007
[Farner07b] Farner, S., « Transformation of a normal voice to whisper », 2007
[Farner07c] Farner, S., Roebel, A., Rodet, X., « Transformations de type et de nature de la voix », 2007
[Farner07d] Farner, S., « Whisper from normal voice by manipulation of low-frequency spectral tilt », 2007
[Farner07e] Farner, S., « Compensation for loss of high frequencies upon downward transposition with SuperVP », 2007
[Lanchantin07a] Lanchantin, P., « IrcamAlign : Système d'étiquetage et d'alignement de signaux de parole », 2007
[Rodet07c] Rodet, X., « Rapport final du Projet ACI-Masse de Données Musicdiscover », 2007
[Veaux07a] Veaux C., « Mise en oeuvre de LiaPhon pour la phonétisation avec variantes : guide pour développeur »Paris, 2007
[YahyaVargas07a] Yahya Vargas, P. « Optimisation de la couverture en unités de parole et Optimisation de la concaténation pour la synthèse », Ecole ESME SUDRIA [Rapport de stage de fin d'étude], 2007
2008
Quaero Contractual Deliverables CTC/Corpus/Evaluation: CD.CORP.6.7, CD.CORP.6.8, CD.CORP.6.9, CD.CTC.6.1, ID.CTC.12.R6.2, ID.CTC.12.R6.3, ID.CTC.12.R6.4, ID.CTC.12.R6.5
[Farner08a] Farner, S., « Perceptual evaluation of transformation of voice sex and age », Paris, 2008
[Maller08a ] Maller, S., « Transformation des sons musicaux avec préservation des articulations musicales », Ecole Nationale Supérieure d'Electronique et de Radioélectricité de Grenoble [Projet 3-ieme année, Option TST - Signal/image], 2008
Peeters, G., Analyse d'audio et de musique. Microsoft TechDays 2008, Paris, France.
Peeters, G., Indexation et accès au contenu musical. Net Plus Ultra (Dominique Desaunay). Radio France International (RFI).
[Regnier08a ] Régnier, L., « Détection de la voix chantée dans un morceau de musique », Paris VI [Rapport de stage de Master 2], 2008
Rodet, X., Visite de journalistes à l’Ircam, 18 janvier 2008 : présentation des avancées et des recherches actuelles autour de la voix
Rodet, X., Interview pour le Journal du CNRS, Mars 08, Les Murs du Son.
Rodet, X., présentation des travaux sur la voix pour la visite de David Kessler, directeur de France Culture, à l’Ircam, mercredi 19 mars 2008
Rodet, X., présentation des travaux sur la voix pour la visite de journalistes (Libération, etc.) à l’Ircam, 20 Mars 2008
Rodet, X., présentation des travaux sur la voix pour la visite de journalistes à l’Ircam, 18 avril 2008
Rodet, X., Interview pour un article dans le Nouvel Observateur par Jacques Drillon : « Nouvelles voies pour la voix », Mai 2008
Rodet, X., Participation à l’émission "Esprit Critique", France Inter, le 3 Juin 2008
Rodet, X., Interview de Clément Galiay le 3 Juillet 2008
Rodet, X., Intervention pour une conférence de presse, Ircam, le mercredi 7 mai 2008
Rodet, X., Interview pour Science et Vie Junior, Hors série sur les 100 inventions que le monde attend, l’imitaphone
2009
Trabelsi, K., Matignon, D., Hélie, T., « On the numerical inversion of the laplace transform in the context of physical models with realistic damping ». Technical report, Telecom ParisTech, 2009
[Contreras09a] Contreras, J.,« Transformation des modulations et des gestes ornementaux dans les sons musicaux », Université Pierre et Marie Curie, Paris VI, 2009
Peeters, G., « Sound analysis/synthesis team and music indexing activities at Ircam », SIGMUS, Tokyo, Japan, 2009
[Hezard09a] Hézard, T., « Construction de famille d'instruments à vent virtuels », ENSEA (Ecole Nationale Supérieure de l'Electronique et de ses Applications), 2009
[Vericel09a] Vericel, B., « Commande et interfaçage d'un robot musicien. », ENSEA (Ecole Nationale Supérieure de l'Electronique et de ses Applications, 2009
2010
[Hezard10a] Hézard T., Ondes découplées et ondes progressives dans les tubes acoustiques à section variable pour la représentation en guides d’ondes.. UPMC, 2010
2011
TV M6, Emission « E=M6 » / Jessy Picard, le Mercredi 30 mars à 20h, Thème : la voix. Reportage TV autour des
travaux de l’équipe Analyse et synthèse des sons, interview de Xavier Rodet.
TV TPS STAR, « La quotidienne du cinéma » Les accents au cinéma, comment éviter le
pire ? / Frédéric Murarotto, Interview vidéo de Xavier Rodet (http://www.youtube.com/watch?v=pYLiAr3PLpw)
(4’13 > 5,08), avril 2007
[Agostini11a] Agostini, A., « A system for Advanced Additive Synthesis in Max/MSP », 2011
[Beller11a] Beller, G., Aperghis, G., « Contrôle gestuel de la synthèse concaténative en temps réel dans Luna Park : Rapport compositeur en recherche 2010 », 2011
[Cauchi11a] Cauchi B., « Non-Negative Matrix Factorization Applied to Auditory Scenes Classification ». UPMC, 2011
Roebel, A., Rodet, X., Lanchantin, P., Veaux, C., Obin, N., Participation a l'article "Transformation de la voix humaine" de Catherine Ferrieux, HYPERLINK "http://interstices.info/transformation-voix"http://interstices.info/transformation-voix, 2 juin 2011.
2012
Roebel, A., Participation a l'emission de France 5 "On n'est pas que des cobayes" sur le thème "Peut-on briser un verre grâce à sa voix?", 13 janvier 2012, (20h35)
Prix et distinctions
Best paper award de l’ICMC 2010 pour [Caetano10a] « Automatic Timbral Morphing of Musical Instrument Sounds by High-Level Descriptors », International Computer Music Conference, New York / Stony Brook, 2010
Prix de la Fondation des Treilles pour la thèse intitulée "MeLos: Analysis and Modelling of Speech Prosody and Speaking Style", Nicolas Obin, Ircam-Upmc, 2011.
Equipe Représentations musicales

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Bresson07d] Bresson, J., Agon, C., « Musical Representation of Sound in Computer-Aided Composition : a Visual Programming Framework », Journal of New Music Research, 2007, vol. 36, n° 4, pp. 251-266
[Mazzola07a] Mazzola, G., Andreatta, M., « Diagrams, gestures and formulae in music », Journal of Mathematics and Music, Mars 2007, vol. 1, n° 1, pp. 23-46
2008
[Allombert08d] Allombert, A., « Un format de partitions interactives », Document Numérique. (Hermès - Lavoisier), 2008, vol. 11, n° 3, pp. 29-44
[Bresson08c] Bresson, J., Agon, C., « Scores, Programs, and Time Representation : the Sheet Object in OpenMusic », Computer Music Journal, 2008, vol. 32, n° 4, pp. 31-47
2009
[Acotto08a] Acotto, E., Andreatta M., Représentations mentales musicales et représentations mathématiques de la musique, InCognito, Cahiers Romans de Sciences Cognitives, Vol. 4, No. 3, Décembre 2009.
[Andreatta09a] Andreatta, M., Agon, C., «Guest Editor’s Foreword », Special Issue : Tiling Problems in Music », Journal of Mathematics and Music, Juillet 2009, vol. 3, n° 2, pp. 63-70
[Bresson09b] Bresson J., Agon C., Assayag G., Visual Lisp/CLOS Programming in OpenMusic. Higher-Order and Symbolic Computation. Mars 2009, vol. 22, n° 1, p. 81-111
[Carpentier09c] Carpentier, G., Assayag, G., Saint James, E., « Solving the Musical Orchestration Problem using Multiobjective Constrained Optimization with a Genetic Local Search Approach », Journal of Heuristics, 2009
[Lartillot09a] Lartillot, O., Ayari, M., « Segmentation of Tunisian modal improvisation : : comparing listeners' responses with computational predictions », Journal of New Music Research, Décembre 2009, vol. 38, n° 2, pp. 117-127
2010
[Andreatta10a] Andreatta, M., Deliège, I., « GTTM 25 years on », MUSICAE SCIENTIAE, 2010, n° 5, pp. 1-267
[Carpentier09a] Carpentier G., Bresson J., Interacting with Symbolic, Sound and Feature Spaces in Orchidée, a Computer-Aided Orchestration Environment. Computer Music Journal. 2010, vol. 34, n° 1, p. 10-27.
[Schumacher10b] Schumacher M., Bresson J., Spatial Sound Synthesis in Computer-Aided Composition. Organised Sound. 2010, vol. 15, n° 3, p. 271-289.
2011
[Agon11a] Agon C., Bresson J., Stroppa M., OMChroma: Compositional Control of Sound Synthesis. Computer Music Journal. 2011, vol. 35, n° 2, p. 67-83
[Agon11b] Agon, C., Andreatta, M., « Modelling and Implementing Tiling Rhythmic Canons in OpenMusic Visual Programming Language », Perspectives of New Music, 2011, vol. 1-2, n° 49
[Andreatta11a] Andreatta, M., « Constructing and Formalizing Tiling Rhythmic Canons : a Historical Survey of a "Mathemusical" Problem », Perspectives of New Music, 2011, vol. 1-2, n° 49
[Esling11a] Esling, P., Agon, C., « Time Series Data Mining », ACM Computing Surveys, 2011
[Esling11b] Esling, P., LECROQ, B., LEJZEROWICZ, F., « Ultra-deep sequencing of foraminiferal microbarcodes unveils hidden richness of early monothalamous lineages in deep-sea sediments », Publication of the National Academy of Science, Août 2011, vol. 108, n° 32, pp. 13177-13182
[Mandereau11a] Mandereau, J., Ghisi, D., Amiot, E., Andreatta, M., Agon, C., « Z-Relation and Homometry in Musical Distributions », Journal of Mathematics and Music, Septembre 2011, vol. 5, n° 2, pp. 83-98
[Mandereau11b] Mandereau, J., Ghisi, D., Amiot, E., Andreatta, M., Agon, C., « Discrete Phase Retrieval in Musical Structures », Journal of Mathematics and Music, Septembre 2011, vol. 5, n° 2, pp. 99-116
[Norris11a] Norris, V., Giavitto, J.L., et 21 coauteurs, ., « Computing with bacterial constituents, cells and populations: from bioputing to bactoputing », Theory in Bioscience, Mars 2011, vol. 3, n° 130, pp. 211-228
2012
[Andreatta12a] Andreatta, M., Acotto, E., « Mathematical and mental representations of music », Mathematics and Social Sciences, 2012 à paraître dans un numéro spécial consacré à la conférence EMPG 2011 (European Mathematical Psychology Group, Telecom ParisTech, 29-31 août 2011)
[Allombert12a] Allombert, A., Desainte-Catherine, M., Assayag, G., « Towards an hybrid temporal paradigm for musical composition and performance », Computer Music Journal, 2012, vol. 4, n° 36
[Bresson12a] Bresson J., Guédy F., Assayag G., Musique Lab 2: From Computer-Aided Composition to Music Education. Journal of Music, Technology & Education. 2012, vol. 5 (to appear)
[Carpentier12a] Carpentier, G., Daubresse, E., Villanueva, E., Sakai, K., Garcia Vitoria, M., « Automatic Orchestration in Practice », Computer Music Journal (MIT Press), 2012, vol. 3, n° 36
[Cont12b] Cont, A., « Modélisation anticipative des systèmes musicaux. Reconnaissance, génération, synchronisation et programmation synchrone temps réel en informatique musicale ». Technique et Science Informatiques (TSI). Mai 2012, vol. 31, n° 3, p. 311-335.
[Giavitto12a] Giavitto, J.L., Klaudel, H., Pommereau, F., « Integrated Regulatory Networks (IRNs): Spatially organized biochemical modules », Theoretical Computer Science, Mai 2012, n° 431, pp. 219-234
[Jacquemard12a] Bouhoula Adel, Jacquemard Florent. « Sufficient completeness verification for conditional and constrained Term Rewriting Systems », Journal of Applied Logic, 2012, vol.10 n°1, pp. 127 – 143.
ACLN - Articles dans des revues à comité de lecture non répertoriées
2007
[Ayari07a] Ayari, M., « PERFORMANCE AND MUSICAL PERCEPTION ANALYSIS », Intellectica n° 48, 2007
ASCL - Articles dans des revues sans comité de lecture
2007
[Andreatta07a] Andreatta, M., « De la conjecture de Minkowski aux canons rythmiques mosaïques », L'Ouvert, Mars 2007, n° 114, pp. 51-61
2012
[Cont12a] Cont, A., Synchronisme musical et musiques mixtes: Du temps écrit au temps produit. Circuit Musiques Contemporaines. Mai 2012, vol. 22, n° 1
C-ACTI- Communications avec actes dans un congrès international
2007
[Agon07a] Agon, C., Bresson, J., « Mixing Time Representations in a Programmable Score Editor », Sound and Music Computing Conference, Lefkada, 2007
[Agon07b] Agon, C., Andreatta, M., « On some musical applications of Ircam’s “Mathematical School for Musicians and other Non-Mathematicians” », Mathematics and Computation in Music, Berlin, 2007, pp. 31-36
[Agon07c] Agon, C., Andreatta, M., « On some musical applications of Ircam’s “Mathematical School for Musicians and other Non-Mathematicians” », Proceedings of the First International Conference of the Society for Mathematics and Computation in Music, Berlin, 2007, pp. 31-36
[AHN07a] Ahn, Y.K., Agon, C., Andreatta, M., « "Structures Ia pour deux pianos" by Boulez : towards creative analysis using OpenMusic and Rubato », Mathematics and Computation in Music, Berlin, 2007, pp. 234-238
[Allombert07a] Allombert, A., Assayag, G., Desainte-Catherine, M., « A system of Interactive Scores based on Petri Nets », SMC'07 - 4th Sound and Music Computing Conference, Lefkada, 2007, pp. 158-165
[Amiot07a] Amiot, E., Agon, C., Andreatta, M., « Autosimilar melodies and their implementation in OpenMusic », Proceedings SMC07, Lefkada, 2007
[Andreatta07c] Andreatta, M., Agon, C., « Structure and Symmetry in Iannis Xenakis Nomos Alpha for cello solo », Symmetry : Art and Science, vol. 2-4, Buenos Aires, 2007
[Assayag07a] Assayag, G., Bloch, G., « NAVIGATING THE ORACLE: A HEURISTIC APPROACH », International Computer Music Conference '07, Copenhagen, 2007, pp. 405-412
[Bresson07b] Bresson, J., Stroppa, M., Agon, C., « Generation and Representation of Data and Events for the Control of Sound Synthesis », Sound and Music Computing Conference, Lefkada, 2007
[Chouvel07a] Chouvel, J.M., Bresson, J., Agon, C., « L’analyse musicale différencielle : principes, représentation et application à la structuralisation des entités musicales pour la musique électroacoustique », EMS07 - Electroacoustic Music Studies, Leicester, 2007
2008
[Agon08a] Agon, C., Bresson, J., Assayag, G., « OpenMusic: Design and Implementation Aspects of a Visual Programming Language », 1st European Lisp Symposium - ELS'08, Bordeaux, 2008
[Allombert08a] Allombert, A., Desainte-Catherine, M., Larralde, J., Assayag, G., « A system of Interactive Scores based on qualitative and quantitative temporal constraints », Proc. of the 4th International Conference on Digital Arts (Artech 2008), Porto, 2008
[Allombert08b] Allombert, A., Desainte-Catherine, M., Assayag, G., « Iscore : A system for writing interaction », Proc. of the 3rd Digital Interactive Media in Entertainment & Art (DIMEA 2008), Athènes, 2008
[Bloch08a] Bloch, G., Dubnov, S., Assayag, G., « INTRODUCING VIDEO FEATURES AND SPECTRAL DESCRIPTORS IN THE OMAX IMPROVISATION SYSTEM », ICMC08, Belfast, 2008
[Maniatakos08a] Maniatakos, F., Jacquemin, C., « Towards an affective gesture interface for expressive music performance», NIME 08, pp. 122-127, Genova, 2008
2009
[Aranda09a] Aranda, J., Assayag, G., Olarte, G., Perez, J., Rueda, C., Toro, M., Valencia, F., « An Overview of FORCES: An INRIA Project on Declarative Formalisms for Emergent Systems », Proc. 25th Conf. on Logic Prog. ICLP09, Pasadena, 2009
[Bresson09a] Bresson, J., Agon, C., « Synthèse sonore et composition musicale: Problématiques et outils d'«écriture» électroacoustique », EMS 09: Electroacoustic Music Studies Network Conference, Buenos Aires, 2009
[Jedrzejewski09a] Jedrzejewski, F., Andreatta, M., Johnson, T., « Musical experiences with Block Designs », Second International Conference MCM 2009, vol. 38, New Haven, 2009, pp. 154-165
[Junod09a] Junod, J., Audétat, P., Agon, C., Andreatta, M., « A Generalisation of Diatonicism and the Discrete Fourier Transform as a Mean for Classifying and Characterising Musical Scales », Second International Conference MCM 2009, vol. 38, New Haven, 2009, pp. 166-179
2010
[Ayari10d] Ayari, M., « Peut-on parler de signification en musique ? », 11ème International Congress on Musical Signification, Krakowie, 2010
[Bigo10b] Bigo Louis, Spicher Antoine, Michel Olivier, Spatial Programming for Music Representation and Analysis. Spatial Computing Workshop (SCW) 2010. Budapest : Octobre 2010
[Bresson10c] Bresson Jean, ML-Maquette / Musique Lab 2. International Computer Music Conference. New York / Stony Brook : Juin 2010
[Bresson10b] Bresson Jean, Agon Carlos, Processing Sound and Music Description Data Using OpenMusic. International Computer Music Conference. New York / Stony Brook : Juin 2010
[Esling10a] Esling, P., Agon, C., « Composition of Sound Mixtures with Spectral Maquettes », International Computer Music Conference, New York, 2010
[Lartillot10a] Lartillot, O., Ayari, M., « Interdependencies between cognitive mechanisms and cultural background in listeners' structural understanding of music, studied with the help of a computational model », CIM10 : Nature versus Culture, Conference on Interdisciplinary Musicology, Sheffield, 2010, pp. 26-31
[Maniatakos10b] Maniatakos, F., Agon, C., « On control of interaction for computer assisted improvisation: formulating advanced music queries with finite automata », Digital Music Research Network DMRN+5, London, 2010
[Schumacher10a] Schumacher M., Bresson J., Compositional Control of Periphonic Sound Spatialization. 2nd International Symposium on Ambisonics and Spherical Acoustics. Paris : Mai 2010
2011
[Adhitya11b] Adhitya, S., Kuuskankare, M., « The Sonified Urban Masterplan (SUM) Tool: Sonification for Urban Planning and Design », 17th Annual Conference on Auditory Display, 2011
[Bigo11b] Bigo L., Spicher A., Michel O., Two Representations of Music Computed with a Spatial Programming Language. New Worlds of Computation 2011. Orléan : Mai 2011
[Bigo11c] Bigo L., Giavitto J.-L., Spicher A., Building Topological Spaces for Musical Objects. Mathematics and Computation in Music (MCM). LNCS 6726. Paris : Juin 2011, pp. 13-28.
[Bresson11b] Bresson J., Stroppa M., The Control of the CHANT Synthesizer in OpenMusic: Modelling Continuous Aspects in Sound Synthesis. International Computer Music Conference ICMC2011, Huddersfield : 2011
[Bresson11c] Bresson J., Schumacher M., Representation and Interchange of Sound Spatialization Data for Compositional Applications. International Computer Music Conference. Huddersfield : 2011
[Bresson11d] Bresson J., Agon C., Visual Programming and Music Score Generation with OpenMusic. IEEE Symposium on Visual Languages and Human-Centric Computing. Pittsburgh : Septembre 2011, p. 247-248
[Bresson11e] Bresson J., Agon C., Assayag G., OpenMusic : visual Programming Environment for Music Composition, Analysis and Research. ACM MultiMedia 2011. OpenSource Software Copmpetition. Scottsdale : 2011
[Cont11a] Cont A., On the Creative use of Score Following and its Impact on Research. Sound and Music Computing. Padova : Juillet 2011
[Dautriche11a] Dautriche, A., Giavitto, J.L., Klaudel, H., Pommereau, F., « State Space Exploration of Spatially Organized Populations of Agents », Spatial Computing Workshop (SCW 2011), vol. IEEE Digital Library, Ann Arbor, Michigan, 2011
[Dessein11c] Dessein, A., Cont, A., « Applications of information geometry to audio signal processing : tutorial », 14th International Conference on Digital Audio Effects (DAFx), Paris, 2011
[Dubnov11a] Dubnov, S., Assayag, G., Cont, A., « Audio Oracle Analysis of Musical Information Rate », Proceedings of IEEE Semantic Computing Conference, ICSC2011,, Palo Alto, CA, 2011, pp. 567-571
[Garcia11a] Garcia, J., Tsandilas, T., Agon, C., Mackay, W., « InkSplorer: Exploring Musical Ideas on Paper and Computer », New Interface for Musical Expression, Oslo, 2011
[Giavitto11b] Giavitto J L., The Modeling and the Simulation of the Fluid Machines of Synthetic Biology. Revised and Selected papers of the Twelfth International Conference on Membrane Computing (CMC12). Fontainebleau : Août 2011, vol. LNCS 7184, p. 17-32
[Giavitto11d] Giavitto, J.L., Michel, O., Spicher, A., « Interaction Based Simulation of Dynamical System with a Dynamical Structure (DS)2 in MGS », Summer Computer Simulation Conference 2011 (SCS2011), vol. 1, La Haye, 2011, pp. 97-106.
[Giavitto11f] Giavitto, J.L., Spicher, A., « MGS: a declarative spatial computing programming language », 2nd Int. Workshop on New Worlds of Computation (NWC11), vol. Booklet LIFO, Univ. d'Orléans, Orléans, 2011, pp. 15-20.
[Giavitto11h] Giavitto, J.L., Spicher, A., « MGS: a declarative spatial computing programming language », 2nd Int. Workshop on New Worlds of Computation (NWC11), vol. Booklet LIFO, Univ. d'Orléans, Orléans, 2011, pp. 15-20
[Kuuskankare11b] Kuuskankare, M., « Enriched Score Access for Computer Assisted Composition in PWGL », Third international conference on Mathematics and computation in music, MCM'11, vol. 6726, pp 362-365, LNCS, 2011
[Montecchio11a] Montecchio N., Cont A., A UNIFIED APPROACH TO REAL TIME AUDIO-TO-SCORE AND AUDIO-TO-AUDIO ALIGNMENT USING SEQUENTIAL MONTECARLO INFERENCE TECHNIQUES. International Conference on Acoustics and Speech Signal Processing (ICASSP). Prague : Mai 2011, p. 193-196
[Montecchio11b] Montecchio N., Cont A., Accelerating the Mixing Phase in Studio Recording Productions by Automatic Audio Alignment. International Symposium on Music Information Retrieval (ISMIR). Miami : Octobre 2011, p. 627-632
2012
[Bigot12a] Bigo L., Garcia J., Spicher A., Mackay W., PAPERTONNETZ: Music Composition with Interactive Paper. Sound and Music Computing. Copenhague : Juillet 2012, p. 219-225
[Bresson12b] Bresson J., Spatial Structures Programming for Music. Spatial Computing Workshop (SCW). Valencia : 2012.
[Bresson12c] Bresson J., Pérez-Sancho C., New Framework for Score Segmentation and Analysis in OpenMusic. Sound and Music Computing. Copenhagen : 2012.
[Garcia12a] Garcia, J., Tsandilas, T., Agon, C., Mackay, W., « Interactive Paper Substrates to Support Musical Creation », ACM Conference on Human Factors in Computing Systems (CHI), Austin, 2012
[Levy12a] Lévy, B., Bloch, G., Assayag, G., « OMaxist Dialectics : capturing, Visualizing and Expanding Improvisations », NIME12, Ann Arbor, 2012, pp. 137-140
[Spicher12a] Spicher A., Michel O., Giavitto, J.-L., « Arbitrary Nesting of Spatial Computations », Spatial Computing Workshop SCW12, vol. W21 AAMAS Satellite Workshop Proc., Valencia, 2012, pp. 25-32
[Spicher12b] Spicher, A., Michel, O., Giavitto, J.-L., « Spatial Computing in MGS », 11th International Conference Unconventional Computation & Natural Computation (UCNC 2012), vol. LNCS 7445, Orléans, 2012, pp. 63-69
C-ACTN- Communications avec actes dans un congrès national
2007
[Andreatta07b] Andreatta, M., Chemillier, M., « Modèles mathématiques pour l’informatique musicale (MMIM) : outils théoriques et strategies pédagogiques », Actes des Journées d’Informatique Musicale, Lyon, 2007, pp. 113-123
[Bresson07a] Bresson, J., « Processus compositionnels et opérateurs musicaux dans ML-Maquette - Les outils de traitement du signal », Journées d'Informatique Musicale, Lyon, 2007
[Guedy07a] Guédy, F., Bresson, J., Assayag, G., « Musique Lab 2 - Un environnement d'aide à la pédagogie musicale », Journées d'Informatique Musicale - JIM'07, 2007
2008
[Allombert08c] Allombert, A., Desainte-Catherine, M., Assayag, G., « De Boxes à Iscore : vers une écriture de l'interaction », Actes des 13èmes Journées d'Informatique Musicale (JIM08), Albi, 2008
2010
[Ayari10f] Ayari, M., Lartillot, O., « Universalité cognitive versus spécificité culturelle : une modélisation cognitive de l’écoute structurelle de musique modale improvisée », 1ère Rencontre Internationale : Actualité des Universaux en Musique, Aix-en-Provence, 2010
[Bresson10a] Bresson J., Agon C., Schumacher M., Représentation des données de contrôle pour la spatialisation dans OpenMusic. Journées d'Informatique Musicale. Rennes : Mai 2010
[Maniatakos10c] Maniatakos, F., Agon, C., « On a Graph Based Theoretical Framework for Computer Assisted Improvisation », Commment analyser l'improvisation ?, Ircam Paris, 2010
[Esling10b] Esling, P., Agon, C., « Composer les mélanges sonores avec les maquettes spectrales », Journées d'Informatique Musicale, Rennes, 2010
2011
[Bigo11a] Bigo L., Spicher A., Michel O., Différentes utilisations de l'espace en musique à l'aide d'un langage de programmation dédié au calcul spatial. Journées d'Informatique Musicale 2011. St-Etienne : Mai 2011
[Bresson11a] Bresson J., Michon R., Implémentations et contrôle du synthétiseur CHANT dans OpenMusic. Journées d'Informatique Musicale. Saint Etienne : Mai 2011
[Dessein11b] Dessein A., Cont A., Segmentation statistique de flux audio en temps-réel dans le cadre de la géométrie de l'information.. 23e Colloque du Groupe de Recherche et d'Etudes du Traitement du Signal (GRETSI). Bordeaux : Septembre 2011
[Echeveste11c] Echeveste J., Cont A., Jacquemard F. Giavitto J.-L., Formalisation des relations temporelles entre une partition et une performance musicale dans un contexte d’accompagnement automatique : accompagnement musical automatique. Modélisation des systèmes réactifs (MSR 11). Lille : Novembre 2011, vol. JESA 45:1-3, p. 109-124
[Cont11c] Cont A., Dessein A., Applications de la géométrie de l'information au traitement des flux audio temps-réel. 5e Biennale Française des Mathématiques Appliquées, Congrès de la Société de Mathématiques Appliquées et Industrielles (SMAI). Guidel : Mai 2011
[Garcia11b] Garcia, J., Tsandilas, T., Agon, C., Mackay, W., « InkSplorer : vers le papier interactif pour la composition musicale », Journée d'informatique Musicale, Saint-Etienne, 2011
C-COM – Communications sans actes dans un congrès international ou national
2010
[Bigo10d] Bigo Louis, Symbolic Representations and Topological Analysis of Musical Structures with Spatial Programming. 6es Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio (JCAAAS). Paris : 17-19 novembre 2010
[Garcia10b] Garcia, J., « Soutenir les activités créatives avec le papier augmenté : Interactions musicales entre le papier et les environnements de composition assistée par ordinateu », JCAAS, Paris, 2010
2011
[Garcia11c] Garcia, J., « Composer avec le papier interactif : Explorations musicales avec des courbes de contrôle », JCAAS, Rennes, 2011
C-AFF – Communications par affiche dans un congrès international ou national
OR – Outils et corpus de recherche, cohortes
OS – Ouvrages scientifiques ou chapitres d’ouvrages (inclus traductions, editions critiques)
OS-O – Ouvrages scientifiques
2007
[Bresson07c] Bresson, J., « La synthèse sonore en composition musicale assistée par ordinateur : modélisation et écriture du son », thèse de l’Université de Paris 6, 2007
[Mazzola07b] Mazzola, G., Ahn, Y.K., « La vérité du beau dans la musique », La vérité du beau dans la musique, ed. Jean-Michel Bardez et Moreno Andreatta. (Delatour, Sampzon), 2007
2008
[Carpentier08a] Carpentier, G., « Approche computationnelle de l’orchestration musicale : optimisation multicritère sous contraintes de combinaisons instrumentales dans de grandes banques de sons », thèse de l’Université Paris 6, 2008
[Nouno08a] Nouno, G., « Suivi de Tempo Appliqué aux Musiques Improvisées : à la recherche du temps perdu.», thèse de l’Université Paris 6, Ircam, 2008
2009
[Allombert09a] Allombert, A., « Aspects temporels d’un système de partitions musicales interactives pour la composition et l’exécution », Thèse de doctorat de l’Université Bordeaux 1, 2009
[Assayag09a] Assayag, G., « Algorithmes, langages, modèles pour la recherche musicale : de la composition à l'interaction », Habilitation à diriger les recherches, Université de Bordeaux I, 2009
[Ahn09a] Ahn, Y.K., « L'analyse musicale computationnelle : rapports avec la composition, la segmentation et la représentation à l'aide de graphes », Thèse de doctorat de l’Université Pierre et Marie Curie Paris 6 / EDITE, 2009
[Schaub09a] Schaub, S., « Formalisation mathématique, univers compositionnels et interprétation analytique chez Milton Babbitt et Iannis Xenakis », thèse de doctorat de l’Université Paris 4, 2009
2010
[Amiot10a] Amiot, E., « Modèles algébriques et algorithmiques pour la formalisation mathématique des structures musicales », Thèse de l’université Paris 6, UPMC, 2010
[Andreatta10c] Andreatta, M., « Mathematica est exercitium musicae. : la recherche ‘mathémusicale’ et ses interactions avec les autres disciplines, », Habilitation à diriger les recherches, IRMA, U. de Strasbourg, 2010
2012
[Maniatakos12a] Maniatakos, F., « Graphs and Automata for the Control of Interaction in Computer Music Improvisation. », Thèse de Doctorat de l'Université Pierre et Marie Curie, 2012
OS-C – Chapitres d’ouvrages
2008
[Andreatta08c] Andreatta, M., « Calcul algébrique et calcul catégoriel en musique : aspects théoriques et informatiques », Le calcul de la musique, ed. Laurent Pottier. (Publications de l’université de Saint-Etienne), 2008
[Dubnov08a] Dubnov, S., Assayag, G., « Memex and Composer Duets, computer aided composition using style modeling and mixing », Open Music Composers book 2, ed. Agon C., Assayag, G., Bresson J. (Collection Musique Sciences ircam Delatour), 2008
[Bancquart08a] Bancquart, A., Agon, C., Andreatta, M., « Microtonal Composition », The OM Composer's Book 2, ed. Jean Bresson, Carlos Agon, Gérard Assayag. (Ircam/Delatour France), 2008, pp. 279-302
[Schaub08] Schaub S., « Milton Babbitt et le "système dodécaphonique" », in Nicolas DONIN & Laurent FENEYROU (éds), Composition et théorie musicales au vingtième siècle, Lyon : Symétrie,, 2008
2009
[Ayari09a] Ayari, M., Lartillot, O., « Comparer réactions d’auditeurs et prédictions informatiques », Esthétique et Cognition, J-M. Chouvel et X. Hascher (éds.). (DELATOUR-France, Paris), 2009
2010
[Ayari10a] Ayari, M., « Can one speak of meaning in music? », Musique, Signification et Émotion, Collection : Culture et Cognition Musicales. N°2, ed. Ayari Mondher. (DELATOUR-France, Paris), 2010
[Ayari10b] Ayari, M., Lartillot, O., « Comparer réactions d’auditeurs et prédictions informatiques », Esthétique et Cognition : Les théories de l'art et le problème de la cognition (J-M. Chouvel et X. Hascher, Paris), 2010
[Esling10c] Esling, P., Carpentier, G., Agon, C., « Dynamic Musical Orchestration using Genetic Algorithms and Spectro-Temporal Description of Musical Instruments », Lecture Notes in Computer Science (SpringerLink), 2010
2011
[Allombert11a] Allombert, A., Desainte-Catherine, M., Toro, M., « Modeling Temporal Constraints for a System of InteractiveScores », Constraint Programming in Music, ed. Truchet, C. & Assayag, G. (Truchet, C. & Assayag, G. Eds - WILEY), 2011, pp. 1-24
[Andreatta11b] Andreatta, M., « Musique algorithmique », Théorie de la composition musicale au XXe siècle, ed. N. Donin, L. Feneyrou. (Symétrie), 2011
[Bloch11a] Bloch, G., Truchet, C., « Constraints for an Unfolding Time », Constraint Programmin in Music, ed. Truchet, C., & Assayag. (Truchet, C., & Assayag, G., Eds (WILEY)), 2011, pp. 55-80
[Carpentier11a] Carpentier, G., « Global Constraints in Orchestration », Constraint Programming in Music, (Truchet, C. and Assayag, G. Eds. (Wiley)), 2011, pp. 81-102
[Giavitto11a] Giavitto, J.L., Spicher, A., « Computer Morphogenesis », Morphogenesis (Springer), 2011, pp. 315-340
[Giavitto11e] Giavitto, J.L., Spicher, A., Michel, O., « Interaction-Based Simulations for Integrative Spatial Systems Biology : application to the Simulations of a Synthetic Multicellular Organism in MGS », Understanding the Dynamics of Biological Systems, ed. Dubitzky, Werner; Southgate, Jennifer; Fuß, Hendrik. (Springer), 2011, pp. 195-232
[Mazzola11a] Mazzola, G., « Musica e matematica : musica e matematica: due movimenti aggiunti tra formule e gesti », La Matematica, ed. Claudio Bartocci, Piergiorgio Odifreddi. (Einaudi, Turin), 2011, pp. 159-198 (tr. Moreno Andreatta)
[Olarte11a] Olarte, C., Rueda, C., Sarria, G., Toro, M., Valencia, F., « Concurrent Constraint Models of Music Interaction », Constraint Programming in Music, ed. Truchet C. & Assayag G. (Truchet C. & Assayag G. Eds (Wiley)), 2011, pp. 133-156
2012
[Andreatta12c] Andreatta, M., « Mathématiques, Musique et Philosophie dans la tradition américaine : la filiation Babbitt/Lewin », A la lumière des mathématiques et à l'ombre de la philosophie, ed. Moreno Andreatta, François Nicolas, Charles Alunni. (Ircam/Delatour France, Sampzon), 2012
PV – Ouvrages de vulgarisation ou chapitres de ces ouvrages
PV-O – Ouvrages de vulgarisation
PV-C – Chapitres d’ouvrages de vulgarisation
PV-A – Articles de vulgarisation
2008
[Andreatta08d] Andreatta, M., « Une musique qui swingue de façon géométrique », Science Actualités, 2008
[Andreatta08e] Andreatta, M., « La musique mise en algèbre », Pour la science, Novembre 2008, n° 373
2011
[Giavitto11g] Giavitto, J.-L., « Calculer différemment : comment dépasser les limitations des machines de Turing pour calculer plus, pour calculer autrement, pour calculer plus vite ou pour calculer mieux ? », Interstices (Interstices http://interstices.info), 2011
[Khalatbari11a] Khalatbari, A., « Musique en mode géométrique », Sciences et avenir, Octobre 2011, pp. 72-76 hors série intitulé « Le pouvoir infini des mathématiques » (avec entretien à Moreno Andreatta)
[Cont11b] Cont A., Interaction musicale en temps réel entre musiciens et ordinateur : l’informatique musicale, de l’accompagnement musical automatique vers la programmation synchrone en temps réel. Interstices. 2011 (revue enligne)
2012
[Giavitto12b] Giavitto, J.-L., Rechenmann, F., « Sous le signe du calcul », Doc'Science, Juin 2012, n° 14, Dossier spécial Alan Turing, pp. 6-13, CRDP de l’Académie de Versailles
[Cont12c] Cont Arshia, L'ordinateur qui joue comme un musicien. La Recherche. Juin 2012, n° 465, p. 68-72
DO – Direction d’ouvrages
2008
[Andreatta08a] Andreatta, M., Bardez, J.M., Rahn, J., (Eds) « Autour de la Set Theory : rencontre Musicologique franco-américain », Autour de la Set Theory (Ircam/Delatour France, Sampzon), 2008
[Andreatta08b] Andreatta, M., Bardez, J.M., Rahn, J., (Eds) « Around Set Theory : a French-American Musicological Meeting », Around Set Theory (Ircam/Delatour France, Sampzon), 2008
[Bresson08a] Bresson, J., Agon, C., Assayag, G., (Eds) « The OM Composer's Book 2 », The OM Composer's Book 2 (Editions Delatour France / Ircam-Centre Pompidou), 2008
2009
[Andreatta09c] Andreatta, M., Agon, C., « Special Issue on Tiling Problems in Music », Journal of Mathematics and Music, Juillet 2009, vol. 3, n° 2, pp. 63-115
[Assayag09b] Assayag, G., Gerzso, A., (Eds) « New Computational Paradigms for Computer Music », Collection Musique/Science, (Ircam/Delatour), 2009
2010
[Ayari10c] Ayari, M., Makhlouf, H., « Musique, Signification et Émotion », Musique, Signification et Émotion, ed. Ayari, M. et Makhlouf, H. (DELATOUR-France, Paris), 2010
2011
[Agon11c] Agon Carlos, Amiot Emmanuel, Andreatta Moreno, Assayag Gérard, Bresson Jean, Mandereau John, Mathematics and Computation in Music : third International Conference, MCM 2011, Paris, France, June 15-17, 2011. Proceedings. Springer. 2011
[Assayag11a] Assayag, G., Truchet, C. (Eds) « Constraint Programming in Music », Constraint Programming in Music (ISTE/WILEY), 2011
2012
[Andreatta12b] Andreatta, M., Nicolas, F., Alunni, C., « A la lumière des mathématiques et a l'ombre de la philosophie : actes du séminaire mamuphi », A la lumière des mathématiques et a l'ombre de la philosophie (Ircam/Delatour France, Sampzon), 2012
[Giavitto12c] Giavitto, J.L., Beal, J., Dulman, S., Spicher, A., « Proceedings of the Int. Workshop on Spatial Computing (SCW 2012) : (co-located with AAMAS 2012) », IFAMAAS (International Foundation for Autonomous Agents and Multiagent Systems), Valencia, 2012
C-INV – Conférences invitées dans des congrès nationaux et internationaux
Congrès nationaux et internationaux
2007
Carlos Agon, Jean Bresson, Karim Haddad : Programmation avec OpenMusic. Journées d’Informatique Musicale, Lyon, 13/04/2007.
Carlos Agon, Gérard Assayag, Jean Bresson : Workshop "OpenMusic: Computer-Aided Composition, Sound Synthesis and Improvisation". 4th Sound and Music Computing Conference, Lefkada, Grèce, 12/07/2007.
Andreatta M. (2007), « An Introduction to Algebraic Models in Computer-Aided Music Theory, Analysis and Composition », First International Workshop in Art Communication and Technology ACT, CIMAT, Guanajuato, Mexique, 19-23 novembre.
Andreatta M., C. Agon (2007), « Structure and Symmetry in Iannis Xenakis Nomos Alpha for cello solo », Colloque Form and Symmetry, Buenos Aires, 11-17 novembre.
Andreatta M. (2007), « Introduzione alla formalizzazione algebrica delle strutture musicali », Colloque « Matematica e Musica : formalizzazione delle strutture musicali », Pise, 28 septembre.
Andreatta M. (2007), « Una introduction a la relación entre la música y las matemáticas, y sus posibles aplicaciones en el campo de la composición, el análisis y la musicología », conférence invitée au LIPM, Laboratorio de Investigación y Producción Musical, Centro Cultural Recoleta, Buenos Aires, 14 novembre.
2008
Andreatta M. (2008), « Teoria e analisi musicale assistita su OpenMusic », Colloque « Matematica, Musica e Informatica », Pise, 24-25 octobre.
Andreatta M., G. Assayag et G. Bloch (2008), « Outils set-théorique et modulations métriques dans la musique d'Elliott Carter : une perspective musicologique computationnelle », Colloque Elliott Carter. Des ponts vers l'Amérique II, Ircam, 11-12 décembre. Diffusion sur France Culture.
2009
Carpentier Gregoire, Bresson Jean : OM-Orchidée : Architecture client/serveur pour l’aide à l’orchestration. Ircam: Séminaire Recherche et Technologie. 27/05/2009.
Carpentier Gregoire : conférence au colloque "La complexité dans les arts et les sciences" Ircam - CGP Juin 2009.
Jean Bresson : Computer-Aided Composition – Formal Models and Software Technologies for Contemporary Music Creation. J. Bresson. 12th Brazilian Symposium on Computer Music, Recife, Brésil. 7/09/2009.
Andreatta M. (2009) « Pythagorean heritage in contemporary mathematical music theory », International Symposium Pythagorean views on music : mathematical and philosophical dimensions, 10-11 Julliet, Pythagoreion, Samos, Grèce.
2010
Jean Bresson, Marco Stroppa : Keynote – Recherche/Création en Informatique Musicale: Composition Assistée par ordinateur et synthèse sonore. JJCAAS, 6es Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio, Paris, 19/11/2010.
Arshia Cont. Keynote -- From Artistic Imaginary to Scientific Discovery & vice versa. Darmstadr New Music Summer Course, Juillet 2010, Darmstadt.
Arshia Cont. Keynote – Musical Synchrony. Seven Keys to the Digital Future. Organisé par Collège de France et Scottish Royal Academy. Edinburgh, Octobre 2010.
Dessein Arnaud, Cont Arshia, Applications of information geometry to audio signal processing : tutorial. 14th International Conference on Digital Audio Effects (DAFx). Paris : Septembre 2011
Maniatakos, F., Agon, C., « On a Graph Based Theoretical Framework for Computer Assisted Improvisation », Commment analyser l'improvisation ?, Colloque international Société Française d’Analyse Musicale (SFAM) / Ircam Paris, 2010
Esling, P., « Orchestration and Sound Mixtures », Symposium Modèle / Prototype / Oeuvre, Ircam, Paris, 2010
2011
Jean Bresson : Panel – Bridging Opportunities for the Music and Multimedia Domains. MIRUM'11, First International ACM Workshop on Music Information Retrieval with User-Centered and Multimodal Strategies. ACM MUltiMedia, Scottsdale, USA, 30/11/2011.
Andreatta M. (2011), « From creativity in Music and Mathematics to creativity in Arts and Science », Consultation Workshop, FET Proactive – FP7, Bruxelles, 28 novembre.
Andreatta M. (2011), « Un’introduzione musicologica alla formalizzazione algebrica delle strutture musicali », journée d’étude « mathématiques/musique », Université de Udine (Gorizia), 11 mai 2011.
Jean-Louis Giavitto : Déclarative Simulation of Dynamical Structure. Morphogenesis in Living Systems, Paris mai 2011
Jean-Louis Giavitto, The Modeling and the Simulation of the Fluid Machines of Synthetic Biology, 12th International Conference on Membrane Computing (CMC12), Fontainebleau, Août 2011
Ayari Mondher, Lartillot Olivier (2011), "Analysis of performances and computational modelling of maqam improvisations", 7th Symposium of the International Council for Traditional Music, UNESCO, Baku, Azerbaïdjan, March 14-21.
Ayari Mondher, Lartillot Olivier (2011), "Maqam improvisation analysis based on an integrated modelling of surface-based and culture-dependent rules", First International Workhop of Folk Music Analysis: Symbolic and Signal Processing, Athènes, Grèce, 19-20 Mai.
Ayari Mondher, Lartillot Olivier (2011), "L'acte créateur entre culture de l'oralité et cognition musicale: Analyse de performance et modélisation informatique", VII European Music Analysis Conference, Rome.
2012
Arshia Cont, Jean-Louis Giavitto, Du temps écrit au temps produit en informatique musicale, Colloque international Produire le Temps, Paris, mai 2012, Ircam
GérardAssayag: Key-Note, The 5th International Symposium and The 4th Student-Organizing International Mini-Conference on Information Electronics Systems - CERIES-GCOE11 - Tohoku University, Sendai
Conférences invitées dans le cadre de journées, workshops, séminaires
2007
Carlos Agon, Gérard Assayag, Jean Bresson. Workshop OpenMusic: Computer-Aided Composition, Sound Synthesis and Improvisation, 4th Sound and Music Computing Conference, Lefkada, Grèce, 12 juillet 2007.
Carlos Agon, « Logique et interaction dans la composition musicale assistée par ordinateur », First International Workshop in Art Communication and Technology ACT, CIMAT, Guanajuato, Mexique, 19-23 novembre 2007
Carlos Agon, « Interaction dans le calcul », Colloque Nouveaux paradigmes pour l'informatique musicale, Agora 2007, Paris, 11 juin 2007.
Carlos Agon, « Calcul rythmique dans « Le premier livre des Motets » de Karim Haddad.», Colloque « Le calcul de la musique », Université Jean Monnet – St Etienne, 2 mars 2007.
Jean Bresson : Modélisation du son musical – Le son comme objet. Séminaire MaMuX (Mathématiques, Musique, et relations avec d'autres disciplines) Ircam, Paris. 10/02/2007.
Moreno Andreatta, Georges Bloch, Gérard Assayag. Triple workshop invité : OpenMusic, OMax, Musique et mathématiques, à l’université du Minnesota à Minneapolis, College of Liberal Arts. Octobre 2007.
Andreatta M. et G. Bloch (2007), « Tiling Space with Musical Canons », Seed Workshop, Dublin, 5 mai. Séminaire organisé par Wiebke Drenckhan (Laboratoire de Physique des Solides UMR 8502 – Université Paris-Sud).
2008
Gérard Assayag : Octobre 2008. Universidad Pontifical Javeriana de Cali, Colombia. « Music Research, Assisted Composition, Semantic Interaction ».
Gérard Assayag : Conférence à l’université Keio de Tokyo, séjour invité dans le cadre du 1st Japanese-French Cooperative Workshop "Improving the VR experience", Strategic Japanese-French Cooperative Program on “Information and Communications Technology (ICT) including Computer Science”, 3-5 juin 2008, Gérard Assayag.
Gérard Assayag : Avril 2008. Radcliffe Institute for Advanced Study at Harvard University, Cambridge, Symposium on Interaction. « New designs for music interaction using the computer »
Gérard Assayag : Avril 2008. M+T Incubator III, « The future of computer assisted composition and interaction », McGill University, Montreal, Centre for Interdisciplinary Research in Music Media & Technology (CIRMMT).
Jean Bresson, Marco Stroppa : OMChroma : CAO, synthèse, et "potentiel sonore". Séminaire Recherche et Technologie, Ircam. 23/01/2008.
Jean Bresson, Mikhaïl Malt : Atelier "hands-on" OpenMusic. Ateliers du Forum Ircam, 13/11/2008.
Agon C. et M. Andreatta (2008), « Teoria e analisi musicale assistita su OpenMusic », Workshop MMI 2008 - Matematica/Musica & Informatica, Université de Pisa, 24-25 octobre.
2009
Gérard Assayag : Septembre 2009. Festival Interactivia, Cali, Colombie. Conférences, ateliers avec l'université Javeriana de Cali et 4 grandes universités colombiennes.
Gérard Assayag : (novembre 2009), Informatique Musicale, Ecole Centrale de Paris
Gérard Assayag : Février 2009. Ecole Normale Supérieure de Lyon, ENS-LSH. Atelier « Modèles pour l’improvisation assistée par ordinateur ». Avec Marc Chemillier.
Gérard Assayag : Février 2009. Ecole des Mines de Nantes. « Recherche musicale à l’Ircam »
Gérard Assayag : Février 2009. Telecom Bretagne, Brest. « De la composition à l’interaction sémantique »
Jean Bresson, Marlon Schumacher : Atelier "hands-on" OMprisma: spatialisation et synthèse sonore spatialisée avec OpenMusic/OMChroma, Ateliers du Forum Ircam, 20/11/2009 (3h).
Jean Bresson : OpenMusic : Langage de programmation visuel pour la composition musicale. 2èmes journées du GDR GPL LTP (Langages, Types et Preuves), CNRS, LACL, Université de Paris XII, Créteil. 21/10/2009.
Jean Bresson, Marlon Schumacher : Synthèse sonore spatialisée dans OMChroma. Séminaire Recherche et Technologie, Ircam. 3/07/2009.
Desde la formalización a la creación musical: Líneas de investigación del grupo Représentations Musicales, LIPM – Laboratorio de Investigación y Producción Musical, Centro Cultural Recoleta, Buenos Aires, Argentine, 26/062009.
Jean Bresson : OpenMusic, Conservatorio de la Ciudad de Buenos Aires, Argentine, 24/06/2009.
Grégoire Carpentier, Jean Bresson : OM-Orchidée : Architecture client/serveur pour l’aide à l’orchestration. Séminaire Recherche et Technologie, Ircam. 27 mai 2009.
Andreatta M. et C. Agon (2009), « A Tutorial on Mathematical Models in Computer-Aided Music Theory, Analysis and Composition via OpenMusic », Mathematics and Computation in Music Conference, Yale University, 19-22 juin
2010
Assayag, G. Novembre 2010, 4th Japan-France Cooperative Workshop on "Improving the Virtual Reality Experience", Tohoku University, Sendai, Japan
Assayag, G., Lévy, B., Bloch, G., Séminaire EHESS Modélisation des savoirs musicaux relevant de l'oralité, Nouvelles expériences de musiciens interagissant avec le logiciel d'improvisation OMax, ,27 janvier 2010
Assayag, G., Bloch, G., Music Technology Group, Université Pompeu Fabra à Barcelone, conférence invitée, « Recent Research on Symbolic Music Computing », 4 février 2010
Assayag, G., Journées d'informatique musicale à Rennes, atelier et concert OMax, 18-20 mai 2010
Assayag, G., Lévy, B., Nuit du prototype Ircam, Atelier concert Omax avec Laurent Mariusse (percussions) 19 juin 2010
Assayag, G., Cont, A., dans le cadre du cycle de conférences "Informatique, Patrimoine et Perspectives" à l’occasion du 25ème anniversaire d’ACONIT (Association pour un conservatoire de l'informatique et de la télématique), conférence sur l'état de l'art en informatique musicale, 5 juillet 2010
Assayag, G. Atelier concert OMax avec François Corneloup à l'occasion de la réouverture de l'Estaminet (Compagnie Lubat) à Uzeste, 1er mai 2010
Andreatta M. et C. Agon (2011), « Some OpenMusic-based Computational Models in Computer- Aided Music Theory and Analysis », EUROMAC, VII European Music Analysis Conference, Rome, 29 septembre – 2 octobre, 2011
Jean Bresson : Computer-aided composition projects and applications in OpenMusic, CIRMMT (Centre for Interdisciplinary Research in Music Media and Technology), McGill University, Montréal, Canada. 16/12/2010.
Jean Bresson : Introduction to OpenMusic / Sound Synthesis and Spatialization in OpenMusic. J. Bresson. CNMAT, Berkeley, CA, USA. 10/06/2010.
2011
Jean Bresson, Fabien Lévy : Atelier logiciel: OpenMusic/Pareto. Association Ethnomusika, Paris. 13/05/2011.
Jean Bresson : L'environnement de composition assistée par ordinateur OpenMusic. Journée d'étude "La Composition Assistée par Ordinateur: Histoire, pratiques et perspectives d’une discipline à travers le logiciel OpenMusic", Université Rennes 2, Laboratoire Musique, Programme l’œuvre et l’imaginaire à l’ère du numérique, 18/11/2011.
Jean Bresson : OpenMusic: Visual Programming Language for Music Composition. Présentation à Carnegie Mellon University, School of Computer Science, Pittsburgh, PA, USA, 22/09/2011.
Jean Bresson : OpenMusic : programmation visuelle et composition assistée par ordinateur. Séminaires Parkas, Département d'informatique, Ecole normale supérieure, Paris. 20/07/2011.
Jean Bresson : Ecriture de la spatialisation en composition assistée par ordinateur. La semaine du son, Ircam, Paris. 21/01/2011.
Jean-Louis Giavitto, Programmation spatiale : applications à la biologie du développement, à l'analyse des contes de fées et à l'analyse musicale, Séminaire du LIRIS, mars 2011
Jean-Louis Giavitto, MGS : un langage déclaratif pour la programmation spatiale. Séminaire SupMeca, mai 2011.
Andreatta Moreno, Giavitto Jean-Louis and Bigo Louis, Spicher Antoine, Agon Carlos. Outils algébriques et représentations géométriques en musicologie computationnelle : le paradigme de la programmation spatiale et ses applications en informatique musicale. Journéees LAC – GeoCal, Polytechnique, novembre 2011.
Dessein, A., Cont, A., « Applications of information geometry to audio signal processing », Indo-French Workshop on Matrix Information Geometry (MIG), Palaiseau, 2011, pp. 16-17
2012
Jean Bresson : OpenMusic Workshop. CIRMMT, Montréal, Canada. 29/05-1/06 2012 (4 jours)
Jean-Louis Giavitto, Programmation spatiale : application à l'analyse des contes de fées et à l'analyse musicale, séminaire IPAC, Nancy mars 2012.
AP – Autres productions : bases de données, guides techniques, rapports intermédiaires de grands projets internationaux, etc.
2007
[Gilbert07a] Gilbert, E., « Polynômes cyclotomiques, canons mosaïques et rythmes k-asymétriques », Université Paris VI, 2007. [MASTER ATIAM]
2008
[Junod08a] Junod, J., « Etude combinatoire et informatique du caractère diatonique des échelles à sept notes », UPMC - Paris VI, 2008. [Master II ATIAM]
[ToroBermudez08a] Toro-Bermúdez, M., « Exploring the possibilities and limitations of Concurrent Programming for Multimedia Interaction and exploring Visual Programming for Musical Constraint Satisfaction Problems », Pontificia Universidad Javeriana, 2008 [Master El.Eng.]
2009
[Carpentier09d] Carpentier, G., « Orchidée : Serveur Matlab d'orchestration : version 0.2.3 », Rapport interne, 2009
[Levy09a] Levy, B., « Visualising OMax », UPMC, 2009. [Master II Atiam]
[Mandereau09a] Mandereau, J., « Etude des ensembles homométriques et leur application en théorie mathématique de la musique et en composition assistée par ordinateur », Paris VI, 2009. [Master ATIAM]
[Robin09a] Robin, Y., Assayag, G., Billard, A., Sluchin, B., Crosse, N., « Projet de recherche OMAX (étape I) : composer in Research Report (2009) », 2009
2010
[Andreatta10d] Andreatta, M., « Un parcours interactif dans les variations op. 27 d’Anton Webern : compte rendu d'un CDRom », 2010
[Bigo10a] Bigo, L., « Utilisation de la programmation spatiale pour l'analyse et la représentation symbolique musicale », Ircam - Université Paris VI, 2010. [Master ATIAM]
[Dessein10b] Dessein, A., Cont, A., Lemaitre, G., « Real-time polyphonic music transcription with non-negative matrix factorization and beta-divergence », 6th Music Information Retrieval Evaluation eXchange (MIREX), Utrecht, 2010
[Etcheveste10a] Etcheveste, J., « Reconnaissance automatique d’accords et modélisation des logiques d’enchaînement dans un logiciel d’improvisation », UPMC, 2010. [Master 1 SAR]
[Garcia10a] Garcia, J., « Interactions entre les esquisses et les notes : le papier augmenté pour la composition musicale assistée par ordinateur », LRI, 2010. [Master ATIAM]
[Lachaussee10a] Lachaussée, G., « Théorie des ensembles homométriques », Ecole polytechnique, 2010. [Master 1]
[Slavich10a] Slavich, L., « Strutture algebriche e topologiche nella musica del XX° secolo », Université de Pisa, 2010. [Tesi di Laurea]
2011
[Beauguitte11a] Beauguitte, P., « Transformée de Fourier discrète et structures musicales », Paris 6, 2011. [ATIAM]
[Echeveste11a] Echeveste José, Stratégies de synchronisation et gestion des variables pour l’accompagnement musical automatique. UPMC, 2011. [Master ATIAM]
[Nika11a] Nika, J., « Intégrer l’harmonie dans un processus informatique d’improvisation musicale », UPMC, 2011. [Master ATIAM]
Documentation en ligne OpenMusic : http://support.ircam.fr/docs/om/om6-manual/
Documentation en ligne Musique Lab 2 : http://support.ircam.fr/docs/musique-lab-2/user-manual/en/
Documentation logiciel Omax 4.x
Equipe Analyse des pratiques musicales

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Donin07c] Donin, N., Theureau, J., « Theoretical and Methodological Issues Related to Long Term Creative Cognition: the Case of Musical Composition », Cognition Technology & Work, 2007, vol. 9, n° 4, pp. 233-251.
2008
[Despoix08a] Despoix, Ph., Donin, N., « Relire un essai weberien méconnu : motifs et obstacles », Revue de synthèse, 2008, t. 129, 6e série, n° 2, pp. 205-214.
[Donin08a] Donin, N., « Enquête sur l’atelier d’un compositeur contemporain », Revue de synthèse, 2008, t. 129, 6e série, n° 3, pp. 401-420.
[Donin08b] Donin, N., Despoix, Ph., « Moyens techniques et reproduction sonore. Du programme wébérien à la musicalité contemporaine », Revue de synthèse, 2008, t. 129, 6e série, n° 3, pp. 333-340.
[Donin08c] Donin, N., Goldman, J., « Charting the Score in a Multimedia Context: the Case of Paradigmatic Analysis », Music Theory Online, 2008, vol. 14, n° 4, voir http://mto.societymusictheory.org/issues/mto.08.14.4/
[Donin08d] Donin, N., Theureau, J., « L’activité de composition comme exploitation/construction de situations. Anthropologie cognitive de la composition d’une œuvre musicale par Philippe Leroux », Intellectica, 2008, vol. 48, n° 1-2, pp. 175-205.
2009
[Donin09b] Donin, N., Goldszmidt, S., Theureau, J., « Organiser l'invention technologique et artistique ? L'activité collective de conception conjointe d'une œuvre et d'un dispositif informatique pour quatuor à cordes », Activités, 2009, vol. 6, n° 2, pp. 24-43
[Feneyrou09h] Feneyrou, L., « Une donnée immédiate. Jean Barraqué et le rythme (1948-1952) », Filigrane, 2009, n° 10, pp. 41-73
2010
[Donin10a] Donin, N., « Composer.Ecritures musicales ..sur le vif », Genesis: Revue internationale de critique génétique, 2010, n° 31, pp. 7-11
[Donin10b] Donin, N., « Quand l'étude génétique est contemporaine du processus de création : nouveaux objets, nouveaux problèmes », Genesis: Revue internationale de critique génétique, 2010, n° 31, pp. 13-36
[Donin10e] Donin, N., Trubert, J.F., « Noyaux, matrices, oignons (..et corbeille). Entretien avec Georges Aperghis », Genesis: Revue internationale de critique génétique, 2010, n° 31, pp. 65-76
[Feron10a] Féron, F.X., « Sur les traces de la musique spectrale : analyse génétique des modèles compositionnels dans Périodes (1974) de Gérard Grisey », Revue de Musicologie, 2010, vol. 96, n° 2, pp. 99-131
[Feron10c] Féron, F.X., Frissen, I., Boissinot, J., Guastavino, C., « Upper limits of auditory rotational motion perception », Journal of the Acoustical Society of America, 2010, vol. 128, n° 6, pp. 3703-3714
[Feron10d] Féron, F.X., « Gérard Grisey : première section de Partiels (1975) », Genesis: Revue internationale de critique génétique, 2010
2011
[Donin11b] Donin, N., « Preface: Creative Process and Objective Properties of Sound », Contemporary Music Review, vol. 30, n° 5, pp. 321-326.
[Feneyrou11b] Feneyrou, L., « Helmut Lachenmann en son lieu. Une lecture de Nun », Filigrane, 2011, n° 12, pp. 89-104
[Féron11a] Féron, F.-X., « The emergence of spectra in Gérard Grisey’s compositional process : from Dérives (1973-74) to Les espaces acoustiques (1974-1985) », Contemporary Music Review, vol. 30, n° 5, pp. 343-375.
[Perrin11a] Perrin, N., Theureau, J., Menu, J., Durand, M., « SIDE-CAR : Un outil numérique d’aide à l’analyse de l’activité par rétrodiction. Exploitation selon le cadre théorique du "cours d’action" », Recherches qualitatives, 2011, vol. 30, n° 2, pp. 148-174
[Tiffon11b] Tiffon, V., « The Creative Process in Traiettoria: An Account of the Genesis of Marco Stroppa's Musical Thought », Contemporary Music Review, vol. 30, n° 5, pp. 377-409.
2012
[Feron12a] Féron, F.-X., « Les variations dans la vibration : vibratos, trémolos et trilles dans la Trilogie – Les trois stades de l’homme (1956-65) pour violoncelle seul de Giacinto Scelsi », Filigrane, vol. 15, HYPERLINK "http://revues.mshparisnord.org/filigrane/"http://revues.mshparisnord.org/filigrane/
ACLN - Articles dans des revues à comité de lecture non répertoriées
2007
[Donin07b] Donin, N., « L’accès à la musique et la condition d’auditeur chez Schoenberg », Intermédialités, 2007, vol. 9, pp. 135-153.
2010
[Donin10d] Donin, N., Goldszmidt, S., « Introduction [à la section 'Les UST au coeur d’une pratique d’écoute et d’analyse'] », Musimédiane, 2010, n° 5
[Feron10b] Féron, F.X., « L'art du trompe-l'oreille rythmique en musique », Intermédialités - Histoire et théorie des arts, des lettres et des techniques, 2010, n° 16, pp. 145-165
2012
[Feneyrou12c] Feneyrou, L., « Tableau de Cologne, avec Stockhausen en pied. Entretien avec Konrad Boehmer », Dissonance, 118 (2012), p. 30-38.
ASCL - Articles dans des revues sans comité de lecture
2007
[Donin07i] Donin, N., « Analyser la musique en acte et en situation », Doce Notas Preliminares, n° 19-20, 2007, pp. 300-315 [trad. esp. « Analizar la música en acto y en situación », pp. 122-137].
[Feneyrou07a] Feneyrou, L., « …à quoi bon la sanction de la vérité ? Sur le Requiem pour un jeune poète de Bernd Alois Zimmermann », Filigrane: Musique, esthétique, sciences, société, 2007, n° 6, pp. 57-85.
2008
[Donin08e] Donin, N., Theureau, J., « Ateliers en mouvement. Interroger la composition musicale aujourd’hui », Circuit: Musiques contemporaines, 2008, vol. 18, n° 1, pp. 5-14.
[Donin08f] Donin, N., Theureau, J., « L’atelier d’un réalisateur en informatique musicale : entretien avec Gilbert Nouno », Circuit: Musiques contemporaines, 2008, vol. 18, n° 1, pp. 31-38.
[Donin08g] Donin, N., Theureau, J., « La coproduction des œuvres et de l’atelier par le compositeur (À partir d’une étude de l’activité créatrice de Philippe Leroux entre 2001 et 2006) », Circuit: Musiques contemporaines, 2008, vol. 18, n° 1, pp. 59-71.
2009
[Donin09f] Donin, N., « Ecrire, programmer, transcoder les sons », Artpress2, 2009, n° 15, pp. 46-54
[Feneyrou09g] Feneyrou, L., « More Light. Sur Morton Feldman », Vertigo, 2009, n° 36, pp. 59-62
2010
[Feneyrou10a] Feneyrou, L., « Via negativa. Trois moments dans l'œuvre de Helmut Lachenmann », Vertigo, 2010, n° 38, pp. 61-65
[Feneyrou10b] Feneyrou, L., « Licht - Liebe - Jubel. Zu Karlheinz Stockhausen Ruf », Neue Zeitschrift für Musik, 2010, vol. 2010, n° 6, pp. 44-51
2011
[Feneyrou11a] Feneyrou, L., « Seuils. Autour du triptyque …auf… de Mark Andre », Circuit, 2011, vol. 1, pp. 23-35
2012
[Féron12b] Féron, F.-X., « L’organisation rythmique dans la première section de Modulations (1976-77) de Gérard Grisey », Mitteilungen der Paul Sacher Stiftung, no. 25, pp. 41-48.
C-INV – Conférences invitées dans ces congrès nationaux et internationaux
2007
[Donin07j] Donin, N., « Réinventer la parole du compositeur par la collaboration entre analystes et créateur : une recherche musicologico-compositionnelle », Composer au XXIe siècle : Processus et philosophies, Montréal, mars 2007.
[Donin07f] Donin, N., « Studying Recordings of Performances, Capturing the Musical Experience of the Analyst », 4th CHARM Symposium: Methods for Analysing Recordings, Univ. of Royal Holloway, Egham, avril 2007.
[Theureau07c] Theureau, J., Sève, C., « L’approche des émotions dans le programme de recherche ‘cours d’action’ », Journée scientifique de la Société Française de Psychologie, Paris, mai 2007.
[Theureau07d] Theureau, J., « Anthropologie cognitive de l’activité de composition musicale : notions, méthodes, étude de cas », Composer au XXIe siècle : Processus et philosophies, Montréal, 2007.
2008
[Theureau08a] Theureau, J., Donin, N., « Du travail et de la conception à la création artistique, et retour », Actes du 43ème congrès de la Société d’Ergonomie de Langue Française (Ajaccio, 17, 18, 19 septembre 2008), Ergonomie & conception (Philippe Negroni & Yvon Haradji, éds.), ANACT, 2008, pp. 280-283.
2009
[Donin10g] Donin, N., « De l’entretien comme source historique au dialogue comme méthode d’enquête », Entretiens d’artistes : musique, cinéma et arts plastiques (Université Libre de Bruxelles, décembre 2010), 2010
C-ACTI- Communications avec actes dans un congrès international
2011
[Tiffon11a] Tiffon, V., Sprenger-Ohana, N., « Marco Stroppa’s Compositional Process and Scientific Knowledge between 1980-1991 », SMC, Padova, 2011
C-ACTN- Communications avec actes dans un congrès national
2007
[Donin07d] Donin, N., Goldszmidt, S., « Annoter la musique : de la segmentation de fichiers audio à la publication d’articles multimédia », Annexes des actes d’IHM 2007 (19e conférence de l’Association francophone d’Interaction Homme-Machine), Paris, 2007, pp. 53-56.
[Goldszmidt07a] Goldszmidt, S., Donin, N., Theureau, J., « Navigation génétique dans une œuvre musicale », IHM 2007 (19e conférence de l’Association francophone d’Interaction Homme-Machine), Paris, 2007, pp. 159-166.
[Letondal07a] Letondal, C., Mackay, W., Donin, N., « Paperoles et musique », IHM 2007 (19e conférence de l’Association francophone d’Interaction Homme-Machine), Paris, 2007, pp. 167-174.
[Theureau07b] Theureau, J., Goldszmidt, S., « Explicitation d’écoutes singulières, analyse des activités d’écoute musicale et conception de situations d’écoute musicale enrichies », XXXXIIe congrès de la SELF, Ergonomie des produits et des services, Saint-Malo, 2007, pp. 79-89.
2008
[Donin08h] Donin, N., Goldszmidt, S., Theureau, J., « L’activité de conception conjointe d’une partition et d’un dispositif de captation et de traitement du geste pour un quatuor à cordes », Actes du 43ème congrès de la Société d’Ergonomie de Langue Française (Ajaccio, 17, 18, 19 septembre 2008), Ergonomie & conception, ANACT, 2008, pp. 272-278.
2010
[Donin10h] Donin, N., Goldszmidt, S., Theureau, J., « Instrumenter l’écoute analytique ? Un bilan du projet ‘écoutes signées’ (2003-2006) », JIM2010, Rennes, 2010
2011
[Donin11a] Donin, N., « Pour une analyse des documents d’accompagnement du concert : l’exemple des programmes de salle du Domaine musical », Propositions pour une historiographie critique de la création musicale après 1945, ed. Anne-Sylvie Barthel-Calvet (éd.). (Centre de Recherche Universitaire Lorrain d’Histoire, Metz), 2011, pp. 31-49
[Theureau11a] Theureau, J., « L’observatoire des cours d’action, des cours de vie relatifs à une pratique et de leurs articulations collectives », Approches pour l’analyse des activités, ed. Gaëlle Le Meur, Maud Hatano (eds.). (L'Harmattan, Paris), 2011, pp. 23-76
C-COM – Communications sans actes dans un congrès international ou national
2007
[Donin07h] Donin, N., « Analyse musicale et analyse d’activité face aux enregistrements de l’interprétation », 6th European Music Analysis Conference, Freiburg-im-Breisgau, octobre 2007.
2008
[Donin08j] Donin, N., « L’écrit autoanalytique de compositeur : un genre impossible et nécessaire », Colloque international « Ecrits de compositeurs (1850-2000) » (M. Duchesneau, dir.), Faculté de musique de l’Université de Montréal, 13 mars 2008.
[Donin08k] Donin, N., « Comprendre la musique contemporaine, entre génétique des textes et suivi des processus de création », Colloque international « Genèses musicales : méthodes et enjeux » (A. Grésillon, N. Donin, dir.), 22 mai 2008, Paris, Maison Heinrich Heine.
[Donin08l] Donin, N., « Que faire face à l’éclatement des savoirs musicaux ? Un bilan critique du vol. II de Musiques », Colloque « Musiques. Une encyclopédie pour le xxie siècle, Pour un bilan critique » (J.-J. Nattiez, dir.), 8 novembre 2008, Paris, CNSMDP.
[Donin08m] Donin, N. (avec la participation de Florence Baschet et Frédéric Durieux), « La réception française d’Elliott Carter du point de vue des compositeurs », Colloque international « Hommage à Elliott Carter » (M. Noubel, dir.), Ircam, 11 décembre 2008.
[Dupont08a] Dupont, M., « Une activité négligée ? Les interprètes à l’œuvre », colloque international « 25 ans de sociologie de la musique en France. Ancrages théoriques et rayonnement international », Paris, Univ. Paris Sorbonne, 6 novembre 2008.
2009
[Donin09d] Donin, N., « L'activité compositionnelle de Florence Baschet lors du projet "Quatuor augmenté". : pistes d'analyse », Séminaire "D'une musicologie des œuvres à une musicologie des processus créateurs" (Campos & Donin, dir.), Paris, 2009
[Donin09e] Donin, N., Tiffon, V., « Interroger les fonctions de l'ordinateur dans les processus compositionnels », Informatique musicale : utopies et réalités. Contributions à une histoire et une analyse critique des « nouvelles technologies » musicales (Laliberté & Dahan, dir.), Paris, 2009
[Theureau09b] Theureau, J., « L'observation des cours d'action, des cours de vie relatifs à une pratique et de leurs articulations collectives », Atelier L'apport de la confrontation aux traces de sa propre activité (Cahour & Licoppe, dir.), Paris, 2009
[Theureau09c] Theureau, J., « La création artistique comme création de savoir et ses clôtures », Séminaire artistique et philosophique Electrobolochoc, Paray-le-Frésil, 2009
[Theureau09d] Theureau, J., « Activité-signe, Œuvre et Création de Savoirs », ARCo 09 "Interprétation et problématique du sens", Rouen, 2009
[Feron09a] Féron, F.X., « Périodes (1974) de Gérard Grisey : décryptage des processus compositionnels à partir de l'analyse des manuscrits », Colloqium d'études supérieures (Caroline Traube, dir.), Montréal, 2009
2011
[Theureau11b] Theureau, J., « Appropriations 1, 2 & 3, ou Un exemple de pouvoir heuristique et de capacité de croissance d’un programme de recherche. : appropriation, Incorporation & In-culturation », Journée Ergo-Idf, 16/06/11, 2011
2012
[Goldszmidt2012a], Goldszmidt, S., « JavaScript library for audio/video timeline représentation », WWW2012 Developer Track, 18-20 avril 2012, Lyon, France.
[Féron12c] Boutard, G., Féron, F.X., « L’(a)perception de l’électronique par les interprètes dans les œuvres mixtes en temps réel pour instrument seul », colloque international Analyser les musiques mixtes, Paris (Ircam), 5-6 avril 2012.
[Féron12d] Féron, F.X., « The use of spectrograms’ transcriptions by Gérard Grisey : Retracing the creative process of the spectral polyphony in Modulations (1976-77) », conférence internationale Sacher Perspectives : Musicology at the Paul Sacher Foundation – New Directions in Source Study, Cardiff, 16-18 mars 2012.
DO – Direction d’ouvrages ou de revues
2007
[Mathon07b] Mathon, G., Feneyrou, L., Ferrari, G. (éds.), À Bruno Maderna, vol. I, Paris, Basalte Éditeur, 2007.
Nono, L. Écrits (nouvelle édition de L. Feneyrou), Genève, Contrechamps, 2007, avec CD.
2008
[Despoix08b] Despoix, Ph., Donin, N. (éds.), Revue de Synthèse, 2008, t. 129, 6e série, n° 2 : Les moyens techniques de l’art. 1. Portée de la sociologie musicale de Max Weber.
[Despoix08c] Despoix, Ph., Donin, N. (éds.), Revue de Synthèse, 2008, t. 129, 6e série, n° 3 : Les moyens techniques de l’art. 2. Max Weber à l’épreuve d’un siècle d’histoire musicale.
[Donin08i] Donin, N., Theureau, J. (éds.), Circuit: Musiques contemporaines, 2008, vol. 18, n° 1 : La fabrique des œuvres.
2009
[Campos09a] Campos, R., Donin, N. (éds.), L’analyse musicale, une pratique et son histoire, Genève, Droz-Conservatoire de Genève, 2009.
[Mathon09a] Mathon, G., Feneyrou, L., Ferrari, G. (éds.), À Bruno Maderna, vol. II, Paris, Basalte Éditeur, 2009.
2010
[Donin10i] Donin, N., « Composer », Genesis: Revue internationale de critique génétique, 2010, n° 31
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2009
[Theureau09a] Theureau, J., Le cours d’action : Méthode réfléchie, Toulouse, Octares, 2009.
OS-C – Chapitres d’ouvrages
2007
[Donin07a] Donin, N., Theureau, J., « Annotation de la partition par le musicien et (re)distribution de son attention en situation de répétition », Annotations dans les documents pour l’action (Salembier, P., Zacklad, M., éds), Hermes Lavoisier, Londres-Paris, 2007, pp. 173-204.
[Feneyrou07b] Feneyrou, L., « Bruno Maderna, musicien de la vie », À Bruno Maderna, vol. I (Mathon, G., Feneyrou, L., Ferrari, G., éds.), Paris, Basalte Éditeur, 2007, pp. 437-457.
[Mathon07a] Mathon, G., Feneyrou, L., Ferrari, G., « Aimer Maderna », À Bruno Maderna, vol. I (Mathon, G., Feneyrou, L., Ferrari, G., éds.), Paris, Basalte Éditeur, 2007, pp. 5-14.
2008
[Feneyrou08a] Feneyrou, L., « En deçà de l’écoute. Claude Régy, metteur en scène d’œuvres lyriques », Claude Régy (Mervant-Roux, M.-M., éd.), Paris, CNRS Editions, 2008, pp. 332-345.
[Feneyrou08b] Feneyrou, L., « Le texte “utopie de la voix…”, variations sur la conférence de Luigi Nono (et Helmut Lachenmann) “Texte – Musique – Chant” », Les relations texte-musique, prospective et exemples de recherches (Reibel, E., éd.), Paris, Observatoire Musical Français, 2008, pp. 115-132.
2009
[Campos09b] Campos, R., Donin, N., « Wagnérisme et analyse musicale. L’émergence de nouvelles pratiques savantes de lecture et d’écoute en France à la fin du XIXe siècle », L’analyse musicale, une pratique et son histoire (Campos, R., Donin, N., éds), Genève, Droz-Conservatoire de Genève, 2009, pp. 35-80.
[Donin09a] Donin, N., « Analyser l’analyse ? », ibid., pp. 13-33.
[Donin09c] Donin, N., « Genetic Criticism and Cognitive Anthropology: A Reconstruction of Philippe Leroux's Compositional Process for Voi(rex) », Genetic Criticism and the Creative Process: Essays from Music, Literature, and Theater, ed. Kinderman & Jones. (Rochester University Press, Rochester), 2009, pp. 192-215
[Feneyrou09a] Feneyrou, L., « Le Maigre et le Mort : à propos des Dits de Péter Bornemisza de György Kurtág », Ligatures: La pensée musicale de György Kurtág, ed. Pierre Maréchaux, Grégoire Tosser. (Presses universitaires de Rennes, Rennes), 2009, pp. 35-49
[Feneyrou09b] Feneyrou, L., « Hyperion de Bruno Maderna et sa matrice hölderlinienne », Dramaturgie et musique, ed. Bérangère Mauduit. (Observatoire Musical Français, Paris), 2009, pp. 83-91
[Feneyrou09c] Feneyrou, L., « De vinculis in genere », A Bruno Maderna, ed. Mathon, Feneyrou & Ferrari. (Basalte, Paris), 2009, pp. 5-16
[Feneyrou09d] Feneyrou, L., « Solo / tutti. Introduction à cinq concertos de Bruno Maderna », A Bruno Maderna, ed. Mathon, Feneyrou & Ferrari. (Basalte, Paris), 2009, pp. 179-268
[Feneyrou09e] Feneyrou, L., « Aulos et mandoline. Coda sur l'œuvre soliste de Bruno Maderna », A Bruno Maderna, ed. Mathon, Feneyrou & Ferrari. (Basalte, Paris), 2009, pp. 257-268
[Feneyrou09f] Feneyrou, L., Mathon, G., Ferrari, G., « ..doué comme un diable.. Entretien avec Pierre Boulez », A Bruno Maderna, ed. Mathon, Feneyrou & Ferrari. (Basalte, Paris), 2009, pp. 557-561
[Theureau09e] Theureau, J., « Comment l'interdisciplinarité peut-elle être un rassemblement fécond des ignorants ? », Le transfert des connaissances en questions, ed. Albaladejo, Geslin, Magda, Salembier. (Quae, Versailles), 2009, pp. 121-139
2010
[Feneyrou10e] Feneyrou, L., « Debussy au miroir des écrits de Boulez », La Pensée de Pierre Boulez à travers ses écrits, ed. Goldman, Nicolas, Nattiez. (Delatour France, Sampzon), 2010, pp. 161-176
[Feneyrou10f] Feneyrou, L., « Violences musicales, violences politiques », Représentation et politique, ed. Jean-François Robic. (L'Harmattan, Paris), 2010, pp. 55-70
[Feneyrou10g] Feneyrou, L., « Mais ici finit l'utopie. Sur le Prometeo de Luigi Nono », Musique et Utopie (Cité de la musique), 2010, pp. 17-25
[Feneyrou10h] Feneyrou, L., « Aux sources du réalisme socialiste », Lénine, Staline et la musique, ed. Huynh. (Cité de la musique), 2010, pp. 141-179
[Feneyrou10i] Feneyrou, L., « Révolutions et terreur musicales », Luigi Nono : studi, edizione, testimonianze, ed. Luca Cossettini. (LIM, Lucques), 2010, pp. 85-104
[Feneyrou10j] Feneyrou, L., « Sub caelo. L'Ecclésiaste, 3, 11, selon Bernd Alois Zimmermann », Religiosité et musique au XXe siècle, ed. Nathalie Ruget. (Observatoire Musical Français), 2010, pp. 91-104
[Feneyrou10k] Feneyrou, L., Schweyer, B., « ..œuvres et jours.. », Œuvres et jours de Louis Saguer, ed. Feneyrou, Schweyer. (Basalte), 2010, pp. 17-54
[Feneyrou10l] Feneyrou, L., Schweyer, B., « Critiques, hommages et analyses », Œuvres et jours de Louis Saguer, ed. Feneyrou, Schweyer. (Basalte), 2010
2011
[Feneyrou11e] Feneyrou, L., « …les fertilités prendront le visage du destin… Michel Foucault et Jean Barraqué », Foucault, ed. Frédéric Gros, Philippe Artières, Jean-François Bert et Judith Revel. (L'Herne, Paris), 2011, pp. 268-270
[Feneyrou11f] Feneyrou, L., « Trois métamorphoses », Musique, corps, âme, ed. Alain Arnaud. (Cité de la musique, Paris), 2011, pp. 111-122
[Feneyrou11g] Feneyrou, L., « Trois thèses sur l’instrumental selon Brice Pauset », Manières de faire des sons (L'Harmattan, Paris), 2011, pp. 173-190
2012
[Feneyrou12b] Feneyrou, L., « Deux ou trois manières de faire table rase – et autant de retomber sur ses pieds », Musique, mémoire et création (A. Arnaud, éd.), Paris, Cité de la musique, 2012, p. 38-47.
PV-A – Articles de vulgarisation
2007
Donin, N., « Études d’aujourd’hui. Un genre d’exploration », L’étincelle, le journal de la création à l’Ircam, n° 2, 2007, p. 33-34. En ligne à http://etincelle.ircam.fr/654.html
Donin, N., « Chronophagies – une chronologie », L’étincelle, le journal de la création à l’Ircam, n° 3, 2007, p. 16-17.
2011
[Feron11a] Féron, F.X., « L’exploration musicale de phénomènes (psycho)acoustiques », Marc-André Dalbavie - Color, ed. Cécile Reynaud. (CNDP), 2011, pp. 49-52
AP – Autres productions: bases de données, logiciels enregistrés, traductions, comptes rendus d’ouvrages, rapports de fouilles, guides techniques, catalogues d’exposition, rapports intermédiaires de grands projets internationaux, etc.
2007
Donin, N., Goldszmidt, S., Theureau, J., Un parcours interactif dans Voi(rex) de Philippe Leroux, Paris, Ircam, 2007 (DVD-Rom subventionné par la région PACA dans le cadre du projet Musique Lab 2).
Ducreux, E., Donin, N., Goldszmidt, S., Un parcours interactif dans les Variations op. 27 d’Anton Webern, Paris, Ircam, 2007 (CD-Rom subventionné par la région PACA dans le cadre du projet Musique Lab 2).
Feneyrou, L. et Donin, N., « Michael Jarrell : Parcours de l’œuvre », notice de B.r.a.h.m.s. [Base de documentation sur la musique contemporaine], fiche HYPERLINK "http://brahms.ircam.fr/index.php?id=3786"http://brahms.ircam.fr/index.php?id=3786
2008
Donin, N. et Escama, L., océan de Philippe Maintz, court-métrage (série Images d’une œuvre, n° 3), janvier 2008.
Donin, N. et Martin, B., Dans le mur de Georges Aperghis, court-métrage (série Images d’une œuvre, n° 4), mars 2008.
Donin, N., Compte rendu de : Stefano Gervasoni, Antiterra, Paris, æon (AECD 0866), 2008 ; Dissonanz / Dissonance, n° 130, décembre 2008, p. 52.
Dupont, M., Compte rendu de : Jonathan Sterne, The Audible Past. Cultural Origins of Sound Reproduction, Durham, Duke University Press, 2003 ; Revue de Synthèse, t. 129, n° 3, 2008, pp. 461-463.
Dupont, M. et Polidor, J., Deux Caprices pour percussion de Luis Naon, court-métrage (série Images d’une œuvre, n° 5), novembre 2008.
Feneyrou, L., notices dans la base B.r.a.h.m.s. [Base de documentation sur la musique contemporaine] :
- « Morton Feldman » : Biographie – Bibliographie – Discographie – Parcours de l’œuvre – Catalogue des œuvres, HYPERLINK "http://brahms.ircam.fr/morton-feldman"http://brahms.ircam.fr/morton-feldman
- « Brice Pauset  » : Biographie – Bibliographie – Discographie – Parcours de l’œuvre – Catalogue des œuvres, HYPERLINK "http://brahms.ircam.fr/brice-pauset"http://brahms.ircam.fr/brice-pauset
2009
[Barraque09a] Barraqué, J., « Sonate pour violon seul », Sonate pour violon seul (Bärenreiter, Kassel), 2009
Donin, N., et Martin, B., L'«électronique de chambre» de Marco Stroppa », court-métrage (série Images d’une œuvre, n° 7, version 2), 2009. [Lachenmann09a] Lachenmann, H., « Sur Schoenberg », Ecrits et entretiens, ed. Kaltenecker & Albèra, eds. (Contrechamps, Genève), 2009
[Dupont09a] Dupont, M., « Interpréter, ou l'intervention des instrumentistes sur un texte », publication multimédia sur le site apm.ircam.fr, 2009
2010
[Donin10c] Donin, N., « Compte rendu des Actes du colloque de 2005 : Emmanuelle Rix et Marcel Formosa, éds., Vers une sémiotique générale du temps dans les arts, Paris-Sampzon, Ircam-Delatour France, collection Musique/Sciences, 2008, 340 p. + CD-Rom », Musimédiane, 2010, n° 5
Feneyrou, L. et Martin, B., Le Père de Michael Jarrell, court-métrage (série Images d’une œuvre, n° 8), 2010.
[Feneyrou10c] Feneyrou, L., « Luigi Dallapiccola. Parcours de l'œuvre », BRAHMS, 2010
[Feneyrou10d] Feneyrou, L., « Feneyrou, Compte rendu de Gérard Grisey, Ecrits ou l’invention de la musique spectrale (Paris, MF) », Nutida Musik, 2010, vol. 2010, n° 3
[Saguer10a] Saguer, L., « Œuvres et jours », Œuvres et jours, ed. Feneyrou, Schweyer. (Basalte), 2010
[Sprenger-Ohana10a], Sprenger-Ohana, N., « Parcours exploratoire dans Concerto d'Elvio Cipollone », analyse musicale en ligne, http://apm.ircam.fr/parcours_exploratoire/
2011
Donin, N., et Martin, B., Quartett de Luca Francesconi », court-métrage (série Images d’une œuvre, n° 11), 2011.
Donin, N., et Martin, B., « Luna Park de Georges Aperghis », court-métrage (série Images d’une œuvre, n° 13), 2011.
[Feneyrou11c] Feneyrou, L., « Jean Barraqué, Ecce videmus eum », Jean Barraqué, Ecce videmus eum (Bärenreiter, Kassel), 2011
[Feneyrou11d] Feneyrou, L., « Jean Barraqué, La nature s’est prise aux filets de ta vie », Jean Barraqué, La nature s’est prise aux filets de ta vie (Bärenreiter, Kassel), 2011
2012
Donin, N., et Martin, B., « Assemblage de Roque Rivas », court-métrage (série Images d’une œuvre, n° 15), 2012.
[Feneyrou 12a] Feneyrou, L., « Jean Barraqué, Trois Mélodies » (Bärenreiter, Kassel), 2012, 28 p.
[Sciarrino12a] Sciarrino, S., Origine des idées subtiles (trad. Feneyrou, L.), Paris, L’Itinéraire, 2012, 74 p.
Prix et distinctions
2007
Prix des Muses (SACEM-ACDA) à L. Feneyrou pour l’édition de Manzoni, G., Écrits, Paris, Basalte, 2006.
2008
Prix des Muses (SACEM-ACDA) à L. Feneyrou pour À Bruno Maderna, vol. I, Paris, Basalte, 2007, et pour l’édition de Nono, L. Écrits, Genève, Contrechamps, 2007.
Prix de l’Académie Charles-Cros à N. Donin, S. Goldszmidt, J. Theureau pour le DVD-Rom Un parcours interactif dans Voi(rex) de Philippe Leroux, Paris, Ircam, 2007.
Equipe Interactions musicales temps réel

ACL - Articles dans des revues à comité de lecture répertoriées
2007
[Schwarz07a] Schwarz, D. « Corpus-Based Concatenative Synthesis, assembling sounds by content-based selection of units from large sound databases», IEEE Signal Processing, Mars 2007, vol. 24, n° 2, p. 92-104
[DeLahunta07a] deLahunta, S., Bevilacqua, F.« Sharing Descriptions of Movement », International Journal of Performance and Digital Media, vol. 1, n° 3, 2007
2008
[Rasamimanana09b] Rasamimanana, N., Bevilacqua, F. « Effort-based analysis of bowing movements: evidence of anticipation effects », The Journal of New Music Research, 2008, vol. 37, n° 4, pp. 339-351.
2009
[Cont09a] Cont, A., « A coupled duration-focused architecture for realtime music to score alignment », IEEE Transaction on Pattern Analysis and Machine Intelligence, Juin 2010, vol. 32, n° 6, pp. 974-987
[Rasamimanana09c] Rasamimanana, N., Kaiser, Bevilacqua F.«Perspectives on gesture-sound relationships informed from acoustic instrument studies », Organised Sound, 2009, vol. 14, n° 2, pp. 208-216
2010
[Bloit10a] Bloit, J., Rasamimanana, N., Bevilacqua, F., « Modeling and segmentation of audio descriptor profiles with Segmental Models », Pattern Recognition Letters, 2010, Vol 31, n°12, pp 1507-1513
[Bonardi10b] Bonardi, A., Rousseaux, F., « Interactions médiatisées sur scène », Technique Et Science Informatiques, Décembre 2010, vol. 29, n° 8, pp. 871-898
2012
[Caramiaux12a] Caramiaux, B., Wanderley, M., Bevilacqua, F., « Segmenting and Parsing Instrumentalists' Gestures », Journal of New Music Research, Avril 2012, vol. 1, n° 41, pp. 13-29
[FdiliAlaoui12a] Fdili Alaoui, S., Bevilacqua, F., Bermudez, B., Jacquemin, C., « Dance Interaction with physical model visualization based on movement qualities », International Journal of Arts and Technologies, 2012
[Bevilacqua12a] Bevilacqua, F., Baschet, F., Lemouton, S., « The Augmented String Quartet: Experiments and Gesture Following », Journal of New Music Research, 2012, vol. 1, n° 41, pp. 103-119
[Rasamimanana12b] Rasamimanana, N., « Towards a Conceptual Framework for Exploring and Modelling Expressive Musical Gestures », Journal of New Music Research,, 2012, vol. 1, n° 41, pp. 3-12
ACLN - Articles dans des revues à comité de lecture non répertoriées
2011
[Bermudez11a] Bermudez, B., DeLahunta, S., Hoogenboom, M., Ziegler, C., Bevilacqua, F., Fdili Alaoui, S., Meneses Gutierrez, B., « The Double Skin/Double Mind Interactive Installation », The Journal for Artistic Research (JAR), Janvier 2011
[Bonardi11d] Bonardi, A., Rousseaux, F., Schwarz, D., Roadley, B., « La collection numérique comme modèle pour la synthèse sonore, la composition et l’exploration multimédia interactives », Revue Musimédiane, Juin 2011, n° 6
ASCL - Articles dans des revues sans comité de lecture
2011
[Guedy11a] Guédy, F., « L’expérimentation musicale et pédagogique sur le geste de l’Atelier des Feuillantines avec l’équipe Interaction Musicale Temps Réel de l’Ircam », L’Education Musicale, 2011, http://www.leducation-musicale.com/ircam.pdf
C-INV – Conférences invitées dans des congrès nationaux et internationaux
2007
Bevilacqua, F, invited seminar at PAGANINIANA 2007, October 16, Genova,
2008
Bevilacqua, F, Invitation to the Panel “Research directions in active listening and embodied music cognition”, International Conference on New Interfaces for Musical Expression (NIME 08) Genova 2008
Schwarz, D., invitation to the Panel "The Hungry Music Monster: How High Performance Computing will Change the Face of Music", Supercomputing 2008, Austin, Texas, 16–21. Nov
Bevilacqua, F, Présentation invitée au Yamaguchi Center for Arts and Media (YCAM), Japan, 2008
2009
Bevilacqua, F, Présentation invitée à EMPAC, Experimental Media and Performing Arts Center (EMPAC) Rensselaer Polytechnic Institute USA 2009
Bevilacqua, F., Schnell, N., Fdili Alaoui, S., workshop invité « Motion/Gesture Capture: Tools and Applications in Dance and Music », colloque international Tanzkongress 1009, Kampnagel, Hamburg/Allemagne, novembre 2009
Cont, A.,Towards effortless complexity in computer music( Centre Pompidou, Colloque Complex Systems, France, 2009
Schwarz, D., invited presentation  Current research and applications at the Real-Time Music Interaction Team , festival « Earzoom », IRZU, Ljubljana, Slovenie, 29. May 2009
2010
Schnell, N., participation à la table ronde « Tools for Music or Music for Tools? », International Conference on Sound ans Music Computing (SMC), juillet 2010
Schnell, N., conférence invitée « Playing and Replaying – Sound and Music Analysis/Resynthesis and Gestural Embodiment in the Development of Interactive Music Medias » et participation à la table ronde, colloque international « Interpretationsforschung 2010 – Methoden computergestützter Analyse im Kreuzverhör der Disziplinen », Staatliches Institut für Musikforschung, Berlin, novembre 2010
Bevilacqua, F., conférence invitée dans la série de séminaires "Le geste comme langage", IRI-Centre Pompidou, 2010
Bevilacqua, F. Keynote speaker à la conférence at SEAM 2010 (Somatic Embodiment, Agency & Mediation in Digital Mediated Environments): Agency & Action - Seymour Centre - Sydney, 2010
Cont, A., Musical Synchrony ( in HYPERLINK "http://idea.ed.ac.uk/future/"Seven Keys to the Digital Future, co-organisé par le Collège de France & Scottish Royal Academy, 2010.
Cont, A., From composition to performance, Time in computer music languages: Symposium international Modèle/prototype/oeuvre, Ircam-Centre Pompidou, Cité des Sciences, 2010
2011
Schnell, N., Suarez Cifuentes, M. A., Pascal M., conférence invitée « Approches technologiques au geste instrumental acoustique », 14èmes Rencontres Architecture Musique Ecologie (RAME), Martigny/Suisse, aout 2011
Schnell, N., conférence invitée (keynote), Symposium of Image, Signal Processing, and Artificial Vision (STSIVA) 2011, Univerisité Javeriana de Cali/Columbie, septembre 2011
Bevilacqua, F. Conférence invitée, Electronic Music Week, Shanghai Music Conservatory, October 2011
Bevilacqua, F. Conférence à la conférence MiPP Motion Capture Workshop - University of Sussex July 7th-8th
2012
Schnell, N., conférence invitée « Gestural Re-Embodiment of Digitized Sound and Music » et participation à la table ronde, Workshop M.I.R. and Creation, Ircam, Paris, juin 2012
Schwarz, D., Invited presentation "Gestural interaction with digital media for music, dance, and installation: Current work of the IMTR team at Ircam" 11 May 2012, Culture Lab, Newcastle University, UK
C-ACTI- Communications avec actes dans un congrès international
2007
[Bevilacqua07a] Bevilacqua, F., Guédy, F., Fléty, E., Leroy, N.,Schnell, N. « Wireless sensor interface and gesture-follower for music pedagogy », International Conference on New Interfaces for Musical Expression, New York, 2007
[Cont07d] Cont, A..,« Real-time Transcription of Music Signals : MIREX2007 Submission Description », ISMIR 2007 / MIREX 2007, Vienna, 2007
[Cont07b] Cont A, Dubnov, S., Wessel D.« Realtime Multiple-pitch and Multiple-instrument Recognition For Music Signals using Sparse Non-negative Constraints », Digital Audio Effects (DAFx), Bordeaux, 2007
[Cont07e] Cont, A., Schwarz, D., Schnell, N., Raphael, C., Evaluation of Real-Time Audio-to-Score Alignment. International Conference on Music Information Retrieval (ISMIR), Vienna, Septembre 2007, p. 315-316
[Guedy07b] Guédy, F., Leroy, N., Bevilacqua, F., Grosshauser, T., Schnell, N., « Pedagogical experimentation using the Sound and Gesture Lab », 3rd I-MAESTRO Workshop, Barcelone.
[Jensenius07a] Jensenius A. R., Camurri A., Castagné N., Maestre E., Malloch J., McGilvray D., Schwarz D., Wright M., Panel: The Need Of Formats For Streaming And Storing Music-Related Movement And Gesture Data, International Computer Music Conference (ICMC). Copenhagen, Août 2007, vol. II, p. 13-16
[Jensenius07b] Jensenius A. R., Camurri A., Castagné N., Maestre E., Malloch J., McGilvray D., Schwarz D., A Summary of Formats for Streaming and Storing Music-Related Movement and Gesture Data, ENACTIVE/07 4th International Conference on Enactive Interfaces. Grenoble, Novembre 2007
[Ng07a] Ng K., Larkin O., Koerselman T., Ong B., Schwarz D., Bevilacqua F., “The 3D Augmented Mirror: Motion Analysis for String Practice Training”, International Computer Music Conference (ICMC). Copenhagen, Août 2007, vol. II, p. 53-56
[Thiebaut07a] Thiebaut, J. B., Bello Juan Pablo, Schwarz, D., How Musical are Images? From Sound Representation to Image Sonification: An Eco Systemic Approach. International Computer Music Conference (ICMC). Copenhaguen : Août 2007, vol. 1, p. 183-187
2008
[Cont08a] Cont. A., ANTESCOFO: Anticipatory Synchronization and Control of Interactive Parameters in Computer Music, In Proceedings of International Computer Music Conference (ICMC), August 2008.
[Maniatakos08a] Maniatakos, V.-F. , Jacquemin, C. "Towards an affective gesture interface for expressive music performance ", New Interfaces for Musical Expression conference (NIME 08), Genova, Italy, 2008.
[Grosshauser08a] Grosshauser T., Schwarz D., Schnell N., Seeing the Inaudible, descriptors for generating objective and reproducible data in real-time for musical instrument playing standard situations. Audio Engineering Society Convention (AES), Amsterdam, Mai 2008
[Schwarz08c] Schwarz D., Cadars S., Schnell N., What Next? Continuation in Real-Time Corpus-Based Concatenative Synthesis, International Computer Music Conference (ICMC), Belfast, Août 2008
[Koerselman08a] Koerselman T., Larkin O., Ong B., Leroy N., Lambert J.-P., Schwarz D., Guédy F., Schnell, N., Bevilacqua, F., Ng K., “SDIF Integration in i-Maestro Gesture Tools”. 4th i-Maestro Workshop on Technology-Enhanced Music Education,: Juin 2008, p. 15-20
[Rasamimanana08b] Rasamimanana, N., Guédy, F. Schnell, N., Lambert, J.-P.,Bevilacqua, F. « Three Pedagogical Scenarios using the Sound and Gesture Lab », 4th i-Maestro Workshop on Technology Enhanced Music Education, 2008
2009
[Bonardi09a] Bonardi, A., Truck, I., « Designing a libray for computing [performances] with words », 4th International Conference on Intelligent Systems and Knowledge Engineering, Hasselt, 2009, pp. 40-45
[Schwarz09a] Schwarz, D., Schnell, N., Gulluni, S. « Scalability in Content-Based Navigation of Sound Databases », International Computer Music Conference (ICMC), Montreal, 2009
[Schwarz09b] Schwarz, D., Schnell, N. « Sound Search by Content-Based Navigation in Large Databases », Sound and Music Computing (SMC), Porto, 2009
2010
[Bianco10a] Bianco, T., Wanderley, M., Bevilacqua, F., « Mimicry of tone production: results from a pilot experiment », Sound and Music Computing Conference, Barcelona, 2010
[Caramiaux10c] Caramiaux, B., Bevilacqua, F., Schnell, N., « Analysing Gesture and Sound Similarities with a HMM-based Divergence Measure », Sound and Music Computing conference (SMC2010), 2010
[Einbond10a] Einbond, A., Schwarz, D., « Spatializing Timbre with Corpus-Based Concatenative Synthesis, Wave Field Synthesis, CataRT, Max/MSP », International Computer Music Conference (ICMC), New York, 2010, pp. 72–75
[Tremblay10a] Tremblay, P., Schwarz, D., « Surfing the Waves: Live Audio Mosaicing of an Electric Bass Performance as a Corpus Browsing Interface », New Interfaces for Musical Expression (NIME), Sydney, 2010, pp. 447-450
[Bonardi10a] Bonardi, A., Truck, I., « Introducing Fuzzy Logic And Computing With Words Paradigms In Realtime Processes For Performance Arts », International Computer Music Conference, New York & Stony Brook, 2010, pp. 474-477
[Schnell10a] Schnell, N., Suárez Cifuentes, M., Lambert, J.P., « First Steps in Relaxed Real-Time Typo-Morphological Audio Analysis/Synthesis », Sound and Music Computing conference (SMC), Barcelone, 2010
[Schwarz10a] Schwarz, D., Schnell, N., « Descriptor-based Sound Texture Sampling », Sound and Music Computing conference (SMC), Barcelona, 2010, pp. 510-515
[Schwarz10b] Schwarz, D., Schnell, N., « A Modular Sound Descriptor Analysis Framework for Relaxed-real-time Applications », International Computer Music Conference (ICMC), New York, 2010, pp. 76–79
2011
[Caramiaux11b] Caramiaux, B., Bevilacqua, F., Schnell, N., « Sound Selection by Gestures », New Interfaces for Musical Expression (NIME), 2011
[Caramiaux11c] Caramiaux, B., Fdili Alaoui, S., Bouchara, T., Parseihian, G., Rebillat, M., « Gestural Auditory and Visual Interactive Platform », 14th International Conference on Digital Audio Effects (DAFx-11), Paris, 2011
[Einbond11a] Einbond, A., Schwarz, D., « Corpus-Based Concatenative Synthesis: Perceptual Descriptors as an Approach to Composing and Analyzing Timbre », Crossing the Corpus Callosum II: Neuroscience, Healing & Music, Cambridge, MA, 2011
[FdiliAlaoui11a] Fdili Alaoui, S., Caramiaux, B., Serrano, M., « From Dance to Touch: Movement Qualities for Interaction Design », Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems CHI 2011, extended abstract, pp. 1465-1470.
[Flety11a] Flety, E., Maestracci, C., « Latency improvement in sensor wireless transmission using IEEE 802.15.4 », NIME 2011, vol. 1, OSLO, 2011, pp. 409-412
[Delprat11a] Delprat, N., Leroux, C., Fdili Alaoui, S., « In the clouds : virtual experience of a matter », Proceedings of Virtual Reality International Conference (VRIC 2011), Laval, 2011
[Nymoen11a] Nymoen, K., Caramiaux, B., Kozak, M., Torresen, J., « Analyzing Sound Tracings - A Multimodal Approach to Music Information Retrieval », ACM Multimedia, Workshop MIRUM, 2011
[Ding11a] Ding, H., Schwarz, D., Jacquemin, C., Cahen, R., « Spatial Audio–Graphic Modeling for X3D », Web3D, Paris, 2011
[Lallemand11a] Lallemand, I., Schwarz, D., « Interaction-optimized Sound Database Representation », DAFx, Paris, 2011, pp. 292–299
[Schnell11b] Schnell, N., Bevilacqua, F., Rasamimanana, N., Bloit, J., Guedy, F., Flety, E., « Playing the MO – Gestural Control and Re-Embodiment of Recorded Sound and Music »,NIME, Oslo, 2011
[Schwarz11a] Schwarz, D., « Distance Mapping for Corpus-Based Concatenative Synthesis », Sound and Music Computing (SMC), Padova, 2011
[Schwarz11b] Schwarz, D., Cahen, R., Brument, F., Ding, H., Jacquemin, C., « Sound Level of Detail in Interactive Audiographic 3D Scenes », International Computer Music Conference (ICMC), Huddersfield, 2011, pp. 312–315
[Schwarz11c] Schwarz, D., « State of the Art in Sound Texture Synthesis », Digital Audio Effects (DAFx), Paris, 2011, pp. 221–231
[Schwarz11d] Schwarz, D., Johnson, V., « Corpus-Based Improvisation », (Re)thinking Improvisation, Malmö, 2011
[Rasamimanana11a] Rasamimanana, N., Bevilacqua, F., Schnell, N., Guedy, Maestracci, C. Fléty. E., Zamborlin, B., Petrevsky, P. Frechin J.l., « Modular Musical Objects Towards Embodied Control Of Digital Music », Tangible Embedded and Embodied Interaction, 2011
2012
[Einbond12a] Einbond, A., Trapani, C., Schwarz, D., « Precise Pitch Control in Real Time Corpus-Based Concatenative Synthesis », International Computer Music Conference (ICMC), Ljubljana, 2012
[FdiliAlaoui12b] Fdili Alaoui, S., Caramiaux, B., Serrano, M., Bevilacqua, F., « Movement Qualities as Interaction Modality », Designing Interactive Systems (DIS'2012), Newcastle, 2012
[Francoise12a] Françoise, J., Caramiaux, B., Bevilacqua, F., « A Hierarchical Approach for the Design of Gesture-to-Sound Mappings », Sound and Music Computing conference SMC2012, Copenhague, 2012
[Lallemand12a] Lallemand, I., Schwarz, D., Artières, T., « Content-based Retrieval of Environmental Sounds by Multiresolution Analysis », Sound and Music Computing conference SMC2012, Copenhague, 2012
[Savary12a] Savary, M., Schwarz, D., Pellerin, D., « DIRTI — Dirty Tangible Interfaces », New Interfaces for Musical Expression (NIME), Ann Arbour, 2012, pp. 347-350
[Schwarz12a] Schwarz, D., « The Sound Space as Musical Instrument: Playing Corpus-Based Concatenative Synthesis », New Interfaces for Musical Expression (NIME), Ann Arbour, 2012, pp. 250-253
[Schwarz12b] Schwarz, D., Hackbarth, B., « Navigating Variation: Composing for Audio Mosaicing », International Computer Music Conference (ICMC), Ljubljana, 2012
[Rasamimanana12a] Rasamimanana, N., Bevilacqua, F., Bloit, J., Schnell, N., Fléty, E., Cera, A., Petrevski, U. Frechin, J.-L., « The urban musical game: using sport balls as musical interfaces »,CHI EA '12 Proceedings of the 2012 ACM annual conference on Human Factors in Computing Systems, 2012
[Kimura12a] Kimura, M., Rasamimanana, N., Bevilacqua, F., Schnell, N., Zamborlin, B., Fléty, E., « Extracting Human Expression For Interactive Composition with the Augmented Violin », International Conference on New Interfaces for Musical Expression (NIME 2012), 2012
C-ACTN- Communications avec actes dans un congrès national
2007
[Jacquemin07a] Jacquemin Christian, Ajaj Rami, Cahen Roland, Ollivier Yoann, Schwarz, D., Plumage: Design d'une interface 3D pour le parcours d'échantillons sonores granularisés. Conférence Francophone sur l'Interaction Homme-Machine IHM. Paris : Novembre 2007
2008
[Schwarz08a] Schwarz D., Cahen R., Britton S., Principles and Applications of Interactive Corpus-Based Concatenative Synthesis, Journées d'Informatique Musicale (JIM). Albi : Mars 2008
2010
[Bevilacqua10a] Bevilacqua, F., Zamborlin, B., Rasamimanana, N., Schnell, N., « Contrôle gestuel continu de médias sonores et visuels », Forum on tactile and gestural interaction, Lille, 2010
C-COM – Communications sans actes dans un congrès international ou national
2010
[Caramiaux10b] Caramiaux, B., Bevilacqua, F., Schnell, N., « Study on Gesture-Sound Similarity », Music and Gesture, Montreal, 2010
[Freour10a] Freour, V., Bianco, T., Cossette, I., « Coordination of facial muscle activation, intraoral pressure and mouthpiece force during trumpet playing: preliminary findings », The 3rd International Conference on Music and Gesture, Montreal, 2010
[Bevilacqua10b] Bevilacqua F., « Following movements in interactive dance installations», Kinesthetic Empathy: Concepts and Contexts. Manchester : 2010
C-AFF – Communications par affiche dans un congrès international ou national
2007
Bevilacqua, F, Poster au Grand Colloque STIC: Projet Interlude. La Villette, Paris, 2007
2008
[Schoonderwaldt08a] Schoonderwaldt E., Demoucron M., Rasamimanana N., A setup for measurement of bowing parameters in bowed-string instrument performance, Acoustics08. Paris : Juin 2008
2009
[Caramiaux09c] Caramiaux, B., Schnell, N., « Similarity Measures between Gesture and Sound », The International Summer School in Systematic, Comparative and Cognitive Musicology, Jyväskylä, 2009
[Caramiaux09e] Caramiaux, B., « Similarités Morphologiques entre Geste et Son et leur Détection Temporelle », JJCAAS (Journées des Jeunes Chercheurs en Acoustique, Auditon et Signal audio), Marseille, 2009
[Dessein09c] Dessein, A., « La géométrie de l'information pour l'analyse et le traitement des flux audio », 5e Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio, Marseille, 2009
2010
[Bianco10b] Bianco, T., « Effects of coarticulation in mimicry of tone production », Journées des Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio JJCAAS, Paris, 2010
[Caramiaux10f] Caramiaux, B., « Modélisation du Geste Musical », Journées des Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio, Paris, 2010
[FdiliAlaoui10a] Fdili Alaoui, S., « Reconnaissance de qualités de mouvement/geste [dansé] et contrôle de modèles physiques pour la pédagogie de la danse », JJCAAS2010, Paris, 2010
2011
[FdiliAlaoui11b] Fdili Alaoui, S., « Gestural Auditory and Visual Interactive Platform », Journées des Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio JJCAAS 2011, 2011
2012
Bevilacqua, F Poster au Grand Colloque STIC: Projet Interlude. Lyon, 2012
OS – Ouvrages scientifiques ou chapitres d’ouvrages
OS-O – Ouvrages scientifiques
2008
[Bonardi08e] Bonardi, A., « Représentations opérationnelles : l'opéra entre Berio et Turing », Représentations opérationnelles, ed. Francis Rousseaux. (Editions Delatour France, Sampzon), 2008
[Cont08b] Cont, A., « Modeling Musical Anticipation: From the time of music to the music of time », thèse de doctorat de l’Université Pierre et Marie Curie (Paris 6) et University of California San Diego (UCSD), 2008
[Rasamimanana08a] Rasamimanana, N., « Geste instrumental du violoniste en situation de jeu : analyse et modélisation », thèse de doctorat de l’Université Pierre et Marie Curie (Paris 6), 2008
2009
[Bonardi08e] Bonardi, A, « Représentations opérationnelles », Edition Delatour, 2008
2011
[Caramiaux11f] Caramiaux, B., « Studies on the Gesture – Sound Relationship for Musical Performance », thèse de doctorat de l’Université Pierre et Marie Curie (Paris 6), 2011
2012
[Bianco12c] Bianco T., Gestural control in trumpet performance: experiments and modeling. », thèse de doctorat de l’Université Pierre et Marie Curie (Paris 6), 2012
OS-C – Chapitres d’ouvrages
2008
[Cahen08a] Cahen R., Jacquemin C., Schwarz D., Navigation et composition dans un univers graphique 3D de grains sonores. Sophie Chauvin. Information & Visualisation: Enjeux, recherches et applications, Toulouse : Cépaduès Editions. 2008, p. 243-268
2009
[Dahl09a] S. Dahl, Bevilacqua, F., Rasamimanana, N., R. Bresin, M. Clayton, L. Leante « Gesture in Performance , Musical Gestures. Sound, Movement, and Meaning», (R. I Godoy and M. Leman editors), Routledge, 2009
[Rasamimanana09a] Rasamimanana, N., Bernardin, D., Wanderley, M., and Bevilacqua, F. « String Bowing Gestures at Varying Bow Stroke Frequencies: A Case Study», Lecture Notes In Artificial Intelligence, 2009, vol. 5085, Springer-Verlag, Berlin, Heidelberg, pp. 216-226.
2010
[Caramiaux09d] Caramiaux, B., Bevilacqua, F., Schnell, N., « Towards a Gesture-Sound Cross-Modal Analysis », Lecture Notes in Computer Science (LNCS), 2010, Volume 5934, Gesture in Embodied Communication and Human-Computer Interaction,pp. 158-170
[Bevilacqua09b] Bevilacqua, F., Zamborlin, B., Sypniewski, A., Schnell, N., Guédy, F., Rasamimanana, N., « Continuous realtime gesture following and recognition », Lecture Notes in Computer Science (LNCS), 2010, Volume 5934, Gesture in Embodied Communication and Human-Computer Interaction, pp. 73-84
2011
[Bevilacqua11a] Bevilacqua, F., Schnell, N., Fdili Alaoui, S., « Gesture capture: Paradigms in interactive music/dance systems », Emerging Bodies, ed. G. Klein and S. Noeth. (transcript Verlag), 2011, pp. 183-193
[Bevilacqua11b] Bevilacqua, F., Schnell, N., Rasamimanana, N., Zamborlin, B., Guédy, F., « Online Gesture Analysis and Control of Audio Processing», Musical Robots and Interactive Multimodal Systems, ed. Jorge Solis and Kia C. Ng. (Springer Verlag), 2011, pp. 127-142
[Bonardi11a] Bonardi, A., « Les Petites Absences. Du théâtre à la musique en passant par l'informatique temps réel », Les interactions entre musique et théâtre, ed. Guy Freixe et Bertrand Porot. (Editions l'Entretemps, Montpellier), 2011, pp. 26-49
[Schnell11a] Schnell, N., Bevilacqua, F., Guedy, F., Rasamimanana, N., « Playing and Replaying – Sound, Gesture and Music Analysis and Re-Synthesis for the Interactive Control and Re-Embodiment of Recorded Music », Klang und Begriff, ed. Heinz von Loesch, Stefan Weinzierl. (Schott Verlag, Mainz), 2011
2012
AP – Autres productions: bases de données, logiciels enregistrés, traductions, comptes rendus d’ouvrages, rapports de fouilles, guides techniques, catalogues d’exposition, rapports intermédiaires de grands projets internationaux, etc.
2007
DVD-ROM interactif "Double Skin/Double Mind Interactive DVD-ROM", C. Ziegler, Bevilacqua, F., E. Mirzabekiantz, M. Bermudez - Produced by Emio Greco | PC and AHK, Amsterdam, the Netherlands.
2008
[Schwarz08b] Schwarz D., Brunet E., the concatenator CD Contributors' Notes. Leonardo Music Journal. Novembre 2008, n° 18
2010
[Caramiaux10d] Caramiaux, B., Bevilacqua, F., Zamborlin, B., Schnell, N., « Mimicking Sound with Gesture as Interaction Paradigm », Internal Technical Report 2010
[SuarezCifuentes10a] Suarez-Cifuentes, M., Schnell, N., « A compositional approach to analysis re-synthesis : composer in research report 2010 », 2010
[Kimura10a] Kimura, M., Rasamimanana, N., Bevilacqua, F., « Extracting Human Expression for Interactive Composition with the Augmented Violin », musical Research Residency Report 2010
[Hackbarth10a] Hackbarth B, Schnell N., Schwarz D., « Audioguide: a framework for creative exploration of concatenative sound synthesis », Musical Research Residency Report 2010
2011
Bevilacqua F., « Projet ANR Interlude - rapport final », 2011
Bevilacqua F., « Projet Urban Musical Game - rapport final », 2011
Prix et distinctions
2007
ICMC Best Presentation Award to Cont, A for « GUIDAGE: A Fast Audio Query Guided Assemblage ». Arshia Cont, Shlomo Dubnov and Gerard Assayag. In Proceedings of International Computer Music Conference (ICMC), September 2007.  [Cont07c]
2009
Prix de thèse ASTI à Cont, A, (Association Française des Sciences et Technologies de l'Information et de la Communication) distingué dans la catégorie "Recherche appliquée innovante"
Prix de thèse Gilles Kahn 2009 à Cont, A, décerné par la SPECIF et patronné par l'Académie des sciences
Best Paper Award de  HYPERLINK "http://smc2009.smcnetwork.org/best-paper-contest" \t "_blank" Sound and Music Computing  2008 l’article "HYPERLINK "http://smc2009.smcnetwork.org/programme/pdfs/221.pdf"Making an Orchestra Speak" by Arshia Cont, Gilbert Nouno, Gregoire Carpentier and Jonathan Harvey..
2011
1er prix du concours international Margaret Guthman Musical Instrument, Interlude consortium, Bevilacqua, F, Bloit J. Schnell, N., Rasamimamana, N., Fléty E., pour « MO Modular Musical Objects ». Ce prix qui récompense la conception de nouveaux instruments de musique, GeorgiaTech, USA, 2011
2e prix du concours international Margaret Guthman Musical Instrument, à Graupner C., Zappalà, R., Schnell, N., Peters, N. pour « MindBox Media Slotmachine ». Ce prix récompense la conception de nouveaux instruments de musique, GeorgiaTech, USA, 2011
2012
« Honourable Mention » pour l’article Fdili Alaoui, S. Caramiaux, B. M. Serrano, Bevilacqua F., “Movement Qualities as Interaction Modality ( ACM Designing Interactive Systems (DIS 2012), Newcastle, UK
Grand Prix du Jury de la conférence Laval Virtual 2012, Interfaces et Matériels pour « Mogees », Zamborlin, B, Schnell, N., Bevilacqua, F., (contrôle de syntèse sonore, basé sur de la reconnaissance de geste sur des signaux de micros de contact)
Nominee in the HYPERLINK "http://www.ictspring.com/european-ict-awards/"European ICT awards, pour pour « Mogees », Zamborlin, B, Schnell, N., Bevilacqua, F., dans la catégorie « innovation of the year »
Sélection du logiciel CataRT, Schwarz,D., par 2 compositeurs de l’initiative « Inventor Composer Coaction », Edinburgh, UK

ANNEXES
Annexe : Projet scientifique général
Le projet scientifique général de l’unité tel qu’il apparaît en annexe de la convention d’UMR liant ses tutelles pour la période 2011-2013 est donné ci-après.

L’UMR STMS se présente, en cohérence avec les missions de l’Ircam dans le cadre de sa tutelle du ministère de la culture et de la communication, comme pôle interdisciplinaire autour des sciences et technologies du son et de la musique. Le laboratoire est rattaché à titre principal au CNRS à l’Institut des sciences de l’information et de leurs interactions (INS2I) et à titre secondaire à l’Institut des sciences de l’ingénierie et des systèmes (INSIS), à l’Institut des sciences humaines et sociales (INSHS) et à l’Institut des sciences biologiques (INSB). A L’UPMC, l’UMR est rattachée à la Faculté d’Ingénierie (UFR919) dans le cadre du pôle Modélisation et Ingénierie.

Cette interdisciplinarité, constitutive de la singularité d’une institution comme l’Ircam au niveau international, se manifeste désormais selon plusieurs aspects:

1- l’interdisciplinarité au sens scientifique, comme articulation de disciplines fournissant différents points de vue complémentaires sur un même objet : la création musicale, et, plus globalement, l’étude des phénomènes sonores et musicaux et les technologies de traitement des informations correspondantes. Cette interdisciplinarité se manifeste dans la coordination par l’Ircam du parcours de Master Atiam (acoustique, traitement du signal et informatique appliqués à la musique) en collaboration avec différents établissements universitaires et laboratoires (rattachement: Université Paris 6). Cette activité se décline en particulier à l’Ircam selon les approches suivantes :
l’étude des phénomènes physiques de production et de propagation du son (acoustique), et leur application à la simulation (synthèse sonore par modélisation physique, spatialisation et acoustique virtuelle et augmentée),
l’étude de procédés d’analyse, de synthèse et de traitement des signaux sonores,
la formalisation informatique des structures musicales et leur manipulation, sous la forme d’environnements et langages informatiques spécialisés pour le traitement des informations musicales
l’étude des problématiques d’interaction homme-machine pour la manipulation des artefacts sonores dans différents contextes dont les arts du spectacle (musique, danse, théâtre, etc.), la réalité virtuelle, etc.
la perception (psychoacoustique) et la cognition humaine dans le contexte de la perception et de la manipulation de processus musicaux, sonores ou multimodaux et leur application au design sonore ;
l’étude des œuvres, et plus largement, du fait musical : musicologie, anthropologie cognitive et sociologie de la musique.

La coordination entre les différents champs disciplinaires concernés s’effectue au sein du laboratoire dans le cadre de thématiques transversales, qui fédèrent les activités des différentes équipes autour de problématiques communes. Pour la période 2011-2013, l’ensemble des recherches relèvent d’une ou plusieurs des quatre thématiques transversales suivantes :
1 - Analyse, traitement et synthèse sonores : Analyse et traitement du signal audio, traitement de la voix, indexation musicale, acoustique musicale et synthèse par modélisation physique, techniques de spatialisation ;
2 - Représentations et langages : Représentations et traitements symboliques, contrôle de la synthèse et de la spatialisation, langages, modèles et paradigmes de programmation;
3 - Interaction musicale, sonore et multimodale : Geste - modélisation, analyse, interaction gestuelle et techniques de synchronisation; interaction à partir de traitements symboliques ;
4 - Fondements cognitifs, théoriques et musicologiques : cognition - psychologie cognitive de l’audition, études expérimentales sur l’interaction sonore et l’interaction multimodale, cognition située des pratiques musicales ; théories sous-jacentes - musique & mathématiques notamment ; musicologie, applications au design sonore et à la documentation des œuvres.

2- l’interdisciplinarité, conformément à la mission originaire de l’Ircam, comme lieu d’échange et de collaboration entre scientifiques et musiciens dans un objectif d’enrichissement mutuel : d’une part les avancées technologiques et scientifiques sont envisagées dans leur contribution possible au renouvellement de l’expression et de la diffusion artistiques; d’autre part ce couplage recherche/création donne lieu à la mise en œuvre d’une dynamique de recherche originale, s’attachant à traiter les questions scientifiques spécifiquement posées par les problématiques de la création et de la pratique musicales. Cette articulation entre recherche et création s’effectue en particulier dans le cadre du développement de logiciels pour la création musicale, sur la base des modèles issus des travaux de recherche de l’UMR. De plus, les nombreuses collaborations industrielles et programmes nationaux et européens effectués par l’Ircam illustrent les différents domaines d’applications concernés par l’expertise ainsi développée, qui dépassent largement le cadre de la création musicale : production et diffusion de contenus musicaux, sonores et audiovisuels, éducation, automobile et transports, télécommunications, jeu, etc.

3 - l’interdisciplinarité au sens artistique, visant à promouvoir l’adaptation de technologies conçues pour la musique à des productions associant d’autres arts du spectacle: danse, opéra, théâtre, cinéma.

Au sein du CNRS, et, plus largement, dans le paysage national, européen et international de la recherche, ce laboratoire se positionne donc selon les éléments de spécificité suivants :
un pôle d’interdisciplinarité très large, qui fédère plusieurs communautés autour d’un objet commun ;
une expertise de pointe sur les technologies du son et de la musique ;
l’inscription d’une activité de recherche au sein d’une institution à vocation culturelle, qui confère à l’Ircam une situation privilégiée pour aborder les mutations en cours de la production et de la diffusion de la musique et du son en rapport avec la généralisation des technologies numériques ;
l’application systématique des recherches effectuées dans le cadre de l’UMR dans une activité de développement logiciel, visant la réalisation d’environnements informatiques pour la création artistique et la production sonore.
une forte activité de valorisation des travaux dans le cadre de projets collaboratifs de recherche et développement aux niveaux régional, national et européen, et de collaborations industrielles et cessions de licences.

Annexe : Règlement intérieur de l’unité


Règlement intérieur de l’Unité Mixte de Recherche UMR 9912
Sciences et Technologies de la Musique et du Son - STMS


Ircam-CNRS UMR 9912



A. ORGANISATION GENERALE : Conseil d’Unité

Le conseil de laboratoire ou de l’Unité : il est présidé par le directeur de l’Unité. Il a un rôle consultatif et émet un avis sur toutes les questions relatives à la politique scientifique, la gestion des ressources, l’organisation et le fonctionnement de l’Unité.
Sa composition et ses modalités de fonctionnement sont prévues en application de la décision CNRS du 28/10/1992 et de celle portant création du conseil de laboratoire du 22/06/05 (DEC050079DR01) annexée au présent règlement intérieur.

B. ORGANISATION DU TRAVAIL : Horaires, congés, absences

L’ensemble des dispositions relatives à cette partie s’applique à tous les personnels CNRS de l’UMR

Les personnels dont la collaboration est régie dans le cadre d’un contrat ou d’une convention avec l’Ircam sont soumis au statut du personnel et au règlement intérieur de l'Ircam (ci-joint en annexe).

Les autres personnels sont soumis aux réglementations de leur organisme d'appartenance

1 - Horaires de travail 

Durée annuelle
La durée annuelle de travail effectif est de 1607 heures. Les modalités de mise en œuvre dans l’Unité pour les agents CNRS prennent en compte les dispositions figurant dans le décret n°2000-815 du 28/08/00, n°2004-1307 du 26/11/04 et du 22/11/05 fixant la journée dite "de solidarité" ainsi que celles énoncées d’une part dans l’arrêté du 31/08/01 et d’autre part dans le cadrage national du CNRS.

Un arrêté ministériel fixe annuellement la journée dite « de solidarité » qui augmente la durée annuelle de travail effectif de sept heures.

Durée hebdomadaire
La durée hebdomadaire du travail effectif pour chaque agent CNRS de l'unité travaillant à plein temps est de 38 heures 30 minutes sur cinq jours.
Les personnels autorisés à accomplir un service à temps partiel d’une durée inférieure ou égale à 80 % peuvent travailler selon un cycle hebdomadaire inférieur à 5 jours.
Le temps de travail correspond à un temps de travail « effectif ». Il ne prend pas en compte la pause méridienne obligatoire qui ne peut être inférieure à 45 minutes ni supérieure à 2 heures.


2 - Horaires journaliers, ouverture du laboratoire, accès aux locaux

La plage horaire de travail de référence commence à 9 h 15 et se termine à 18 h du lundi au vendredi.

La durée quotidienne du travail effectif ne peut excéder dix heures. L'amplitude maximale de la journée de travail ne peut excéder onze heures. Les agents bénéficient d'un repos minimum quotidien de onze heures consécutives.

L'accès aux locaux est normalement possible pour tous les personnels autorisés en dehors de la plage de référence mentionnée ci-dessus.

3 - Congés annuels
Le nombre de jours de congés est de 45 jours ouvrés (c’est-à-dire du lundi au vendredi) par année civile. Il prend en compte le nombre de jours de congés annuels (32 pour les personnels CNRS) et les 13 jours de congés accordés au titre de l’Aménagement de la Réduction du Temps de Travail (jours RTT) compte tenu de la durée hebdomadaire du travail adoptée dans l’Unité.
Les jours RTT sont utilisés dans les mêmes conditions que les jours de congés annuels.

Les personnels peuvent bénéficier de deux jours de fractionnement des congés annuels : 1 jour si l’agent prend 5,6 ou 7 jours en dehors de la période du 1er mai au 31 octobre et de 2 jours si ce nombre est au moins égal à 8 jours.

Les jours de congés sont accordés, après avis du responsable hiérarchique, sous réserve des nécessités de service.

Le report des jours de congés annuels ainsi que les jours RTT non utilisés, est autorisé jusqu’au 28 février de l’année suivante. Les jours qui n’auront pas été utilisés à cette date seront définitivement perdus.

3.1. Compte-épargne temps
En application du décret n° 2002-634 du 29 avril 2002 portant création du compte épargne temps (CET) dans la fonction publique de l'Etat, il est institué un compte épargne temps, dont la circulaire CIR040001DRH du 05/03/2004, annexée au présent règlement intérieur, précise les modalités de sa mise en œuvre.
Ce CET permet à son titulaire d'accumuler des droits à congés rémunérés.
La possibilité de bénéficier d'un CET est ouverte à l'ensemble des personnels (titulaires de l'Etat ou non titulaires ayant accompli plus d'un an de service de manière continue) exerçant leurs fonctions dans l'unité (y compris les agents détachés ou mis à disposition).

3.2. Durée des absences de service pour congés
L’absence de service ne peut excéder 31 jours consécutifs (la durée de l'absence est calculée du premier au dernier jour sans déduction des samedis, dimanches et jours fériés).

3.3. Suivi des congés
Afin de pouvoir adapter l’organisation du travail, chaque collaborateur doit effectuer ses demandes de congé auprès de son responsable direct et du Directeur d'Unité, avec un délai de prévenance de deux à cinq jours pour les congés inférieurs à cinq jours ouvrés et de quinze jours pour un congé supérieur.
Le suivi des congés (annuels et RTT) est réalisé dans l’Unité à l'aide de formulaires prévus à cet effet sous la responsabilité du directeur, et transmis à la délégation (notamment pour la mise en œuvre du CET).

4 - Absence

4.1. Absence pour raison médicale
Toute indisponibilité consécutive à la maladie doit, sauf cas de force majeure dûment être justifiée et signalée au directeur de l’Unité dans les 24 heures. Dans les 48 heures qui suivent l’arrêt de travail, le salarié doit produire un certificat médical indiquant la durée prévisible de l’indisponibilité.
Tout accident corporel survenant dans le cadre de l’activité professionnelle sera immédiatement déclaré auprès de l’Unité.

4.2. Missions
Tout agent se déplaçant pour l’exercice de ses fonctions, doit être en possession d’un ordre de mission établi préalablement au déroulement de la mission. Ce document est obligatoire du point de vue administratif et juridique ; il assure la couverture de l’agent au regard de la réglementation sur les accidents de service.

L’agent amené à se rendre sur un lieu de travail occasionnel hors du périmètre de sa résidence administrative est couvert en cas d’accident du travail sous réserve de remplir l’une des deux conditions suivantes :
être en possession d’un ordre de mission,
avoir une attestation du directeur de laboratoire.


C. FONCTIONNEMENT DE L'UNITE

1 – Accueil de chercheurs invités
L’accueil pour une durée déterminée de chercheurs affiliés à d’autres laboratoires est encouragée pour favoriser les échanges scientifiques. Toute demande d’accueil doit être adressée au moins trois mois avant la date prévue d’arrivée au directeur du laboratoire avec l’avis du responsable de l’équipe concernée et doit comporter un projet de recherche d’au moins une page, élaboré conjointement par le chercheur et son équipe d’accueil, précisant la période de l’accueil, les objectifs scientifiques et les modalités de réalisation du projet de recherche. Sauf exception, tout accueil de chercheur invité devra donner lieu à au moins une publication internationale dans une revue et/ou un congrès à comité de lecture, et à une présentation sous forme de séminaire interne dans le laboratoire.

2 - Diffusion des résultats scientifiques

2.1 Confidentialité
Chacun est tenu de respecter la confidentialité des travaux qui lui sont confiés ainsi que ceux de ses collègues. En particulier, en cas de présentation à l’extérieur, l’autorisation du directeur d’Unité ou du responsable d'équipe est obligatoire.

2.2 Publications
Les publications des membres de l’Unité doivent porter les mentions Ircam-CNRS – STMS.
Toutes les publications doivent être enregistrées sur le serveur de gestion bibliographique de l'unité (http://articles.ircam.fr) dès leur acceptation. Un exemplaire du texte intégral de toutes les publications (articles, revues, thèses…) dont tout ou partie du travail a été effectuée à l’Unité doit être enregistré sous forme numérique dans le serveur bibliographique dès leur finalisation.

Les doctorants et chercheurs associés à l'UMR pour une période limitée (chercheurs invités, professeurs en délégation, chercheurs étrangers, post-docs, etc.), s'engagent à :
effectuer, en fonction de la durée de la collaboration, au moins une à deux soumissions de publications dans des revues internationales à comité de lecture lors de leur présence dans le laboratoire, sauf exception faisant l'objet d'accord explicite,
faire valider leurs publications par le responsable d'équipe ou le directeur du laboratoire même après le départ de l'UMR si les travaux se rapportent partiellement aux recherches effectuées dans le laboratoire,

3 - Hygiène et sécurité
Les locaux alloués à l’UMR sont intégrés aux emprises de l’Ircam, répartis sur 3 bâtiments connexes, globalement classées ERP 3ème catégorie de type L, R, S et W. Ce classement est par ailleurs durci pour tenir compte de sa grande profondeur, le public pouvant accéder à un espace à -16m.

Le Centre Pompidou et l'Ircam (associé au centre) respectent l'ensemble des textes législatifs et réglementaires applicables concernant en particulier la sécurité, l'hygiène et les dispositions relevant également de l'ensemble du Code du Travail.

En particulier, le Centre Pompidou et l'Ircam veillent à la régularité et au suivi des essais périodiques et contrôles sur l'ensemble des installations (sécurité incendie, électricité, moyens de levages, climatisation).

De façon plus spécifique, en collaboration avec son Comité d'Hygiène et de Sécurité, l'Ircam cherche à améliorer les conditions de travail de ses collaborateurs par des actions correctives ou des modifications environnementales ou fonctionnelles. Un système de fiches, disponibles auprès du Service des Ressources Humaines et sur Intranet fait le point sur chaque problème ou difficulté rencontré et le traitement ou solution apporté.

Tout personnel de l’UMR doit, pour pouvoir accéder aux locaux, être doté d’un badge en cours de validité délivré par l’administration de l’Ircam.


4 - Formation
Le plan de formation de l’unité est soumis pour avis au conseil de laboratoire. Le correspondant de formation de l'unité conseille les personnels pour leurs besoins et demandes de formation. Il participe à l'élaboration du plan de formation de l'unité.

5 - Utilisation des moyens informatiques
L’utilisation des moyens informatiques est soumise à des règles explicitées dans la charte informatique concernée (CNRS). Cette charte est avant tout un code de bonne conduite. Elle a pour objet de préciser la responsabilité des utilisateurs, en accord avec la législation, et doit être signée par tout nouvel arrivant.
La charte informatique du CNRS est annexée au présent règlement intérieur.

6 – Utilisation des ressources techniques collectives
Conditions et règles d’utilisation des équipements et moyens collectifs ou mutualisés :
Médiathèque de l’Ircam : voir règlement en annexe.

Liste des annexes
Décision de création du conseil d'unité
Règlement intérieur de l’Ircam
Circulaire CET
Charte informatique du CNRS
Règlement de la médiathèque de l'Ircam


Le Directeur d'unitéLe Délégué régional de Paris ALe directeur de l’Ircam





Hugues Vinet





Tony ROULOT





Frank Madlener
Annexe : Hygiène et sécurité
Les activités étant accueillies dans des locaux gérés par l’Ircam et le Centre Pompidou, c’est le Service Régie Bâtiment et Sécurité de l’Ircam qui est responsable du respect des normes et procédures dans l’UMR en matière d’hygiène et sécurité, et son responsable M. Georges-Elie Giscard, est l’ACMO de l’UMR.

Sous l'autorité de l'Administrateur général de l’Ircam, il veille au respect des règles, normes et prescriptions, aux contrôles réglementaires en liaison avec le Centre Pompidou agissant comme un prestataire en matière de Sécurité.

Le Service Régie Bâtiment et Sécurité est également un acteur de la prévention et assure l'élaboration et le suivi du document unique pour l'Ircam, en liaison étroite avec le CHSCT.
Il œuvre à l’amélioration des conditions de travail.

De ce point de vue et en exemple, une analyse sur incident au cours de la période du bilan de l’atelier mécanique a permis de reconsidérer globalement le poste et les méthodes de travail autour de la problématique d’hygiène et de sécurité ;
Toutes les machines ont été rendues conformes au dernières normes et exigences de sécurité et font l’objet d’un contrôle régulier ;
Les circuits de climatisation (soufflage et extraction) ont été dissociés et permettent une alimentation continue en tout air neuf ; chaque circuit est équipé d’un contrôle visuel permettant au technicien d’apprécier l’état de son installation. Un voyant rouge (signal d’un dysfonctionnement) l’invite à appliquer une procédure simple et efficace : quitter l’atelier et prévenir. Seul le rétablissement de la situation normale autorise le retour au poste de travail.
Pour les besoins de moulage notamment, l’atelier a été équipé d’une large table de travail avec hotte à aspiration frontale et d’un système de réglage (par l’utilisateur) de la forte dépression.
Le technicien est pourvu d’un dispositif d’alerte porté de type travailleur isolé (avec détection de la position horizontale) dont le déclenchement provoque automatiquement la saisie du service de sécurité (24/24 et 7/7). Le système fait l’objet de tests et d’essais semestriels.
Les produits gérés via leur FDS et les préconisations d’utilisation (liste soumise au médecin du travail) sont stockés à l’extérieur de l’atelier, dans une armoire spécifique).
Les projets font l’objet d’un fiche/procédure d’évaluation de la faisabilité sous l’angle de l’hygiène et de la sécurité.

Le sujet en cours d’étude, dans le cadre des équipes d’acoustique, porte sur l’accessibilité des installations de la chambre anéchoïque par le technicien en charge de leurs configurations.

Le Service Régie Bâtiment et Sécurité assure aussi la réalisation de plans de prévention avec les entreprises extérieures et participe à l’élaboration de ceux, généraux, du Centre Pompidou lorsqu’ils sont susceptibles d’une interaction avec l’institut (au total près d’une quarantaine par an).

Une part importante est consacrée à l’information des collaborateurs en matière d’hygiène, de sécurité et de conditions de travail, via l’intranet de l’Ircam et les diffusions par courriels. De plus chaque nouvel arrivant reçoit au minimum une fiche papier (français ou anglais) indiquant le nécessaire à sa sauvegarde en cas d’alerte.

Le personnel et les collaborateurs ont connaissance de tous les enjeux d’hygiène, de sécurité et de conditions de travail de l’Ircam, en particulier des grands thèmes existants en cours de traitement comme l’amiante, l’accessibilité aux handicapés, l’amélioration de la climatisation, etc.

Par ailleurs, une coordination est assurée avec le responsable du service RH de l’Ircam et la médecine du travail.

Annexe : Contributions à la formation initiale
Parcours de Master ATIAM

Parcours M2 multi-mentions du Master Sciences et Technologies de l’UPMC-Paris VI, en partenariat avec l’Ircam et TELECOM ParisTech

Coordinateur ATIAM : Carlos Agon, HDR, Equipe Représentations Musicales de l’Ircam.
Chercheurs de l’unité enseignant régulièrement dans la formation : Carlos Agon, Moreno Andreatta, Arshia Cont, Thomas Hélie, Isabelle Viaud-Delmon

Créée en 1993 à l'initiative de plusieurs institutions françaises actives dans le domaine de la recherche, soutenue par le ministère de la Culture, la formation (ex-DEA national) Atiam, accueillie et coordonnée par l’Ircam, a été conçue pour délivrer les bases scientifiques et la culture musicale permettant d'aborder la recherche dans les domaines de l'acoustique musicale, du traitement du signal sonore et de l'informatique musicale. En 2004, Atiam devient un parcours (mentions Informatique et Sciences de l’ingénieur) au sein du Master Sciences et Technologie de l'UPMC Paris VI, organisé en partenariat avec TELECOM ParisTech et l'Ircam (Institut de recherche et coordination acoustique/musique) où les étudiants sont accueillis et où ils bénéficient, parallèlement aux enseignements, des activités artistiques et intellectuelles de l’Institut.

Enseignement
Atiam propose une approche scientifique et une formation à la recherche sur toute la chaîne de l'activité musicale, depuis les dimensions physique et psycho-physique jusqu'à la modélisation numérique et aux structures symboliques de haut niveau. A côté des quatre grands domaines de connaissance générale (acoustique, traitement du signal, informatique et techniques de compositions contemporaines), des UE complémentaires illustrent la mise en action de ces disciplines dans le champ de la musique et de la création artistique.

Unités d'enseignement obligatoires (S3, 3 ECTS/UE)

• Première vague: septembre et octobre
-UE Acoustique générale / ag NI416 / S3
Responsable : Benoît Fabre (LAM, P6)
-UE Traitement du signal audionumérique / tsa NI418 / S3
Responsable : Roland Badeau (TELECOM ParisTech)
-UE Paradigmes de programmation en informatique musicale / ppim NI407 / S3
Responsable : Carlos Agon (Ircam)
-UE Musique et science depuis 1945 / msv NI421 / S3
Responsable : Moreno Andreatta (CNRS/Ircam)

• Deuxième vague: novembre et décembre
-UE acoustique musicale / am NI417 / S3
Responsable : Jean-Dominique Polack (LAM, P6)
-UE Traitement du signal musical / tsm NI419/ S3
Responsable : Bertrand David (TELECOM ParisTech)
-UE Sciences et technologies de l’information musicale / stim NI410/ S3
Responsable : Emmanuel Saint-James (LIP, P6)
-UE Applications de l’acoustique, du traitement du signal et de l’informatique à la création musicale contemporaine / cmc NI420 / S3
Responsable : Mikhail Malt (Ircam)
-UE libre
-UE Insertion Professionnelle / ip NI001 / S3
Responsable : Isabelle Viaud-Delmon (CNRS/Ircam)

Des enseignements de spécialité viennent approfondir certains domaines sous forme d’options. Le second semestre est consacré à un stage professionnalisant au sein d’un laboratoire de recherche public ou privé, visant à réaliser des expérimentations techno-scientifiques de pointe.

• Unités d'enseignement d'option (S4, 3 ECTS/UE) : janvier et février
-UE Musique, son et espace sonores / MSE / S4
Responsable : Benoît Fabre (LAM, P6)
-UE Perception et cognition musicale / PCM NS 825 / S4
Responsable : Daniel Pressnitzer (ENS/ULM)
-UE Descripteurs audio et indexation : panorama des évolutions et méthodes / DAI / S4
Responsable : Bertrand David (TELECOM ParisTech)
-UE Modèles mathématiques pour l’informatique musicale / MMIM NS813 / S4
Responsable : Marc Chemillier (EHESS)
-UE Contrôle Gestuel de la Synthèse CGS / NS770 / S4
Responsable : Hugues Genevois (LAM, Paris 6)

• Stage de recherche (S4, 18 ECTS) : mars – juin/septembre
Plusieurs étudiants réalisent leur stage à l’étranger (e.g. Laboratoire d’Informatique, Acoustique et Musique, Université de Montréal ; Music Acoustics Laboratory UNSW, Sydney ; Institüt für Wiener Klangstil, Universität für Musik und darstellende Kunst Wien ; Native Instruments, Research and Development Team, Berlin). De deux à cinq étudiants effectuent leur stage de recherche à l’Ircam chaque année, et un ou deux étudiants y obtiennent une allocation de recherche du ministère pour leur thèse, les autres obtenant généralement un autre type de financement (CIFRE, projet ANR, projet Européen, contrat avec l’industrie).

Débouchés
Ouverte aux étudiants scientifiques issus des écoles d’ingénieur, des grandes écoles ou des universités, cette formation trouve principalement des débouchés dans la recherche et l'enseignement, aussi bien que dans l'industrie du son et de la musique. Il est à noter que plusieurs diplômés se sont également orientés vers des carrières plus artistiques, à travers notamment le métier de R.I.M. (réalisateur en informatique musicale) situé à l’interface entre recherche musicale, développement et projet de création faisant appel aux nouvelles technologies. D’autres débouchés professionnelles concernent les métiers du son et notamment les lieux de production spécialisés, l'industrie musicale, notamment liée aux supports numériques et en ligne et l'industrie du logiciel pour les applications multimédia.

Cette multiplicité de parcours professionnels confirme l’originalité de la formation Atiam qui requiert tout à la fois un haut degré d’exigence scientifique et une sensibilité aux démarches de création artistique. La plupart des étudiants continuent ATIAM par un doctorat. Depuis sa création, environ 70 étudiants d’Atiam ont soutenu une thèse de doctorat. Dans les 4 dernières années (2012 non inclus) 38 thèses ont été entamées, ce qui correspond à un pourcentage de 52% sur la base estimée de 20 étudiants par an. Ceux qui ne se sont pas engagés dans une thèse ont trouvé des postes d'ingénieur dans des domaines spécialisés : informatique audionumérique, acoustique architecturale, informatique musicale, téléphonie numérique, multimédia, etc.

Afin d’établir de manière dynamique des statistiques concernant la formation ; mieux suivre le devenir des étudiants après leur Master ; favoriser la communication entre anciens et futurs étudiants ; valoriser la formation auprès de nos partenaires de recherche et faciliter l’accès à l’emploi de nos étudiants, nous avons constitué un annuaire des étudiants actuellement disponible en en ligne à l’adresse : http://www.atiam.ircam.fr/annuaire/
Master en design sonore de l’ESBAM - Parcours DNSEP Design sonore

Le DNSEP Design Sonore est un parcours M1 et M2 de l’Ecole supérieure des Beaux-Arts Tours-Angers-Le Mans (Esba TALM), en partenariat avec l’Ircam et l’ENSCI (École Nationale Supérieure des Création Industrielle) et le LAUM (Laboratoire d’Acoustique de l’Université du Maine) rattaché au CNRS.

Coordinateur : Didier Larnac, directeur de l’ESBAM.
Equipe pédagogique de l’ESBAM : Philippe Langlois, Ludovic Germain, Olivier Houix
Chercheurs de l’unité enseignant régulièrement dans la formation : Nicolas Misdariis et Patrick Susini de l’équipe PDS, ainsi que des intervenants des équipes IMTR et EAC.

Le DNSEP Design Sonore est créé en 2011 à l'initiative de l’Ecole des Beaux Arts du Mans, de l’Ircam, du LAUM et de l’ENSCI. La formation permet une inscription de la formation au Répertoire National des Certifications Professionnelles. Elle offre dans ce cas une existence et qualification au métier de Designer Sonore ignoré jusqu'à présent de ce répertoire, alors que cette activité professionnelle produit une économie de très grande importance au niveau international. Le design sonore concerne une grande diversité de champs (média, signalétique, espace, objet, installation, etc.).

Enseignement
Le DNSEP propose une approche scientifique et artistique sur toute la chaîne de l'activité du design sonore. La formation s’attache à transmettre les connaissances scientifiques (acoustique, synthèse, perception), les méthodes de conduite de projet industriel, les compétences musicales et techniques, nécessaires pour concilier exigence artistique et contraintes de production, pour synthétiser les aspects fonctionnels, techniques, économiques et morphologiques spécifiques au design sonore. Régulièrement, des ateliers et des projets personnels, en lien avec des professionnels et des industriels, permettent à l’étudiant une véritable mise en situation professionnelle.

Unités d'enseignement obligatoires (S7, S8)

• Période septembre – février (S7) : Enseignement Méthodologie, techniques et mises en œuvre des recherches personnes :

- Informatique sonore et technique son – O. Houix 2 ECTS
- Méthodologie créative – L. Germain 1 ECTS
- Workshop Arduino – L. Germain, M. Denneaud 1 ECTS
- Création sonore – F. Bourdier 2 ECTS
- Création musicale – P. Langlois, O. Houix, L. Germain 2 ECTS
- Radio On – C. Domino, P. Langlois, O. Houix, L. Germain 2 ECTS
- Perception et cognition de l’objet sonore - P. Susini, N. Misdariis (Ircam) 2 ECTS
- Acoustique et diffusion du son - L. Dufrechou, B. Gazengel (LAUM) 1 ECTS

- Workshop 1, 3 ECTS :
« Application en design sonore » (R. Cahen, J. Lochard, N. Misdariis, P. Susini, ENSCI + Ircam)
- Workshop 2, 2 ECTS, en alternance :
« Dispositifs d’interaction avec le son » (N. Rasamimanana, équipe IMTR, Ircam)
« Diffusion / Espace » (équipe EAC, Ircam)
- ARC ou Atelier à choisir (2 ECTS chaque) 2 ECTS


• Période septembre – février (S7) : Histoire, théorie des arts et du sonore / Langue, Culture Générale et Philosophie
- Anglais – D. Flynn 2 ECTS
- Histoire des arts – L. Vezin 2 ECTS
- Philosophie/Culture générale – C. Domino, F. Lahache 2 ECTS
- Histoire et théorie du sonore – P. Langlois 2 ECTS

• Stage : septembre – juin / septembre (S8)
- Stage ou voyage à l’étranger (4 mois minimum) - 12 ECTS
Chaque étudiant effectue un stage en entreprise ou en laboratoire qui peut porter sur une réalisation concrète ou sur un projet de recherche. L’Ircam s’engage à accueillir au moins un stagiaire en M1.
- Recherche personnelle et suivi de mémoire - 8 ECTS

Objectifs pédagogiques
 Il s’agit, par une formation dont le spectre d’application est très ouvert, design sonore environnemental, design sonore d’objet, design sonore graphique de dévelopeur :
- Une culture historique et théorique du sonore articulée à celle du champ des arts plastiques et du design d’espaces.  
- Une culture des savoirs et des pratiques de management de projet par équipe.
- Une méthodologie de recherche pour une mise en œuvre des savoirs et compétences en acoustique et en ingénierie du son, afin de traduire en une production sonore un projet défini de création.  
- L’ensemble du chaînage allant de la conception d’un cahier des charges, ou sa prise en compte, jusqu’à l’évaluation des résultats d’une production sonore relevant, tant d’une commande spécifique que d’une création expérimentale.
Semaine du son
 HYPERLINK "http://www.lasemaineduson.org" www.lasemaineduson.org

Le département Recherche et développement de l’Ircam est associé à l’organisation de cet événement dont il accueille chaque année une journée consacrée à l’une de ses thématiques actuelles de recherche. Les présentations, qui font intervenir des chercheurs de l’unité, sont principalement destinées aux élèves des écoles d’ingénieurs du son dont plus d’une centaine se déplace chaque année pour découvrir les avancées de la recherche susceptibles d’influencer leurs futures pratiques. L’événement, qui bénéficie d’une large couverture médiatique, contribue également à la diffusion et au débat publics sur le statut du son dans la société.
Autres formations supérieures assurées par les membres de l’UMR
Equipe Acoustique instrumentale
René Caussé
Cours d'Activité d'Ouverture Culturelle à l'Ecole Centrale de Paris (Titre : Acoustique et création musicale contemporaine) et intervention sur la physique des instruments à cordes à l'Ecole Centrale de Nantes
Interventions dans les options du Master2 ATIAM et Master2 Acoustique physique de l'Université du Maine (Le Mans) sur la physique des instruments à cordes

Adrien Mamou-Mani
Cours d'Acoustique Musicale au Conservatoire de Paris (CNSMDP) - Professeur .

Pauline Eveno (doctorante)
TP de mécanique des fluides, Licence 3, UPMC (2010)
TP acoustique à l'IUT Mesures physiques d'Orsay (2011)
TD de Physique à l'Université Paris Descartes (2012)

Simon Benacchio (doctorant)
TP de vibrations en L3 Polytech Paris (2012)
TD de vibrations en L3 de mécanique à l'UPMC (2012)
Equipe Espaces acoustiques et cognitifs
Markus Noisternig
Chargé d’enseignement des cours magistraux à l’Institut de musique électronique et d’acoustique (IEM) de l’Université de musique et d’art dramatique de Graz, Autriche :
« Real-time acoustic MIMO signal processing » (45 heures annuelles) ;
« Spatial audio, room acoustics and sound reproduction techniques » (30 heures annuelles)
Enseignement en Master 2 parcours ATIAM, UPMC (cours IP de rédaction scientifique, 3 heures), membre de jury pour le certificat d’anglais, Formation supérieure aux métiers du son, Conservatoire nationale supérieur de musique et de danse de Paris, CNSMDP (3 heures).
Encadrement de 4 étudiants en master 2 (Université du Mans, Université UPMC, Université de Graz), de 2 étudiants ingénieur (Université de Graz, Centrale Lyon)

Isabelle Viaud-Delmon
Responsabilité du module « Insertion professionnelle » du master 2 parcours ATIAM, UPMC, Paris ;
Enseignement en master 2 parcours ATIAM, UPMC (18 heures), en master 2 AST, Université de Grenoble (4 heures), en Master 2 Biologie Intégrative et Physiologie parcours Neurosciences, UPMC (4 heures) ;
Encadrement de 3 doctorants (dont 2 soutenus en 2007), 2 post-doctorants, et de 4 étudiants de Master 1 de Biologie Intégrative et Physiologie (UPMC) depuis 2007. Encadrement de mémoires de fin de cycle d’étudiants de la FSMS du CNSMDP.

Olivier Warusfel
Cours dans le cadre d’une master class (3 heures), SaMPL Spring School, Padova. 2-4 Avril 2012.
Co-encadrement de 5 étudiants en thèse (UPMC, INSA Lyon), dont 4 soutenues respectivement en 2008, 2009, 2011, 2011. Encadrement d’un master 2 (UPMC), de mémoires de fin de cycle (CNSMDP, ENSE3-INP, Centrale Lille)
Equipe Perception et design sonores
Houix, O., Lemaitre, G., Misdariis N., Cours de Psychoacoustique dans l’Option Acoustique ACC107, Cons. Nat. Des Arts et Métiers (CNAM) (2007)


Houix, O., Lemaitre, G., Psychoacoustique, Master ACAR Acoustique Architecturale, Ecole d'Architecture de Paris-La-Défense/Université Paris VI. (2007-2009)


Susini, P., Psychoacoustique, Master ACAR Acoustique Architecturale, Ecole d'Architecture de Paris-La-Défense/Université Paris VI. (2009-2012)


Susini, P., Misdariis, N., Cours de méthodologie en design sonore et de perception de l’objet sonore, Ecole Sup. des Beaux-Arts du Mans (ESBA Le Mans), niveaux L3 et M1. (2010-2012)

Equipe Analyse et synthèse des sons
Gregory Beller
2011
Cours ponctuel pour le master II ATIAM : Computer Music Design and Voice
Processing
Cours ponctuel pour les compositeurs en recherche Ircam : Speech processings for contemporary composers' perspectives

2010
Cours ponctuel pour les compositeurs en recherche Ircam : expressivity in speech and music for contemporary composers' perspectives

2008
ATER de l’Université Paris Est - Marne La Vallée : L1-2-3 son – L3 Cinéma (Design sonore, Audionumérique, Travaux pratiques avec Pure Data, Création sonore)

2007
Cours ponctuel pour les compositeurs en recherche Ircam : expressivity in speech and music for contemporary composers' perspectives
Moniteur de l'université Paris VIII : Deux cours magistraux pour L1 musique (Initiation à l’acoustique musicale, Initiation à l’audionumérique)

2006
Moniteur de l'université Paris VIII : Deux cours magistraux pour L1 musique (Initiation à l’acoustique musicale, Initiation à l’audionumérique)

2005
Moniteur de l'université Paris VIII : Deux cours magistraux pour L1 musique (Initiation à l’acoustique musicale, Initiation à l’audionumérique)

Thomas Hélie
2007 - 2012
5x (27h) Travaux Expérimentaux d’acoustique création de trois sujets : (1) Conduit vocal (modèle et mesures sur une maquette simplifiée échelle 1), (2) Spatialisation sonore et “head related transfer functions”, (3) Mesure d’impédance acoustique à partir de l’impédance électrique d’un haut-parleur, 3ème année, Ecole Polytechnique

2006 - 2012
7x (21h) Petites classes d’électronique Tronc commun, 2ème année, Ecole des Mines de Paris.
Cours Introduction aux séries de Volterra, MASTER 2R, ATIAM, Université Paris VI.

2005 - 2012
8x(5h) Travaux pratiques en Acoustique-Informatique-Musique Vocoder LPC et simulation de sons “parlants”, 3ème année, Ecole des Mines de Paris


Thomas Hézard
2011
"Electronique Numérique, Combinatoire & Réseaux", Licence de Sciences et Technologies, mention Ingénierie Electronique, Université Pierre et Marie Curie, 34h, mars-juin 2011 (responsable: Aurélie Gensbittel)

"Projet tutoré", Licence Professionnelle Techniques Électroniques et Communications , Université Pierre et Marie Curie, 30h, juin 2011 (responsable: David Lautru)

"Octave: un outil de simulation et de programmation avancée", Licence de Sciences et Technologies, mention Ingénierie Electronique, Université Pierre et Marie Curie, 24h, septembre-octobre 2011 (responsable: Xavier Clady)

2012
"Electronique Numérique, Combinatoire & Réseaux", Licence de Sciences et Technologies, mention Ingénierie Electronique, Université Pierre et Marie Curie, 60h, mars-juin 2012 (responsable: Aurélie Gensbittel)

Marco Liuni
2010 – 2012
ATER (attaché temporaire d'enseignement et recherche), Université Paris Dauphine, Section 26 (Mathématiques Appliqués), départements MIDO et DEGEAD. Cours + TD en analyse fonctionnelle et algèbre.

Geoffroy Peeters
2010 - 2012
CNAM : Intervention dans la formation « Analyse des images et des sons numériques » (NSY122), Sujet : « Introduction au Traitement du Signal, à
l’apprentissage Machine », 9 HED

ATIAM : Intervention dans la formation « Elaborations et transformations de sons » (ETS) du Master II ATIAM Paris VI, sujet : « Structuration et résumé audios », 5 HED

Equipe Représentations Musicales
Carlos Agon. Cours UE Informatique Musicale au Master ATIAM (UPMC, Telecom, Ircam). 2007-2012
M. Andreatta, M. Chemillier, Cours UE Modèles Mathématiques pour l'Informatique Musicale (MMIM), Master ATIAM (UPMC, Telecom, Ircam), Ircam, (2005-2007).
Assayag Gérard, Jean Bresson, Moreno Andreatta : cours « Représentations Musicales, CAO, synthèse, spatialisation : OpenMusic et OMax » Cursus de compositon et d’informatique musicale de l’Ircam, niveaux I et II, 2007-2012.
Moreno Andreatta, Jean Bresson : Module « Modèles informatiques/mathématiques pour la création musicale », Master ICA, Spécialité AST (Art, Sciences et Technologie) PHELMA INP Grenoble. 2007-2012
Moreno Andreatta, Jean Bresson : Module inter-semestre « Outils pour la création et la composition musicale », Telecom Bretagne, Brest. 2007-2012
Gérard Assayag : Workshop Omax, Workshop MMI (Mathématiques/Musique/Informatique), Università di Pisa, 24-25 octobre 2008. Gérard Assayag et Georges Bloch.
Gérard Assayag : Enseignement OpenMusic et Omax, séjour chercheur invité, Pontificia Universidad Javeriana, Cali, Colombie, Projet REACT. Octobre 2008, Gérard Assayag.
Jean Bresson : Introduction to OpenMusic, Graduate composition course MUCO541, Schulich School of Music, McGill University, Montréal, Canada, 2011.
M. Andreatta, Corso di "Elementi di Geometria Superiore 2: Matematica & Musica", Dipartimento di Matematica, Università di Pisa (Anno accademico 2008-2009), 30h.
Arshia Cont : Introduction à Antescofo, Cursus de composition et d’informatique musicale, Ircam, 2010, 2011.
Arshia Cont : Apprentissage Automatique Appliquée à la Musique, UE « Informatique Musicale », Master ATIAM, 12h/an, 2009-2012.

Equipe Analyse des pratiques musicales
Nicolas Donin
Séminaire de doctorat, Université de Montréal, histoire de la musique et musicologie empirique, février 2007 (12 h).
Cours d’histoire de la musique, Conservatoire de Paris (CNSMDP), session janv.-mars, 2010
Conférences invitées aux séminaires doctoraux : Universités d’Aix-Marseille I et de Lille-3, Université de Technologie de Compiègne, CNSMDL, ENS-LSH Lyon, Université de Huddersfield, Université Laval, Université de Montréal

Laurent Feneyrou
Cours d’histoire de la musique et de culture musicale au Conservatoire de Paris (CNSMD), plusieurs internventions au cours de la période
Conférences invitées aux séminaires doctoraux : Université de Paris-IV, Université de Paris-VII, Université de Paris-VIII, Université de Rennes-II, Université Marc-Bloch (Strasbourg), au Conservatoire de Toulouse, Université d’Udine (Gorizia), Université d’Alcala (Madrid)

Samuel Goldszmidt
Séminaire Ecole Doctorale Multimédia à l’Université Lille 3 (en moyenne 15h annuelles en 2007, 2008 et 2009)
IC07 - Techniques et technologies du musical et du sonore sur la conception participative d’applications multimédia riches, Université de Technologie de Compiègne (2009)

Noémie Sprenger-Ohana
Séminaire ‘Analyse du processus de composition’, Master Création et Etude des Arts Contemporains (option Musique et danse), Université Lille-Nord de France, semestre 1, 2010/2011
Séminaire ‘Analyser les ateliers de musique mixtes’, Master Création et Etude des Arts Contemporains (option Musique et danse), Université Lille-Nord de France, semestre 1, 2011/2012.
Equipe Interaction musicales temps réel

Frédéric Bevilacqua
Enseignement en master 2 parcours ATIAM, UPMC sur l’analyse du geste (3 heures), 2007
Enseignement dans le Cursus 1 et 2 de composition de l’Ircam (3h), sur l’interaction musicale temps réel, 2007-2012
Professeur invité au MARCS Laboratory, University of West Sydney (1 mois) 2010
Enseignement dans 3e cycle romand d’informatique (Spring school in Computer Science), Université de Fribourg, (3h), 2010
Co-encadrement de 8 doctorants dont 5 ont soutenu (2008, 2010, 2011, 2012), et encadrement de 4 étudiants en Master 2 ATIAM.

Norbert Schnell
Professeur invité, Département Audio Communication, Technische Universität Berlin, Avril-Juin, 2007
Enseignement dans le Cursus 1 et 2 de composition de l’Ircam (3h), 2007-2012 sur l’interaction musicale temps réel
Co-encadrement de 2 doctorants qui ont soutenu (2010, 2011) et encadrement de 2 étudiants en Master 2 ATIAM.

Diemo Schwarz
Enseignement dans le Cursus 1 et 2 de composition de l’Ircam (3h), 2007-2012 sur l’interaction musicale temps réel
Co-encadrement de 1 doctorant et encadrement de 3 étudiants en Master 2 ATIAM.

Arshia Cont
Enseignement en master 2 parcours ATIAM, UPMC sur Apprentissage automatique (6 heures) 2007, 2008, 2009
Enseignement de l’unité « Machine Learning » depuis 2009, (18 heures CM, 3 heures TD)
Responsable de l’unité « Music Signal Processing » depuis 2010.
Enseignement dans le Cursus 1 et 2 de composition de l’Ircam (3h), 2007-2012 sur l’interaction musicale temps réel et suvi de partition
Co-encadrement de 1 doctorant et encadrement de 1 étudiant en Master 2 ATIAM.

Nicolas Rasamimanana
Enseignement en master 2 parcours ATIAM, UPMC sur l’analyse du geste (3 heures), 2008, 2009

Activités d’enseignement des doctorants
Tommaso Bianco
cours d’informatique UPMC Paris 6 (monitorat), 2008-2009
Fivos Maniatakos
cours d’informatique UPMC Paris 6 (monitorat), 2008-2009
Julien Bloit
J. vacations Paris 6 : Initiation à l'informatique pour scientifiques : Programmation récursive (TPs, 12h), 2007-2008
Baptiste Caramiaux
Enseignement en master 2 parcours ATIAM, UPMC sur Apprentissage automatique, 2009
Enseignement pour les TP LP300 d’Acoustique, UPMC, classe de F. Decremps, 3h mai 2011
Imperative Programming in C, TP L 1, Université Paris 8, France, 2010
Human-Computer Interaction, TP M1, EFREI, Villejuif, France 2011
Gesture-Sound Interactions for Sonic Design, Ecole des Beaux-Arts, Le Mans, France 2012

Ianis Lallemand
cours de mathématiques UPMC Paris 6 (monitorat), 2011-2012




Annexe : Contributions à la formation professionnelle
Equipe Acoustique instrumentale
Pauline Eveno et René Caussé, interventions sur les instruments à vent et sur les instruments à cordes dans le cadre des Journées professionnelles Facture Instrumentale et Sciences (JFIS) organisées par l'Itemm (Le Mans) - de 2008 à 2012
Equipe Espaces acoustiques et cognitifs
2007-2008
Viaud-Delmon, I.,
« De l’encadrement d’un projet doctoral au devenir professionnel du docteur », UPMC, Institut de formation doctorale, 2007 et 2008.

Equipe Perception et design sonores
2007-2011
Misdariis, N., Susini, P., Stage Ircam annuel en design sonore (Dept Pedagogie).

Equipe Représentations musicales
Gérard Assayag, Jean Bresson, Carlos Agon (2007-2012), Benjamin Lévy (2009-2012) , Ateliers OpenMusic et OMax aux ateliers du Forum Ircam
Jean Bresson : Formation professionnelle Ircam. Composition assistée par ordinateur / OpenMusic II, Ircam, 2009.
Jean Bresson : Formation professionnelle Ircam. Introduction à la programmation orientée objet et création de bibliothèques pour OpenMusic, 2010, 2011.

Equipe Analyse et synthèse des sons
Thomas Hélie
Thomas Hélie. Modélisation physique pour la synthèses sonore. CURSUS-Ircam : Formation à la composition et à l’informatique musicale, Ircam, Paris, décembre 2007

Xavier Rodet
Xavier Rodet. CURSUS-Ircam : Intervention dans le Cursus 1 et 2 de composition de l’Ircam, 2007-2010

Axel Röbel
Axel Röbel. CURSUS-Ircam : Intervention dans le Cursus 1 de composition de l’Ircam, janvier 2012

Equipe Analyse des pratiques musicales
Formation interne Ircam « Introduction à la Musique Contemporaine » (2 séminaires annuels d’une journée) coordonnée par N. Donin depuis 2007 en collaboration avec des musicologues invités.
Equipe Interactions musicales temps réel
Diemo Schwarz
Ateliers Max/MSP pour développeurs Ircam, « Création d’objets externes FTM », 11 novembre 2007
Workshop aux ateliers du Forum Ircam: Séances de travaux pratiques avec FTM&Co et CataRT 2008, 2009, 2010,
Stage week-end Max/MSP avancé avec FTM du département pédagogie, mai 2008
Formation professionnelle Ircam, Stages logiciels - Interaction temps réel, Max : FTM&Co et CataRT 2008, 2009
Workshop MnM et CataRT aux Journées d'Informatique Musicale (JIM) au GMEA à Albi, 27.03.2008.
Présentations de CataRT (synthèse concaténative) au stage "Ircam Overview" pour compositeurs 1.7.2009
Atelier avec travaux pratiques FTM&Co et CataRT, Bergen Center for Electronic Art (BEK), Bergen, Norvège, 9.–13.3.2009.
Presentation Semaine du son Synthèse et traitement sonores : état de l’art et de la recherché, HYPERLINK "http://www.lasemaineduson.org/synthese-granulaire-et-par-corpus"Synthèse granulaire et par corpus, 14.1.2010
Atelier avec travaux pratiques FTM&Co et CataRT, STEIM, Amsterdam, Pays-Bas, 10–13.5.2010.
SMC Tutorial (Ab)using MIR to create music: corpus-based synthesis and audio mosaicing, 21.7.2010 Barcelone, Espagne
Presentation de CataRT, Theatre de Verre, Paris, 17.11.2010
Atelier avec travaux pratiques « Advanced MaxMSP Sound and Data Processing », NOTAM, Oslo, Norvege, jan. 2011.
Atelier avec travaux pratiques « Advanced MaxMSP Sound and Data Processing », University of Edinburgh, Dept. of Music, UK, apr. 2011.
Atelier avec travaux pratiques « Advanced MaxMSP Sound and Data Processing », ICMC Tutorial, Huddersfield, UK, juil. 2011.
Atelier avec travaux pratiques FTM&Co et CataRT, STEIM, Amsterdam, Pays-Bas, 24–27.10.2011.
Schwarz D, Atelier avec travaux pratiques « Masterclass : Advanced workshop exploring project-specific uses of FTM&Co», STEIM, Amsterdam, Pays-Bas, 28.10.oct. 2011.

Norbert Schnell
Atelier « FTM & Co », IEM Graz, octobre 2007
Intervention aux ateliers « Max/MSP pour développeurs » à Ircam, novembre 2007
Séminaires au « Studio für Elektroakustische Musik » à l’Université de Musique Franz Liszt et l’Université Bauhaus à Weimar/Allemagne, juillet 2007
Séminaire à l'Ecole Nationale Supérieure de Creation Industrielle Paris (ENSCI), 2008
Séminaire au « Studio für Elektroakustische Musik » à l Université de musique Carl Maria von Weber à Dresde, novembre 2009
Présentations publique à la « Semaine du son » à Ircam, janvier 2010, janvier 2011 et janvier 2012
Présentations et Interventions aux ateliers du Forum Ircam, juin 2007, novembre 2007, juin 2008, novembre 2008, novembre 2009, novembre 2010
Présentation à un séminaire au « Institute for Psychoacoustics and Electronic Music » (IPEM) à l’Université de Ghent, janivier 2010
Conférence invitée au « Internationale Ferienkurse für Neue Musik » à Darmstadt, juillet 2010
Conférence invitée au « Institute for Sonic Arts Research » Ljubljana/Slovenie, octobre 2010
Séminaire au Conservatoire National Superieur de Musique et de Danse (CNSMDP), janvier 2011
Séminaire au département de la musique de l’Univerisité Javeriana de Bogota/Columbie, septembre 2011
Intervention aux ateliers « Son Musique et Environnement » de la Cité de la Musique Paris, juin 2012

Frédéric Bevilacqua
Présentations des techniques de captation de geste, au stage "Ircam Overview" pour compositeurs, 26.7.2009
Workshop au Yamaguchi Center for Arts and Media (YCAM), Japan, 2008
Workshop aux ateliers du Forum Ircam, suivi de geste, Forum, 2009-2011
Workshop sur la captation du geste Dance Congress, Kampnagel, Hamburg, Germany, 2009
Workshop sur la captation du geste de Richard Siegal à Muffatwerk, Munich, Allemagne, 2010
Workshop « Software Tools for Sound and Gesture », SEAM conférence, Sydney 2010c
Présentations publiques à la « Semaine du son » à Ircam, janvier 2012

Arshia Cont
Présentations du suivi de partition, au stage "Ircam Overview" pour compositeurs, 26.7.2009
Workshop aux ateliers du Forum Ircam antescofo~, Novembre 2009
Annexe : Contributions à la création artistique
L’Ircam accueille plusieurs dizaines de compositeurs par an dans différents cadres et leurs collaborations avec les équipes de recherche prennent différentes formes, dont l’organisation est coordonnée par le département Interfaces recherche/création (IRC) en lien étroit avec les directions artistique et scientifique.

A la différence des chercheurs, les compositeurs ne font pas partie de l’effectif permanent, et participent donc à des projets sur des périodes définies. Le lien entre chercheurs et artistes est assuré la plupart du temps par l’intermédiaire de Réalisateurs en informatique musicale (RIMs ou computer music designers). Il existe deux types de missions pour les RIMs : en production et chargés d’enseignement. En production, chaque projet - sauf exception - fait ainsi intervenir un compositeur et un RIM, ce dernier étant chargé de la réalisation technique de l’œuvre, du studio jusqu’à sa représentation en concert. Les RIMs chargés d’enseignement prennent en charge les différentes formations assurées par le département Pédagogie et action culturelle (PAC), et notamment le Cursus d’informatique musicale, accueillant de jeunes compositeurs issus des grands conservatoires internationaux et sélectionnés par un comité de lecture, pour venir effectuer un à deux ans à l’Ircam et se former aux technologies musicales pour la composition. Les RIMs sont également impliqués dans le développement logiciel assuré par les équipes de recherche : à chaque projet de développement est associé un RIM référant, représentant l’ensemble des utilisateurs du logiciel (RIMs, compositeurs, utilisateurs du Forum) et en charge de synthétiser les retours d’utilisation et les priorités pour les développement à venir, dans le cadre de cycles annuels de bilan/projet.

Les principaux cadres d’accueil de compositeurs, outre les cursus et sessions de formation assurés par le département PAC, sont les suivants :
compositeurs en création, accueillis en production liée à une commande d’œuvre, faisant intervenir une période de préparation, notamment dans les studios de l’Ircam dotés des logiciels issus des équipes, et leur création publique à l’Ircam ou dans une institution partenaire. Ces compositeurs sont sélectionnés par la direction artistique de l’Ircam et accueillis dans le cadre du département Création ; le festival annuel de l’Ircam Agora, étendu en 2012 à l’événement Manifeste avec l’accueil d’une académie d’été, est le moment fort, au cours du mois de juin, de présentation des nouvelles œuvres au public ;
compositeurs en recherche, accueillis en lien avec une équipe de recherche pour mener une période d’expérimentation sur une thématique d’intérêt commun ; il s’agit souvent d’une période d’exploration et d’élaboration préalable à un projet de production, mais l’objectif est ici de mener une étude donnant lieu à la remise d’un rapport ainsi dans certains cas d’esquisses musicales, d’exemples sonores et de tutoriels ; les compositeurs en recherche sont sélectionnés parmi les compositeurs identifiés à l’Ircam ;
compositeurs en résidence, dans le même cadre et avec les mêmes objectifs que les compositeurs en recherche, mais selon un processus de recrutement fondé sur un appel à propositions international annuel, permettant l’établissement de nouveaux contacts, sur la base de thématiques définies avec les équipes de recherche.

Les projets de création et d’accueil de compositeurs en recherche, en résidence et dans le cadre du cursus sont présentés de manière extensive dans les rapports d’activité de l’Ircam. Une synthèse des projets de compositeurs en recherche et en résidence depuis 2010 est présentée sur le site de l’Ircam.

Les différents formes de collaboration entre compositeurs, RIMs et chercheurs peuvent ainsi être résumées ainsi :
utilisation en production des logiciels issus des équipes : ceux-ci, parfois sous forme de versions préliminaires, sont mis à disposition de l’ensemble des collaborateurs de l’Ircam et utilisés dans des projets de production et par les étudiants du cursus de composition et informatique musicale ; les équipes sont sollicitées au cas par cas pour pour leur expertise ou pour les perfectionner si nécessaire, mais n’ont pas toujours un retour sur l’utilisation qui en est faite, en particulier pour les environnements stabilisés et intégrés en standard dans la palette d’outils utilisés par les RIMs ;
projets de compositeurs en recherche et en résidence : ils sont intégrés aux équipes dans le cadre d’une collaboration suivie pendant toute la période de leur accueil et alimentent leurs travaux;
groupes de travail thématiques : certaines problématiques d’intérêt commun pour un ensemble de compositeurs et chercheurs présents pendant une période donnée donnent lieu à la constitution de groupes de travail, lieux d’échange, de confrontation des approches, et surtout d’élaboration commune de concepts et outils définissant la singularité d’une recherche musicale à l’interface entre recherche scientifique et élaboration artistique ; à la date d’élaboration du rapport, plusieurs groupes sont actifs relativement aux thèmes Rythme, Geste, Orchestration.
suivi de projets de création, étude d’œuvres et d’écrits de compositeurs : ce mode de travail concerne principalement l’équipe Analyse des pratiques musicales et alimente ses travaux de recherche dans le champ de la musicologie contemporaine.

Les paragraphes suivants donnent une sélection de projets artistiques récents et représentatifs des activités des équipes au cours la période du présent rapport, l’Ircam menant plus de 20 créations et de l’ordre d’une dizaine de projets de compositeurs en recherche par an.
Equipe Acoustique instrumentale
La contribution de l’équipe aux projets artistiques porte principalement sur le développement de modèles physiques de synthèse sonore, dans le cadre du logiciel Modalys. Celui-ci est utilisé à la fois en studio pour la « lutherie virtuelle » et la préparation de sons, y compris dans son intégration dans l’environnement OpenMusic, et surtout au cours des dernières années en temps réel dans son implémentation dans l’environnement Max/ MSP. En parallèle à la mise au point de nouveaux modèles physiques, un travail d’engineering informatique est nécessaire pour implémenter les modèles, optimiser le moteur de calcul, développer des interfaces, etc.
Projets de recherche musicale
Louis Naon (compositeur argentin) : réalisation d’études musicales pour clarinette, pour violon et pour percussions faisant appel au logiciel Modalys sous sa forme temps réel et/ou temps différé
a donné lieu à la création de 6 caprices, pour violon (1 et 2), clarinette basse (3 et 4) et percussion (5 et 6), créés à l’Ircam, en juin 2007 et au Centre Pompidou en octobre 2008. L’idée des caprices, courtes pièces de 4 à 5 minutes chacune, est née d’une proposition d’approfondissement et de recherche sur la synthèse par modèles physiques en relation avec un instrument.
Lorenzo Pagliei (compositeur italien): création d'une relation étroite entre la captation de geste et le contrôle de la synthèse sonore par modèles physiques tout en modélisant la directivité de la diffusion spatiale du son. (deux périodes de recherche en 2010 et aussi 2011)
Le rapport de recherche sur période 2009 est accessible à l’adresse suivante : HYPERLINK "http://articles.ircam.fr/textes/Pagliei09a/"http://articles.ircam.fr/textes/Pagliei09a/
Ce projet donnera lieu à une création pendant Manifeste 2013.
Hans-Peter Stubbe (compositeur danois) : Implémentation et utilisation d’une modèle temps réel de synthèse par modèle physique de clarinet-basse. A donné lieu à une création lors d’Agora 2009 (HYPERLINK "http://brahms.ircam.fr/works/work/25663/"lien Brahms)
Le rapport est disponible enligne et publié à ICMC 2010.
La mise au point d’une copie virtuelle de clarinette basse a été réalisée par FEM (Finite Element Method) et validée expérimentalement pour tous les doigtés par la mesure de l’impédance d’entrée.
Projets de production récents
Rippled Reeds pour clarinette et électronique de H.P. Stubbe , Ircam, festival Agora 2009

Tensio pour quatuor à cordes et électronique temps réel de Philippe Manoury, 2010
Utilise les modèles physique de corde frottée issus de la thèse de doctorat de M. Demoucron
Philippe Manoury a également utilisé ce modèle dans Partita II pour violon et électronique, pièce créée récemment au festival Messiaen 2012.

Concerto pour clavier midi, ensemble et électronique de Maurillio Cacciatore, créé par l’Ensemble intercontemporain en octobre 2011 dans le cadre des concerts
Utiliser le clavier MIDI non pas comme « déclencheur d’événements » mais comme rôle central et concertant.
La partie concertante du clavier MIDI est générée en temps réel par le logiciel Modalys.

Cognitive Consonance de Christopher Trapani pour quanun solo, guitare électrique hexaphonique, ensemble et dispositif électronique, créée au festival Agora 2010.
Ecrit une musique « cognitive » (provoquant la pensée),
La partie électronique double le soliste avec plusieurs couleurs de cordes pincées, réalisées en temps différé avec les modèles physiques de Modalys, suite à une étude acoustique du quanun du soliste Julien Weiss.

Tripwire, installation de la compositrice américaine Ashley Fure et Jean-Michel Albert, vidéaste, co-production Le Fresnoy-studio national des arts contemporains et l’Ircam, Agora 2011.
La partie sonore de l’installation comprenant 24 cordes en rotation, reliées chacune à un moteur, est réalisée en temps réel par Modalys.

De nombreuses pièces composées dans le cadre du Cursus 1 de l’Ircam utilisent le logiciel, soit comme outil principal de génération des sons, soit comme un des nombreux outils. Parmi ces œuvres citons : La Libra Quebrada de Tomas Koljatic, compositeur chilien, pour harpe MIDI et électronique
Ici le logiciel Modalys est piloté en temps réel par la harpe MIDI développée par la société Camac.

Le compositeur Sébastien Gaxie a utilisé Modalys pour réaliser la musique électronique du film Le Bonheur d’Alexandre Medvedkine dans le cadre d’une coproduction Musée du Louvre-Ircam (création dans le cadre festival Agora 2010).
Equipe Espaces acoustiques et cognitifs
Le logiciel Spat développé par l’équipe est utilisé en standard dans la quasi-totalité des œuvres créées à l’Ircam, principalement dans sa version Max/MSP en concert, ainsi que pour la production discographique.

Le développement par l’équipe de technologies de reproduction avancées WFS et HOA s’est concrétisé par l’installation d’un équipement électroacoustique d’envergure (339 haut-parleurs) dans l’Espace de Projection, dont une partie est également mobile et permet son exploitation hors les murs. Compte tenu du caractère innovant de ces dispositifs et de la spécificité de leurs outils de contrôle, les membres de l’équipe Espaces Acoustiques et Cognitifs ont été amenés à travailler en étroite collaboration avec la cellule de production de l’Ircam, notamment au cours des trois dernières années, de sorte à assurer un conseil scientifique et technique pour la mise en œuvre des productions listées ci-dessous. En retour, ces expériences ont naturellement été riches d’enseignement pour l’équipe.
Projets de recherche musicale
Luis-Rizo Salom (compositeur chilien) – 2010 : Étude sur le contrôle et écriture de la directivité, en partenariat avec l’équipe perception design sonore.
Rapport publié : HYPERLINK "http://articles.ircam.fr/textes/RIZOSALOM11a/index.pdf"http://articles.ircam.fr/textes/RIZOSALOM11a/index.pdf
Rama Gottfried (compositeur américain) lauréat de la  HYPERLINK "http://www.ircam.fr/893.html" \t "_top" Résidence recherche musicale 2011-2012 : étude sur les aspects esthétiques liés au système de spatialisation Wave Field Synthesis (WFS) ; effets des éléments visuels sur la perception de la localisation ; création de nouvelles approches à la notation de l'espace.
Création d’esquisse prévu Novembre 2012 à l’Ircam
Natasha Barrett (compositrice anglaise) et lauréate de la  HYPERLINK "http://www.ircam.fr/893.html" \t "_top" Résidence recherche musicale 2011-2012 : travaux sur l'évaluation - à travers des tests et esquisses musicales - de la perception de la spatialisation sonore basée sur les systèmes Ambisonics d'ordre élevé.
Création d’esquisse prévue Novembre 2012 à l’Ircam
Projets de production
Musique
Lost Highway Suite d’Olga Neuwirth  - 4 solistes plus ensemble/orchestre et dispositif électronique et spatialisation (HOA-3D), 25 novembre 2008, Festival d'Automne, Cité de la musique
Tagli d’Andrea Vigani - Voix, fagott, violon, alto, violoncelle, piano, vibraphone et dispositif électronique et spatialisation (WFS). Création mondiale 9 avril 2009.Ircam - Espace de Projection
Operspective Hölderlin de Philippe Schoeller – Soprano, 2 violons, alto, violoncelle, spatialisation (WFS). Création mondiale 19 juin 2009. Centre Georges Pompidou – Grande Salle.
Le Père de Michael Jarrell - Récitant, soprano, mezzo-soprano, contralto, percussions et dispositif de spatialisation (WFS). Création mondiale 3 juin 2010. Schwetzingen – Allemagne. Création française juin 2010 - Théâtre de l’Athénée - Paris
Mimesis deMarc Garcia Vitoria - Harpe, accordéon/harmonica, percussion, alto, contrebasse et dispositif de spatialisation (WFS). Création mondiale 15 octobre 2011. Ircam - Espace de Projection
Concert-atelier WFS dans le cadre du International Conference on Spatial Audio (ICSA) Avec la participation de Benny Sluchin (trombone). Novembre 2011. Detmold (Allemagne)
Night : Light de Raphaël Cendo - Flûte, piano, violon, violoncelle et dispositif électronique et spatialisation ; la particularité concernant la spatialisation sonore est l'utilisation d'un système HOA-3D à l'ordre 9. Création mondiale 2 juin 2012 Ircam - Espace de Projection
Iki-no-Michi (Les voies du souffle) d’Ichiro Nodaïra - Commande Shizuoka City Cultural Promotion Foundation. Saxophone et dispositif électronique et spatialisation ; la particularité concernant la spatialisation sonore est l'utilisation d'un système HOA-3D à l'ordre 9. Création mondiale 8 juin 2012. Ircam - Espace de Projection
Tamonontamo de Maurillio Cacciatore - Commande Les Cris de Paris. Quatuor vocal, chœur et dispositif électronique et spatialisation ; la particularité concernant la spatialisation sonore est l'utilisation d'un système HOA-3D à l'ordre 9. Création mondiale 16 juin 2012. Ircam - Espace de Projection
Let me bleed de Luca Francesconi - 9 sopranos, 9 contraltos, 9 ténors, 9 basses et dispositif spatialisation ; la particularité est l'utilisation d'un système HOA-3D à l'ordre 9 pour simuler l'acoustique d'une cathédrale Concert 16 juin 2012. Ircam - Espace de Projection
Libro d'Aprile de Giovanni Bertelli - Quatuor à cordes et dispositif électronique et spatialisation ; la particularité concernant la spatialisation sonore est l'utilisation d'un système HOA-3D à l'ordre 9. Création mondiale 22 juin 2012. Ircam - Espace de Projection


Théâtre
La tragédie du Roi Richard II de WIlliam Shakespeare – Mise en scène JB Sastre. Couplée au système de diffusion de la Cour d’honneur, la WFS est utilisée pour le renfort des voix en exploitant la possibilité de co-localiser l’amplification de chacune des voix avec les acteurs. 20-27 Juillet 2010. Cour d’honneur – Festival d’Avignon 2010.

Installations sonores
Projet de jardin Sonore de Jean-Luc Hervé. Présentation d’une maquette numérique sonore spatialisée (mode binaural) à l’occasion du festival Agora 2007. Cité Internationale des Arts, Paris 4°. Ouverture prévue en 2013
Grainstick de Pierre Jodlowski - Installation interactive et immersive. Issue des recherches menées par une équipe pluridisciplinaire de l'Ircam, Grainstick transforme un prototype technologique en un espace sensible pour le public (WFS et capteur des gestes). Création 8 - 19 juin 2010. Cité des sciences et de l'industrie
NetTrike de Bernhard Lang - NetTrike est une œuvre pour deux « paires » d’interprètes, deux chorégraphes, deux plaques métalliques résonantes, des sons multicanaux et deux générateurs de boucles vidéo. Le concert s’appuie sur un réseau à très haut débit rendant possible l’aller-retour de multiples signaux audio, vidéo et de données pour les besoins du spectacle. Création 25 novembre 2010. Ircam - Espace de projection
Equipe Perception et design sonores
L’équipe, de par ses missions dans le cadre de l’Ircam, n’est pas amenée à intervenir directement dans les projets de création. Elle collabore cependant étroitement avec des compositeurs de l’Ircam dans le cadre de projets industriels de design sonore, notamment, au cours de la période du bilan, Andrea Cera, qui a produit les sons pour de nombreux projets dans le domaine automobile, ainsi que Sébastien Gaxie (sonneries pour l’industrie horlogère).
Equipe Analyse et synthèse des sons
Le logiciel Audiosculpt est utilisé en standard par de nombreux projets artistiques pour l’analyse et le traitement des sons en studio, de même que le moteur SuperVP dans ses implémentations en lien avec le logiciel OpenMusic (aide à la composition) et en temps réel.
Une étroite collaboration existe entre l’équipe Analyse/synthèse et l’équipe Interactions musicales, cette dernière étant en charge de l’implémentation temps réel dans l’environnement Max/MSP des modèles issus des travaux de l’équipe : analyse de descripteurs temps réel (ircamdescriptors), traitements par vocodeur de phase (objets supervp~), analyse Psola, etc. On se référera donc aux présentations de cette équipe pour les utilisations artistiques de ces outils.
Projets de recherche musicale 
Jean-Baptiste Barrière – 2007: Travail de recherche et de production. Création de 12 voix différentes d'hommes et de femmes à partir de la voix d'un seul acteur.
A donné lieu à la création de Deux Songes de Maeterlinck d’après Bruegel, Marseille en Mai 2007
Joshua Fineberg - 2007: Éloboration d'un logiciel de transformation de voix parlée en voix chantée.
A donné lieu à la création de Lolita À La Friche, Marseilles, 2008.
Stefano Gervasoni – 2007-2008: Travail de recherche et de production. Segmentation de voix chantée en phonèmes et resynthèses.
A donné lieu à la création de Com que voz en 2008 à , Porto, Portugal
Jonathan Harvey – 2008: Travail de recherche pour “faire parler” l'orchestre. utilisation de filtrages, d'orchestration et de synthèses.
A donné lieu à la création de Speakings en 2008 à Londres, UK,
Association E Voce di U Cumune-2008: Analyse des harmonies de chants polyphoniques corses.
Hector Parra – 2009: Segmentation, automatique de voix en types de sons et phonèmes. Resynthèses utilisant les classes de sons.
A donné lieu à la création de Hypermusic Prologue, 2009, Paris.
Gérard Pesson – 2009: Accès automatisé aux phonèmes. Modèles de langage pour la génération de textes (Modèles utilisés aussi pour le compositeur G. Aperghis)
A donné lieu à la création de Cantate Égale Pays, Paris, 2010.
Georgia Spiropoulos (compositrice grecque) – 2009 : Travail sur le traitement de la voix, pour la création des masques sonores.
A donné lieu à la création de Les Bacchantes pendant Agora 2010.
Compagnie Mabel Octobre – 2009: Modèles de génération de texte (en particulier mélange de langues). Synthèse automatique du texte créé par le modèle.
A donné lieu à la création de la pièce de théâtre Même pas morte, Paris, 2010.
George Aperghis (compositeur grec) – 2010 : Utilisation et étude de la synthèse de la parole TTS avec déclenchement des capteurs.
Création de Luna Park au festival Agora 2011
Rapport publié : http://articles.ircam.fr/textes/Beller11a/
Olivier Cadiot/Ludovic Lagarde – Enregistrement de corpus de voix, essais de synthèse. Traitements et transformations de la voix d'acteurs.
Projets de production
Deux Songes de Maeterlinck , spectacle multimédia de Jean-Baptiste Barrière. Création à Marseille en Mai 2007
La Métamorphose, Opéra de Michael Lévinas d’après Kafka, Création à l’Opéra de Lille 2011
Un Mage en été d’Olivier Cadiot (écrivain) et Ludovic Lagarde, création au Festival d’Avignon 2010
Luna Park, spectacle multimédia de George Aperghis créé à Agora 2011 HYPERLINK "http://brahms.ircam.fr/works/work/30337/"(lien Brahms)
L'europe Judiciaire, film documentaire, 2009 : transformation de voix de personnes enregistrées par la justice pour les rendre méconnaissables ;
Marilyn Monroe, in preparation for a spiritist session, film/ installation interactive de Philippe Parreno, fondation Beyer, 2012 : transformation d’enregistrements de voix pour leur conférer la voix de Marylin Monroe.
Equipe Représentations musicales
Projets de recherche musicale
Georges Bloch (compositeur français) – 2007 : dans le cadre du logiciel OMax, le compositeur à conçu et réalisé des éléments logiciels pour la mise au point d’une version audio temps réel, notamment en ce qui concerne les traitements audio, afin de valider les avancées du projet sur le plan de la modélisation ;
Emmanuel Nunes (compositeur portugais) – 2011 : création d'un moteur de quantification rythmique susceptible de coordonner à la fois la durée, le rythme et le tempo ; développement d'une notation dans le domaine de la polyphonie de durées et de structures rythmiques.
Projet en cours en 2012. Création prévu en Avril 2013.
Marco Stroppa (compositeur italien) - 2007-2011 : Développement et extension du moteur d’écriture de la synthèse OMChroma [Agon11a]
Création des œuvres de Stroppa (… of Silence, Hist Whist, et Re Orso) utilisant tous le moteur de synthèse OM Chroma
Roque Rivas (compositeur Chilien) – 2010 : Étude de faisabilité et extension du moteur de synthèse d’OM Chroma pour écriture de la synthèse sonore via CSound.
Création d’Assemblage pour ensemble et électronique pendant MANIFESTE 2013 HYPERLINK "http://brahms.ircam.fr/works/work/32234/"(lien brahms)
Constitution d’un groupe de travail sur l’Orchestration Automatique en 2011.
Daniele Ghisi (compositeur Italien) – 2012 : orchestration assistée par ordinateur liée à la relation entre l'étude micro-temporelle des propriétés sonores et leur agencement macro-temporel dans le discours musical.
Yann Robin (compositeur français) 2009 : Utilisation du paradigme d’improvisation automatique d’OMax dans un processus écrite et destinée à un ensemble de 3 à 5 solistes. Rapport publié HYPERLINK "http://articles.ircam.fr/textes/Robin09a/"http://articles.ircam.fr/textes/Robin09a/
Création de Inferno pour grand orchestre et électronique, MANIFESTE 2012 HYPERLINK "http://brahms.ircam.fr/works/work/31958/"(lien brahms)

Projets de production
OpenMusic
Une grande partie des pièces en production à l’Ircam utiisent OpenMusic pour le calcul et la visualisation de matériaux et des structures musicales, ou pour la réalisation de synthèses et de spatialisations sophistiquées dont une partie doit être conçue en temps différé.

Quelques productions récentes :

Tristan Murail : Les sept paroles, Ircam-Agora 2010, création Radio France 12/06/2010.
Traitement de la voix, OpenMusic, OM-SuperVP

Marta Gentilucci : sons de synthèse pour exp.doc...et juv, projet Cursus 1, création ircam-Espro 27/03/2010.
OpenMusic, OMChroma

Roque Rivas, Compositeur en recherche Ircam 2011.
Projet OpenMusic, OMChroma.

Shanta Rao : Skyline (2011) Biennale de Belleville / Nuit Blanche de Paris.
Traitement d’images et génération de séquences video avec OM, bilbiothèque Pixels

Marco Stroppa : Re Orso, opéra pour 4 chanteurs, 4 acteurs, ensemble, voix et sons imaginaires, spatrialisation et totem acoustique. Production Ircam, Création mondiale à l’Opéra Comique les 19, 21 et 22 mai 2012.
Synthèse de voix et autres sons à partir du synthétiseur Chant et OpenMusic
Contrôle du Disklavier par OpenMusic
Réalisation des sons électroniques avec OMChroma

OM Composer’s Book

De 2006 à 2008, le projet OM Composer’s Book (deux volumes) a permis de recenser, de documenter et de publier dans le détail technique un nombre non exhaustif de pièces musicales écrites avec OpenMusic, dans le contexte de production de l’Ircam, ou de manière indépendante.

Créations musicales à l’aide d’OpenMusic recensées dans OM Composer’s Book :

Michel Amoric Tombeau de Marin Mersenne
Kaija Saariaho L’Amour de loin
Georges Bloch Fondation Beyeler: une empreinte sonore
Karim Haddad No one to speak their names (now that they are gone)
In lieblicher Blaue...
Adagio
Mauro Lanza Aschenblume
Jean-Luc Hervé Encore
Johannes Kretz Second Horizon
Philippe Manoury K…
Fabien Lévy Hérédo-Ribotes
Paola Livorsi Os
Mikhail Malt Six Fractal Contemplations
Paul Nauert A Collection of Caprices
Ketty Nez Sculpted Implosions
Hèctor Parra Strette
Luis Antunes Pena Klangspiegel
Örjan Sandred Kalejdoskop
Kilian Sprotte Fernweh
Elaine Thomazi-Freitas Derrière la Pensée
Brian Ferneyhough String trio
Unsichtbare Farben
Stellæ for failed times
Karim Haddad First Attempted Escape From Silence: Tunnels
Livre Premier de Motets
Philippe Hurel Hors-Jeu
Asbjørn Schaathun Double Portrait
Christopher Melen Six Metal Fugue
Simon Mawhinney Starbog
Elvio Cipollone Concerto
Shlomo Dubnov Memex
Composer Duets
Christian Jaksjø Ungrounded [Zonnestraal] I
Zonnestraal
Philippe Leroux VOI(REX)
António de Sousa Dias "Dói-me o luar"
Ressonâncias - Memórias
Claudy Malherbe Locus
PerMagnus Lindborg TreeTorika
Grégoire Lorieux Langage de l'ombre
Manuel Rocha Iturbide Transiciones de fase
Hans Tutschku Distance liquide
Tolga Tüzün Metathesis


Compositeurs répertoriés utilisant couramment OpenMusic pour leurs créations

Marta Gentilucci (Italie / France)
Joshua Fineberg (Boston University, USA)
Philippe Leroux (McGill, Canada)
Mauro Lanza (Italie / France)
Fabien Lévy (Columbia University, USA)
Yan Maresz (France)
Tristan Murail (Columbia University, USA / France)
Marlon Schumacher (McGill, Canada)
Georgia Spiropoulos (France / Greece)
Marco Stroppa (Musikhochschule Stuttgart )
Christopher Trapani (USA)
Aaron Einbond (USA / Grande Bretagne)
Francesca Verunelli (Italie / France)
Pierre Michaud (Université de Montréal, Canada)
Sean Ferguson (McGill, Canada)
Frank Gratkowski (Germany)
Rozalie Hirs (Pays Bas)
Jean-Michel Darremont (France)
Alireza Farhang (Iran / France)
Sébastien Gaxie (France)
Roque Rivas (Chili / France)
Torsten Anders (Royaume Uni)
Takuya Imahori (Japon)
Juan Cristobal Cerrillo (Stanford, USA)
Edmund Campion (Berkeley, USA)
…
[+ 324 compositeurs abonnés au OpenMusic User group sur les listes Ircam ]

Utilisations pour l'enseignement de la composition

Ircam (Mikaïl Malt, Grégoire Lorieux, Eric Daubresse)
CNSMDP (Karim Haddad)
Musikhochschule Stuttgart (Marco Stroppa)
Université de Saint-Etienne (Laurent Pottier)
Columbia University (Trsistan Murail)
[ … ]
Ateliers –concerts et master-classes OMax
Le logiciel Omax d’interaction improvisée avec l’ordinateur est issu des recherches de l’équipe Représentations Musicales. Il est utilisé par de nombreux musiciens et suscite aussi un intérêt marqué des artistes comme des scientifiques, étant à la croisée de l’écoute artificielle, des langages formels et de l’ordonnancement audio-numérique. L a plupart des manifestations liées à OMax impliquent des collaborations artistiques et sont rassemblées dans cette section.

Assayag, G., Chemillier M., Bloch, G., Lévy, B. : Omax est présenté au festival de Jazz d’Uzeste (concerts grande scène , conférences-ateliers, ateliers des jeunes) chaque année au mois d’août (2007-2012). Musiciens : Bernard Lubat, Jacques di Donato, Sylvain Roux, François Corneloup, Hélène Schwartz
Assayag, G., Chemillier M., Bloch, G., Lévy, B. : au workshop international Improtech 2012 Paris New-York, organisé par l’Ircam, NYU et Columbia U., OMax a été présenté aux ateliers et utilisé en concert dans la prestigieuse salle Roulette, avec Bernard Lubat, Mari Kimura, Vijay Iyer (Musicen Jazz de l’année 2010 JJA, quintuple award DownBeat Critics Poll 2012) , Steve Lehman (#1 Jazz Album of the year by The New York Times in 2010), Raphael Imbert, Sandeep Bachwati, Brice Martin, Denis Beuret, Lori Freedman (nominated Clarinetist of the Year in 2003, ’04, and ’06 at National Jazz Awards), Laurent Mariusse
Assayag, G., Lévy, B., Des puces, des souris et des hommes, le 15 mars 2011 à 18h30 à l'ENS avec le Musée des confluences et le GRAME, avec Jacques Samarut, Président ENS de Lyon, Jacques Di Donato, clarinette – conférence-performance Omax.
Assayag, G. Lévy, B. concerts atelier avec la compagnie Nine Spirit à Marseille Cave à Jazz (20 Janvier 2011) et Aix-en-Provence Seconde Nature (15 novembre 2011)
Lévy, B., Chemillier M., concerts ateliers au festival d’Uzeste avec Bernard Lubat (14 au 18 Aout 2011), ateliers ouverts avec les jeunes musiciens
Lévy B., Lehman S., Kimura M., ateliers et sessions OMax à l’Ircam (juillet 2011). En juin et juillet 2011, Steve Lehman, saxophoniste new-yorkais intéressé par le système OMax est invité en recherche dans l’équipe Représentation Musicale.
Lévy, B., Chemllier M. Dans le cadre du projet ANR ImproTech ainsi que de la réunion annuelle du LAHIC, le système OMax a été expliqué et une démonstration a eu lieu le 9 février 2011 à Carcassone . OMax interagissait notamment avec Raphaël Imbert (saxophoniste).
Lévy B., Assayag G. Dans le cadre du département pédagogique de l’Ircam, les compositeurs en formation (Cursus 1) ont pu assister à une présentation d’OMax le 21 février 2011. Des aspects plus compositionnels d’OMax ont été abordés.
Lévy B., Assayag G. Dans le cadre du groupe de travail «Modélisation des systèmes complexes» organisé au CNAM par François Dubois, une introduction à OMax a été présentée par Gérard Assayag et Benjamin Lévy le 7 mars 2011.
Lévy B., De mars à juin 2011, à la demande de l’ensemble de musique contemporaine «Court-Circuit», un atelier pédagogique à destination de collégien a été organisé. Le système OMax, interfacé avec des joystick a été enseigné à un groupe de 5 collégiens au cours de 8 séances de 1h30. Étalées du 14 mars au 20 juin, les séances ont donné lieu avec une restitution publique à destination des parents d’élève le 24 juin 2011
Lévy B., Assayag G. Bloch G. Un atelier OMax a été proposé à la classe d’improvisation générative du CNSMDP (dirigée par Alexandros Markéas et Vincent Lê Quang) le 31 mars 2011. Une douzaine d’élèves musiciens ont eu l’occasion de jouer avec le système contrôlé par Gérard Assayag, Georges Bloch et Benjamin Lévy.
Lévy B. Dans le cadre du département Médiation Recherche/Création de l’Ircam, un atelier à destination des Réalisateurs en Informatique Musicale a été présenté le 13 avril 2011. Excellents programmeurs et musiciens en contact direct avec les compositeurs, il s’agissait d’apprendre aux RIM à utiliser, programmer voir détourner OMax pour une utilisation expérimentale.
Lévy B., Assayag G. À l’occasion des 10 ans du séminaire MaMux (Mathématique et musique) de l’Ircam, une séance spécialement dédiée aux graphes a été organisé par Moreno Andreatta. Benjamin Lévy et Gérard Assyag ont présenté et joué avec le système à cette occasion, interagissant avec Vincent Lê Quang (saxophoniste, Pr. CNSMDP).
Lévy B. Dans le cadre de la 3rd Mathematics and Computation in Music (MCM2011) organisé par l’Ircam et en partenariat avec le Palais de la découverte, un «stand» d’initiation OMax à destination des visiteurs du Palais de la découverte a été tenu et animé par Benjamin Lévy le 18 juin 2011.
Lévy B. Assayag G. Dans le cadre du département pédagogique de l’Ircam, 10 compositeurs en formation (Ircam Overview) pour un mois ont pu assister à une présentation d’OMax le 24 juin 2011.
Assayag, G., Bloch, G., Lévy, B., Warnier, J., Master classes au CNSMDP, classe de Jazz de Ricardo del Fra (novembre 2010) , et à l'école de musique de Brive-la-Gaillarde (février 2010), dans le cadre du projet ANR ImproTech.
Concert improvisation avec le logiciel OMax, Brice Martin, basson, Michel Doneda, saxophone, Beñat Achiary, chant, Médéric Collignon, voix & cornet, Benjamin Lévy, OMax (développement, réalisation informatique musicale), Ircam-Centre Pompidou, Paris, 11/02/2010
Installation sonore in Teatro Delle Esposizioni, Yann Robin, compositeur, Benjamin Lévy, OMax (développement, réalisation informatique musicale), Villa Medicis, Académie de France à Rome, Italie, 03-05/06/2010
Journée d’expérimentation Omax dans le cadre du projet ECMCT soutenu par le programme Leonardo de la commission européenne. Organisé par Cyril Beros, 5 juillet 2008. Gérard Assayag et Georges Bloch avec Cécile Daroux, Alexandros Markeas, Vincent Lê Quang, Laurent Mariusse, Albert Tovi.
Gérard Assayag, Georges Bloch, Workshops, ateliers-concert OMax 2007 : Mathematics and Computation in Music 2007, Berlin, 20 mai 2007, IHM 2007, Ircam, 13 novembre 2007, Ateliers publics Compagnie Lubat, Uzeste, 3 novembre 2007, Colloque Esthetique et logique : de Leibniz aux contemporains, Clermont-Ferrand , 30 octobre 2007, dans le cadre du programme ANR « Subjectivité et aliénation », Nuit des chercheurs, Nantes ; 28 septembre 2007. Musiciens : Bernard Lubat, François Nicolas, Laurent Mariusse., Jean-Brice Godet, Paul Steinbeck, jacques di Donato

Equipes Représentations Musicales  et Interactions musicales temps réel : logiciel AnteScofo
Projets de recherche musicale
Vassos Nicolaou – 2009 : étude d’écriture électronique concurrent et suivi de partition polyphonique sur Vibraphone.
Rapport publié : HYPERLINK "http://articles.ircam.fr/textes/Lemouton09c/"http://articles.ircam.fr/textes/Lemouton09c/
Création d’Otemo en AGORA 2010
Projets de production
Plus de 40 créations ont utilisé Antescofo depuis 2007, donnant lieu à plus de 30 événements par an ; une sélection est donnée ci-après d’œuvres ayant fait appel à Antescofo comme outil d’écriture et synchronisation :
Création de Concerto de piano de Philippe Manoury, Salle Pleyel/Orchestre de Paris, 2012
Création de Tensio de Philippe Manoury pour quatuor à corde et électronique, 2010
Reprises à Vienne, Lucerne et Paris en 2012.
Création de Re Orso de M. Stroppa (Opéra), 2012
Création de Einspielung d’Emmanuel Nunes pour violon et électronique, 2011
Création de l’opéra Quartett de Luca Francesconi, 2011 à l’ Opéra La Scala de Milan.
Création de Speakings de Jonathan Harvey, BBC Orchestra/PROMS, 2008
Reprises en Ecosse, Lucerne et Londres.
Prix Monaco pour la composition contemporaine
Portage de toutes les œuvres temps réel de Pierre Boulez à Antescofo avec nombreuses reprises internationales, dont :
Philharmonique de New York, Juin 2012 pour Explosante-Fixe
Philharmonique de Los Angeles, Janvier 2008 pour Explosante-Fixe
London Sinfonieta, 2011
BBC PROMS 2012 pour Anthèmes 2
Equipe Interactions musicales temps réel
Projets de recherche musicale
Ben Hackbarth (compositeur américain) – 2010 à 2011 : création d'un algorithme de synthèse à base d'échantillons sonores pour la synthèse concaténative, contrôlé par des schémas d'écriture temporelle et harmonique.
Donnera lieu à une création avec EOC en 2014.
Rapport publié.
Marco Suarez Cifuentes (compositeur colombien) - 2010 : Approche d’écriture compositionelle aux algorithmes d’analyse et re-synthèse des échantillons contrôlée par l’analyse temps réel (Musaicing).
Création de Cameleon Kaleidoscope en 2010
Rapport publié : HYPERLINK "http://articles.ircam.fr/textes/SuarezCifuentes10a/"http://articles.ircam.fr/textes/SuarezCifuentes10a/
Florence Baschet (compositrice Française) – 2007-2008 : Étude de l’intégration des outils d’écriture et suivi gestuels.
Rapports publié, plusieurs publications scientifiques… .
Création de StreicherKreis pour quatuor à cordes et électronique en 2008
Hector Parra (compositeur espagnol) : 2007 - conception d’esquisses musicales pour violoncelle en vue d’explorer la captation du geste musical et sa formalisation.
Ivan Fedele (compositeur Italien) – 2010 : Étude de reconnaissance de geste de percussion et les algorithmes de mapping pour la synthèse sonore.
Création de La pierre et l’étang au festival Agora 2011 HYPERLINK "http://brahms.ircam.fr/works/work/28262/"(lien Brahms)
Mari Kimura (compositrice Japonaise) – 2010 : travail de recherche sur l'utilisation musicale du violon augmenté et extension de son vocabulaire gestuel dans une situation de performance musicale.
Rapport publié
Thomas Grill (compositeur Autrichien) – 2011 : Étude de la relation entre un geste perçu dans un son et le geste comme producteur du son.
Rapport publié et envoyé à NIME 2012.
Thierry De Mey (compositeur Belge) – 2012 : création d'une taxonomie du geste pour la gestion et l'écriture de processus électroniques.
Création prévu au festival Manifeste 2013.
Projets de production
Synthèse basée sur des sons enregistrés/corpus, captation de geste
Luna Park de Georges Aperghis, création Agora 2011 ; Schnell, N. et Fléty E.
Cameleon Kaleidoscope, pièce pour ensemble de Marco Antonio Suarez Cifuentes, Biennale Musiques en scène Lyon, 2010, Schnell, N. (analyse et resynthèse temps réel)
Speakings de Jonathan Harvey, (2008) pour orchestre et électronique. Commande BBC Glasgow, Ircam-Centre Pompidou, Radio France. Utilisation de traitements temps réel utilisant Gabor, collaboration avec Schnell .N.
Grainstick, installation interactive de Pierre Jodlowski, 2009–2010 ; Collaboration avec Leslie G., Schwarz D., Warusfel O., Bevilacqua F., Zamborlin B., Schnell N. 
Swarming essence  de HYPERLINK "http://www.daifujikura.com/"Dai Fujikura, 9 juin 2007, festival Agora, Ircam, Paris, Schwarz D. :
Whisper Not  de Stephano Gervasoni, Printemps des Arts, Monaco et festival HYPERLINK "http://agora.ircam.fr/"Agora 2007, Ircam, Paris, 14 juin 2007, Schwarz D. :
Beside Oneself de Aaron Einbond, pour violoncelle et électronique, Cursus 1 2007–2008, Ircam, Schwarz D. :
Conical Intersect et HYPERLINK "http://brahms.ircam.fr/works/work/20868/"Mutations of Matter de Roque Rivas », festivals Agora 2007, 2008, Schwarz D. :
What the Blind See, de Aaron Einbond, pour petit ensemble and électronique, Cursus 2, Agora 2009, Schwarz D., Bresson, J. ::
Topophonie Mobile, installation de réalité augmenté géolocalisée de Schwarz D et Schnell N. : festival Futur en Seine juin 2011, juin 2012
MindBox, installation de Christian Graupner (HUMATIC), Norbert Schnell and Roberto Zappalà (Compagnia Zappalà Danza), Festival CynetArt Dresden, 2009, Festival Uva Grapes Catania, 2010, Japan Media Arts Festival, Tokyo National Arts Center 2011, EMPAC Experimental Media & Performing Arts Center USA 2011, SID Exhibition 2011 Oslo, L HYPERLINK "http://www.lab30.de/en" \t "new" ab30 Media Arts Festival Germany 2011, CARTES FLUX 2011 Festival Of New Media Art, Helsinki, Finland 2011, AO PERFORMING FESTIVAL, Milano 2011
Xe-Rocks, installation de Cecile Babiole, espace multi-media Gantner, Boulogne, 2009, Schwarz D. :
And All the Questionmarks Started to Sing, pièce de théâtre/installation du Verdensteatret « », Oslo, Shanghai, New York, Québec, Bruxelles, Florence, Essen, Prague, … 2009–2012, Schnell N., Schwarz D., Borghesi, R.
HYPERLINK "http://yarnwire.blogspot.com/2010/02/aaron-einbonds-passagework.html"Passagework de Aaron Einbond, New York février 2010, Schwarz D.,
Le lieu d’un autre centre, Schwarz D., Blondy F.  Paris, London, Lausanne 2011
ACCLRTR, installation interactive de Lallemand I. et Schwarz D., journées art–science, printemps de la culture, Orsay, mai 2012
HYPERLINK "http://manifeste.ircam.fr/1053.html?event=1114"Tamonontamo, pièce de Maurilio Cacciatore, Schwarz D., Lallemand I., festival ManiFeste, Ircam juin 2012
Violon et instruments augmentés
Partita 1 de Philippe Manoury, pour violon alto augmenté et électronique, Christophe Desjardins: alto. Bevilacqua F., Fléty E, Schwarz D.,
Tentatives de réalité d’Hector Parra, , pour violoncelle augmenté et électronique, Pierre Strauch: violoncelle, Collaboration avec Bevilacqua F., Fléty E,
StreicherKreis, de Florence Baschet, pour quatuor à cordes augmenté, création Quatuor Danel, Bevilacqua F., Fléty E, Demoucron M.
La pierre et l'étang (…les temps…) d’Yvan Fedele, (2010-2011) pour un percussionniste, quatuor à cordes, orchestre à cordes et électronique. Captation du geste de percussionniste et des instruments à cordes ; Bevilacqua F et Zamborlin B., Fléty E.
Tensio de Philippe Manoury, pour quatuor à cordes et électronique. Utilisation de descripteurs audio en temps réel.

Collaboration avec Mari Kimura (violoniste), Bevilacqua F., Fléty E, Rasamimanana N. Schnell, Zamborlin B.
Mari Kimura, Phamtom for violin and interactive computer, commissioned by Toni Dove through Here.org. Premiered at Here.org, NYC, 09.
Mari Kimura, Clone Barcarolle for violin and Augmented Violin (Ircam), premiered at Issue Project Room, ’09.
Mari Kimura, Canon Elastique for violin and Augmented Violin (Ircam), premiered at Tenri Cultural Institute, ’10.
Mari Kimura, Pédalé, Pédalé! for violin and Augmented Violin (Ircam), premiered at Tenri Cultural Institute, ’10.
Mari Kimura, VIOMAX for violin and Augmented Violin (Ircam), premiered at Tenri Cultural Institute, ’10.
Suivi de voix et transformation, suivi d’orchestre
La Muette, pour voix de femme, ensemble et électronique de Florence Baschet, 2012 (création à l’Ircam). Suivi de voix et suivi d’orchestre, F. Bevilacqua
HYPERLINK "http://www.ircam.fr/images_d_une_oeuvre.html" \l "c519"Un mage en été, Théâtre contemporain, L. Lagarde & O. Cadiot, Création mondiale: Festival d'Avignon, Théâtre municipal, Avignon, 20-27 Juillet 2010.
In-Vivo, académie, théâtre contemporain, Manifeste 2012, CentQuatre/Bouffes du Nord, Paris, 27-29 Juin 2012. Metteurs en scène: L. Lagarde, G. Vincent, E. Rousset, M. Roy et C. Teste. Utilisation du suivi du geste (collaboration Bevilacqua F.)
Captation et analyse de geste dansé
Glossopeia, musique d’Alberto Posadas, Chorégraphie de Richard Siegal ; Dispositif de captation gestuelle Ircam/ Bevilacqua F., Fléty E. Zamborlin B
If/Then Installed de Richard Siegal, Frédéric Bevilacqua, Florent Bérenger, Hillary Goidell, Jean-Philippe Lambert, Centre Pompidou, Paris, Nov. 23 - Jan. 2012, Play Admont, Museum of Contemporary Art, Stift Admont, Austria, 3 June - 7 November 2010, Notation. Kalkül und Form in den Künste, ZKM, Karlsruhe, 2009, Festival Agora, Ircam, Paris, 2009, Imagining Media@ZKM, Karlsruhe, 2010-2011
Double Skin/Double Mind, installation interactive de Chris Ziegler, Frédéric Bevilacqua, Bertha Bermudez, Martin Bellardi, Sarah Fdili Alaoui, SEAM 2010, Sydney (AU), Panorama International Festival, 2010, Rio de Janeiro/Brazil, SpringDance, April 16-18 2008, Utrecht (NL), 1. Biennale der Tanzausbildung, March 1-3 2008, Berlin (D)


Annexe : Organisation de colloques et séminaires
Les colloques et événements publics d’une part, séminaires d’autre part, organisés par l’unité sont présentés ci-après par ordre chronologique.
Colloques
Colloque Politiques de l’analyse musicale
Ircam, 27-28 avril 2007

Argument
Les récentes mises en cause du paradigme dit formaliste en musicologie (fondé sur la croyance en la neutralité idéologique et la fonction objectivante de l’analyse musicale de partition) invitent à considérer à nouveaux frais les liens entre l’analyse technique des esthétiques musicales et l’inscription sociale et politique des œuvres. Dans la nouvelle configuration disciplinaire, la pensée de Theodor W. Adorno, qui fait de l’analyse le moment de dévoilement de déterminismes sociaux dont la mise en forme artistique constitue le contenu de vérité de l’œuvre, peut paraître une alternative séduisante, dont l’influence n’a d’ailleurs cessé de croître ces dernières années, y compris dans des perspectives assez éloignées de son propos initial. Cependant, sans parler de la difficulté d’adhérer aujourd’hui à une vision du monde et de l’art musical élaborée dans la confrontation avec les totalitarismes et la Guerre froide (et réaffirmant la valeur morale des hiérarchies induites par le canon classique prolongé par la Seconde école de Vienne), il est clair qu’une application non mécanique des idées d’Adorno confronte rapidement le musicologue d’aujourd’hui à des problèmes épistémologiques et méthodologiques considérables.
Dès lors, l’historicisation critique des discours usuels sur la musique semble un pas incontournable, de même que le développement de nouvelles approches empiriques des phénomènes musicaux. Cela permet de poser d'une façon inédite la question de la formalisation, de ses implications et de sa fécondité, tout en posant à nouveaux frais la question de savoir si une herméneutique du politique ou du social reste un horizon possible et souhaitable de l’analyse musicale (et, partant, de la discipline musicologique en tant qu’exégèse des œuvres). Ce colloque international a fait le point sur ces questions, en les organisant autour de deux axes complémentaires : qu’en est-il de la dimension politique des savoirs analytiques du passé, et de ses prolongations dans les usages actuels des musicologues ? Qu’en est-il du projet d’une pratique analytique contemporaine qui se donnerait comme objet précisément l’élucidation du lien entre musique et politique ?

Organisateurs : Esteban Buch (CRAL, EHESS), Laurent Feneyrou (CNRS), Nicolas Donin (Ircam)
Participants : Gianmario Borio (Université de Pavie), Kofi Agawu (Université de Harvard), Rémy Campos  (CNSMDP), Esteban Buch, Laurent Feneyrou, Lawrence Kramer (Université Fordham, New York), Maud Lambiet  (CRAL/EHESS), Lothaire Mabru (Université de Bordeaux 3), Yann Rocher (CRAL/EHESS), Manuel Deniz Silva (CESEM/Université Nouvelle de Lisbonne), Martin Kaltenecker (Paris), Beate Perrey (Université de Cambridge), Hermann Danuser (Université Humboldt, Berlin)
Colloque sur les nouveaux paradigmes de l’informatique musicale
Ircam - 11 juin 2007
HYPERLINK "http://agora2007.ircam.fr/ago2007_jourparjour.html?date=20070611&event=546"http://agora2007.ircam.fr/ago2007_jourparjour.html?date=20070611&event=546

Argument
Le langage musical qui utilise les logiciels est tributaire des modèles conceptuels (les paradigmes) inventés par des informaticiens et des chercheurs en informatique musicale. Quels paradigmes informatiques récents pourront élargir le vocabulaire musical ? Quels modèles musicaux - concernant notamment la représentation du temps - pourraient être source d'inspiration pour l'informatique ?
Nombre de technologies pour la musique - logiciel et matériel - d'aujourd'hui sont basées sur des paradigmes qui étaient déjà présents quand le domaine de l'informatique musicale s'est créé, il y a trente ans. La recherche à l'Ircam, motivée par des objectifs musicaux précis, a souvent été à la pointe de la science informatique. Le développement des systèmes temps réel (4X, Max/MSP), les langages orienté objets (Formes), la programmation par contraintes (Situation) et visuelle (OpenMusic) en sont autant d'exemples.
Aujourd'hui, l'évolution du développement technologique pour la musique a atteint un niveau de maturité conceptuelle et technique tel que, lorsqu'on regarde vers l'avenir, il est vital d'examiner les nouveaux paradigmes de calcul qui ont émergé dans la science informatique afin d'évaluer leur potentiel et leur pertinence pour les applications futures.
Ces idées pourraient, d'un côté, servir de source d'inspiration pour des projets musicaux et, de l'autre, être utilisées pour résoudre des problèmes jusqu'ici sans solution. En même temps, certains problèmes rencontrés dans la musique informatique - comme, par exemple, la représentation du temps sous ses différentes formes - pourraient être une source d'intérêt pour la communauté de la science informatique.
Le but de ce colloque est ainsi de rassembler des acteurs majeurs aussi bien dans le domaine de l'informatique scientifique que musicale afin de susciter des échanges à plusieurs niveaux et esquisser quelques perspectives pour le futur.

Intervenants
Carlos Agon (Équipe Représentations musicales, Ircam, Paris, France) | Philippe Codognet (Université de Paris 6, France et Ambassade de France à Tokyo, Japon) | Pierre Cointe (Département de l'Informatique. École des Mines de Nantes, France) | Alexandre François (Computer Science Department, Viterbi School of Engineering, USC, USA) | Yann Orlarey (GRAME, Association, Lyon, France) | Camilo Rueda (Science and engineering of computing. Universidad Javeriana-Cali, Colombie) | Peter Van Roy (Département d'Ingénierie Informatique. Université catholique de Louvain, Belgique).
Prolongé par un livre publié en 2008 dans la collection Musique-Sciences, Ircam-Delatour.
IHM’07 : conférence francophone sur l’interaction homme-machine
Ircam, 12-15 novembre 2007
HYPERLINK "http://ihm07.ircam.fr/"http://ihm07.ircam.fr/

L’Ircam (et son laboratoire UMR 9912 Sciences et technologies de la musique et du son) a organisé et accueilli l’édition 2007 du colloque IHM’07, conférence francophone annuelle sur l’Interaction Homme Machine, en collaboration avec l’AFIHM (association francophone d’interaction homme-machine). Ce colloque représente la principale rencontre annuelle de cette communauté internationale (France, Belgique, Canada, Suisse, Pays du Maghreb), dont d’autres éditions ont été organisées hors France (Montréal 2006, Namur 2004).

Comité d’Organisation : Hugues Vinet, Olivier Delerue, Carlos Agon, Jean Bresson, Sylvie Benoit, Gérard Assayag, Frédéric Bevilacqua, et les services transversaux de l’Ircam.

Comité de programme
Présidents : Michel Beaudouin-Lafon (LRI) et Hugues Vinet (Ircam)
Christian Bastien (Univ. Paris 5), Thomas Baudel (ILOG), Yacine Bellik (LIMSI), Stéphane Conversy (ENAC), Sabine Coquillart (INRIA), Bertrand David (Ecole Centrale Lyon), Patrick Girard (ENSMA), Yves Guiard (CNRS- Univ. Méditerranée), Christophe Kolski (LAMIH), Eric Lecolinet (Télécom Paris), Guy Mélançon (LIRMM), Monique Noirhomme (FUNDP Namur), Philippe Palanque (IRIT), Franck Poirier (Univ. Bretagne Sud), Dominique Scapin (INRIA), Franck Tarpin-Bernard (INSA Lyon)

Keynotes : Bill Buxton (Microsoft Corp.), Hugues Vinet (Ircam), Pr Paolo Viviani (Université de Genève).
Rencontre professionnelle Interfaces homme-machine et production audiovisuelle
Journée organisée par le pôle de compétitivité Cap Digital et l’Ircam-Centre Pompidou, événement associé à la conférence IHM07.

Argument
La généralisation des techniques numériques et informatiques dans la production audiovisuelle a permis de nombreuses avancées, hier encore inconcevables : captation, synthèse et traitement de haute qualité des images et des sons ; processus non destructifs permettant expérimentation et simulation sans limites ; accès instantané et navigation dans de grandes quantités de contenus ; travail collaboratif interactif et massivement parallèle. Ces avancées, aujourd'hui banalisées sur des équipements informatiques courants, ne sont plus réservées aux seuls professionnels.
Les interfaces homme-machine - représentations ou matériels, par lesquelles passe toute action de l'utilisateur - ont-elles été adaptées à ces évolutions ? Quelles métaphores doivent-elles suivre pour mettre effectivement la puissance numérique au service de la création et de l'interaction ? Comment favoriser efficacité et créativité face à la complexité croissante des opérations ? Quels modes de manipulation intuitive peut-on concevoir pour les rendre accessibles au plus grand nombre ?
Cette journée s'est adressée à tous les professionnels, concepteurs, utilisateurs et chercheurs confrontés à ces questions. Son objet était de faire le point sur l'évolution des IHM dans les métiers de production audiovisuelle, en dégageant bilans et points de vue critiques et prospectifs.

Organisateurs : Hugues Vinet (Ircam) et Jean Gaillard (Mikros Image)
Participants : Bill Buxton (Microsoft Corp.), Guillaume Largillier (Statum SAS), Frederick Rousseau (Musicien), Didier Giraud (Institut national de l’audiovisuel), Mike Mages (DSC Lab, ex-Apple Corp.), Glenn Reid (concepteur d’iMovie et iPhoto, ex-Apple Corp.), Jean-Noël Portugal.
Symposium Autour de la Théorie Générative de la Musique Tonale de Fred Lerdahl et Ray Jackendoff
Vendredi 11 et samedi 12 janvier 2008 – Ircam et ENS
Sur les rapports entre approches schenkeriennes, grammaires chomskiennes et théories génératives de la musique
Organisateurs : Irène Deliège (ESCOM) et Moreno Andreatta (Ircam/CNRS)
Le Symposium est organisé en collaboration avec l’équipe « Patrimoines et Langages Musicaux » (PLM) de l’Université de Paris IV-Sorbonne, le LEAD (CNRS UMR 5022) et avec le soutien de l’ESCOM (European Society for the Cognitive Sciences of Music), la SFAM et l’AFIM (groupe de travail « Mathématiques/Musique & Cognition »).
2nd International Workshop on Learning Semantics of Audio Signal (LSAS)
21 juin 2008
Co-chair : Geoffroy Peeters, Paris, France,
Colloque international Genèses musicales : méthodes et enjeux
Maison Heinrich Heine et Ircam, 22-23 mai 2008

Organisateurs : Nicolas Donin (Ircam), Almuth Grésillon (ITEM, CNRS), William Kinderman (Université d’Urbana-Champaign, Illinois)

Participants : Bernhard Appel (Beethoven Haus, Bonn), Rémy Campos (CNSMDP), Pierre-Marc De Biasi (ITEM-CNRS), Daniel Ferrer (ITEM-CNRS), William Kinderman, Jean-Louis Lebrave (ITEM-CNRS), Raphaëlle Legrand (Université de Paris-Sorbonne), Michaël Levinas (CNSMDP), Lewis Lockwood (Université de Harvard), Patrizia Metzler (Paris), Robert Piencikowski (Fondation Paul Sacher, Bâle), John Rink (Université Royal Holloway, Londres), Herbert Schneider (Université de la Sarre), Katherine Syer (Université d’Urbana-Champaign, Illinois), Cristina Urchueguia (Zurich)
Colloque international l’Expressivité dans la musique et la parole
Ircam- mardi 17et mercredi 18 juin 2008
HYPERLINK "http://agora2008.ircam.fr/767.html?event=670"http://agora2008.ircam.fr/767.html?event=670

Argument
L’analyse de l’expressivité dans la parole et dans la performance musicale sont deux champs de recherche scientifique émergents et fortement pluridisciplinaires.
Le récent parallélisme de ces recherches sur le rôle de la prosodie (verbale et/ou instrumentale) dans l’expressivité fait naître de nouvelles questions à la frontière des deux médiums. Ces questions sont sans cesse posées, de manière plus ou moins directe, par une communauté artistique qui « manipule », depuis longtemps, le geste expressif. Afin de réunir les nombreux acteurs de ces domaines artistique et scientifique, cette conférence est axée sur deux questions majeures :
Comment définir les expressivités communes à la parole et à la musique (quel champ sémantique, catégorisation) ? Quels sont les éléments acoustiques communs à la musique et à la parole qui permettent la description de ces expressivités ? Ces questions seront traitées en prenant en compte le point de vue des compositeurs, chercheurs scientifiques, interprètes et musicologues.
Ce colloque — qui se déroule à l’Ircam pendant le festival Agora — est partie intégrante du cycle « Expressivity in MUsic and Speech » (Emus) qui a lieu à Lyon, Paris et Campinas (Brésil).
En contrepoint du colloque scientifique, l’Ircam organise, en collaboration avec le Conservatoire national des arts et métiers, une soirée destinée au grand public. Cet événement tentera de faire le point d’une façon accessible sur les recherches actuelles tant sur le plan scientifique que musical.

Comité d'organisation
Andrew Gerzso (Ircam), Grégory Beller, Nicolas Obin, Xavier Rodet (Ircam, équipe Analyse-synthèse des sons), coordination : Florence Quilliard

Participants :
Klaus R. Sherer (Université de Genève), Stefano Gervasoni (Compositeur), Jacqueline Vaissière (Université de Paris 3 – CNRS), Marco Stroppa (Compositeur), Patrik N. Juslin (Université d’Uppsala, Suède), Christophe d’Alessandra (LIMSI), Gregory Beller et Nicolas Obin (Ircam), Roberto Bresin (KTH, Suède), Marcel Bozonnet (Acteur, metteur en scène), Jonathan Harvey (Compositeur), Bruno Bossis (Université Paris 4 Sorbonne), Evdokija Danajloska (Compositrice et interprète).
Colloque international ICAD’08 – International Conference on Auditory Display
Ircam, 23-27 juin 2008
HYPERLINK "http://icad08.ircam.fr/"http://icad08.ircam.fr/

La 14ème conférence internationale ICAD s’est tenue à l’Ircam pour la première fois du 23 au 27 juin 2008. Les deux workshop et le Think Tank, accueillis le 23 juin, étaient réparties sur trois lieux : la Salle Stravinsky et la salle Shannon à l'Ircam, et la salle de conférence du Centre Pompidou. La conférence principale ICAD s'est déroulée dans l'Espace de Projection à l'Ircam. Les orateurs invités étaient : Marc Leman, directeur de l'Institute for Psychoacoustics and Electronic Music (IPEM) à l'université de Ghent, et Gérard Assayag, responsable de l'équipe Représentations musicales à l'Ircam.

Comité d’Organisation : Sylvie Benoit, Olivier Delerue, Olivier Houix, Guillaume Lemaitre, Nicolas Misdariis, Patrick Susini, Hugues Vinet, Olivier Warusfel, et les services transversaux de l’Ircam.

Collaborations extérieures : Brian Katz (LIMSI – CNRS), Valérie Maffiolo (France Telecom Orange Labs), Anne Guillaume (IMASSA), Clara Suied (CNRS – UMPC), Etienne Corteel (Sonic Emotion)

Comité de programme
- Organizing & Workshop Chair : Olivier Warusfel, Patrick Susini
- Paper Chair : Anne Guillaume, Olivier Houix
- Administration Chair : Sylvie Benoit
- Demo Chair : Nicolas Misdariis
- Web Chair : Olivier Houix, Olivier Delerue, Laurent Ghys
- Press Relations : Estelle Reine-Adélaïde
Colloque Entre foi, liturgie et théologie. L’œuvre d’Olivier Messiaen à l’aune du catholicisme
Organisateur : Laurent Feneyrou (Ircam, CNRS)

Intervenants : Yves Balmer (ENS-LSH, Lyon), Sieglind Bruhn (Université du Michigan), Philippe Charru (Centre Sèvres), François Bousquet (ICP), Gilles Berceville (ICP), Rémy Campos (CNSMDP), Michel Fischer (Université de Paris-Sorbonne), Lucie Kayas (CNSMDP), Maxime Joos (CRR de Lille), Peter Bannister (Paris)
Journée d’étude Lieux de musique, III
Maison de l’architecture, 24 octobre 2008
Organisateurs : Denis Laborde (Laios, CNRS), Laurent Feneyrou (Ircam, CNRS)

Participants : Denis Laborde, Roberto Casati (Institut Nicod, CNRS), Martin Kaltenecker (CRAL, EHESS), Bernard Lechevalier
Colloque international Hommage à Elliott Carter
Ircam, 11-12 décembre 2008

Organisateurs : Max Noubel (CRAL, EHESS) avec la participation de Moreno Andreatta (Ircam, CNRS) et Nicolas Donin (Ircam)

Participants : Philippe Albèra (Conservatoire de Genève), Florence Baschet (Paris), Georges Bloch (Université Marc Bloch, Strasbourg), Christian Carey (Université de Rider), Frédéric Durieux (CNMSDP), Dorothea Gail (Université d’Oklahoma), Gregor Herzfeld (Freie Universität, Berlin), Andrew Mead (Université du Michigan), François Nicolas (Paris), Max Noubel, Eve Poudrier (Université de Yale), Raffaele Pozzi (Université de Rome III), David Schiff (Reed College, Portland), Denis Vermaelen (Université François Rabelais, Tours) (Académie de médecine), Brigitte Métra (Métra et associés), Gérard Pesson (CNSMDP)
Symposium international Musique et Cognition. Autour de l'apport de John Sloboda
Vendredi 23 janvier 2009 Ircam, Salle I. Stravinsky1, place I. Stravinsky 75004 Paris

Participants : Jane Ginsborg (Royal Northern College of Music, Manchester, UK), Daniel Müllensiefen and Geraint A. Wiggins (Centre for Cognition, Computation and Culture Goldsmiths, University of London), Mario Baroni, Rossana Dalmonte, Roberto Caterina (Univ. Bologna & Trento, Italy), Michel Imberty (université de Paris X, Nanterre), Nicholas Cook (Royal Holloway, Centre for the History and Analysis of Recorded Music, CHARM), Barbara Tillmann (CNRS, UMR 5020, Lyon), Emmanuel Bigand (LEAD/CNRS UMR 5022, Dijon), Adam Ockelford (Southlands College, Roehampton University, London), Richard Parncutt (Univ. Graz, Austria), John Sloboda (Univeristy of Keele and Royal Holloway, University of London)
Symposium international Striving for Realism: perception, sensation, technology and the auditory brain
Dans le cadre de la conference FET 09 "Science beyond fiction"
21-23 avril 2009, Prague,

Comité d’organisation : Isabelle Viaud-Delmon p.o. Commission Européenne

Les objectifs principaux de ce symposium étaient de s’interroger sur l’interaction entre le corps et l’espace pour la construction de l’identité et de la réalité, afin d’envisager le développement d’applications interactives dans lesquelles la modalité sensorielle auditive serait prioritaire et pour stimuler le développement de nouveaux paradigmes de rendu perceptif d’environnements virtuels.
Ce symposium a réuni des spécialistes du rendu audio 3D, de l’intégration multisensorielle en environnement virtuel et de la neuropsychologie de la construction de la réalité. Il a eu lieu dans le cadre de la conférence FET 09 organisée par le programme Future and Emerging Technologies de la Commission Européenne.
Colloque international La complexité dans les arts et la science
Ircam, 10-12 juin 2009
HYPERLINK "http://agora2009.ircam.fr/symposium.html"http://agora2009.ircam.fr/symposium.html

Argument
Peut-on interroger les conditions de la conception, de l'écriture, de la réalisation, de la réception sous l'angle de la complexité dans le cinéma, la littérature, la peinture, l'architecture comme dans la musique ? Les modèles scientifiques semblent nous enseigner en tout cas que les systèmes qui captent notre intérêt sont au « bord du chaos ». C'est en effet à la frontière de l'ordre et du chaos que les systèmes évoluent vers des niveaux supérieurs d'organisation et que les attracteurs sont suffisamment nombreux pour susciter un front d'innovation soutenu tout en évitant - pour l'observateur - l'épuisement cognitif inhérent à l'ordre ou au désordre total, tout en favorisant aussi des possibilités d'appropriation progressive qui réduisent à leur tour l'intensité de la surprise. Si l'on admet que de telles propriétés sont effectivement recherchées, même de manière purement intuitive, par les créateurs, on peut alors se demander s'il n'existe pas un lien qui nouerait entre elles les stratégies temporelles du compositeur, du cinéaste, de l'artiste numérique - stratégies par lesquelles est orienté d'une certaine manière le temps subjectif du spectateur - et les stratégies relatives à la complexité structurelle de l'œuvre.
Dans cette rencontre entre artistes et scientifiques, la relation au temps dépasse le cadre local des stratégies opératiques. Pour Prigogine, les bifurcations cristallisent l'histoire du système. Au sein de toutes les formes et processus de la matière ou du vivant se trouvent capturés des points de bifurcation constituant une chronologie de l'évolution des systèmes et de leurs interactions anciennes avec le milieu. Pour l'artiste se trouve aussi posé le problème du choix et de la délégation du choix.
Pour nous orienter dans le vaste réseau des questions qui pourront ainsi être partagées entre acteurs des sciences ou des arts lors de ces journées, nous avons choisi d'organiser les rencontres en trois thématiques :

la thématique Langages sera consacrée à la pensée de l'écriture, les mathématiques, les langages formels, la logique et l'informatique, la complexité algorithmique.
la thématique Conceptions se configure autour de la pensée systématique de la création, de l'engendrement, de la complexité structurale, de l'intentionnalité, des dispositifs (auto)poïétiques.
la thématique Temps, Espace et Perception abordera la complexité physique et perceptive, les modèles de mémoire, d'anticipation et de surprise, la narration, l'histoire, l'interprétation, les grandes échelles de réseaux et de sociétés.
Dans chacune de ces thématiques générales, et de manière transversale, les concepts importants des sciences de la complexité, notamment auto-organisation, autonomie et émergence dans les systèmes loin de l'équilibre, ainsi que les grands paradigmes-domaines (physique, biologie, information, etc.) seront à la fois explicités pour le public et mis à l'épreuve d'une confrontation avec les pratiques artistiques, aussi bien comme outils d'analyse que de création.

Comité de pilotage : G. Assayag, A. Gerzso, F. Madlener, H. Vinet,(Ircam), P. Bourgine (ISCPIF), J. Casti (IIASA)

Comité scientifique : M. Andreatta (Ircam), Omar Berrada (Centre Pompidou), J.P.Boon (Université de Bruxelles), P. Bourgine (ISCPIF), J. Casti (IIASA), Marc Chemillier (EHESS), J.P. Dupuy (CREA, Stanford University)

Collaborations
Ircam, CNRS, Centre Georges Pompidou, Institut des Systèmes Complexes de Paris Ile de France (ISC-PIF), CREA Ecole Polytechnique, Université libre de Bruxelles, International Institute for Applied Systems Analysis (IIASA)

Participants
Denis Weaire (Trinity College, UK), Wiebke Drenchkhan (Laboratoire de Physique des Solides, Orsay), Emmanuel Bigand (Université de Bourgogne), Philippe Albera (Conservatoires de Genève et de Lausanne, Suisse), John Casti (International Institute for Applied Systems Analysis, Vienne, Autriche), Shlomo Dubnov (University of California at San Diego, USA), Mario Caroli (Interprète), Hector Parrà (Compositeur), Lisa Randall ( Harvard University, USA), Andrée C. Ehresmann et Jean-Paul Vanbremeersch (Université de Picardie Jules Verne), Fabien Lévy (Columbia University, USA), Carl Djerassi (Stanford University, USA), Marc Chemillier (EHESS), Dmitri Tymoczko (Princeton University, USA), Geoffroy Drouin (Compositeur, EHESS), Paul Bourgine (CREA-Ecole Polytechnique, Institut des Sciences Complexes), Grégoire Carpentier (Ircam), Jean-Pierre Boon (Université Libre de Bruxelles, Belgique), Jean-Luc Hervé (Compositeur), Philippe Rahm (Architecte, Suisse).

Événements associés :
lundi 8 juin - Rétrospective Lars von Trier - Rencontre avec le cinéaste en visioconférence, Production Ircam-Centre Pompidou et Le Département du développement culturel (Les Cinémas) du Centre Pompidou. Avec le soutien du projet CO-ME-DI-A (EACEA-Projet Culture 2007-2013 de l'Union européenne).
mercredi 10 juin - Les espaces labyrinthiques de Mark Danielewski, Brian Ferneyhough et Lars von Trier - Rencontre suivie de la projection d'un court-métrage inédit de Lars von Trier, Images d'une libération (1982, 57').
En collaboration avec le Département du développement culturel (les Revues parlées) du Centre Pompidou. Avec le soutien du projet CO-ME-DI-A (EACEA - Projet Culture 2007-2013 de l'Union européenne).

vendredi 12 juin - Passage des temps - multiple. Avec :  HYPERLINK "http://agora2009.ircam.fr/bios_agora2009.html?bio=3650" \t "_blank" Jean-Pierre Dupuy,  HYPERLINK "http://agora2009.ircam.fr/bios_agora2009.html?bio=3690" \t "_blank" Raoul Ruiz,  HYPERLINK "http://agora2009.ircam.fr/bios_agora2009.html?bio=3666" \t "_blank" Renaud Camus,  HYPERLINK "http://agora2009.ircam.fr/bios_agora2009.html?bio=3636" \t "_blank" Philippe Albèra. Médiation : Marianne Alphant, Andrew Gerzso
Cette injonction proustienne, le réalisateur Raoul Ruiz, auteur d'un « Temps retrouvé », l'a intégrée dans sa vaste filmographie. Son interlocuteur, Jean-Pierre Dupuy, interroge à son tour les télescopages des temps, convoquant Henry James ou le Hitchcock de Vertigo. Le troisième invité de la rencontre, l'écrivain Renaud Camus, aura fait des « passages » des temps, un style et une chronologie, un journal et une forme privilégiée, l'églogue, capable de s'ouvrir et se propager en tout point. L'ultime mot du symposium sur la complexité revient à la musique de Berio et aux rires de sa Sequenza III, théâtre de la voix affectée du multiple.
Atelier SAME : expérimentation de prototypes d’interaction musicale
16-19 juin 2009
HYPERLINK "http://agora2009.ircam.fr/843.html?event=770&L=1"http://agora2009.ircam.fr/843.html?event=770&L=1
Le projet européen SAME, auquel participe l’Ircam, a pour objectif l’expérimentation de dispositifs technologiques offrant au mélomane de nouveaux modes d’interaction avec la musique, notamment sur les téléphones mobiles (www.sameproject.eu). Le public a été invité à découvrir et à manipuler les prototypes issus des travaux du projet et illustrant de nouveaux modes de manipulation interactive de contenus musicaux :
• Grainstick (Ircam, conception artistique Pierre Jodlowski) ; • Mobile Orchestra Explorer (université de Gênes, Italie) ; • pyDM – Contrôle expressif d’une interprétation au piano (KTH, Suède) ;
• Fishing Game (Ircam) ; • Audio Explorer (université Pompeu Fabra, Espagne) ; • Mobile Expressive Music Performance (KTH, Suède) ; • Zagora (Nokia, Finlande) ; • Mobile Sonic Plaground (TKK, université d’Helsinki, Suède) ; • Sync’n’Move (université de Gênes, Italie).

Organisation : Hugues Vinet, Olivier Warusfel, Frédéric Bevilacqua
Colloque Saxophone
Vendredi 6 novembre 2009 Ircam, Espace de projection et salle Igor-Stravinsky
HYPERLINK "http://saxophone-evenement.com/sax_espace.html"http://saxophone-evenement.com/sax_espace.html

Ce colloque s’inscrivait dans le cadre des journées Saxophone organisées autour de la personnalité du saxophoniste Claude Delangle du 4 au 6 novembre dans divers lieux parisiens. Il a été l’occasion de réunir instrumentistes, chercheurs, luthiers et un ensemble d’institutions concernées (Société française d’acoustique, associations Adolphe Sax et Saxophone événement, Conservatoire national supé- rieur de musique et de danse de Paris, musée de l’Armée et sociétés Selmer et Vandoren) pour faire un point relativement complet de l’actualité de cet instrument. Un concert en soirée comportant plusieurs créations pour saxophone (Gérard Buquet, Marco Stroppa, Philippe Leroux) et une œuvre de Franco Donatoni a clos les journées.
 % intervenants : Florence Gétreau (CNRS, Institut de recherche sur le patri- moine musical en France), Bruno Kampmann (expert en instruments de musique), Jean-Pierre Dalmont et Bruno Gazengel (Laboratoire d acoustique de l université du Maine), Jean-Paul Gauvin (Paris, entreprise Vandoren), Marco Stroppa (compositeur), Gérard Buquet (compositeur et interprète), Claude Delangle (interprète) et Marcus Weiss (interprète), Jean Kergomard (CNRS-Laboratoire de mécanique et d’acoustique), René Caussé (Ircam-CNRS), Philippe Guillemain (CNRS-Laboratoire de mécanique et d’acoustique), Gary Scavone et Antoine Lefebvre (université McGill de Montréal), Joël Bensoam et Nicholas Ellis (Ircam).
Lieux de musique IV
Opéra de Paris / Festival d’Automne à Paris,
9 octobre 2009
Lors des trois premières éditions de « Lieux de Musique », nous avions interrogé, depuis l’ancienne chapelle des Récollets, cet enthousiasme qui conduit nos grandes métropoles à se doter d’équipements somptuaires – des philharmonies, des opéras – pour en faire des icônes architecturales dans la compétition qui se joue sur la scène mondialisée des équipements culturels. 2009, changement de cible et de lieu. Nous sommes à l’Opéra-Bastille et nous nous intéressons aux lieux non dédiés : un hall de gare, un port, l’intérieur d’un pont, une usine désaffectée, un musée, une ruine, une colline, une rue… Pourquoi certains compositeurs s’obstinent-ils à faire de ces espaces des lieux de musique ? De tels lieux jalonnent l’histoire du Festival d’Automne. En 1972, Iannis Xenakis installe son Polytope dans les Thermes de Cluny. En 1987, Luigi Nono désosse Chaillot pour y installer Prometeo. En 1992, Emmanuel Nunes obtient l’arrêt des combats de boxe pour créer son Quodlibet dans la salle Wagram. En 2003, Salvatore Sciarrino fait déambuler cent cinquante saxophonistes dans le Musée d’Orsay… Mais comment ne pas évoquer Karlheinz Stockhausen sculptant la réverbération de la grotte de Jeita, près de Beyrouth, en 1969 ? Et comment ne pas questionner ces politiques publiques qui œuvrent à la conversion musicienne des friches industrielles, en Allemagne, par exemple, dans le cadre du programme Ruhr Capitale européenne de la culture 2010 ? Des responsables d’institutions, des compositeurs, des musiciens interrogent ce désir de conquête des lieux en friche, loin de l’écoute idéale promue par les philharmonies. Comme si les créateurs cherchaient à sculpter cette insaisissable fugacité du son là où on ne les attend peut-être pas, dans des lieux imaginés par eux, bricolés par eux, appropriés.

Organisateurs : Denis Laborde (CNRS), Laurent Feneyrou (CNRS)
Intervenants : Denis Laborde (CNRS), Laurent Feneyrou (CNRS), Liza Lim (Université de Huddersfield), Brigitte Métra (Paris), Birgit Ellinghaus (Unesco), Lieven Bertels (Concertgebouw de Bruges)
Journée Corps, espace et audition: Approche interdisciplinaire
Body Space and Hearing : an Interdisciplinary Approach
Mardi 10 novembre 2009  salle Stravinsky, Ircam  
Atelier international dans le cadre du projet EarToy (ANR RIAM 2006)

Cet atelier a rassemblé des chercheurs de plusieurs disciplines intéressées par la perception du corps, la perception de l’espace et l’intégration des différentes modalités sensorielles. 
Son objectif principal est de stimuler la recherche sur les relations entre la perception du corps et la perception auditive, et d’encourager les discussions et collaborations entre chercheurs en science et chercheurs en art.
programme sur :  HYPERLINK "http://www.ircam.fr/calendrier.html?event=853"http://www.ircam.fr/calendrier.html?event=853

Organisation : Isabelle Viaud-Delmon, Sylvie Benoit
Intervenants :
Introduction to the symposium and presentation of the EarToy project - Isabelle Viaud-Delmon, CNRS, Paris
The perception of sound depends on its sensory context - Laurence Harris, York University, Toronto, Canada
Cognitive influences on representations of space - Martin H. Fischer, University of Dundee, Ecosse
Spatial audio technologies for immersive and interactive contexts - Olivier Warusfel, Ircam, Paris
From doodling to virtuosity - François Pachet et Pierre Roy, CSL Sony, Paris
"Seeing" patterns: the relativity of creativity - Peter Brugger, Zurich University Hospital, Suisse
Colloque international - Comment analyser l’improvisation ?
Ircam - Vendredi 12 et samedi 13 février 2010
HYPERLINK "http://www.ircam.fr/colloques.html?event=818"http://www.ircam.fr/colloques.html?event=818

Colloque international avec appel à communications. Co-organisé par la Société française d’analyse musicale, l’Ircam et l’université de Strasbourg.
Deux journées consacrées à l'étude des origines, gestes, pratiques, apprentissage et modélisation de l'improvisation (savoirs des musiques de traditions orales, limites entre composition et improvisation...).
Processus universellement présent dans toutes les pratiques musicales du monde, l'improvisation résiste pourtant à l'analyse et les approches dont elle a été l'objet sont relativement restreintes par rapport aux analyses des corpus écrits. La question centrale que pose l'improvisation, que ce soit dans le jazz, dans les musiques de transmission orale, ou dans les compositions mixtes en temps réel, est de rendre compte de la singularité chaque fois renouvelée de cette pratique, d'en comprendre les principes, d'en formaliser les régularités cognitives. Les chercheurs réunis durant ces deux journées appartiennent à différentes traditions de recherche. Ils aborderont les territoires variés de l'improvisation, tenteront d'en relever les traces implicites ou explicites, d'en comprendre les gestes et les origines, et d'en proposer les possibles modélisations.
Le moment de l'improvisation n'est-il pas celui où l'analyse lâche prise ? La musique improvisée pose à l'analyste, plus directement que d'autres pratiques et répertoires, une question centrale : comment rendre compte de la singularité d'un phénomène musical sans l'abstraire a priori dans la régularité d'un système ni se perdre dans la description d'événements successifs ? On interrogera alors le rôle de l'improvisation dans l'élaboration formelle, dans ses transcriptions, ses traces explicites ou implicites, jusqu'à une modélisation de ses parcours, de ses gestes et de ses motifs. Seront abordés notamment : les recherches sur la mémoire en acte dans les processus d'improvisation ; les processus d'apprentissage et d'enseignement de l'improvisation ; les savoirs implicites dans les musiques de tradition orale ; les limites entre composition et improvisation ; l'histoire des pratiques et des théories de l'improvisation.
Deux spécialistes mondiaux de l'improvisation et des musiques de tradition orale, Georges Lewis (tromboniste et professeur à l’université de Columbia de New York) et Bernard Lortat Jacob, (ethnomusicologue, directeur de recherche CNRS au musée de l’homme à Paris) et Arnold I. Davidson, professeur à l’université de Chicago, interviendront lors de conférences d'ouverture les 12 et 13 au matin.
Le colloque est précédé d'un concert sur le thème de l'improvisation le 11 au soir avec une carte blanche au bassoniste Brice Martin et invités qui interagiront  avec le logiciel OMax de l'Ircam.

Co-Organisateurs : Société Française d’Analyse Musicale, Ircam, université de Strasbourg
Comité du colloque : Moreno Andreatta, Gérard Assayag, Mondher Ayari, Jean-Michel Bardez, Bruno Bossis, Jean-Marc Chouvel, Pierre Couprie, Nicolas Donin, Marie-Noëlle Masson.
Ambisonics International Symposium 2010
2ème Colloque international ambisonics et acoustique sphérique
Ircam, 6 et 7 mai 2010
HYPERLINK "http://ambisonics10.ircam.fr/drupal/?q=welcome_fr"http://ambisonics10.ircam.fr/drupal/?q=welcome_fr

Organizing Committee :
General Co-Chairs : Markus Noisternig (Ircam), Brian FG Katz (LIMSI – CNRS), Rozenn Nicol (France Telecom - Orange Labs)
Technical Program Co-Chairs : Olivier Warusfel (Ircam), Nicolas Misdariis (Ircam)
Administration Chair : Sylvie Benoit (Ircam)
Scientific Board Members : Fons Adriaensen, Jens Ahrens, Stéphanie Bertet, Jean Bresson, Gerhard Eckel, Filippo Fazi, Philippe Herzog, Robert Höldrich, Craig Jin, Piotr Majdak, Dave Malham, Frank Melchior, Dylan Menzies, Marc Poletti, Martin Pollow, Hannes Pomberger, Gerriet K. Sharma, Peter Svensson, Ville Pulkki, Boaz Rafaely, Rudolf Rabenstein, Alois Sontacchi, Sascha Spors, Pierre Alexandre Tremblay, Earl G. Williams, Franz Zotter
Software Development : Thibaut Carpentier

Argument :
Après 2009 qui a vu la création d'Ambisonics and Spherical Acoustics à Graz, ces deux jours de symposium international sont dédiés à l'état de l'art des techniques et des nouvelles données dans le domaine de l'acoustique sphérique. Ces journées mettront l'accent sur ses applications en audio et dans la pratique musicale. Chercheurs, développeurs et usagers se rencontreront autour des principaux thèmes suivants :
Considérations générales sur la théorie de l'acoustique sphérique
Ambisonic appliqué à la reproduction de scènes sonores et d'environnements acoustiques virtuels
Antennes sphériques de microphones et traitement du signal associé
Enregistrement et analyse de figures de directivité
Holographie acoustique sphérique
Synthèse de sources sonores directives et focalisées
Antennes sphériques de Haut-parleurs et traitement du signal associé
Considérations théoriques sur les comparaisons entre les paramètres perceptifs et objectifs
Standardisation, diffusion, implémentation et aspects matériels
Conférenciers invités :
Ramani Duraiswami, Université du Maryland, College Park, «Perceptual Interfaces and Reality Laboratory »
Philip A. Nelson, Institut de recherche de l’université de Southampton, « Inverse Problems and Sound Reproduction »
Rozenn Nicol, 3D audio technologies, France Telecom Orange Labs, « Sound spatialization by Higher Order Ambisonics : Encoding and Decoding a Sound Scene in Practice for a Theoretical Point of View »
Franz Zotter, Intitut de musique électronique et acoustique, Université de Graz, « Ambisonic
Decoding with and without Mode-Matching : Case Study Using the Hemisphere ».
HYPERLINK "http://imtr.ircam.fr/imtr/GDIF_SpatDIF_Meeting"GDIF / SpatDIF Workshop
20-21 mai 2010, Ircam
HYPERLINK "http://imtr.ircam.fr/imtr/GDIF_SpatDIF_Meeting"http://imtr.ircam.fr/imtr/GDIF_SpatDIF_Meeting
Comité d’organisation : Baptiste Caramiaux, Markus Noistering, Frédéric Bevilacqua (Ircam)

Ce workshop a réunit des chercheurs internationaux autour des problématiques des descriptions de format de données gestuelles et de spatialisation, en particulier sur les formats émergents appelés GDIF-Gesture Description Interchange Format et SpatDIF-Spatial sound Description Interchange Format.

Participants :
Pascal Baltazar (GMEA - Groupe de Musique Électroacoustique d’Albi-Tarn), Frédéric Bevilacqua (Ircam), Jean Bresson (Ircam), Gaspard Bucher (HYPERLINK "http://rubyk.org/"http://rubyk.org), Baptiste Caramiaux (Ircam), Thibaut Carpentier (Ircam), Marc Codron (Researcher - Composer), Zachary De Santos (Artist/Design), Sarah Fdili Alaoui (LIMSI - Ircam), Alexander R. Jensenius (UIO - University of Oslo), Trond Lossius (BEK – Bergen Center for Electronic Arts), Markus Noisternig (Ircam), Kristian Nymoen (UIO - University of Oslo), Peter Plessas (IEM - Institute of Electronic Music and Acoustics, Graz), Julien Rabin (University of Rennes 2 / MIAC Lab), Jan Schacher (Zurich University of the Arts), Andy W. Schmeder (University of Berkeley), Norbert Schnell (Ircam), Marlon Schumacher (McGill Univeristy), Diemo Schwarz (Ircam), Ståle Andreas Skogstad (UIO - University of Oslo), Arve Voldsund (UIO - University of Oslo), Olivier Warusfel (Ircam), Bruno Zamborlin (Ircam)
Rencontres du Méridien Sciences-Arts-Société
8/9/10 et 19 Juin 2010, Ircam, Cité des Sciences et de l’Industrie, UPMC
Dans le cadre du festival Agora de l’Ircam
Partenaires : Universcience, UPMC, Réseau Varèse
HYPERLINK "http://www.cite-sciences.fr/francais/ala_cite/evenements/meridien/"http://www.cite-sciences.fr/francais/ala_cite/evenements/meridien/
Coordination programmation Ircam : F. Madlener, H. Vinet

Argument :
La Cité des sciences et de l’industrie et le Palais de la découverte, regroupés au sein d’universcience, et l’Ircam s’associent en juin 2010 pour éclairer les fécondations croisées des champs de l’activité humaine. En fédérant une série d’actions emblématiques où se rencontrent cultures scientifiques et artistiques, création et recherche, le Méridien science-arts-société parcourt les lignes de force de l’intuition artistique, de l’innovation technologique, de la découverte scientifique et leur perception dans l’espace public. Un tel axe traverse le laboratoire, l’université, l’atelier d’artiste, l’entreprise et la société. Si l’imaginaire artistique et l’invention scientifique ne se confondent pas, on peut toutefois concevoir qu’un même mouvement chercheur construit l’autonomie de leurs territoires respectifs.
Qu’est-ce qu’une durée partagée entre artistes et scientifiques lorsque les cultures et les formations restent séparées ? Comment s’opèrent la recherche, l’expérimentation et leurs effets génériques dans l’art, les sciences et l’espace public ? Le projet du Méridien, qui prélude à la création d’un observatoire science-arts, soutient des rencontres transdisciplinaires, avec plusieurs acteurs en France et en Europe, et la constitution d’un réseau national et européen. Trois types de relations entre arts et science sont ainsi explorés : l’analogie (fictions partagées, parallélismes entre art et science), l’application (impact de la technologie), la modélisation (logiques croisées et transfert de concepts).

Aux interventions croisées des chercheurs et des artistes s’adjoindront des expériences sensibles notamment par le biais d’installations interactives, de projections de films à la Géode, et lors de la nuit du prototype, le 19 juin. Articulées autour des notions d’« espace-corps-son », de « modèle-prototype-oeuvre » et de « recherche en art », ces trois premières journées du Méridien science-arts-société accueillent la cinquième conférence du réseau Varèse, ambition d’une coopération culturelle européenne portant sur les enjeux de la création et de la recherche artistique dans l’espace européen.

Symposium international Espace/corps/son
8 juin 2010, Universcience
Intervenants :
Marc Lachièze-Ray, physicien / Patrick Haggard, neuroscience, University College of London / Olivier Warusfel, acoustique, Ircam / Odile Duboc, chorégraphe / Pierre Jodlowski, compositeur / Jean-Luc Hervé, compositeur / Dominique David, Commissariat à l’énergie atomique / Anne-Marie Duguet, sociologue, université Paris I / Michel Serres, philosophe, Académie Française

Evénements associés :
Inauguration de l’installation GrainStick-2.0
Dispositif proposant à l’utilisateur d’interagir de manière intuitive et intelligente, avec un environnement sonore et visuel d’une grande qualité artistique, Issu des recherches menées au sein du projet européen SAME par une équipe pluridisciplinaire de l'Ircam,
Conception et création musicale Pierre Jodlowski, création visuelle (vidéo) Raphaël Thibault, conception scénographie et maîtrise d’ouvrage Christophe Bergon, design sonore Jacky Mérit, réalisation informatique musicale Ircam Robin Meier, équipes Ircam/Espaces acoustiques et cognitifs Olivier Warusfel, Grace Leslie et Interactions musicales temps réel Frédéric Bevilacqua, Emmanuel Fléty, Diemo Schwarz, Bruno Zamborlin.

Soirée Vertige
8 juin, 20H, Géode
Lecture immersive de Michel Serres et projection de films :
Mutations of matter de R. RIVAS et C. FRANKLIN (France, 2008, 15’, VO non sous-titrée). Vox Humana de HYUN-HWA CHO et RAPHAËL THIBAULT (France, 2009, 14’).
Production Ircam-Centre Pompidou, universience, La Géode (dans le cadre du 25e anniversaire de la Géode). Avec le soutien du Conseil de la création artistique.

Symposium international Modèle/Prototype/Œuvre
Ircam 9 et 10 juin, salle Igor Stravinsky
Intervenants : Elie During (université de Paris Ouest Nanterre), David Nahon (responsable des technologies de virtualité immersive, Dassault Systèmes), Hortense Archambault (directrice du Festival d’Avignon), Antoine Hennion (École des Mines de Paris), Gérard Berry (Professeur au Collège de France, Inria), Arshia Cont (chercheur à l’Ircam), Philippe Esling (doctorant à l’Ircam)

Evénement associé :
La voix et l’éloquence
Ircam Espace de projection, 9 juin
Intervenants : Bruno Latour, philosophe / Philippe Leroux, compositeur / Nicolas Donin, musicologue / Valérie Philippin, soprano
Marqué par la création de Voi(Rex) de Philippe Leroux pour voix, ensemble et électronique, Bruno Latour explore avec le compositeur l’éloquence et la persuasion d’une théâtralité vocale, devenues archétype pour une deuxième œuvre de Leroux, Apocalypsis. Le musicologue Nicolas Donin et la chan- teuse Valérie Philippin interrogent le cheminement de la composition musicale pour mieux saisir les liens avec la création de concepts. Comment un prototype est-il devenu répertoire, riche d’une cinquantaine de reprises depuis sa création ?

Réseau Varèse : Ambition d’une coopération culturelle européenne (acte 5)
Jeudi 10 juin, Ircam

Argument
La circulation des œuvres et des idées est sans aucun doute ce qui a le plus profondément contribué à la fondation de l’Europe. La lecture des correspondances, des carnets de voyages, des itinéraires des compositeurs nous fait apprécier la nécessité du mouvement et comprendre les influences.
À l’heure de l’Europe, le fonctionnement des institutions culturelles – traditionnellement inscrites dans un contexte national – est confronté à des réalités nouvelles : comment conjuguer leurs enjeux avec de légitimes obligations européennes.
Depuis 1999, le Réseau Varèse tente à sa manière de répondre à ces interrogations. Après Budapest (octobre 2004), Oslo (octobre 2005), Berlin (mars 2007), Huddersfield (novembre 2008), cette conférence a pour objectif de préciser ces attentes, d’interroger et de soutenir l’hypothèse d’une recherche en art, et de partager cette expérience avec des personnalités invitées à exposer leurs réflexions sur les enjeux culturels européens.

Intervenants
Antoine Gindt (directeur de T&M-Paris, président du Réseau Varèse), Laurent Le Bon (directeur du Centre Pompidou-Metz), Frank Madlener (directeur général de l’Ircam - Paris), Risto Nieminen (directeur de la musique à la Fondation Gulbenkian - Lisbonne), Matthias Osterwold (directeur du Festival Maerzmusik, Berliner Festspiele - Berlin), Gérard Pesson (compositeur, professeur de composition au Conservatoire national supérieur de musique et de danse de Paris), Xavier Rodet (chercheur à l’Ircam - Paris).

Table-ronde recherche en arts
Université Pierre et Marie Curie, campus Jussieu - jeudi 10 juin

Argument
La notion complexe de recherche en art transfère un aspect central de la culture scientifique vers la pratique artistique. Cette rencontre explore l’idée de recherche en art en présentant quelques actions et tentatives de croisements entre science, technologie et création dans les écoles d’art ou au sein d’universités. Ce qui s’expérimente aujourd’hui sollicite l’invention de nouveaux modèles collaboratifs de recherche : cette question se cristallise autour de la notion de doctorat en art préoccupant aujourd’hui de nombreux lieux de formation supérieure.

Intervenants
Modérateur : Elie During
Avec Jean Chambaz (vice-président Recherche de l’université Pierre et Marie Curie), Alain Fleischer (directeur du Fresnoy, Studio national des arts contemporains), Cyril Béros (directeur du département de Pédagogie et d’action culturelle de l’Ircam).

Nuit du prototype
19 juin, Ircam
Ouverture des labos Ircam, conférences grand public : Voix, geste et interaction sonore, improvisation, lutherie virtuelle et outils pour la production audio
Ircam, studio 5 et salle Shannon / 16h30 - 22h, entrée libre
Centre Acanthes, au-delà du temps
CDMC / ACDA, 23 juin 2010

En ce 23 juin, une semaine avant le lancement d’une nouvelle session, témoignages, tables rondes et illustrations musicales se succèdèrent, en présence de compositeurs et d’interprètes majeurs qui ont « fait » l’histoire d’Acanthes depuis 1977, mais aussi des partenaires – publics et privés – sans lesquels Acanthes n’aurait pu inventer les nouveaux modes de transmission de la création contemporaine pendant plus de trente ans. Il fut question de la composition et de la direction d’orchestre, mais aussi des évolutions esthétiques qui ont agité cette période, et de l’ouverture sur le monde, au-delà d’anciennes frontières que les étudiants d’Acanthes franchissent désormais allègrement. Ils vinrent d’abord à Aix-en-Provence puis à la Chartreuse de Villeneuve-lez-Avignon. Ils se retrouvent depuis sept ans à Metz, accueillis dans le bâtiment de l’Arsenal et dans les espaces du Conservatoire. Hors l’enseignement officiel que la plupart d’entre eux ont naturellement pratiqué, c’est le moment du questionnement et des confrontations – l’arrivée en douceur, mais bouillonnante néanmoins, dans la carrière professionnelle. Et un horizon plus vaste grâce à des passerelles lancées en direction d’un public curieux, sceptique parfois, auquel, à Metz, les portes de l’Arsenal sont largement ouvertes.

Organisateurs : Claude Samuel (ACDA), Laurent Feneyrou (CNRS)
Intervenants : Claude Samuel, Laurent Feneyrou, Gilbert Amy, Betsy Jolas, Philippe Manoury, Marco Stroppa, Georges Aperghis, Donatienne Michel-Dansac, Pierre Boulez, Peter Eötvös, Laurent Bayle, Olivier Bernard, Marc-Olivier Dupin, Laurent Le Bon, Frank Madlener, Ivan Fedele, Mario Caroli, Laure Marcel-Berlioz, Eric de Gélis, Michèle Reverdy, Ivan Fedele, Yan Maresz, Jacques Mercier, Yan Maresz, Hector Parra, Marco Stroppa
JJCAAS 2010
6ème Journées Jeunes Chercheurs en Audition, acoustique musicale et signal audio
17 au 19 novembre 2010
HYPERLINK "http://jjcaas2010.ircam.fr/wordpress/"http://jjcaas2010.ircam.fr/wordpress/

Comité d’organisation : une équipe de doctorants de l’Ircam : Tommaso Bianco, Baptiste Caramiaux, Arnaud Dessein, Philippe Esling, Pauline Eveno, Sarah Fdili Alaoui et Fivos Maniatakos, avec le support financier de la SFA et de l’Ircam, et de Sylvie Benoit pour l’assistance administrative et la coordination au niveau de l’Ircam.

Organisation générale
Les JJCAAS 2010 sont des rencontres sur trois jours entre des jeunes chercheurs, des doctorants et des post-doctorants travaillant dans des domaines liés de manière générale au son. Le but de ces journées est de faciliter les échanges d'idées et de promouvoir la création ou la consolidation de collaborations scientifiques et organisées sur le même schéma que les éditions précédentes : Conférenciers invités, Présentation des partenaires industriels, Visite de l’Ircam, Sessions posters
Les thèmes suivants abordés lors des journées :
Traitement du signal audio
Analyse et synthèse sonore
Informatique musicale
Psychoacoustique fondamentale et appliquée
Cognition et perception auditive
Physiologie et neurologie de l’audition
Prothèses auditives
Qualité et design sonores
Acoustique environnementale
Acoustique instrumentale
Acoustique des salles
Spatialisation et champs sonores
Interactions multimodales avec le son
Les 6e Journées Jeunes Chercheurs en Audition, Acoustique musicale et Signal audio se sont déroulées du 17 au 19 novembre 2010 à l'Ircam et au Centre Pompidou à Paris. Cette nouvelle édition a accueilli 82 participants de toute la France et même de l'étranger (Russie, Italie, Angleterre, Belgique, Allemagne...). Les participants, dans la majorité doctorants (mais il y avait aussi quelques post-doctorants et étudiants de Master), sont venus présenter leurs travaux de recherche sous forme de posters. Les thématiques étaient les mêmes que les années précédentes avec un élargissement vers la musicologie.
Entre ces différentes sessions de présentation des posters étaient intercalées des conférences de chercheurs reconnus dans les différents domaines abordés lors de ces journées. Les participants ont ainsi pu assister à une conférence de Barbara Tillman sur l'apprentissage implicite des structures musicales et de Benoit Fabre sur l'acoustique musicale. Le dernier jour, une conférence impliquant un chercheur, Jean Bresson, et un compositeur, Marco Stroppa, a été donnée sur le thème de l'informatique musicale.
Deux partenaires industriels de cette édition 2010 sont aussi venus se présenter aux jeunes chercheurs. S'en est suivi une visite de l'espace de projection de l'Ircam.
Horizons de la musique en France 1944-1954
CDMC, 9-10 décembre 2010

Depuis une dizaine d’années quelques études majeures (colloques, ouvrages) ont été consacrées à la Vie musicale sous Vichy (sous la direction de Myriam Chimènes, Paris, Complexe, 2001). De même, certaines recherches ont vu le jour sur la création musicale française du milieu des années 1950 – la thèse de Jésus Aguila, Le Domaine musical : Pierre Boulez et vingt ans de création contemporaine (Paris, Fayard, 1992), en constitue l’un des jalons essentiels. Entre ces deux champs d’investigations aujourd’hui balisés, l’histoire de la vie musicale de l’immédiat après-guerre reste à faire. Le colloque Horizons de la musique en France 1944-1954 est délimité entre la publication, en 1944, de Technique de mon langage musical d’Olivier Messiaen et la première représentation, en janvier 1954, des Concerts du Petit-Marigny (appelés à devenir les concerts du Domaine musical la saison suivante). Ce colloque s’est donc attaché à étudier certaines problématiques qui apparaissent dans le paysage musical que la Libération vit émerger. Quelles sont les relations entre la modernité officielle (le Groupe des Six de l’entre-deux-guerres, le Groupe Jeune France) et les nouvelles générations de compositeurs, nourries de l’enseignement de Messiaen et de Leibowitz ? Aussi, tant dans les institutions officielles que dans les cours privés, quelles sont les méthodes d’enseignement de la composition et comment sont-elles reçues par les disciples ? Quels sont, pour les musiciens de l’après-guerre, les lieux de concerts et d’expression musicale (sociétés de concerts, musiques de scène et de cinéma) ? Quelles sont les nouvelles grammaires compositionnelles ? En marge du monde musical officiel, quelles personnalités contribuent, pour les nouveaux créateurs, à cette prise de conscience d’être un groupe à part ? Autant de problématiques qui permettent d’appréhender une période cruciale de l’histoire musicale moderne, période qui voit jaillir les fondements esthétiques et intellectuels sur lesquels notre époque vit encore, pour partie, aujourd’hui.

Organisateurs : Alain Poirier (CNSM de Lyon), Laurent Feneyrou (CNRS), François Meimoun (Paris)
Participants : Rémy Campos (CNSMDP), Yves Balmer (ENS-Lyon), Christopher Brent Murray (ENS-Lyon), Esteban Buch (EHESS), Myriam Chimènes (CNRS), Karine Le Bail (CNRS), Cécile Quesney (Université de Montréal), Robert Piencikowki (Fondation Paul Sacher), Alain Poirier (CNSM de Lyon), François Meimoun (Paris), Laurent Feneyrou (CNRS), Pierre-Arnaud Le Guérinel (CNSMDP), Valérie Dufour (FNRS), Marc Battier (Université de Paris-IV), Nicolas Southon (France Musique), Catherine Steinegger (Bruxelles), Philippe Langlois (France Culture), Hugues Dufourt (CNRS)
Aimer Bruno Maderna
CDMC, 3 février 2011
Créateur d’une œuvre foisonnante, éclectique, sans cesse ouverte aux nouveaux langages et aux nouvelles formes d’expression, Bruno Maderna (1920-1973) aborda tous les genres, oscillant entre la plus grande énergie et une douceur infinie. Il y conjugua poésie, gaîté, humour, tendresse et nostalgie d’une mélodie absolue, résonnant depuis la Grèce antique. Maderna fut aussi de tous les engagements de la seconde moitié du XXe siècle. Dès le début des années 1950, il participe aux Cours d’été de Darmstadt, avant de devenir, en Europe et aux États-Unis, un pédagogue de renom. En 1955, il fonde avec Luciano Berio le Studio de phonologie de la Rai de Milan. Puis il dirige les Incontri musicali, au cours desquels sont créées des œuvres majeures de l’après-guerre. À travers le monde, Maderna programme, avec une rare intelligence, transcriptions et œuvres anciennes, classiques, romantiques, modernes ou contemporaines, qu’il aime faire figurer dans les mêmes concerts. Tous ceux qui l’ont connu évoquent enfin une personnalité exceptionnelle, attachante, un ami attentionné, chaleureux, ou selon Luigi Nono, « l’incarnation de la plus noble générosité humaine ». À l’occasion de la publication des deux volumes intitulés À Bruno Maderna, cette journée d’étude, faite de dialogues, a dressé un portrait de l’artiste et de son œuvre. Nous en mesurerons toute la portée, en ce début de XXIe siècle, à l’aune d’une de ses maximes : « J’ai pensé, en composant, que la musique existe déjà, qu’elle a toujours existé. Et celle que j’écris aussi. Il faut seulement un acte de foi pour la sentir autour de soi, à l’intérieur de soi ».

Organisateur : Laurent Feneyrou (CNRS)
Participants : Alain Poirier (CNSM de Lyon), Laurent Feneyrou (CNRS), Geneviève Mathon (Université de Marne-La-Vallée), Ivanka Stoianova (Université de Paris-VIII), Luca Cossettini (Université d’Udine), Jean-François Trubert (Université de Nice), Giordano Ferrari (Université de Paris-VIII), Nathalie Ruget (CRR de Rouen), Vincent Tiffon (Université de Lille-III), Pierre-Albert Castanet (Université de Rouen), Gianfranco Vinay (Université de Paris-VIII), Paul Méfano (Paris)
La voix, le texte et les phonèmes dans l’œuvre de Georges Aperghis
Journée d’études dans le cadre du séminaire « Composition et musicologie contemporaines »
CDMC / CNSMDP / CNRS, 24 mars 2011

Au XIXe siècle, la révolution beethovénienne mettait un terme au compagnonnage et à la méthode artisanale de transmission des savoirs compositionnels, augurant une modernité de l’analyse musicale. Mais peu à peu, cette analyse, d’abord assujettie au domaine de la création, s’autonomisait et produisait son propre discours. Simultanément, les sollicitations littéraires, politiques et philosophiques, éveillaient une veine encore vivace du commentaire ou de l’interprétation, s’assignant pour tâche d’y nouer monde sensible et univers du concept. Le séminaire « Composition et musicologie contemporaines » se propose aujourd’hui pour objet des œuvres de Georges Aperghis dans l’immanence de leurs procédures, de leur syntaxe et de leur style, et pour méthode, un dialogue, que nous espérons fertile, entre la voix du compositeur et celle de ses interprètes, de ses librettistes ou de ses interlocuteurs. Chacun sélectionnera, organisera et analysera des événements concrets, au sein d’une même partition, voire d’un même fragment, ou d’une même problématique d’écriture. Et si nous faisons le pari de la fertilité d’un tel dialogue, c’est à la condition que chacun parle sa langue, témoigne à sa façon de son écoute, ne cherche donc pas à mimer celle de l’autre et accepte cette discontinuité fondatrice où convergent, se jouxtent, mais aussi bien s’ignorent les discours.

Organisateurs : Frédéric Durieux (CNSMDP), Laurent Feneyrou (CNRS)
Intervenants : Peter Szendy (Université de Paris-X), François Régnault (Paris), Georges Aperghis (Paris, Antoine Gindt (Musica, Strasbourg)
Audio-graphic Modeling and Interaction
Workshop @ NIME2011, Sunday, May 29, Oslo, Norway
http://www.topophonie.fr/event/1

This workshop focuses on recent advances and future prospects in modelling and rendering audio-graphic scenes. The convergence of the audio and graphic communities is fostered by the increase in computational resources, cognitive studies on cross-modal perception, and industrial needs for realistic audio scenes.  Audio-graphic research is spreading in areas such as games, architecture, urbanism, information visualization, or interactive artistic digital media. We will focus on the representation, interaction, rendering, and perception of scenes in which the audio and graphical components are clearly identified and combined (in contrast to standard multimedia video streams).

Program Chairs
Roland Cahen, ENSCI-les Ateliers
Christian Jacquemin, LIMSI-CNRS & University Paris Sud 11
Diemo Schwarz, Ircam
Hui Ding, LIMSI-CNRS & University Paris Sud 11
Mathematics and Computation in Music (MCM 2011)
Conférence internationale, organisée dans le cadre du Festival Agora 2011
Du 15 au 17 Juin 2011, Ircam et Centre Pompidou
HYPERLINK "http://agora.ircam.fr/971.html"http://agora.ircam.fr/971.html

Plateforme multidisciplinaire dédiée à la communication et aux échanges d’idées entre les acteurs impliqués dans l’application des mathématiques aux arts, à l’informatique musicale, la théorie de la musique, la composition et la musicologie, MCM 2011 a rassemblé des scientifiques et philosophes (Alain Connes, Alain Badiou, Jean-Marc Lévy-Leblond, Yves Hellegouarch, Jean-Paul Allouche, Claude Bruter, Jean-Claude Risset, Guerino Mazzola...), des créateurs (Pierre Boulez, Jacques Mandelbrojt, Tom Johnson...) et des informaticiens de renom (Stephen Wolfram...).

Exposés, workshops, panels et posters ont rythmé les travaux de la conférence et seront accompagnés d’événements grand public visant à promouvoir la culture scientifique dans ses rapports avec les arts et, en particulier, la musique.
MCM 2011 est organisée sous l’égide de la Société Mathématique de France (SMF), en partenariat avec le Centre Pompidou et le Palais de la découverte, un lieu Universcience, en collaboration avec CIE (Computability in Europe), l’ESMA (European Society for Mathematics and Arts), avec le soutien du ministère de la Culture et de la Communication, du CNRS, de l’UMPC, de l’Afim (Association française d’informatique musicale) et de la Sfam (Société française d’analyse musicale).

Comité d'organisation MCM 2011 : Carlos Agon, Ircam/CNRS | Emmanuel Amiot, CPGE, Perpignan | Moreno Andreatta, Ircam/CNRS | Gérard Assayag, Ircam/CNRS | Jean Bresson, Ircam/CNRS | Sylvie Benoit, Ircam

Evénements MCM 2011 (public spécialisé) :

- Jeudi 16 juin, 14h30-15h30. « Around A Geometry of Music. An open discussion on the foundation of American and European Maths/Music-theoretical Traditions ». Avec la participation de Dmitri Tymoczko (Princeton University). Séance animée par Emmanuel Amiot (mathematician, Perpignan, France) et Julian Hook (music theorist, Indiana University, USA).

- Jeudi 16 juin, 16h-17h30. Trois Workshops en parallèle :

Reinforcement Learning and Computational Methods in Music Cognition, by Nori Jacoby (Interdisciplinary Center for Neural Computation, Hebrew University of Jerusalem / Department of Music, Bar-Ilan University)
Maximal Even Sets, by Jack Douthett (Central New Mexico Community College), Richard Plotkin (State University of New York at Buffalo), Richard Krantz (Metropolitan State College of Denver), and Peter Steinbach (Central New Mexico Community College)
From Circle to Hyperspheres, when the Tonnetze go 4D, by Gilles Baroin (University of Toulouse)

Page web MCM 2011 :
HYPERLINK "http://mcm2011.ircam.fr/"http://mcm2011.ircam.fr/

Thématiques principales abordées pendant MCM 2011 :
- Théorie des mots et des gammes
- Histoire, philosophie et épistémologie des rapports mathématiques/musique
- Modèles géométriques, topologiques et computationnels
- Set Theory et théorie transformationnelle
- Analyse computationnelle et musicologie cognitive
- Improvisation et théorie des gestes

MCM 2011 a été organisée sous l’égide de la Société Mathématique de France (SMF), en partenariat avec le Centre Pompidou et universcience (Le Palais de la Découverte), en collaboration avec CiE (Computability in Europe), l’ESMA (European Society for Mathematics and Arts) et avec le soutien du CNRS, de l’UPMC, de l’AFIM (Association française d’Informatique Musicale) et de la SFAM (Société Française d’Analyse Musicale).

Evénements associés :
Actions grand public autour de MCM 2011
Autour de cette conférence technique qui s’adressait principalement à des spécialistes, une série d’actions pédagogiques et d’événements grand public visaient à promouvoir la culture scientifique dans ses rapports avec les arts et, en particulier, la musique. L’élargissement pluridisciplinaire Mathématique-Arts a été rendu possible grâce à l’exposition monographique de l’artiste François Morellet du 2 mars au 4 juillet 2011 au Centre Pompidou ainsi que l’exposition « Mathématique et Art » organisée au Palais de la Découverte en collaboration avec l’ESMA (European Society for Mathematics and Arts).

Conférence : les mathématiques dans l'univers musical
11 juin, Palais de la Découverte
Intervenants : Moreno Andreatta et Carlos Agon (Ircam/CNRS), en collaboration avec Robin Jamet et Pierre Audin (Palais de la découverte, un lieu Universcience). Une initiation aux rapports entre mathématiques et musique, des phénomènes ondulatoires jusqu'aux structures algébriques et représentations géométriques utilisées en composition musicale, suivie de démonstrations de chercheurs.

Table-ronde : la créativité en musique et en mathématiques
15 juin, Ircam
Intervenants : Pierre Boulez et Alain Connes
Rencontre entre deux figures majeures de la création musicale et de la recherche mathématique contemporaine, Quelle est la place de l'intuition dans le raisonnement mathématique et dans l'activité artistique ? Y a-t-il une dimension esthétique dans l'activité mathématique ? La notion d'élégance d'une démonstration mathématique ou d'une construction théorique en musique joue-t-elle un rôle dans la créativité ?

Conférence : Mathématiques / Esthétiques / Arts
Centre Pompidou, 16 juin
Intervenant : Alain Badiou
Figure éminente de la pensée contemporaine, écrivain de théâtre, intellectuel engagé, polémiste controversé, Alain Badiou est l'un des rares philosophes d'aujourd'hui qui entretient une relation intense et constante aux mathématiques, adossant sa logique et son système à la théorie des ensembles, héritée de Georg Cantor.
Dès 1988, l'axiome fondateur de sa philosophie s'exposait dans son œuvre majeure, L'être et l'événement : les mathématiques sont l'ontologie, la philosophie produisant un discours qui les révèle à elles-mêmes. Sous quelles conditions une singularité créatrice intègre-t-elle le besoin de formaliser ? Existe-t-il une histoire des œuvres-théorèmes, de Mondrian à Stockhausen ? Seule une philosophie de l'événement et de la rigueur conceptuelle comme celle d'Alain Badiou peut éclairer aujourd'hui ce faisceau de relations.
Séance organisée en collaboration entre l’Ircam et le Service de la parole du Département du développement culturel du Centre Pompidou.

Table ronde : La créativité en mathématiques et dans les arts
Palais de la Découverte, 18 juin
Intervenants : Jean-Paul Allouche, mathématicien | Claude Bruter, mathématicien et président de l'ESMA | Yves Hellegouarch, mathématicien | Tom Johnson, compositeur | Jean-Marc Lévy-Leblond, physicien et essayiste | Jacques Mandelbrojt, peintre et physicien théoricien | Jean-Claude Risset, physicien et compositeur.
Séance animée par Moreno Andreatta (chercheur Ircam/CNRS et vice-président de la SMCM, Society for Mathematics and Computation in Music).
Les mathématiques occupent-elles une place singulière à l'intérieur des sciences, de même que la musique à l'intérieur des arts ?
Et visite de l'exposition Math/Art et présentations de logiciels d'analyse et de composition sur des bornes interactives 

le 15 juin : Mathématiques-Musique : Kontakte, concert à l’Ircam, Espro
Dans la perspective tracée entre mathématiques et musique, les œuvres de ce concert révèlent plusieurs attitudes artistiques.
Workshop « Advances in Speech Technologies »
24 Juin 2011 - Ircam, Paris, France
organisateur : Geoffroy Peteers
DAFx’11
14th International Conference on Digital Audio Effects
13-19 septembre 2011
HYPERLINK "http://dafx11.ircam.fr/wordpress/"http://dafx11.ircam.fr/wordpress/
DAFx-11 is structured around three full days of conference preceded by an afternoon of 3 tutorials and followed by a full day of 3 satellite workshops. The heart of the conference will present 69 selected papers organized in 33 oral presentations, 33 poster presentations and 3 State-of-the-Art (STAR) papers. The STAR paper is a new category of submission that aims at providing an overview of a research topic. This year, DAFx received a very large number of contributions related to audio signal processing (audio representation, modelling, coding synthesis and transformation). Consequently, among the 12 oral sessions, 5 are dedicated to these topics.  Other traditional key issues of the DAFx are represented into the 7 other oral sessions dedicated to -capture, analysis of audio signals, – synthesis of acoustic fields/ spatial sounds, – virtual analog models – physical models and virtual musical instruments. Among the encouraged topics, audio indexing and interaction has motivated many contributions.
In addition to the 12 oral sessions, 9 poster sessions will be held. In DAFx-11, poster sessions do not have a specific topic. We intentionally mixed the contributions inside each session in order to favor exchanges among researchers of a given field and continuous interest of the audience. In order to better highlight posters, each poster author is welcome to provide a short oral presentation at the end of each oral session.
Each conference day will open with an invited keynote. Udo Zölzer will open the conference browsing through the long DAFx journey and evolution over years (14 years).  David Zicarellli, founder of Cycling 74 (Max/MSP), will discuss advances in editing and visualization of signal processing. Patrick Flandrin will survey 200 years of frequency analysis since Fourier.
Complementing the scientific program of the conference, the social program of the DAFx-11 will provide a brief impression of Ircam activities: a world-premiere musical creation of one of Ircam composers, Andrea Agostini, at the Auditorium of the Louvre museum, a presentation of some Ircam specific researches and a demonstration of Ircam  WFS/ Ambisonic system. It will also include a visit of the National Museum of Modern Art (Centre Pompidou) and a typical charming gala dinner on a riverboat sailing over the Seine.
This year, the three best student paper awards go to :
Gold price: Gino Angelo Velasco for the paper Gino Angelo Velasco, Nicki Holighaus, Monika Dörûer, Thomas Grill  HYPERLINK "http://recherche.ircam.fr/pub/dafx11/Papers/47_e.pdf"Constructing an invertible constant-Q transform with nonstationary Gabor frame
Silver price: Jari Kleimola for the paper Jari Kleimola, Victor Lazzarini, Joseph Timoney, Vesa Välimäki – HYPERLINK "http://recherche.ircam.fr/pub/dafx11/Papers/55_e.pdf"Vector Phaseshaping Synthesis
Bronze price: Alexis Moinet for the paper Alexis Moinet, Thierry Dutoit – HYPERLINK "http://recherche.ircam.fr/pub/dafx11/Papers/57_e.pdf"PVSOLA: A Phase Vocoder with Synchronized OverLap-Add
DAFx-2011 Local Organizing Commitee : Geoffoy Peeters, Olivier Warusfel, Markus Noisternig, Sylvie Benoit, Samuel Goldszmidt
DAFx-2011 Local Scientific Commitee : Christophe d’Alessandro (LIMSI), Laurent Daudet (ESPCI), Clara Suied (ENS/FPGG), Emmanuel Favreau (INA/GRM), Thomas Hélie (Ircam/CNRS), Rozenn Nicol (France Telecom/Orange R&D)
Versatile Sound Models for Interaction in Audio–Graphic Virtual Environments: Control of Audio-graphic Sound Synthesis
Ircam, 19-23 Septembre 2011
HYPERLINK "http://dafx11.ircam.fr/?page_id=224"Satellite Workshop at the 14th International Conference on Digital Audio Effects (DAFx), 2011, Paris
HYPERLINK "http://www.topophonie.fr/event/3"http://www.topophonie.fr/event/3

The use of 3D interactive virtual environments is becoming more widespread in areas such as games, architecture, urbanism, information visualization and sonification, interactive artistic digital media, serious games, gamification. The limitations in sound generation in  existing environments are increasingly obvious with current requirements.
This workshop will look at recent advances and future prospects in sound modeling, representation, transformation and synthesis for interactive audio-graphic scene design.

Program Chairs
Diemo Schwarz, Ircam, Roland Cahen, ENSCI-les Ateliers, Hui Ding, LIMSI-CNRS & University Paris Sud 11

Workshop « From ASA to CASA, what does the ‘C’ stand for anaway »,
Satelite Workshop of the DAFx Conference,
Organisation Mathieu Lagrange et Lui Gustavo Martins,
Ircam, Paris, France, 23 Septembre 2011
Colloque international : Tracking the creative process in music
29 septembre au 1er octobre 2011, Université de Lille III
HYPERLINK "http://tcpm2011.meshs.fr/"http://tcpm2011.meshs.fr/
Organisé par : Vincent Tiffon (CEAC, Lille 3), Nicolas Donin (Ircam) et
Amandine Briffaut (MESHS Lille Nord de France)
Myriam Caudrelier (MESHS Lille Nord de France)
Nicolas Donin (Ircam, Paris)
François-Xavier Féron (Ircam, Paris)
Frédéric Gendre (MESHS Lille Nord de France)
Charlotte Hespel (MESHS Lille Nord de France)
Caroline Simon (MESHS Lille Nord de France)
Vincent Tiffon (Univ. Lille-Nord de France)
 
Laboratoire : HYPERLINK "http://ceac.recherche.univ-lille3.fr/"CEAC, EA 3587 au MESHS, Lille
Argument :
Quels procédés, quelles techniques, quels savoirs et savoir faire, les musiciens mettent-ils en œuvre lorsqu’ils créent ?
Avec les évolutions épistémologiques advenues en musicologie à la fin du siècle dernier, la notion de « processus créateur », loin d’avoir été marginalisée, s’est enrichie. Il ne s’agit pas seulement de l’extension des sketch studies (ou analyse génétique musicale) aux périodes post- et pré- XIXe siècle. L’abondance récente des travaux sur les processus de création artistique confirme le profond renouvellement en cours des objets (interprétation et « performance », improvisation, musiques populaires, ingénierie du son et conception informatique…) et des méthodes (croisements entre musicologie analytique et sciences sociales, entre enquête de terrain et expérimentation cognitive…). Quelles nouvelles connaissances sur les processus de création se construisent à travers l’intégration de nouveaux répertoires, l’élaboration de nouveaux outils d’analyse, et par le dialogue avec d’autres champs artistiques et d’autres disciplines scientifiques ?
Ce colloque, organisé par Nicolas Donin (Ircam) et Vincent Tiffon (Univ. Lille-Nord de France) sera l’occasion de rassembler pour la première fois les nombreux chercheurs intéressés directement ou indirectement par l’étude des processus de création musicaux/sonores (passés et présents), et de franchir un pas dans la confrontation et la mise en relation des différentes méthodologies développées depuis une trentaine d’années dans des champs de recherche trop souvent disjoints. Les communications exposeront des présentations analytiques des données (provenant du champ musical ou de champs connexes), et expliciteront les méthodes choisies ou adaptées. Elles pourront ainsi se situer dans la problématique plus vaste de la créativité artistique telle que l’abordent des disciplines non spécifiquement musicologiques : histoire, psychologie, sciences cognitives, sociologie, anthropologie, critique génétique, …

Programme des 3 jours :
HYPERLINK "http://tcpm2011.meshs.fr/documents/file/TCPM_plaquette110913web.pdf"http://tcpm2011.meshs.fr/documents/file/TCPM_plaquette110913web.pdf
avec les deux keynotes :
Jeudi 29 septembre 2011
William Kinderman (Université de l’Illinois à Urbana-Champaign, USA) : La critique génétique : un cadre intégrateur pour la musicologie et l’analyse
Samedi 1er octobre 2011
Pascal Decroupet (Université de Nice-Sophia Antipolis, France) : Génétique – théorie – histoire – esthétique
Les corpus de l’oralité
L’acte créateur entre cultures de l’oralité et cognition musicale en Méditerranée
24 et 25 novembre 2011, Ircam et Université de Strasbourg
Colloque co-organisé par l’Ircam-CNRS à Paris, le Pôle Méditerranée de l’Université Paris VIII et le GREAM de l’Université de Strasbourg
1ère journée : le jeudi 24 novembre à l’Ircam
2eme journée à l’Université de Strasbourg

Argument :
Ce colloque international portera sur la création musicale entre tradition écrite et cultures de l’oralité dans le vaste champ multiculturel du bassin méditerranéen. Il sera co-organisé par le GREAM de l’Université de Strasbourg, le Pôle Méditerranée de l’Université Paris VIII, l’Ircam-CNRS à Paris et l’ANR (projet CréMusCult).

Le but principal de cette rencontre entre chercheurs et enseignants provenant d’horizons divers (sociologues, musicologues, compositeurs, musiciens, etc.) porte sur les thématiques suivantes :
– Interaction oral-écrit, étude des processus et stratégies créatifs, implication de la mémoire collective et individuelle dans la création et dans la réception musicales.
– Répercussions de la tradition orale dans le domaine de l’improvisation et remise en cause des conceptions concernant l’acte créateur, laquelle soulève des problématiques utiles à étudier : liens entre composition et performance orale, processus cognitifs mis en jeu, etc.
– Rapports entre oralité et performance, oralité et improvisation, oralité et mémorisation.
– Questionnements au sujet de l’impact de l’oralité sur le rapport subjectif à la création et à l’objet artistique.
– Mémoire en acte dans les interactions humaines (entre musiciens, maître et disciple) ; processus d'improvisation en tant que porteurs d’attitudes et contenus créatifs spécifiques.

Ces interrogations seront traitées selon des approches différentes par des chercheurs spécialistes pendant 4 demi-journées. Thématiques abordées : oralité et écriture, oralité et création, oralité et performance et oralité et perception. Elles engageront, par ailleurs, des disciplines voisines de la musicologie autour de l’acte créateur en musique et de son interaction avec la culture, l’identité, la société, l’épistémologie, etc. Il s’agit d’interroger en effet l’histoire du bassin méditerranéen, l’anthropologie de l’oralité, la géopolitique, etc.

Organisation : Mondher Ayari et Antonio Lai
Intervenants :
Mondher Ayari (Université de Strasbourg & Ircam-STMS), Antonio Lai (Université Paris VIII) et Gérard Assayag (Ircam-Cnrs), Rosalia Martinez (Univ Paris VIII) Jean During (Univ. Paris X, CNRS), Bernard Lortat-Jacob (Univ. Paris X, CNRS), Fikret Karakaya (Univ. d’Istanbul), Jean-Claude Chabrier (CNRS), Ivanka Stoianova (Univ Paris VIII), Marcel Pérès (CNRS), Giuliano d’Angiolini (Compositeur et musicologue), Dimitri Afgoustidis (INS-HEA), Constantin Bobas (Université Lille III), Xavier Hascher (Univ. De Strasbourg), Dariush Tala’ (Univ. de Téhéran), Ignazio Macchiarella (Univ. de Cagliari, Italie), Jacques Viret (Univ. de Strasbourg), Damien Poisblaud (Chanteur), Hafedh Lejmi(ISM de Tunis), Bar1_ Bozkurt (Université d Istanbul), Alessandro Arbo (univ. Strasbourg), Marta Grabocz (Univ Strasbourg), Lara Molaeb (Univ. Antonine-Baabda, Liban), Patrick Ténoudji (Université de Strasbourg)
Et moment musical avec Nabil AbdMouleh (ISM de Tunis).
Workshop on Movement Qualities and Physical Models Visualizations
Colloque Qualités de mouvement et rendus graphiques par modèles physiques
Ircam, 1-2 mars 2012
HYPERLINK "http://www.ircam.fr/colloques.html?event=1095"http://www.ircam.fr/colloques.html?event=1095

Argument
Les thèmes de ce workshop sont le reflet des recherches actuelles menées au Limsi-CNRS au sein de l'équipe AMI (Architecture et modèles pour l'interaction), et à l'Ircam au sein de l'équipe IMTR (Interactions musicales temps réel), en particulier au travers du travail de recherche de Sarah Fdili Alaoui sous les directions de Christian Jacquemin et Frédéric Bevilacqua.

Ce workshop favorisera des discussions, présentations, tables rondes, improvisations ou performances impliquant des chercheurs, artistes, designers, développeurs. Il se concentrera sur les relations diverses entre la danse et les médias numériques comme l'interaction du corps entier, la documentation de la danse, la pédagogie et la représentation de la danse et l'augmentation du geste. Ces sujets seront nourris de contributions diverses sur l'analyse de mouvement, la notation de la danse, les installations interactives pour la danse et la performance, l'informatique graphique et la synthèse de mouvement pour la modélisation du geste.
L'objectif est de rassembler les avancées récentes dans ces domaines avec un focus sur les relations diverses entre le rendu graphique basé sur des modèles physiques et les qualités de mouvement dans la danse. Il fédérera des gens travaillant dans les domaines scientifiques de l'interaction homme-machine, l'informatique graphique, l'apprentissage automatique, l'intelligence artificielle, la robotique, les sciences cognitives... ainsi que que des artistes, chorégraphes et personnes travaillant sur l'analyse de la danse, son esthétique, son histoire et sur le design.

Ce workshop vise à promouvoir des collaborations scientifiques et artistiques aux frontières de l'interdisciplinarité. Les axes de recherche suivants seront abordés :
analyse de qualités de mouvement,
interaction du corps entier,
contrôle de modèles physiques,
connaissance, documentation et bases de données liées au geste dansé,
présentation d'œuvres d'art.

Comité d'organisation
Sarah Fdili Alaoui, Ircam/Limsi-CNRS/Université Paris-Sud, Frédéric Bevilacqua, Ircam,( Christian Jacquemin, Limsi-CNRS/Université Paris-Sud,( Sylvie Benoit, Ircam.
Lieux, milieux et horizons du son. Vers une écologie de l écoute
CDMC / L Itinéraire, 8-9 mars 2012

Le son, toujours, se donne en un lieu, une salle de concert, mais aussi, plus exceptionnellement, in situ et en des endroits, ouverts ou fermés, qui ne sont pas a priori dévolus à la musique et qui résonnent volontiers de modèles naturels : l’histoire est déjà longue de la musique en plein air, dans les jardins ou à même un paysage, lagunaire, escarpé, voire urbain… Renversons maintenant l’assertion : qu’en serait-il si le son donnait un lieu, dévoilait et configurait un espace ? Certes, le lieu n’est pas l’espace. La langue française nous le dit, qui n’aurait pas forgé en vain ces « synonymes », que l’on retrouve en allemand ou en grec ancien. Car le lieu n’est pas circonscrit à l’avance, il émerge peu à peu. Interroger en musique, art temporel s’il en est, les lieux, les milieux et les horizons du son, c’est, sans doute, scruter là où le son est (son lieu propre, là où il vibre), ce qu’il déploie d’une écologie (l’environnement, les relations entre les sons conçus comme autant d’organismes vivants), mais aussi sa capacité à ouvrir, à habiter et à occuper un quelque part unique, sans cesse à réinventer – et l’on se souviendra qu’écologie résonne de la racine grecque d’oikos : la maison. Ce colloque s’est proposé, autour de l’œuvre de Salvatore Sciarrino et d’autres compositeurs, d’explorer ces lieux simples ou traversés à l’occasion de perspectives multiples ; ces lieux comme moments du cycle de la vie, des saisons et de la journée, voire de quelque cosmogonie ou mythologie ; ces lieux comme voyages, fussent-ils de l’imagination, de l’espace mental ou d’une dramaturgie intime… Et ces sons qui désignent un horizon, témoignent d’un éloignement, d’une lontananza, comme le dit merveilleusement l’italien, d’une tension en suspens vers un ailleurs, un autre foyer.

Organisateur : Laurent Feneyrou (CNRS)
Intervenants : Martin Kaltenecker (Université de Paris-VII), Jean-Luc Hervé (CRR de Boulogne-Billancourt), Luis Naon (CNSMDP), Pierre Mariétan (Paris), Jean-Patrice Courtois (Université de Paris-VII), Philippe Nys (Université de Paris-VIII), Bastien Gallet (École des Beaux-Arts de Montpellier), Pauline Couteau (Sciences-Po, Dijon), Marie-Louis Mallet (Paris), Grazia Giacco (Université Marc-Bloch de Strasbourg), Gianfranco Vinay (Université de Paris-VIII), Marco Angius (Rome), Jackie Pigeaud (Institut Universitaire de France), Pietro Misuraca (Université de Palerme), Henri Scepi (Université de Paris-III), Laurent Feneyrou (CNRS), Salvatore Sciarrino (Città di Castello), Jean-Christophe Bailly (École
Colloque international: Analyser la musique mixte
Ircam, Jeudi 5-6 avril 2012
Organisé par l’Ircam et la Société française d’analyse musicale
HYPERLINK "http://www.ircam.fr/colloques.html?event=1056"http://www.ircam.fr/colloques.html?event=1056

Argument :
La musique « mixte » (mêlant des éléments instrumentaux et électroniques) est riche de plus d’un demi-siècle d’histoire, dont beaucoup d’aspects restent méconnus. l’analyse musicale a trouvé en elle un objet glissant : coexistence de deux mondes sonores et de deux types de notations, difficultés d’interprétation, multiplicité des paradigmes technologiques, obsolescence rapide des moyens techniques impliqués...
Comment rendre compte de ces œuvres sans les réduire tantôt à des partitions, tantôt à des traces sonores ? quelles méthodes d’analyse et quels outils de représentation privilégier pour les comprendre ?

Comité d’organisation
Jean-Michel Bardez, Sfam, Sylvie Benoit, Ircam, Alain Bonardi, Ircam/université Paris-8, Bruno Bossis, Sfam/université Rennes 2/OmF – université Paris-Sorbonne, Pierre Couprie, Sfam/OmF – université Paris-Sorbonne/IuFm, Nicolas Donin, Ircam/Sfam, Vincent Tiffon, université Lille-nord de France/Ircam, Hugues Vinet, Ircam

Comité scientifique
Marc Battier, université Paris-Sorbonne, Alain Bonardi, Ircam/université Paris-8, Bruno Bossis, université rennes 2/OMF – Paris-Sorbonne, Michael Clarke, université de Huddersfield, Pierre Couprie, OmF – université Paris-Sorbonne/IUFM, Jean-marc Chouvel, université de reims Antonio de Sousa Dias, université catholique portugaise, Nicolas Donin, Ircam/Sfam, Christian Eloy, Scrime, Leigh Landy, université De Montfort, Leicester, Jean Piché, université de Montréal, Laurent Pottier, université Jean Monnet de Saint-Etienne, Jean-Claude Risset, LMA-CNRS, Anne Sedès, université Paris-8, Daniel Teruggi, Ina-Grm, Vincent Tiffon, université lille-nord de France/Ircam, Laura Zattra, CSC-université de Padoue.
Produire le temps
Colloque international
Ircam, 14-15 juin 2012
HYPERLINK "http://manifeste.ircam.fr/1059.html?event=1116"http://manifeste.ircam.fr/1059.html?event=1116

Argument :
Nombre d’expériences humaines, se déroulent dans une temporalité construite et produite. C’est le cas des arts du spectacle, mais aussi plus largement de toute situation de communication vivante.

Le concepteur – compositeur, scénariste, conférencier – élabore son intrigue temporelle en préfigurant le processus au moyen de supports techniques de représentation– partition, scénario – formalisant une temporalité latente de celui-ci. Cela est particulièrement vrai de la conception de situations interactives, avec la maturation en cours de langages informatiques dédiés au traitement en temps réel des informations.

Ces outils techniques se fondent eux-mêmes, explicitement ou non, sur des représentations abstraites du temps – temps linéaire, orienté, cyclique, séquentiel – issues de théories mathématiques et physiques, qui établissent des relations de nature fondamentale avec d’autres grandeurs : temps-fréquence en théorie du signal, temps-espace en relativité.

L’action de l’interprète inscrit par son corps la réalisation du processus dans un temps vécu, qui dépasse de loin sa prescription latente et formalisée, dans l’information qu’elle produit et la relation qu’elle induit. C’est là tout son apport à la constitution d’un sens spécifique. La présence centrale de l’interprète dans les arts vivants confère en effet à l’intrigue une intentionnalité, un déploiement spatio-temporel et un sens provisoire, de ce qui était encore à l’état syntaxique, qu'il dénoue en un décours temporel produit à mesure. L’ambiguïté du terme interprétation — à la fois appréhension / compréhension de l’œuvre et exécution de cette dernière, y compris par une machine programmée — est ici particulièrement signifiante. Quelles sont ainsi les stratégies — analyse, mémorisation, répétition, anticipation – que l’interprète mobilise tant pour sa préparation que dans l’instant de l’exécution ? Quelles sont celles que l’interprète-historien développe à son tour pour composer une intrigue vraisemblable ? D’un point de vue anthropologique enfin, notre présent est marqué par l’échange continu entre information et corps. La possibilité de capter et d’analyser en temps réel notre comportement permet potentiellement d’anticiper un futur proche, de réduire l’imprévisible sans pouvoir l’abolir : mais cette puissance de l’anticipation nécessite elle-même une interprétation des données. Cette situation induit-elle à son tour de nouveaux paradigmes temporels ?

Temps abstrait, temps latent, temps vécu rendent compte de théories et d’expériences dont les relations sont généralement peu explicitées. L’unification des points de vue se heurte aux limites des connaissances et à l’impossibilité d’objectiver le temps comme réalité ontologiquement indépendante : la considération de structures du temps n’a de sens que relativement à une chose – phénomène ou artefact – à la fois objectivée et subjectivée selon un déploiement temporel spécifique.

L’objet de ce colloque interdisciplinaire est de faire un état des connaissances, savoir-faire et pratiques de production du temps et de susciter des fertilisations croisées associant les contributions d’artistes, concepteurs et interprètes à celles de chercheurs en mathématiques, informatique, sciences cognitives et sciences humaines, philosophie et esthétique.

Organisateurs : Ircam-Centre Pompidou, l’École polytechnique et l’École normale supérieure. Avec le soutien du ministère de la Culture et de la Communication et de l’université Pierre et Marie Curie (UPMC).
Comité scientifique : Yves André (ENS), Moreno Andreatta (CNRS-Ircam), Gérard Assayag (Ircam), Antoine Bonnet (université Rennes-2 et ENS), Arshia Cont (Ircam), Nicolas Donin (Ircam), Andrew Gerzso (Ircam), Frank Madlener (Ircam), François Nicolas (ENS), Thierry Paul (CNRS-École polytechnique), Hugues Vinet (Ircam)
Coordination : Hugues Vinet et Sylvie Benoit (Ircam)

Participants : Yves André (ENS), Alain Bergala (Fémis), Gérard Berry (Inria), Antoine Bonnet (compositeur), Arshia Cont (Ircam), Claude Debru (ENS-Académie des sciences), Claude Delangle (saxophoniste), Nicolas Donin (Ircam), Laurent Feneyrou (Ircam-CNRS), Patrick Flandrin (CNRS-ENS-Académie des sciences), Jean-Louis Giavitto (Ircam-CNRS), Petr Janata (Université de Californie, UCDAVIS), Ed Large (Université de Pennsylvanie), François Nicolas (ENS), Thierry Paul (CNRS-École Polytechnique), François Regnault (dramaturge), Pierre-André Valade (chef d'orchestre).
Workshop MIR et Création
Ircam, 2 juin 2012
Ce workshop invite des spécialistes du domaine à exprimer leur point de vue sur MIR (Music Information Research) dans le champ de la création, de la composition, de l'interaction, des performances, de la recherche, du signal audio, de la symbolique ou des bases de données.
Music Information Retrieval (MIR) a longtemps été associé à l'extraction d'informations de musique déjà créée et enregistrée, afin d'en faciliter la recherche, la navigation et l'accès à des collections musicales.
Comment MIR, en devenant Music Information Research, est maintenant utilisé dans le processus de création lui-même ?
Intervenants : Gérard Assayag, Geoffroy Peeters, Norbert Schnell, Diemo Schwarz (Ircam), Philippe Manoury (compositeur), Tristan Jehan (EchoNest), François Pachet (SonyCSL), Sergi Jorda (IUA/UPF).
Workshop proposé dans le cadre du HYPERLINK "http://www.mires.cc/"projet MIReS financé par la Commission européenne - programme ICT.
Workshop international ImproTech Paris – New York 2012
HYPERLINK "http://repmus.ircam.fr/improtechpny"http://repmus.ircam.fr/improtechpny
New York, 16-18 mai 2012

Dans le cadre du projet ANR ImproTech qui lie l’Ircam à l’EHESS, au CNSMDP, à l’ENS-Lyon et le Centre de Recherche en Ethno-musicologie de Nanterre-Paris Ouest, Gérard Assayag et Marc Chemillier ont organisé un workshop international du 16 au 18 mai 2012 à New York, avec l’aide des universités Columbia (J.B. Barrière, G. Lewis) et NYU (R. Rowe).

Le but était de faire le point sur l’état des recherches et des outils en matière d’interaction homme machine dans un cadre de musique vivante improvisée, en privilégiant les approches favorisant l’intelligence musicale et sa modélisation, par opposition aux traitements limités aux effes audionumériques.
Deux journées d’études, de conférences, de démonstations et de workshop ont pris place à NYU et à Columbia (Prentis Computer Music Center) ainsi que deux concerts publics dont un dans une des grandes salles de l’avant-garde Jazz et contemporain New-Yorkaise (The Roulette).
Les journées d’étude ont permis de confronter un grand nombre d’approches allant de l’instrument augmenté avec captation gestuells aux systèmes génératifs basés sur des règles algorithmiques et formelles, des modélisations statistiques ou des systèmes complexes. En particulier un nombre significatif de systèmes tiers embarquent eux même la technologie OMax, issue de l’équipe Représentations Musicales, au cœur de leur dispositif, ce qui confirme la position de leader du laboratoire dans le domaine de l’inetraction improvisée homme-machine.
Les concerts et les master-classes otn rassemblé un panel éblouissant de musiciens de première ordre.

Parmi ceux(celles) qui ont interagi avec OMax dans leurs performances seul(e)s ou en groupe ou leur compositions : Bernard Lubat, Mari Kimura (Guggenheim Fellow 2010), Margaret Lancaster (Vijay Iyer (Musicen Jazz de l’année 2010 JJA, quintuple award DownBeat Critics Poll 2012) , Steve Lehman (#1 Jazz Album of the year by The New York Times in 2010), Raphael Imbert (Lauréat du concours de Jazz de la défense 2005), Sandeep Bachwati, Brice Martin, Laurent Mariusse, Denis Beuret, Lori Freedman (nominée Clarinetist of the Year 2003, ’04, and ’06 aux National Jazz Awards), Jean-Baptiste Barrière, Georges Bloch.
Parmi les autres musicien(ne)s: Geri Allen (Benny Golson Award, Lady of Soul Award, Danish Jazzpar Price, Guggenheim Fellow), Georges Lewis (McArthur Fellow 2002, Alpert Award 1999, Yale « Major Figures in American Music »), Roscoe Mitchell (fondateur Art Ensemble of Chicago, AACM), Steve Coleman (un musicien phare du jazz contemporain), Gilbert Nouno (Prix de Rome 2011), les Emeudroïdes.


Séminaires
Séminaires Recherche et Technologies de 2007 à 2012
Il s’agit des séminaires internes à l’unité, programmés sur une base hebdomadaire, destinés à favoriser les échanges interdisciplinaires entre équipes ainsi qu’avec la communauté musicale de l’Ircam. C’est également dans ce cadre que sont invités les chercheurs de passage à présenter leur travail.

Programmation et organisation : H. Vinet, Sylvie Benoit et les services transversaux de l’Ircam.


A - LISTE DES SÉMINAIRES RECHERCHE ET TECHNOLOGIES EN 2007

10 janvier
Outils pour la captation du geste : de la conception à la performance
Alice Daquet, F. Bevilacqua

le 7 février
Le bruit du violon : une étude sur la qualité des transitions.
Nicolas Rasamimanana

Le 7 mars
Etude d'un système de partitions interactives pour la composition et l'exécution.
Antoine d’Allembert

Le 14 mars
Transformation de la voix: modelisation et transformation de l'enveloppe spectrale
Fernando Villavicencio Marquez

le 28 mars,
Modèle d'instruments pour l'orchestration
Damien Tardieu

le 4 avril
Modalys
Joël Bensoam, Nicholas Ellis

le 2 mai
Projet Consonnes
René Caussé, Vincent Fréour, Alain Terrier, Kurijn Buys, Thomas Hélie

le 9 mai
Synthèse sonore des instruments à corde frottée: contrôle et modèles
Matthias Demoucron

le 16 Mai
Préservation des données numériques, préservation des oeuvres musicales avec électronique, projet CASPAR
Alain Bonardi, Guillaume Boutard, Jérôme Barthélemy

le 30 mai
conférence invitée : Christopher Raphael
Associate Professor of Informatics - School of Informatics, Indiana University

le 31 mai
conférence invitée : François ROSE
Associate-Professor of Composition and Theory - University of the Pacific - Conservatory of Music

le 27 juin
Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design"
Olivier Houix, Patrick Susini, Nicolas Misdariis, Guillaume Lemaitre

le 11 juillet
conférence invitée : Bob L. Sturm
Electrical and Computer Engineering - University of California, Santa Barbara

le 20 juillet
conférence invitée : Doug Turnbull
Univ. of California, San Diego

le 12 septembre
Transformations de type et de nature de la voix
Snorre Farner, Axel Roebel et Xavier Rodet

le 19 septembre
Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel.
Pierre Lanchantin, Julien Bloit et Xavier Rodet

le 26 septembre
Constitution et exploitation de corpus de parole, application en synthèse à partir du texte
Christophe Veaux, Greg Beller et Xavier Rodet

le 3 octobre
le projet RIAM : ECOUTE, indexation et publication musicale hypermédia
Geoffroy Peeters, Nicolas Donin, Samuel Goldszmidt, Jérôme Barthélemy

le 10 octobre
Présentation du projet MusicDiscover - indexation audio et interface de navigation
David Fenech et Geoffroy Peeters

le 17 octobre
Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive
Joël Bensoam et Nicholas Ellis

le 24 octobre
projet CASPAR
Alain Bonardi, Jérôme Barthélemy

le 21 novembre
"Projet CONSONNES" - 1ère partie
René Caussé, Vincent Fréour et David Roze

le 28 novembre
"Projet CONSONNES" - 2ème partie
Nicolas Montgermont (LAM - Institut d'Alembert) et Thomas Hélie, Philippe Chen, René Caussé

le 12 décembre
Modélisation d'anticipation et modélisation anticipative pour l'informatique musicale
Arshia Cont

le 19 décembre
Description des sons environnementaux : une meta-analyse de la perception du timbre
Antoine Minard et Nicolas Misdariis

B - Liste séminaire Recherches et technologie 2008
Le 9 janvier
Modélisation physique d’instruments à vent
Remi Mignot

Le 23 janvier
OM chroma , synthèse et « potentiel sonore »
Marco Stroppa, Jean Bresson


Le 30 janvier
Estimation simultanée de suite d’accords, tonalités et premier temps d’un morceau de musique
Geoffroy Peeters, Hélène Papadopoulos

Le 26 mars
Tracking de Fos multiples dans des enregistrements polyphoniques
Wei-Chen Chang, Chungshin Yeh, Axel Roebel0

Le 9 avril
Mesure automatique de la source glotique par vidéo-endoscopie à haute vitesse
Gilles Degottex, Xavier Rodet

Le 16 avril
Suivi du Projet « Quatuor Augmenté » : 1) étude de l’activité des interprètes
Maÿlis Dupont

Le 30 avril
Nouveautés et applications musicales de la synthèse sonore concaténative par corpus en temps-réel
Diemo Schwarz

Le 21 mai
Music Information Geormetry : Theory and some Applications
Arshia Cont

Le 30 juin
Supervised Musical Source Separation from Mono and Stereo Mixtures basend on Sinusoidal Modeling Juan Jose Burred

Le 10 septembre
Traduction des sources Matlab en C++ en utilisant le compilateur Mat2MTL
Bernard Pratz et Axel Roebel

Le 17 septembre
« Computing (performances) with Words » Outils de logique floue pour la représentation de données dans les arts de la scène
Alain Bonardi, Isis Truck (du Laboratoire LIASD, Université Paris 8)

Le 24 septembre
La modernisation d’AudioSculpt d’un point de vue informatique
Niels Bogaards

Le 1er octobre
Sound Field Analysis and Synthesis : a State-of-the-art in Spherical acoustics
Markus Noisternig

Le 8 octobre
Modélisation et reconnaissance d’événements musicaux
Julien Bloit

Le 14 octobre
Digital Algorithm for Sound Synthesis, VoxStrument’s Project
Joël Bensoam, Nicholas Ellis, René Caussé

Le 22 octobre
Descripteurs de la voix chantée pour une utilisation de contrôle en temps réel
Jean-Philippe Lambert

Le 26 novembre
MustiCaspar : des services pour la préservation des objets numériques
Jérôme Barthélémy, Alain Bonardi, Guillaume Boutard, Raffael Ciavarella

Le 3 décembre
Influence de la structure formelle sur la sémantique musicale et perception subjective du temps
(présentation de sa soutenance de thèse)
Cécile Alzina

Le 18 décembre
Exploration des possibilités et des limitations de la programmation concurrente pour l’interaction multimédia et l’exploration de la programmation visuelle des problèmes satisfaction des contraintes musicales
Mauricio Toro

Soutenances de thèses & Habilitation à diriger des recherches en 2008:

Le 26 juin
Chunghsin Yeh
Estimation de fréquences fondamentales multiples dans des enregistrements polyphoniques

Le 16 octobre
Arshia Cont
Modeling Musical Anticipation : From the Time of Music to the Music of Time

Le 20 novembre
Gilbert Nouno
Suivi de tempo appliqué aux musiques improvisées

Le 24 novembre
Matthias Demoucron
On the Control of Virtual Violins – Physical Modelling and Control of Bowed String Instruments

Le 10 décembre
Alain Bonardi (soutenance pour une habilitation à diriger des recherches)
Vers des environnements homme-machine pour ressaisir les intentions dans la création scénique

Le 15 décembre
Damien Tardieu
Modèles d’instruments pour l’aide à l’orchestration

Le 16 décembre
Grégoire Carpentier
Approche computationnelle de l’orchestration musicale

C - Liste séminaires Recherche et technologie 2009

Le 7 janvier
Imitations vocales de sons environnementaux et reconnaissance des sons imités Arnaud Dessein

Le 21 janvier
Vers le design de l’évaluation d’interfaces sonores interactives et tangibles : le Spinotron Arnaud Lemaitre

Le 27 janvier Sparse Sound Representations and Adaptive Methods for Modeling Musical Expectation and Interactive Sound Search
Hendrik PURWINS, de la Technical University Berlin

Le 28 janvier
PatcherTools Alain Bonardi, Raffaele Ciavarella, Jérôme Barthélemy

Le 20 février Matinée autour de la notation musicale assistée par ordinateur Conférence : Abjad, un système de manipulation formelle de partition Séance pratique d'initiation à LilyPond, logiciel de notation musicale Trevor Ba
a et Víctor Adán, compositeurs
Le 4 mars Objets multisensoriels : approche psychophysique en réalité virtuelle
Clara SUIED
Le 27 mai
OM-Orchidée: Architecture client/serveur pour l'aide à l'orchestration
Grégoire Carpentier, Jean Bresson

Le 3 juin
Transformation de type et de nature de la voix en temps réel Snorre Farner

Le 3 juillet Composer le son dans l'espace : de la spatialisation à la synthèse sonore spatialisée Jean Bresson, Marlon Schumacher (McGill Un.)

Le 23 sept Le contrôle du rayonnement appliqué à la reproduction sonore d'un instrument de musique
Eric Boyer

Le 12 octobre Embodied Sound Media Technology Dr Kenji Suzuki

Le 7 octobre Analyse de scènes sonores pour le traitement des signaux musicaux Mathieu Lagrange

Le 21 octobre Antescofo : Vers un langage synchrone pour la composition temps réel Arshia Cont

Le 4 novembre « Blendnick ? » Nick PORCARO, musicien et développeur

Le 30 novembre Automatic Separation and Transcription of the Main Melody from Polyphonic Music Signals Jean-Louis Durrieu

Le 4 décembre Current Research Activities of the TKK _Audio Signal Processing Research Team
Dr. Vesa VALIMAKI

Le 9 décembre NoteAbilityPro: Extensions to Support Interactive Music Composition and Performance Keith Hammel, Arshia Cont

Soutenance pour une thèse de doctorat ou une habilitation à diriger des recherches (HDR) en 2009
Le 24 mars
"Formats audio 3D hiérarchiques : caractérisation objective et perceptive des systèmes Ambisonics d'ordres supérieurs"
Stéphanie Bertet (thèse)

Le 5 juin
Algorithmes, langages et modèles pour la recherche musicale : de la composition à l’interaction
Gérard ASSAYAG,  (HDR)

Le 24 juin
Analyse et modèle génératif de l'expressivité. Application à la parole et à l'interprétation musicale
Grégory Beller (thèse)

Le 2 décembre L'analyse musicale computationnelle : rapport avec la composition, la segmentation et la représentation à l'aide des graphes
Yun-Kang AHN (thèse)

Le 3 décembre Réalisation en guides d'ondes numériques stables d'un modèle acoustique réaliste pour la simulation en temps réel d'instruments à vent Rémi Mignot (thèse)

D - Liste séminaires Recherche et technologie 2010
le 13 janvier Formalisation mathématique, univers compositionnels et interprétation analytique chez Milton Babbitt et Iannis Xenakis - Études autour de Semi-Simple Variations pour piano (1956) de Milton Babbitt et de Nomos Alpha pour violoncelle (1965-1966) de Iannis Xenakis - Stephan Schaub
le 10 mars Reconnaissance de sources multiples en temps réel par la factorisation en matrices non négative Arnaud Dessein
le 5 mai
Étude sur les similarités entre geste et son
Baptiste Caramiaux

Le 12 mai A performance-synchronous language for computer music Arshia Cont, Marco Stroppa, compositeur
le 19  mai Base expérimentale pour la modélisation de la coarticulation gestuelle Tommaso Bianco
le 15 septembre Transformations sonores par descripteurs haut-niveau Marcelo Caetano

le 29  septembre Applying Text Based IR Techniques to Cover Song Identification Nicola Montecchio

le  6  octobre Classification audio de flux radiophoniques par Machines à Vecteurs de Support Mathieu Ramona

le 20 octobre Représentation des typo-morphologies sonores et gestuelles en Max/MSP... et MuBu dans tout ça Norbert Schnell

le 8 décembre Estimation du tempo et battements: comparaison d'une approche traditionnelle à une approche copier coller Geoffroy Peeters 

Liste des soutenances de thèses

le 17 mars
Julien Bloit "Interaction musicale et geste sonore : modélisation temporelle de descripteurs audio"

Le 23 mars
Fernando Villavicencio "Conversion de la voix de haute qualité"

Le 5 mai
Emmanuel Amiot « Modèles algébriques et algorithmes pour la formalisation mathématique de structures musicales »

Mercredi 30 juin 2010
Rozenn NICOL, chercheuse à France Telecom (Lannion),   habilitation à diriger des recherches (HDR) :
"  Représentation et perception des espaces auditifs virtuels  "

Vendredi 2 juillet 2010  
Hélène Papadopoulos
"Estimation conjointe d'information de contenu musical d'un signal audio"

Mardi 16 novembre 2010  
Gilles DEGOTTEX  "Glottal Source and Vocal-tract Separation"

Jeudi 9  décembre 2010  
David Roze "Simulation de la propagation d'onde non linéaire par les séries de Volterra"

Séminaires invités  R &T 2010
Mercredi 20 janvier 2010  Artistic Productions and Research Projets  @  IRZU - Institute for Sonic Arts Research in Slovenia Miha Ciglar

Mercredi 3 février  2010    Dominique FOBER et Christophe DAUDIN du GRAME, dans le cadre du projet ANR Interlude "Partition musicale augmentée - Un nouveau paradigme pour les partitions musicales développé dans le projet ANR Interlude »

Lundi 22 mars 2010    Hideki KENMOCHI  (speech group manager et responsable de Vocaloid/Yamaha) et Toshifumi KUNIMOTO (general manager du CAST), pour une conférence sur Vocaloid.

Vendredi  25  juin 2010  Gabriel Weinreich, de l'Université du Michigan "Finding the Secret of Stradivarius, Part 92781

Mercredi  22  septembre  2010   Adrien MONDOT "entre le jonglage et les arts numériques"

Journées Prospectives de la Recherche (en liaison avec MRC) ont eu lieu les 10 février, 17 novembre et 13 décembre 2010 respectivement sur l’écriture du son, prospective geste et prospective de la synthèse.


E – Liste séminaires 2011

Le 12 janvier
jMax Phoenix : jMax, reloaded Maurizio De Cecco

le 19 janvier
Modélisation et transformation de l’expressivité dans la parole
Christophe Veaux

Le 26 janvier
L’estimation de la fréquence fondamentale principale « la mélodie » dans des enregistrements polyphoniques
Wei-Hsiang Liao

Le 27 janvier
Audio Source Separation: a flexible approach and a multicriteria evaluation Alexey Ozerov et Valentin Emya

Le 9 février
A Unified Approach to Real-Time Audio-to-Score and Audio-to-Audio Alignment Using Sequential Montecarlo Inference Techniques
Nicola Montecchio

Le 14 février
"L'outil SVLN dans un cadre de création"
Eric MAESTRI  compositeur Cursus 2, Gilles DEGOTTEX

Le 2 mars Toward Construction of a Timbre Theory for Music Composition.
Naotashi Osaka

Le 9 mars Comparaisons et validations de modèles physiques d’instruments de musique à vent
Pauline Eveno

Le 10 mars
Diffuse Programming: Programming multimedia applications with HOP
Manuel Serrano

Le 16 mars
Projet ASTREE : pérennisation des processus synchrones temps réel.
Alain Bonardi, Karim Barkati, Jérôme Barthélemy

Le 23 mars
Playing and Replaying Gestual Embodiment and Control of Recorded Sounds"
Norbert Schnell

Le 30 mars À la recherche de l'orchestre perdu
Philippe Esling

Le 6 avril
PWGL
Mika Kuuskankare

Le 13 avril
Gestion du temps dans Antescofo 0.4 : inférence/reconnaissance et programmation/composition
Arshia Cont

Le 27 avril
Autour du Geste : { Reconnaissance } { Aspects Cognitifs }
Baptiste Caramiaux

Le 4 mai
Reconnaissance de timbres dans Max/MSP
Nicolas Rasamimanana, Julien Bloit

Le 25 mai
Archiver la musique électroacoustique et mixte
Guillaume Boutard

Le 1er juin
Source-Filter Modeling of Musical Instrument Sounds
Marcelo Caetano

Le 22 juin
Conversation avec eRikm : rencontre et débat avec le platiniste et sa lutherie
Marc Chemillier, Gérard Assayag, eRikm, Joan Aguila

Le 24 juin
Advances in Speed Technologies (workshop Speech)
Nicolas Obin, Jean François Bonastre, Nick Campbell, Simon King

Le 27 juillet
On Coordinating Gestures, Sound and Animation in Real-time Performance Systems
Bill Hsu

Le 28 juillet
Tod Machover

Le 30 septembre
New Developments in Music Signal Processing Meinar Muller

Le 6 octobre
Géométrie et Symétrie, Le plan de Poincaré pour lever le voile
Florie-Anne Baugé (soutenance de stage)

Le 26 octobre
Détection de changements dans des signaux audio en temps-réel
Arnaud Dessein

Le 23 novembre
Liquidsoap: A high-level programming language for multimedia streaming
David Bealde

Le 30 novembre
Séparation de sons harmoniques ou percussifs dans des signaux de musique
Tien Ming Wang, Chungsin Yeh


Soutenances thèses de doctorat ou habilitation à diriger des recherches (HDR) en 2011

Le 10 juin
Le design sonore : un cadre expérimental et applicatif pour explorer la perception sonore
Patrick Susini (HDR)

Le 15 juin Morphing Isolated Quasi-Harmonic Acoustic Musical Instrument Sounds Guided by Perceptually Motivated Features
Marcelo Caetano

Le 23 juin
Floutage spatial auditif et applications au codage audio multicanal
Adrien Daniel

Le 23 juin
MeLos: Analyse et Modélisation de la Prosodie et du Style de Parole
Nicolas Obin

Le 11 juillet
Contrôle musical et perceptif de la spatialisation sonore en zone étendue
Joseph Sanson

Le 27 octobre
Influence des vibrations sur la perception des timbres : application au bruit de moteur Diesel
Aurélie Frère

Le 14 décembre
Études sur la relation geste-son en performance musicale
Baptiste Caramiaux


F – liste séminaires premier semestre 2012

Le 8 février
"Présentation du projet MuSync"
Arshia Cont, Florent Jacquemard et Jean-Louis Giavitto

Le 15 février
Understanding Perception with Audiovisual Resynthesis
Parag K. MITAL, 
The Sonic Ecosystem
Daniel JONES 

Le 7 mars
Méthodes acoustiques pour l'analyse de la voix chantée
Malte KOB

Le 14 mars
Représentations invariantes par ondelettes pour la classification des sons
Stéphane Mallat

Le 28 mars
Timeless problems in real-time audio software design
Miller Puckette

Le 30 mai
Méthodologie en design sonore : mise en œuvre dans une application industrielle
Nicolas Misdariis Patrick Susini, Olivier Houix et Sébastien Gaxie, compositeur

Le 6 juin
Music Structure Segmentation
Florian Kaiser

Le 13 juin
Cortical Representaton of Musical Timbre
Shihab Shama

Le 20 juin
The Digital Musical Instrument as an Epistemic Tool
Thor Magnussen , Norbert Shnell

Soutenances de thèses de doctorat en 2012 :

Le 26 janvier
Gestural Control in Trumpet Performance : Experiments and Modeling (Études sur la relation geste-son en performance musicale)
Tommaso Bianco

Le 8 mars
Localization, Characterization and Recognition of Singing Voices
Lise Régnier

Le 9 mars
Automatic Adaptation of Sound Analysis and Synthesis
Marco Liuni

Le 2 mai
Modélisation, analyse et identification de circuits non linéaires : application aux amplificateurs guitare à lampes pour la simulation en temps réel
Yvan Cohen

Le 29 juin
Graphs and Automata for the Control of Interaction in Computer Music Improvisation
Fivos MANIATAKOS
Séminaires de l’Action Spécifique Geste et Action, Groupement De Recherche ISIS – Information, Signal, Images et ViSion
10 novembre 2006, ENST - Capture du mouvement avec et sans marqueurs
15 juin 2007, ENST – Acquisition, suivi et reconnaissance de gestes et d'actions
25 mars 2008, TELECOM ParisTech (ex ENST) – Journée Geste et Visage

Organisateurs : Frédéric Bevilacqua (Ircam), Rémi Ronfard (INRIA Rhone-Alpes), Patrick Horain (TELECOM ParisTech), Caterine Achard (Paris 6)

Cette action se propose de poursuivre et d’amplifier une action précédente (Perception, Modélisation et Interprétation du Geste Humain), qui était à la fois AS 70 du département STIC du CNRS et du GDR ISIS.
L’action spécifique « Geste et action » se propose d'explorer les problématiques liées à l’analyse visuelle du mouvement, des gestes et du comportement humain. De nombreuses recherches sont menées au niveau international, visant à permettre une analyse automatique d’une ou de plusieurs personnes, indépendantes ou en interaction, situées dans le champ d’une ou plusieurs caméras. Ces recherches, en nombre croissant depuis plusieurs années, portent sur différents thèmes tels que :

la détection, le suivi et la reconnaissance des parties du corps, avec ou sans marqueurs
l’interprétation de ces mouvements en termes de trajectoires articulaires, et leur utilisation pour l’analyse et l’animation,
la reconnaissance de mouvements et de gestes, en termes de « primitives d’actions » (Facial Action Units, Body Action Units),
l’interprétation des actions et des interactions d’une ou plusieurs personnes avec leur environnement et entre elles.

L’action englobe ces problématiques, et souhaite promouvoir la coopération méthodologique entre laboratoires nationaux, voire européens, au travers de Journées Thématiques.
Ecole de mathématique pour musiciens et autres non mathématiciens
HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique"http://repmus.ircam.fr/mamux/ecole-mathematique
Mise en place par Moreno Andreatta en 2006 (en collaboration avec Carlos Agon, François Nicolas et Charles Alunni) d’une nouvelle école qui est coorganisée par les deux séminaires MaMuX (Ircam) et mamuphi (ENS). Le principe en est tout à fait singulier car il s'agit de rendre compréhensible un concept central des mathématiques contemporaines à des non-spécialistes, en tentant de les mener au cœur de la pensée mathématique la plus active, et sans économiser la spécificité de l'écriture mathématique. La première saison de l’école (2006-2009) était animée par Yves André (CNRS/ENS) qui a présenté quelques uns parmi les sujets les plus féconds de la pensée mathématique contemporaine, tels la théorie des topoï, les algèbres d’opérateurs, l’approche galoisienne, les représentations linéaires, les singularités, la dualité et la notion d’infini. Depuis fin 2009 l’école est animée par Pierre Cartier (IHES).

Liste des séances (2007-2011)

Samedi 24 mars 2007 : Les topos de Grothendieck (Yves André)
Samedi 12 mai 2007 : Idées Galoisiennes / théorie de l’ambiguïté (Yves André)
Samedi 1er décembre 2007 : Représentations linéaires et Analyse harmonique (Yves André)
Samedi 15 mars 2008 : Singularités (Yves André)
Samedi 17 mai 2008 : Dualité(s) (Yves André)
Samedi 7 février 2009 : "Des infinis subtils" (Yves André)
Samedi 15 décembre 2009 : Comment traduire au mieux l'idée de symétrie (Pierre Cartier)
Samedi 13 mars 2010 : Autour des probabilités (Pierre Cartier)
Samedi 15 mai 2010 : Mutations conceptuelles des probabilités au cours du XXe siècle (Pierre Cartier)
Samedi 11 décembre 2010 et Samedi 5 février 2011 : Mutations conceptuelles des probabilités au cours du XXe siècle (suite): Après 1950 (Pierre Cartier)
Samedi 30 avril 2011 : Duo sur l'entropie (Pierre Cartier et Annick Lesne)
Journées Projet Consonnes
Lundi 26 et mardi 27 mai 2007 – Ircam

Thème : Journée Bouche (et conduit vocal) Artificielles et Journée Cuivres

Organisateurs : René Caussé et Christophe Vergez
Participants : Vincent Fréour, Philippe Chen, Alain Terrier, Gaetan Parseihan, Thomas Hélie, René Causse (Ircam), Didier Ferrand, Fabrice Silva, Jean Kergomard, Christophe Vergez (LMA, Marseille), Jean-Pierre Dalmont, Joël Gilbert (LAUM, Le Mans), Xavier Pelorson (Gipsa-lab, Grenoble), Brigitte d'Andréa-Novel, Jean-Marie Coron (ENSMP, Paris –Univ. Paris-Sud 11), Murray Campbell (University of Edinburgh), Benjamin Ricaud (LMA, Marseille), Jean-François Petiot (IRCCyN, Nantes).


2007-2008
Séminaire Comprendre le travail de l’interprétation (histoire, analyse musicale, ergonomie)
EHESS, 10 séances
Organisateurs : Rémy Campos (Conservatoire National Supérieur de Musique de Paris), Nicolas Donin (Ircam), Jacques Theureau (Ircam-CNRS)
Participants : Rémy Campos, Nicholas Cook (Université de Royal Holloway, Londres), Sophie Dardeau (Université Paris-X), Nicolas Donin, Maÿlis Dupont (Ircam), John Rink (Université de Royal Holloway, Londres), Cédric Segond (Université de Paris-Sorbonne), Jacques Theureau


Séminaire Brillouin – Bilan 2007 -2012
HYPERLINK "http://repmus.ircam.fr/brillouin/"http://repmus.ircam.fr/brillouin/

Le Séminaire Léon Brillouin regroupe une communauté scientifique autour des thématiques liées aux Sciences géométriques de l'information depuis 2009. Le séminaire est coordonné par l'équipe-projet HYPERLINK "http://repmus.ircam.fr/musync" \o "musync"MuSync de l'équipe HYPERLINK "http://repmus.ircam.fr/home" \o "home"Représentations Musicales à l'Ircam, dans le cadre de ses recherches sur la HYPERLINK "http://repmus.ircam.fr/music-information-geometry" \o "music-information-geometry"géométrie de l'information (Arshia Cont, Arnaud Dessein) et est organisé en partenariat avec l’industriel Thales et le Laboratoire d’Informatique de Polytechnique (LIX).
La communauté compte aujourd’hui 71 membres de plus de 20 laboratoires nationaux communicants par une mailing-list dédiée. Depuis sa création en 2009, le séminaire a organisé 15 séances avec des intervenants des disciplines variées telle que mathématique pure et appliqués, imagerie médicale, radar, traitement de l’image ainsi que la musique. Le groupe coordonnée par l’Ircam est aujourd’hui considéré un des acteurs majeurs du domaine au niveau internationale étant donnée le nombre des sollicitation aujroud’hui qu’elle reçoit pour organiser des workshops au niveau nationale et internationale.
Les séminaires Brillouin sont majoritairement disponible sous forme vidéo enligne. Le programme des séminaires à venir ainsi que les 15 organisés depuis sa création est disponible également sur ce site.

Programme 2009-2012 :

31 mai 2012 : Michel Deza et Elena Deza : Distances in audio, image and biology
12 avril 2012 : Silvère Bonnabel, Stochastic gradient descent on Riemannian manifolds ; Yann Ollivier, Géométrie de l'information pour l'optimisation boîte noire
10 février 2012 : Symposium GDR MSPC, Transport optimal et géométrie de l'information
27 janvier 2012 : Gabriel Peyré : Wasserstein methods in imaging ; Guillaume Carlier, Matching, multi-marginals problems and barycenters in the Wasserstein space
20 octobre 2011 : Michel Broniatowski, Weighted sampling, maximum likelihood and minimum divergence estimators ; Michaël Aupetit, Apprentissage de la topologie de signaux multi-capteurs
5-8 septembre 2011 : Session spéciale GRETSI 2011, Science géométrique de l'information
5 juillet 2011 : Alfred Hero, Extracting correlations from random matrices: phase transitions and Poisson limits ; Christophe Vignat, Caractérisations géométriques des lois à entropie généralisée maximale
9 juin 2011 : Asuka Takatsu, Wasserstein geometry of the space of Gaussian measures, Wilfrid Kendall, Riemannian barycentres: from harmonic maps and statistical shape to the classical central limit theorem
23-27 mai 2011 : Mini-symposium SMAI 2011, Sciences géométriques de l'information
23-25 février 2011 : Workshop MIG 2011, Matrix information geometry
22 octobre 2010 : Jean-François Bercher, Some topics on Rényi-Tsallis entropy, escort distributions and Fisher information ; Jean-François Cardoso : Geométrie de l'analyse en composantes indépendantes
28 mai 2010 : Xavier Pennec, Current issues in statistical analysis on manifolds for computational anatomy ; Frank Nielsen, The Burbea-Rao and Bhattacharyya centroids
8 février 2010 : Michel Nguiffo Boyom, Une source des nouveaux invariants de la géométrie de l'information
décembre 2009 : Réunion de démarrage
Workshop MMI 2008 (Matematica/Musica/Informatica)
24-25 octobre 2008.
Workshop consacré aux rapports entre mathématiques, musique et informatique, organisé par Fabrizio Broglia (Université de Pisa) et Moreno Andreatta. Université de Pisa, Italie,
Séminaire D’une musicologie des textes à une musicologie des processus créateurs
EHESS, 12 séances, 2008-2009
Organisateurs : Rémy Campos (Conservatoire National Supérieur de Musique de Paris), Nicolas Donin (Ircam), Jacques Theureau (Ircam-CNRS)
Participants : Yves Balmer (ENS LSH, Lyon), Rémy Campos, Pascal Decroupet (Université de Nice), Maÿlis Dupont (Ircam), Jonathan Goldman (Université de Victoria), Maya Gratier (Université Paris-X), Xavier Mital (Paris), Emmanuelle Olivier (CRAL, CNRS).

Séminaire Composition et musicologie contemporaines
CNSMDP, 6 séances
Organisateurs : Frédéric Durieux (CNSMDP), Laurent Feneyrou (Ircam-CNRS)
Participants : Philippe Albèra (Conservatoire de Genève), Martin Kaltenecker (CRAL, EHESS), Helmut Lachenmann (Stuttgart), Philippe Manoury (Université de Californie, San Diego), Alain Poirier (CNSMP), Johannes Schöllhorn (Conservatoire de Hanovre)
Séminaires du PEPS Interaction Math/ST2I  « Géometrie de l’Interaction et Musique »
Resp. Moreno Andreatta
2009-2010
« Géométrie de l'interaction et musique » (Samedi 9 mai 2009). Avec la participation de Yves Lafont (Faculté des Sciences de Luminy & Institut de Mathématiques de Luminy), Thierry Paul (CNRS, DMA - Ecole Normale Supérieure), Carmine Emanuele Cella (Université de Siena / Ircam) et François Nicolas (ENS/Ircam).
« Géométrie de l'information et musique » (Samedi 10 octobre 2009). Avec la participation de Arshia Cont (Ircam), Hichem Snoussi (Université de Troyes), Arnaud Dessain (Ircam), Frédéric Barbaresco (Thales).
« Autour de la géométrisation de la logique et de l'informatique musicale » (Vendredi 13 novembre 2009). Journée organisée en collaboration avec l’équipe « Informatique, Biologie Intégrative et Systèmes Complexes » (IBISC, FRE 3190), Université d’Evry Val d’Essonne, Genopole. Avec la participation de Jean-Louis Giavitto, Olivier Michel, Antoine Spicher.
« Approche fonctorielle en informatique musicale » (Vendredi 4 décembre 2009). Avec la participation de Gérard Milmeister (University of ETH, Switzerland), Florian Thalman (School of Music, University of Minnesota), Thomas Noll (ESMuC, Barcelona / TU-Berlin) et Guerino Mazzola (School of Music, University of Minnesota).
« Représentations pour l’informatique musicale : graphes et S-langages » (vendredi 12 mars 2010). Avec la participation de Yannis Manoussakis (University Paris-Sud, Orsay), Fivos Maniatakos (Ircam/ Université Paris 6), Gilles Baroin (doctorant, université de Toulouse II – Le Mirail), Sylviane R. Schwer (Université Paris-Nord UMR CNRS 7030), Antoine Allombert (LABRI / équipe RepMus).
« Espaces de Chu et musique » (vendredi 9 avril 2010). Avec la participation de Vaughan Pratt (Stanford University), Paul-André Melliès (CNRS-PPS Jussieu), Timothy Porter (University of Wales,Bangor).
Workshop « Mathematical Models in Computer Music »
22 juin 2009. Yale University, Organisateurs Moreno Andreatta et Carlos Agon, dans le cadre de la conférence internationale MCM 2009.
Séminaire MaMux – Bilan 2005 -2012
Le Séminaire MaMuX est organisé par L'équipe Représentations Musicales, en collaboration avec Guerino Mazzola (MultiMediaLab de Université de Zürich et School of Music, University of Minnesota), Franck Jedrzejewski (CEA Saclay - INSTN/UESMS), Thomas Noll (Escola Superior de Musica de Catalunya) et avec le soutien du CNRS.
HYPERLINK "http://repmus.ircam.fr/mamux/contact"http://repmus.ircam.fr/mamux/contact

Intervenants au Séminaire MaMuX :
- Carlos Agon, chercheur en informatique musicale, Equipe Représentations Musicales, Ircam.
- Antoine Allombert, doctorant en informatique, SCRIME/Ircam
- Jean-Paul Allouche, mathématicien, CNRS, LRI - Orsay
- Charles Alunni, philosophe, Directeur du laboratoire Pensée des sciences de l’ENS
- Emmanuel Amiot, mathématicien.
- Yves André, mathématicien, CNRS-ENS
- Moreno Andreatta, théoricien de la musique, Equipe représentations musicales, Ircam/CNRS.
- Gérard Assayag, responsable de l’Equipe représentations musicales de l’Ircam
- Didier Aschour, compositeur
- Patrice Bailhache, Université de Nantes, CNRS
- Alain Bancquart, compositeur
- André Baltensperger, musicologue et directeur de l'Académie de Musique de Bâle
- Jean-Michel Bardez, compositeur, directeur de la société française d’analyse musicale
- Mario Baroni, musicologue, Univ. Bologna, Italy
- Amine Beyhom, musicologue, Université Paris IV-Sorbonne
- Emmanuel Bigand, LEAD/CNRS UMR 5022, Dijon.
- George Bloch, compositeur et musicologue, Université de Strasbourg
- Pascal Boldini, Université Paris IV / CAMS
- Philippe Bootz, Laboratoire Paragraphe, Université Paris 8) et Xavier Hautbois (IDEAT, UMR 8153, Université de Paris 1
- Per Aage Brandt, sémioticien, Center for Semiotic Research, Université d'Aarhus, Copenhagen
- Jean Bresson, chargé de recherche et développement à l’Ircam, Equipe représentations musicales.
- Peer Bundgaard, sémioticien, Center for Semiotic Research, Université d'Aarhus, Copenhagen
- Chantal Buteau, mathématicienne, Mathematics Department, Brock University
- Vittorio Cafagna, mathématicien, Université de Salerno, Italie
- Guilherme Carvalho, compositeur, Université Paris 8
- Philippe Cathé, musicologue, Université de Paris IV-Sorbonne
- Costin Cazaban, compositeur et musicologue, maître de conférences à l'Université de Lyon 2.
- Carmine Emanuele Cella, compositeur et doctorant en logique musicale (Université de Bologne / Ircam)
- Paulo Chagas, compositeur
- Elaine Chew, théoricienne de la musique et pianiste, University of Southern California Viterbi School of Engineering/Epstein Department of Industrial and Systems Engineering/Integrated Media Systems Center
- Jean-Pierre Cholleton, musicologue, doctorant à l'Université de Paris IV-Sorbonne.
- Jean-Marc Chouvel, compositeur et Professeur de musicologie à l'Université de Reims
- David Clampitt, théoricien de la musique, Department of Music, Yale University
- Philippe Codognet, informaticien, Université de Paris 6
- Arshia Cont, chercheur, Ircam
- Nicholas Cook, Royal Holloway, Centre for the History and Analysis of Recorded Music, CHARM
- Rossana Dalmonte, musicologue, Université de Trento, Italy
- Nicolas Darbon, musicologue, Université de Paris I - CNRS
- Patrick Dehornoy, mathématicien, LMNO, Université de Caen/CNRS
- Célestin Deliège, musicologue, Conservatoire Royale de Liège, Belgique
- Agostino Di Scipio, compositeur et théoricien de la musique, Conservatoire de Bari, Italie.
- Gilles Dowek, mathématicien et informaticien, Ecole Polytechnique / LIX
- Hugues Dufourt, compositeur, Université de Paris I – CNRS
- Andrée C. Ehresmann, mathématicienne, Université de Picardie Jules Verne
- Marcel Formosa, compositeur, président du MIM, Laboratoire Musique et Informatique de Marseille
- Harald Fripertinger, mathématicien, Université de Graz, Autriche.
- Arturo Fuentes, compositeur, Université de Paris 8 – Centre de recherche Informatique et Création Musicale - CICM
- Benoît Gibson, musicologue, Portugal
- Jane Ginsborg, Royal Northern College of Music, Manchester, UK
- Jean-Yves Girard, mathématicien et logicien, CNRS, Institut de mathématiques de Luminy.
- Stephan Göller, Informaticien, Université de Zürich
- Marta Grabocz, musicologue, Université Marc-Bloch, Strasbourg-II
- Karim Haddad, compositeur, Paris
- Xavier Hascher, musicologue, Université Marc-Bloch, Strasbourg-II
- Xavier Hautbois, musicologue, Université de Paris I, Sorbonne
- Yves Hellegouarch, mathématicien, Université de Caen
- Richard Hermann, musicologue, Département de musique, Université de New Mexico
- Michel Imberty, musicologue, université de Paris X, Nanterre
- Franck Jedrzejewski, mathématicien, CEA Saclay, Paris
- Tom Johnson, compositeur, Paris
- Peter Johnstone, mathématicien, Université de Cambridge
- Oren Kolman, mathématicien, Kings College, London.
- Ralf Krömer, mathématicien, LPHS-Archives Poincaré, Université Nancy 2
- Albino Lanciani, philosophe
- Olivier Lartillot, informaticien, Ircam
- Reinhard Laue, mathématicien, Universität Bayreuth, Allemagne
- Michael Leyton, mathématicien et artiste, Center for Discrete Mathematics & Theoretical Computer Science, DIMACS-Rutgers University
- Fabien Levy, compositeur et musicologue, Université de Columbia, New York
- Yves Lafont, mathématicien, Faculté des Sciences de Luminy & Institut de Mathématiques de Luminy,
- Gérard Ligozat, mathématicien et informaticien, LIMSI-CNRS Université de Paris Sud
- Alain Louvier, compositeur, professeur d'analyse musicale au CNMDP
- Pierre Lusson, mathématicien et théoricien de la musique, Centre de Poétique Comparée et Université de Paris VI
- Mikhail Malt, musicologue, département de la pédagogie, Ircam
- Guerino Mazzola, mathématicien, Université de Minnesota
- Nicolas Meeùs, musicologue, Université de Paris IV-Sorbonne.
- Dave Meredith, informaticien, City University, London.
- Benoît Meudic, informaticien, Ircam.
- Gérard Milmeister, mathématicien et informaticien, Université de Zürich
- Daniel Müllensiefen, Centre for Cognition, Computation and Culture Goldsmiths, University of London
- Stefan Müller, informaticien, Université de Zürich
- François Nicolas, compositeur, ENS, Paris
- Thomas Noll, mathématicien et théoricien de la musique, Escola superiore de musica de Catalunia, Barcelona
- Adam Ockelford, Southlands College, Roehampton University, London
- Carlos Olarte (LIX, Laboratoire d’Informatique de l’Ecole Polytechnique)
- Yann Orlarey, informaticien, GRAME
- Thierry Paul, CNRS, DMA - Ecole Normale Supérieure
- Richard Parncutt, Univ. Graz, Austria
- Frédéric Patras, mathématicien, Université de Sophia-Antipolis, Nice
- Geoffroy Peeters, chercheur en informatique musicale, Equipe Analyse/Synthèse, Ircam
- Jean-François Perrot, professeur émérite en informatique, LIP6
- Jean Petitot, épistémologue, CREA, Ecole Polytechnique
- John Rahn, musicologue et théoricien de la musique, Université de Washington à Seattle
- André Riotte, compositeur et vice-président de la SFAM
- Andrei Rodin, mathématicien, ENS
- Camilo Rueda, informaticien, Universidad Javeriana-Cali, Colombia
- Stephan Schaub, doctorant en musicologie, Université de Paris IV-Sorbonne.
- Daniel Schell, compositeur
- John Sloboda, University of Keele and Royal Holloway, University of London
- Makis Solomos, musicologue, Université de Montpellier
- Marco Stroppa, compositeur
- Andranik Tangian, mathématicien, FernUniversitaet Hagen, Allemagne
- Barbara Tillmann, chercheur CNRS, UMR 5020, Lyon
- Petri Toiviainen, musicologue, University of Jyväskylä,, Finland
- Mauricio Toro, informaticien, Pontificia Universidad Javeriana, Colombia / Ircam
- Charlotte Truchet, maître de conférence au Laboratoire d'Informatique de Nantes Atlantique
- Frank Valencia, chercheur CNRS, LIX, Laboratoire d’Informatique de l’Ecole Polytechnique
- Mathilde Vallespir, transsémioticienne, Université de Paris IV-Sorbonne
- Luigi Verdi, compositeur et théoricien de la musique, Conservatoire d'Adria, Italie
- Isabelle Viaud-Delmon, chercheur CNRS en neurosciences, équipe Espaces acoustiques et cognitifs, Ircam)
- Domenico Vicinanza, physicien, Université de Salerno, Italie
- Anja Volk, Department of Information and Computing Sciences, University of Utrecht
- Geraint A. Wiggins, Centre for Cognition, Computation and Culture Goldsmiths, University of London
- Jon Wild, compositeur et théoricien de la musique, Université d’Harvard


Samedi 10 octobre 2009 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2009-10-10" \o "mamux:saisons:saison09-2009-2010:2009-10-10"Géométrie de l'information et musique. Avec la participation d'Arnaud Dessein (Ircam), Hichem Snoussi (Université de Troyes), Frédéric Barbaresco (Thales) et Arshia Cont (Ircam).
Vendredi 13 novembre 2009 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2009-11-13" \o "mamux:saisons:saison09-2009-2010:2009-11-13"Autour de la géométrisation de la logique et de l'informatique musicale. Avec la participation d'Olivier Michel (Université Paris Est), Antoine Spicher (Université Paris Est) et Jean-Louis Gavitto (IBISC & UPS 3201, Informatique, Biologie Intégrative et Systèmes Complexes).
Vendredi 4 décembre 2009 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2009-12-04" \o "mamux:saisons:saison09-2009-2010:2009-12-04"Approche fonctorielle en informatique musicale. Avec la participation de Gérard Milmeister (University of ETH, Switzerland), Florian Thalman (School of Music, University of Minnesota), Guerino Mazzola (School of Music, University of Minnesota / Université de Zürich) et Thomas Noll (ESMuC, Barcelona / TU-Berlin).
Samedi 15 décembre 2009 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier. Comment traduire au mieux l'idée de symétrie.
Vendredi 15 janvier 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2010-01-15" \o "mamux:saisons:saison09-2009-2010:2010-01-15"Théorie des noeuds et musique. Avec la participation de Franck Jedrzejewski (CEA Saclay - INSTN/UESMS), Leone Slavich (Université de Pisa, dép. Mathématiques) et Timoty Porter (Université de Pays de Galles, Grande Bretagne).
Vendredi 12 mars 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2010-03-12" \o "mamux:saisons:saison09-2009-2010:2010-03-12"Représentations pour l'informatique musicale. Graphes et S-langages. Avec la participation de Yannis Manoussakis (Université Paris-Sud, Orsay), Fivos Maniatakos (Ircam / Université de Paris 6), Gilles Baroin (Université de Toulouse II, Le Mirail), Sylviane R. Schwer (Université Paris-Nord UMR 7030) et Antoine Allombert (LABRI/ équipe Représentations Musicales).
Samedi 13 mars 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier. Autour des probabilités.
Vendredi 9 avril 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2010-04-09" \o "mamux:saisons:saison09-2009-2010:2010-04-09"Espaces de Chu et musique. Avec la participation de Vaughan Pratt (Stanford University), Paul-André Melliès (CNRS/PPS_Jussieu) et Timothy Porter (Université de Pays de Galles, Grande Bretagne).
Séance "hors-programme", mardi 4 mai 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2010-05-04" \o "mamux:saisons:saison09-2009-2010:2010-05-04"Théorie des mots en musique / Word Theory in Music. Avec la participation de Thomas Noll (ESMuC / Université de Berlin), David Clampitt (The Ohio State University, USA), Norman Carey (CUNY Graduate Center, USA) et Jean-Paul Allouche (CNRS-LRI, Université Paris-Sud, Orsay).
Vendredi 14 mai 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison09-2009-2010/2010-05-14" \o "mamux:saisons:saison09-2009-2010:2010-05-14"Musique algorithmique. Avec la participation de Gerhard Nierhaus (compositeur), Michael Koenig (compositeur) et Markus Noisternig (Ircam/CNRS).
Samedi 15 mai 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier. Mutations conceptuelles des probabilités au cours du XXe siècle.
Vendredi 8 octobre 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2010-10-08" \o "mamux:saisons:saison10-2010-2011:2010-10-08"Modèles formels de la pensée contrapuntique. Avec la participation de Julien Junod (Université de Zurich), Karim Haddad (compositeur) et Moreno Andreatta (Ircam-CNRS).
Vendredi 10 décembre 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2010-12-10" \o "mamux:saisons:saison10-2010-2011:2010-12-10"Systèmes d'intervalles généralisés et théorie de l'homométrie. Avec la participation de Daniele Ghisi (compositeur), John Mandereau (Université de Pisa / Université Paris VI) et Guillaume Lachaussée (Ecole des Mines).
Samedi 11 décembre 2010 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier. Mutations conceptuelles des probabilités au cours du XXe siècle (suite): Après 1950 (I)
Vendredi 14 janvier 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2011-01-14" \o "mamux:saisons:saison10-2010-2011:2011-01-14"Music and Mathematics as seen by composers. Tom Johnson with five young composers: Christopher Adler, Steve Gisby, Brian Parks, Samuel Vriezen, Michael Winter.
Vendredi 4 février 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2011-02-04" \o "mamux:saisons:saison10-2010-2011:2011-02-04"Mathesis et subjectivité (autour de la logique musicale). Séance spéciale animée par Hugues Dufourt (compositeur et philosophe).
Samedi 5 février 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier. Mutations conceptuelles des probabilités au cours du XXe siècle (suite): Après 1950 (II)
Vendredi 11 mars 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2011-03-11" \o "mamux:saisons:saison10-2010-2011:2011-03-11"Hommage à Marcel Mesnage. Musicologie computationnelle et composition algorithmique. Avec la participation de André Riotte, Thérèse Malengreau, Bruno Bossis, Luigi Verdi, Jean-Michel Bardez, Claudy Malherbe. Interprètes: Marc Dumazert, Philippe Pennanguer. Journée organisée en collaboration avec la Société Française d'Analyse Musicale.
Vendredi 1er avril 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2011-04-01" \o "mamux:saisons:saison10-2010-2011:2011-04-01"Outils combinatoires en composition : block-designs, jonglage et homométrie. Avec la participation de Tom Johnson, Gilbert Delor et Franck Jedrzejewski.
Samedi 30 avril 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/ecole-mathematique/pierre-cartier" \o "mamux:ecole-mathematique:pierre-cartier"Ecole mathématique pour musiciens et autres non-mathématiciens animée par Pierre Cartier et Annick Lesne (CNRS/UPMC). Duo sur l'entropie
Jeudi 19 mai 2011 : Séance Hors-programme - HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/stage-math-musique" \o "mamux:saisons:saison10-2010-2011:stage-math-musique"Stage Ircam-Ups: Mathématiques et Musique. Avec Moreno Andreata, Carlos Agon, Gérard Assayag (Ircam-CNRS), Emmanuel Amiot (CPGE).
Vendredi 20 mai 2011 : HYPERLINK "http://repmus.ircam.fr/mamux/saisons/saison10-2010-2011/2011-05-20" \o "mamux:saisons:saison10-2010-2011:2011-05-20"Graphes, arbres et automates en l'informatique musicale. Avec la participation de Gérard Assayag (Ircam/CNRS), David Aubert (LaBRI), Alessandra Carbone (UPMC), Cyril Gavoille (LaBRI), Thierry Lecroq, (Université de Rouen, LITIS), Arnaud Lefebvre (Université de Rouen), Benjamin Lévy (doctorant Ircam / UPMC), Fivos Maniatakos (doctorant Ircam / UPMC), Pierre Roy (Sony Lab). Concert d'improvisation assistée par ordinateur avec OMAX à suivre.
7/10/2011 Systèmes évolutifs à mémoire: Modélisation de la hiérarchie et de l'émergence. Ron Cottam (Vrije Universiteit Brussel) et Andrée Ehresmann (Université de Picardie).
4/11/2011 Programmation par contraintes en musique Gérard Assayag (Ircam - STMS), Mika Kuuskankare (Sibelius Academy, Finland), Serge Lemouton (Ircam), Camilo Rueda (Universidad Javeriana - Cali, Colombia) et Sascha Van Cauwelaert (Université Catholique de Louvain).
2/12/2011 Systèmes évolutifs à mémoire (2): Auto-organisation, apprentissage Andrée Ehresmann (Université de Picardie).

6/01/2012 Théories du jonglage et applications musicales. Tom Johnson (compositeur), Franck Jedrzejewski (CEA-INSTN/UESMS), Luke Wilson et Jonathan Lardillier (jongleurs), Jean-Christopne Novelli (Université Paris-Est Marne-la-Vallée) et Florent Hivert (LRI/Université Paris-Sud).
3/02/2012 Langages synchronesEn collaboration avec l'Equipe Parkas, Département d'informatique de l'Ecole Normale Supérieure de Paris. Louis Mandel (Ecole Normale Supérieure / LRI / Université Paris Sud 11), Yann Orlarey (Grame, Lyon), Marc Pouzet (Ecole Normale Supérieure / UPMC Paris 6), Karim Barkati (Ircam) et José Echeveste (Ircam, équipe-projet "MuSync" Ircam/INRIA).
9/03/2012 Systèmes évolutifs à mémoire (3): modélisation de la cognition et organisation de mesures physiques Andrée Ehresmann (Université de Picardie), François Viallefond (LERMA/UMR 8112 Observatoire de Paris), John Mandereau (Ircam / Université de Pise).
30/03/2012 Arbres et structures hiérarchiques en informatique musicale. Séance organisée en partenariat avec l'INRIA. David Rizo (DLSI, Universidad de Alicante), David Janin (LaBRI), et Florent Jacquemard (Ircam-INRIA).
4/05/2012 Modèles des structures harmoniques. Gilles Baroin (Université de Toulouse), Stéphane de Gérando (Université Paris 1 Panthéon Sorbonne), Louis Bigo (Ircam / LACL Université Paris Est - Créteil), François Durand, Hugues Seress (Université Paris IV - PLM).
Séminaire D’une musicologie des textes à une musicologie des processus créateurs
EHESS, 12 séances par an, 2008-2011
Organisateurs : Rémy Campos (Conservatoire National Supérieur de Musique de Paris), Nicolas Donin (Ircam), Jacques Theureau (Ircam-CNRS)
Participants : Yves Balmer (ENS LSH, Lyon), Rémy Campos, Pascal Decroupet (Université de Nice), Maÿlis Dupont (Ircam), Alireza Fahrang (Ircam), Laurent Feneyrou (Ircam-CNRS), François-Xavier Féron (Ircam), Nicola Giosmin (Paris), Jonathan Goldman (Université de Victoria), Maya Gratier (Université Paris-X), Jean-Louis Lebrave (ITEM-CNRS), Marie-Christine Legout (UTT), Pierre-Michel Menger (EHESS-CNRS), Xavier Mital (Paris), Gilles Mouëllic (Rennes 2), Emmanuelle Olivier (CRAL, CNRS), Pascal Salembier (UTT), Antonin Servière (Paris), Noémie Sprenger-Ohana (Ircam/Univ. Lille-3), Vincent Tiffon (Univ. Lille-3), Jean-François Trubert (Univ. Nice-Sophia Antipolis).
Séminaire Mamuphi
Direction : Ch. Alunni (ENS), M. Andreatta (Ircam STMS), F. Nicolas (ENS)
16 janvier 2010 Moreno Andreatta : Quelques éléments pour une interprétation philosophique des approches transformationnelles en théorie et analyse musicales
6 février 2010 René Guitart : Du passage du ternaire au binaire et réciproquement dans la modélisation mathématique
13 mars 2010 Yves Chaumette : Du ternaire au binaire, et réciproquement (un exemple)
15 mai 2010 Marco Segala : De la notion de musique absolue au XIX° siècle
9 octobre 2010 François Nicolas : Extension de Kan et écoute musicale « élargie » d’une œuvre musicale « mixte»
27 novembre 2010 Franck Jedrzejewski : Extensions de Kan et transformée de Fourier
11 décembre 2010 Max Yribarren : Le tempérament égal a-t-il une justification acoustique ?
Table-ronde "Quels savoirs de l’expérience musicale ?"
Mardi 2 février 2010, Amphithéâtre de l'EHESS
La rencontre portait sur deux parutions récentes : Rémy Campos & Nicolas Donin (dir.), L'analyse musicale, une pratique et son histoire, Genève, Droz, 2009 ; Anthony Pecqueux & Olivier Roueff (dir.), Ecologie sociale de l'oreille. Enquêtes sur l'expérience musicale, Paris, Editions de l'EHESS, 2009.
Débat introduit et animé par Esteban Buch (EHESS), musicologue.
Discutants : Christian Jacob (CNRS / EHESS), historien des pratiques de savoir ; Frédéric Keck (CNRS), philosophe et anthropologue ; Emmanuelle Olivier (CNRS), ethnomusicologue.
Atelier d’écoute multicanal
21 janvier 2011, Ircam, Espace de Projection

Organisateurs : Catherine de Boisheraud (CNSMDP), Thibaut Carpentier, Jean-Marc Lyzwa (CNSMDP), Markus Noisternig, Olivier Warusfel

Dans le cadre de la semaine du Son, l’équipe Espaces Acoustiques et Cognitifs a organisé un atelier d’écoute multicanal en collaboration avec le CNSMDP. Au cours de cet atelier, le public était invité à écouter trois systèmes de diffusion : un système 5.1, un dispositif Ambisonic d’ordres supérieurs (HOA) composé d’un hémisphère de 25 haut-parleurs, et un dispositif Wave Field Synthesis (WFS) frontal de 88 haut-parleurs. Ces systèmes HOA et WFS préfiguraient l’installation fixe de l’Espace de Projection achevés en 2012. Les écoutes étaient structurées autour de deux enregistrements effectués pour cette occasion au CNSMDP : une pièce pour triple chœur de Giovanni Gabrielli et une pièce pour violon soliste et ensemble de 24 violons de Benjamin Attahir. A partir de ces enregistrements, un mixage spécifique a été réalisé pour chaque dispositif de reproduction de sorte à en exploiter les potentialités en termes de reproduction spatialisée. L’atelier a réuni plus d’une centaine d’auditeurs.
Séminaires et ateliers du projet ANR CreMusCult
Début des séminaires en avril 2011
HYPERLINK "http://recherche.ircam.fr/equipes/repmus/ayari/ANR/CreMusCult/Seminaire.html"http://recherche.ircam.fr/equipes/repmus/ayari/ANR/CreMusCult/Seminaire.html
Le séminaire semestriel ANR-CreMusCult à l’Ircam, organisé par Mondher Ayari avec les équipes Représentations Musicales et Perception et Design Sonore, a pour thème une réflexion sur les rapports entre création, improvisation et oralité musicale. Il a débuté le 02 avril 2011, avec une séance organisée conjointement par les Universités de Paris I et Évry. Deux éminents spécialistes sont intervenus, l’un du chant grégorien, le Pr Jacques Viret de l’UdS, et le Pr Mahmoud Guettat de l’ISM de Tunis pour le chant arabo-andalou, auteurs d’ouvrages essentiels sur ces sujets.
Séminaire #2 Sysadmin
10 et 11 février, Ircam
organisateurs : Bruno Bonfils, Arnaud Gomes-do-Vales, Vincent Gibert, Jacques Michel
-Une journée consacrée à l’évolution en performance (comprendre scalabilité) du stockage des données applicatives, englobant aussi bien tout ce qui est FS distribué (GFS, QFS, Lustre, etc.) réplication SQL, mais aussi tout ce qui est NoSQL, et tout ce traite du sujet :
check_mk et cactibatch par Raphael Mazelier Collectd par Renaud Chaput La supervision évolue fortement : objectifs, ITIL, capacity planning, supervision métier, etc. Comment répondre à ces besoins ? par Merethis Shinken, par Jean Gabes Aller plus loin dans la supervision et anticiper l'expérience utilisateur : comment réussir la supervision d'une application web et de son infrastructure ? JRDS, par Fabrice Bacchella
Une journée de conférénces génériques :
Elastic Search, par Renaud Chaput Les licences libres, par Benjamin Jean
Journées Todaï Forum
Ircam, mardi 18 octobre 2011
Rencontres sur la réalité virtuelle : Next Generation of Virtual Reality
With The Graduate School of Information Science and Technology at Ircam supported by INRIA

Thème : C'est le Professeur Ivan Edward Sutherland qui a inventé le premier visiocasque (HMD) en 1968. Vingt ans plus tard, en 1989, la recherche sur les langages de programmation visuels (VPL) a donné naissance aux DataGlove, DataSuites et au terme "réalité virtuelle". Diverses technologies se sont ensuite développées rapidement. Les téléphones portables et jeux vidéos récents permettent des interactions élaborées qui reposent sur les technologies de la réalité virtuelle. Vingt ans après la naissance de la réalité virtuelle, il est possible d'envisager la prochaine génération. La réalité virtuelle n'est pas un domaine de recherche indépendant : il fait notamment appel à divers domaines universitaires, au matériel informatique, à la programmation et à la psychologie. Ce symposium portera donc sur le prochaine génération de RV. De plus, nos deux pays sont les seuls au monde à posséder une communauté universitaire nationale dédiée à la réalité virtuelle : la Société Japonaise de Réalité Virtuelle (VRSJ) et l'Association Française de Réalité Virtuelle. Il était donc important d'organiser ce symposium entre le Japon et la France. Au cours des ateliers, les chercheurs japonais et français ont échangé au sujet des résultats de leurs recherches et de la collaboration entre le Japon et la France. Ils ont ainsi eu l'occasion d'aborder les technologies de réalité virtuelle à venir.

Participants : Pr. Michitaka Hirose, Pr. Kiyoharu Aizawa, Dr. Tomohiro Tanikawa , Dr. Takuji Narumi,
Dr. Tomoko Hashida, Mr. Nobuyuki Umetani, Mr. Yuki Ban, Mr. Soichiro Kawamura French side :
Dr. Anatole Lécuyer (INRIA VR4i, Rennes), Dr. Gérard Assayag (Ircam, Paris), Pr. Alain Berthoz (Collège de France LPPA, Paris), Mr. Jonathan Wonner (LSIIT, Strasbourg), Pr. Laurent Grisoni (INRIA MINT, Lille), Dr. Fabien Lotte (INRIA iPARLA, Bordeaux), Pr. Catherine Pelachaud (CNRS LTCI, Telecom ParisTech), Dr. Jean Sreng (CEA List, Paris)
Séminaire Le geste musical : entre composition, interprétation et perception
EHESS, 12 séances
Organisateurs : Rémy Campos (Conservatoire National Supérieur de Musique de Paris), Nicolas Donin (Ircam).
Participants : Anne-Sylvie Barthel-Calvet (Univ. Paul Verlaine Metz), Rémy Campos, François Delalande (INA-GRM), Caroline Delume (CNSMDP), William Dongois (HEM/Cons. Genève), Nicolas Donin, Laurent Feneyrou( Ircam-CNRS), Martin Kaltenecker (Univ. Paris-VII), Jean-François Trubert (Univ. Nice-Sophia Antipolis).

Annexe : Développement technologique et valorisation
Le développement technologique à l’Ircam
Le développement technologique a l’Ircam a pour objet l’adaptation des modèles et prototypes issus des travaux de recherche sous la forme d’outils de création musicale et sonore. Ceux-ci sont utilisés par les compositeurs invités à l’Ircam pour la création d’œuvres et sont diffusés auprès d’une communauté musicale élargie, notamment à travers le Forum Ircam, qui en centralise l’édition et la diffusion. Des cessions de licences sont également passées avec des tiers pour des applications particulières ou pour leur commercialisation, comme celle du logiciel Max/MSP, édité et distribué par la société américaine Cycling’74 auprès de 20000 utilisateurs. L’approche technique qui se dégage de l’expérience de l’Ircam articule deux types principaux de réalisations : d’une part des modules fonctionnels prenant en charge des fonctions bien définies (telles qu’un traitement sonore de type transposition ou extraction d’un paramètre comme la hauteur), qui encapsulent un calcul issu d’une modélisation répondant à des critères de qualité et de performance, d’autre part des environnements logiciels, généralement proches de langages informatiques spécialisés, qui offrent des boîtes à outils permettant à l’artiste de combiner ces modules de base sous forme de fonctions composites adaptées à son projet. Cette structuration technique répond aux attentes des créateurs à la fois en termes de fonctions de manipulation de qualité et d’environnements ouverts permettant à des sensibilités artistiques variées de s’exprimer sous la forme de configurations singulières. Elle est également bien adaptée au transfert industriel, soit sous la forme d’applications particulières regroupant un ensemble de fonctions, mises au point et maquettées grâce à ces outils de programmation de haut niveau, puis figées sous forme insérable (plug-ins) dans les environnements de travail professionnels (tels que les séquenceurs pour la production et post-production audio), soit plus simplement, en l’absence d’interface d’utilisation, par l’intégration des modules fonctionnels dans les architectures techniques des produits cibles.
Le Forum Ircam
Le Forum Ircam, créé en 1993 dans le cadre de la direction de la Valorisation de l’Ircam, est le club des utilisateurs des logiciels de l’Ircam, évalués à plus de 1300 utilisateurs simultanés dans le monde. Ceux-ci peuvent adhérer, moyennement un abonnement annuel, à un ou plusieurs groupes thématiques qui leur donnent accès aux logiciels correspondants. Les versions successives des logiciels et leurs documentations sont téléchargeables sur le site forumnet. Les membres bénéficient d’une assistance téléphonique et par courrier électronique, ainsi que d’un accès privilégié aux stages de formation aux logiciels organisés par le département Pédagogie et action culturelle de l’Ircam. Des ateliers ouverts à l’ensemble des membres sont organisés une à deux fois par an à l’Ircam sur trois jours et sont l’occasion d’échanges autour de présentations des derniers développements ainsi que de projets artistiques ou techniques réalisés par les membres à partir des outils.

Une réforme en cours du Forum, devant aboutir en novembre 2012, vise d’une part à rendre l’offre plus attractive en offrant un accès plus simple et individualisé aux logiciels, et d’autre part à étendre sa dimension communautaire et collaborative par la mise en place d’un nouveau site web doté d’outils de community management.

La collection Ircam Tools




HYPERLINK "http://www.ircamtools.com"http://www.ircamtools.com
Les transferts technologiques des recherches de l’unité à l’industrie intervenaient jusqu’à présent sous la forme de licence de modules fonctionnels intégrables dans les environnements techniques des partenaires industriels. Fin 2009, l’Ircam s’est associé à la PME orléanaise Flux ::, spécialiste de la réalisation d’insérables (plug-ins) professionnels pour l’audio, pour initier la réalisation d’une collection de produits donnant pour la première fois accès aux professionnels de l’audio aux technologies avancées issues des équipes de l’unité. Deux logiciels ont été diffusés la première année, le logiciel Spat de mixage et spatialisation sonores (équipe Espaces acoustiques et cognitifs) et le logiciel Trax de traitement de la voix (équipe Analyse/synthèse) utilisant l’environnement SuperVP. Ces réalisations ont été rendues possibles par un important investissement mené par les deux équipes au cours des années qui ont précédé en vue d’adapter, voire re-développer dans le cas du Spat les environnements existants sous forme de bibliothèques C++ modulaires multi-plateformes. Une deuxième collection a repris les items existants auxquels elle a ajouté une réverbération simplifée (Verb Session) ainsi qu’un module Hear permettant d’écouter au casque (en binaural) une scène spatialisée issue flux audio 5.1, notamment bandes son de vidéos (dont DVD).

Cette production a été très bien accueillie par la presse professionnelle dans le cadre de divers bancs d’essais, et le module Spat a obtenu dès sa sortie le prix du meilleur plug-in du magazine professionnel de référence Resolution dans le cadre de ses « Awards 2011 ». Cette récompense, décernée face à de sérieux concurrents par l’un des principaux magazines de référence au niveau international en audio professionnelle, représente une avancée importante pour les recherches menées à l’Ircam.

En deux ans depuis le démarrage de la collection à l’été 2010, 1500 items ont été vendus pour une recette globale de 190 k¬ pour l unité.
La collection IrcaMax
 HYPERLINK "http://ircamax.ircam.fr" http://ircamax.ircam.fr



Le logiciel de séquenceur Live de la société allemande Ableton est devenu un standard pour la musique vivante, avec plusieurs centaines de milliers d’utilisateurs. Un accord technique intervenu entre Ableton et la société californienne Cycling’74, qui commercialise le logiciel Max sous licence Ircam, permet le développement, sous la forme de patchs Max, de modules de synthèse, génération et traitement musicaux, appelés devices, insérables dans l’environnement Live. Cette plateforme ouvre à l’Ircam la possibilité de diffuser ses technologies à aux utilisateurs du logiciel, amateurs et professionnels, jusqu’à présent peu touchés par les autres formes de diffusion existantes. L’Ircam a ainsi démarré, en novembre 2011, la production et la diffusion de la collection IrcaMax qu’il commercialise en direct, après mise en place d’un système de vente en ligne.

Principaux environnements logiciels
Les principaux environnements logiciels de l’Ircam, issus des recherches présentées dans ce bilan, et diffusés pour la plupart dans le cadre du Forum Ircam, sont présentés ci-après.
Equipe Acoustique instrumentale
Logiciel Modalys
Modalys est utilisé pour créer des instruments virtuels à partir d’objets physiques simples comme des cordes, des plaques, des tubes, des membranes, des plectres, des archets et des marteaux. Il permet également de construire des résonateurs de forme quelconque à partir de techniques numériques de calcul par éléments finis, de structure et fluide, pour des utilisations musicales ou autres comme le design sonore. Une fois l'instrument construit, l’utilisateur doit décider comment il va en jouer.
Fonctions principales:
Pour créer un instrument virtuel, l’utilisateur suit les quatre étapes suivantes pour définir:
Les objets physiques qui vont constituer l’instrument (tube, corde, membrane, plaque, forme complexe inexistante, plectre, archet, marteau). Ces objets sont simulés dans l’ordinateur selon des paramètres par défaut que l’utilisateur peut modifier;
Les accès aux objets (les positions des objets où sont appliqués les modes de jeu);
Les connexions qui permettent de définir les interactions physiques entre objets;
Les contrôleurs qui permettent de changer les paramètres d’un mode de jeu dans le temps et donc de jouer de l’instrument.

Caractéristiques techniques et configuration:
Dans Modalys, on utilise un langage textuel Lisp qui pilote ensuite le modèle physique d’instrument. On peut utiliser notamment un ensemble de fonctions de construction d’instruments et de contrôles intégrés sous forme de bibliothèque dans l’environnement OpenMusic. L’utilisateur écrit et exécute le programme pour obtenir le résultat musical désiré. Modalys comporte également un mode de fonctionnement en temps réel interfacé ou pas avec le logiciel Max/MSP. Des copies virtuelles d’instruments complets, pour tous les registres et pour toutes les techniques de jeu, ont été réalisées ces dernières années pour la famille des bois (saxophone, hautbois, basson, clarinette, flûte). De plus, dans le cadre des Forum Max Apps (lieu d'échange des utilisateurs Max), nous proposons à présent Mlys 2.0, une interface qui permet de définir la construction des instruments directement à partir de Max.
Configuration:
Macintosh sous Mac OSX, Linux. Formats de fichiers audio: AIFF.




Simulation sonore d’une clarinette basse par maillage du corps et des clés
Equipe Espaces acoustiques et cognitifs
Logiciel Spatialisateur
Spat~, le Spatialisateur de l’Ircam, est un logiciel dédié à la spatialisation du son en temps réel. Conçu sous forme d’une bibliothèque, il permet au musicien ou à l’ingénieur du son de contrôler la spatialisation du son pour divers systèmes de restitution. Les applications s’étendent de la reproduction en contexte domestique (casque d’écoute, système stéréophonique ou 5.1) aux situations de concert (distribution de haut-parleurs) ou aux installations sonores holophoniques et interactives. L'utilisateur peut associer à chaque événement sonore de la partition des données de localisation dans l’espace ainsi qu'une description de l'effet de salle sous forme de facteurs perceptifs. Le Spat~ peut être contrôlé à partir d’un séquenceur, d’un système de suivi de partition, ou à partir de processus de contrôle de haut-niveau dédiés à l’écriture musicale ou à l'écriture de scénarios interactifs (OpenMusic, Virtools, Avango, OpenMusic…). Après une période d’interruption, le travail de développement autour du Spatialisateur a repris en 2007 avec une large refonte de la structure de cette librairie. Celle-ci s’appuie désormais sur une API développée en C++ et indépendante de l'application hôte (Max/MSP, plugins VST, etc.). Cette librairie, SpatLib confère aux différents modules du Spatialisateur un caractère plus générique, simplifiant notablement sa manipulation.

Fonctions principales :
Concerts et spatialisation du son en temps réel: le compositeur peut associer à chaque événement sonore de la partition un effet de salle ou une donnée de localisation dans l’espace ou de directivité de la source. Le Spat~ peut être contrôlé à partir d’un séquenceur, d’un système de suivi de partition, ou à partir de données algorithmiques.
Ecriture musicale : une déclinaison du Spat~ a été développée pour l’écriture de la synthèse spatiale en temps différé dans l’environnement de CAO OpenMusic et exploitant le protocole de stockage et de transmission SpatDif (Spatial Sound Description Interchange Format). En rendant accessibles les principales fonctionnalités du Spatialisateur dans l’environnement de composition OpenMusic, OM-Spat permet une plus grande intégration de la spatialisation dans la phase d’analyse/synthèse. Elle facilite ainsi la mise en œuvre de synthèse granulaire spatiale, synthèse spectrale spatialisée, etc.
Postproduction sonore: on peut connecter un Spatialisateur à chaque canal d’une table de mixage ou d’un environnement de mixage logiciel pour disposer d’un contrôle intuitif et global des positions de chaque source et de leur effet de salle associé.
Simulation et réalité virtuelle : sur casque, l’effet d’immersion obtenu avec le Spat~ repose sur l’utilisation de techniques binaurales, d’autant plus convaincantes si le système est associé à un dispositif de suivi de la position ou de l’orientation de la tête. Les sources sonores gardent ainsi leurs positions spatiales en fonction des commandes de navigation de l’utilisateur.

Caractéristiques techniques et configuration :
Contrôles perceptifs: azimut et élévation, distance, présence de la source, présence de la salle, réverbérance précoce et tardive, enveloppement, balances fréquentielles.
Contrôles DSP de bas niveau: égalisation, effet Doppler, absorption de l’air, réverbération multicanal, direction de la source en fonction du dispositif de diffusion (binaural, transaural, stéréo, stéréo 3/2, multicanal 4 à 8 HP, VBaP pour un agencement tridimensionnel des haut-parleurs, Ambisonics et High Order Ambisonics, Wave Field Synthesis).

Configuration
Le Spat~ est une bibliothèque d’objets pour les environnements Max/MSP (IRCaM/Opcode/Cycling’74) sous logiciel d’exploitation Mac OSX ou Windows XP. Le Spat~ est également disponible sous forme d’un ensemble de plugins développés en collaboration avec la société Flux et insérables dans les principaux logiciels d’édition ou séquenceurs musicaux (Protools, Logicaudio, DigitalPerformer, etc.).

Technologies et partenaires
France Télécom, Cycling’74, Flux



L’interface utilisateur du Spatialisateur déclinée dans les différents environnements de production musicale : Max/MSP pour la spatialisation en temps réel, les plugins IrcamTools pour le mixage et la post-production, OM-Spat pour la synthèse spatiale en temps différé dans OpenMusic.


Equipe Analyse/ synthèse
SuperVP, TraX et bibliothèques
SuperVP est une bibliothèque de traitement de signal reposant sur un vocodeur de phase perfectionné. Elle permet un grand nombre de transformations du signal avec une très grande qualité sonore (étirement temporel, transposition de la fréquence fondamentale et de l'enveloppe spectrale, débruitage, re-mixage des composantes sinusoïdales, bruitées et transitoires, dilatation de l'enveloppe spectrale, synthèse croisée généralisée, synthèse croisée en mode source et filtre,…). Elle donne accès à un vaste jeu de paramètres qui fournissent un contrôle complet, et à grain fin, du résultat d'algorithmes différents. En plus des algorithmes de transformation sonores, la bibliothèque comprend une collection importante d'algorithmes d'analyse du signal (F0, détection des débuts de notes, spectrogramme, spectrogramme réassigné, enveloppe spectrale…).

Un des dérivés de SuperVP est la bibliothèque Voice-Forger qui regroupe une grande part des traitements temps réel de SuperVP et permet un accès de haut niveau (cf. projets : Sample Orchestrator, Vivos, Affective Avatars).
Les outils TRaX ont été conçus pour que la plupart des paramètres de la bibliothèque soient condensés en un jeu de paramètres utilisateur de haut niveau qui permettent de contrôler l’application de manière intuitive.

Fonctions principales :

Transformation du signal :
Dilatation/compression : avec et sans préservation de transitoires, mode spécialisé (préservation de la forme d'onde) pour la transformation ;
Transposition : transposition indépendante de la fréquence fondamentale et de l'enveloppe spectrale, modification du taux d'échantillonnage (ré-échantillonnage) ;
Débruitage : plusieurs motifs de bruit avec interpolation et traitement indépendant du bruit sinusoïdal ;
Re-mixage transitoires/sinusoïdes/bruit : détection des sinusoïdes, bruits, transitoires et contrôle de leurs mixages respectifs ;
Transformation de l'enveloppe : estimation de l'enveloppe spectrale et temporelle et contrôle de leurs mixages respectifs ;
Synthèse croisée : fondée sur le vocodeur de phase ou or sur le modèle source-filtre et contrôles variés.

Analyse du signal :
Spectrogramme : FFT à court terme et réassignée ;
Enveloppe spectrale : LPC, " True Enveloppe " ;
F0 : analyse haute précision à faible coût CPU, paramètres par défaut spécialisés pour différents instruments (i.e. : violon, flûte, xylophone, vibraphone…) ;
Attaques : algorithme paramétrable pour la détection des attaques de notes et autres transitoires ;
Voisé/Non-Voisé : fréquence de coupure Voisé/Non-Voisé ou Sinusoïdal/Non-Sinusoïdal.

Caractéristiques techniques et configuration :
La bibliothèque peut être contrôlée en utilisant différents niveaux d'abstraction. Elle permet l'entrée/sortie du son par fichiers et par mémoire aussi bien que le contrôle des paramètres en temps réel. La bibliothèque est utilisable à partir d’une large gamme d'environnements. Une application en ligne de commande donne accès à toutes les transformations et analyses sonores disponibles. Elle est utilisée par exemple dans les applications AudioSculpt et OpenMusic. Dans Max/MSP, des objets permettent la transformation sonore et l'analyse en temps réel et l'application TRaX repose sur ces objets.
La bibliothèque est programmée en C++ en utilisant des dispositifs d’optimisation avancés comme les opérations SIMD (SSE2, SSE, AltiVec) des processeurs actuels. La bibliothèque fonctionne sous les systèmes d'exploitation Mac OSX, Windows XP et Linux, sur les processeurs Intel et PowerPC. Son implémentation multithread permet d’exploiter les capacités de calcul des processeurs multi-cœurs et ordinateurs multiprocesseurs.

Technologies et partenaires :
MakeMusic (SmartMusic), Univers Sons, Xtranormal, Voxler, MXP4, etc.

Interface du plug-in de traitement vocal et audio SuperVP Trax
VoiceForger



Descriptif
VoiceForger est une bibliothèque pour la transformation de la voix avec une interface utilisateur de haut. VoiceForger est basée en grande partie sur les analyses et traitements de la bibliothèque SuperVP en utilisant directement l’interface C++ de SuperVP. Grâce à l’avancée récente de la modularité de la bibliothèque SuperVP, VoiceForger reste efficace et permet des transformations en temps réel même pour plusieurs analyses (F0, Voiced/Unvoiced, VUF) secondaires. Le développement de la version C++ de cette bibliothèque a commencé dans le projet Affectif Avatars. Sont prises en compte les transformations d’âge et de genre du locuteur. La liste des transformations ciblées contient les âges et genres, les types des voix (rugueuse, chuchotée, aspirée), les émotions (joyeuse, énervé) mais éventuellement aussi les personnalités. La plupart des fonctionnalités de la bibliothèque VoiceForger sont accessible notamment dans le plugin TRaX-Transformer (voir image) qui a été développé en collaboration avec la société FLUX.
Principales fonctions réalisées
La bibliothèque VoiceForger est stabilisée et nous avons travaillé notamment sur les problèmes rencontrés dans les différentes applications. Les changements concernent notamment l’amélioration de la manipulation de l’ambitus et une extension de l’API par une fonction restart qui réinitialise la chaine de calcul sans réallocation de mémoire.


Logiciel AudioSculpt



Descriptif
AudioSculpt permet de « sculpter » littéralement un son de manière visuelle. Après une phase d’analyse, le son s’affiche sous la forme d’un sonagramme, et l’utilisateur peut dessiner les modifications qu’il veut lui appliquer. Les traitements principaux sont le filtrage, la synthèse croisée, la transposition, la dilatation et la compression temporelle, le débruitage.
Plusieurs types d’analyses montrent le contenu spectral d'un son, et l’utilisateur peut ensuite modifier le son par plusieurs méthodes ; dessiner des filtres, déplacer des régions du sonagramme en temps et fréquence, ou appliquer une des nombreuses transformations de haute qualité.

Applications : composition, design sonore, postproduction, cinéma, multimédia, acoustique, enseignement, analyse musicale, ethnomusicologie.

Fonctions principales
Affichage/édition: zoom interactif sur le signal temporel jusqu’au niveau de l’échantillon, sonagramme linéaire et logarithmique;
Analyse : LPC, True Envelope, fréquence fondamentale, suivi des partiels, estimation de voisement, différentes méthodes de segmentation automatique, formants, outils pour l’écoute de certaines parties du spectre avec affichage harmonique;
Annotation: texte, zones et notes MIDI peuvent être placées sur le sonagramme;
Traitement sonore: séquenceur de traitement permettant de grouper des pistes de différents traitements et d’écouter leurs effets en temps réel avant de générer le résultat;
Filtrage : des filtres très précis sont dessinés directement sur le sonagramme, générés par des analyses spectrales ou définis par un fichier image. Fonction spéciale pour la séparation manuelle des sources sonores;
Compression/expansion: modification de la longueur du son sans changer sa hauteur ou son timbre et en préservant la qualité des attaques et transitoires;
Transposition: à l’aide d’un éditeur spécifique, l’utilisateur peut transposer le son sans modifier sa longueur, en préservant les caractéristiques spectrales (par exemple le timbre de la voix);
Débruitage : soustraction spectrale avec interpolation des estimations de bruit;
Synthèse croisée : application des caractéristiques spectrales d’un son sur un autre afin de créer un hybride sonore ou une transition d’un son à l’autre;
Synthèse des partiels : création d’un nouveau son à partir des partiels trouvés par une des analyses et mixage avec le résiduel;
Collage : des régions sonores définies sur le plan temps fréquence peuvent être copiées et collées;
Écoute : les transformations peuvent être écoutées en temps réel. Le mode scrub permet de naviguer dans le son à vitesse quelconque.
Courbes Bpf: l’utilisateur peut dessiner directement des courbes sur le sonagramme ou la forme d’onde afin de piloter des traitements.

Caractéristiques techniques et configuration
AudioSculpt fonctionne en tandem avec l'outil d'analyse/synthèse SuperVP pour la plupart des analyses et modifications de son. Pour l'analyse/synthèse sinusoïdale, AudioSculpt utilise l'outil Pm2. Dans AudioSculpt, on peut inspecter des commandes issues de SuperVP/Pm2, les modifier et contrôler SuperVP/Pm2 par ligne de commande.
AudioSculpt accepte des sons multipistes et de haute qualité (jusqu'à 32-bits intégrés ou flottants/192 kHz) et utilise le format SDIF pour les analyses, qui sont échangeables avec les autres logiciels.

Configuration : Macintosh sous Mac OSX 10.5 ou supérieur.
Formats de fichiers audio : AIFF/AIFC, Wav et Sound Designer II et plus.
SVPX



Descriptif
SVPX est un ensemble de modules fonctionnant dans l’environnement Max/MSP, permettant de combiner rapidement les fonctionnalités de la bibliothèque SuperVP : analyse, synthèse et transformations par vocodeur de phase. Le tout en temps réel et avec la possibilité de réutiliser et combiner les sorties de chaque module. Ce travail est réalisé en collaboration avec Cycling’74 et utilise les services multigraph de Max/MSP, permettant aux objets de connaître le graphe de connexions actuel, sans recourir à l’envoi de message.
Principales fonctions réalisées
Tous les modules sont multicanaux (synchronisés ou non) et acceptent de multiples connections en sortie. Suivant les connections réalisées et les options choisies, les modules s’adaptent entre eux et de manière globale. Lors de connections multiples, les données sont stockées localement et réutilisées à la volée.

Deux modules d’entrée accèdent à des échantillons audio : soit en flux continu (input, avec freeze et délai), soit en depuis un buffer~ standard de Max/MSP (bufplay, avec lecture, boucle et saut).
Le module d’analyse (analysis) permet de configurer les diverses options de SuperVP.
Il est possible d’insérer un module de filtrage (comme sourcefilter).
Le module de synthèse (synthesis) applique les différentes transformations : remixage des transitoires, sinusoïdes et bruit, étirement et transposition avec préservation des transitoires, transformation de l’enveloppe.
Plusieurs modules de synthèse peuvent utiliser la même analyse, chacun avec ses propres paramètres, afin de réaliser plusieurs transformations en parallèle (comme un harmoniseur).
Il est enfin possible d’enregistrer les analyses (record) et de les rejouer (play) à travers l’environnement MuBu, les deux opérations pouvant se dérouler en parallèle.

BrassyFX

Descriptif
Cette émulation du « cuivrage d’un son » a été déduite d'un modèle physique et répond comme le ferait un tube acoustique y compris à fort niveau. Ainsi, pour un signal d'entrée de faible niveau, le signal de sortie est très légèrement filtré passe-bas (effet des pertes du tube). Pour un signal d'entrée de plus en plus fort, une distorsion de type cuivrage apparaît progressivement comme pour un trombone, une trompette, etc.

Remarque : ce Plug-In a été testé et utilisé dans la pièce Brisures Mouvements de Cursus de la compositrice Hyangsook Song (création avril 2011).
Principales fonctions réalisées
Cet objet s'utilise comme un effet de distorsion standard. Son seul paramètre (drive) se règle facilement soit à l'écoute, soit à l'aide du bargraph qui indique la « proportion de cuivrage » en décibels : 0dB signifie que les composantes cuivrée/non cuivrée sont en proportions égales (il s’agit donc d’un son déjà significativement cuivré).
Une version (code optimisé et archivée par T. Carpentier) existe pour Max.

Ircamalign

Descriptif
Le programme IrcamAlign effectue l’alignement et donc la segmentation de signaux de parole en phones et diphones, et calcule une mesure de confiance par phone. Il extrait aussi la structure phonologique (syllabes, mots et groupes de souffle) à partir de la séquence de phones alignés.
Entrée : fichier audio de parole et facultativement, fichier du texte prononcé.
Sortie : fichiers de type .lab des divers niveaux de segmentation visualisables dans les logiciels comme AudioSculpt ou WaveSurfer (voir Figure).
IrcamAlign utilise des modèles appris sur des enregistrements. Les modèles existent pour le français et l’anglais, hommes et femmes. Il peut être utilisé pour la voix chantée mais cela nécessite l’apprentissage de modèles spécifiques.
Il est utilisé en particulier pour la création de corpus de voix (par exemple pour la Synthèse de la Parole à partir du texte) et pour des travaux avec des compositeurs.

Plateforme : Linux, utilise la bibliothèque HTK et le logiciel LiaPhon.
Remarque: Ce logiciel bénéficie maintenant d’une distribution en interne uniquement.


IrcamFilter

Descriptif
Il s'agit d'une émulation temps réel du filtre passe-bas résonant du « Moog Ladder Filter » (par résolution des équations du circuit électronique original en séries de Volterra). Le succès qu'a connu ce filtre analogique vient de sa non-linéarité (le timbre change avec le niveau du signal ce qui apporte une « signature sonore particulière » et un « grain »), de son ordre élevé (4), sa résonance facilement pilotable (les paramètres de contrôle sont directement reliés au facteur de qualité et à la fréquence de coupure). L'intérêt de la modélisation en séries de Volterra pour son implémentation est: de réduire les coûts de calcul, de permettre de faire évoluer rapidement les paramètres de contrôle sans avoir d'artefact, de rejeter l'aliasing souvent inévitable sur les traitements non linéaires, et de séparer artificiellement les contributions linéaires et distordues. Ce dernier point peut avoir un intérêt en design sonore et génère des effets intéressants par exemple sur les sons impulsifs et percussions.
Plusieurs versions codes existent: Un VST-Mac développé en C++ par T. Hélie, une version pour Max développée par J. Lochard, et enfin une version C++ optimisée et archivée par T. Carpentier.
Principales fonctions réalisées
Fonction 1
La première fonction réalisée est de prendre un son d'entrée et de fournir un son de sortie qui correspond à la version filtrée. Le filtre est piloté très simplement par deux paramètres (fréquence de coupure, facteur de qualité de la résonance). Le niveau du signal d'entrée a un effet sur le timbre du son.
Fonction 2
La partie linéaire (partie du timbre non sensible au niveau du signal, comme pour un « filtre standard ») et la partie distordue complémentaire peuvent être isolées et dirigées vers deux sorties séparées.
Fonction 3
La programmation d'un « envelope follower » sera ajoutée prochainement.

Modules d’indexation automatique

Ircamkeymode, Ircamclassifier, Ircamdescriptor Ircamchord, Ircamsummary, Ircambeat

Descriptif
Il s'agit de bibliothèques et de programmes développés par G. Peeters et son équipe pour l’extraction d’informations musicales à partir du signal audio. Ils sont développés pour les trois plateformes Linux, Windows et MacOSX.
Principales fonctions réalisées
Ircambeat
Estimation du tempo et de la métrique variable au cours du temps, estimation de la position des battements et premier temps.
Ircamchord
Estimation de la suite d’accords (24 accords Majeurs et mineurs) au cours du temps, estimation du premier temps (ircamchord inclut ircambeat).
Ircamkeymode
Estimation de la tonalité globale d’un morceau de musique (24 tonalités Majeures et mineures).
Ircamdescriptor
Estimation d’un large ensemble de descripteurs audio (log-attack-time, centroid spectral, MFCC, Chroma, …) et de leur modélisation temporelle.
Ircamclassifier
Estimation de single-label ou multi-label d’un fichier audio parmi les classes pré-entrainées (ircamclassier inclut ircamdescriptor).
Ircamsummary
Estimation d’un résumé audio selon trois méthodes différentes et de la structure temporelle d’un morceau de musique (approche par états et par séquences).

Logiciel Diphone Studio

Diphone Studio est dédié au morphing sonore. Dans la première phase d’analyse, le son de départ est découpé en morceaux appelés diphones qui sont placés dans un dictionnaire. L’utilisateur choisit ensuite dans ses différents dictionnaires les diphones qu’il souhaite assembler et leur succession dans le temps. Le programme procède ensuite au morphing d’un diphone à l’autre pour générer un résultat sonore, proposant une nouvelle approche du montage de sons par interpolation.
Applications principales : composition, design sonore, postproduction, cinéma, multimédia, acoustique.

Fonctions principales
segmentation/analyse : pour faciliter la phase d’analyse, Diphone propose une segmentation automatique du fichier son de départ. Une interface graphique permet de choisir un plug-in d’analyse et de régler les paramètres de cette analyse ;
éditeur de dictionnaires : cet outil permet de naviguer entre les différents dictionnaires, de sélectionner des diphones, de constituer de nouveaux dictionnaires et de les sauvegarder ;
éditeur de séquences : construction de séquences de diphones dans le temps et modification des propriétés des objets de connexion (durée de connexion, connexion linéaire, etc.) ;
éditeur de courbes BPF (Break Point Functions) : création ou modification de l’évolution de l’amplitude, de la fréquence fondamentale ou de l’amplitude des partiels du son.

Caractéristiques techniques et configuration :
Diphone Studio permet de contrôler différentes méthodes de synthèse implémentées sous forme de plugins :
synthèse additive et son programme d’analyse (AddAn). Un nouveau module par chaîne de Markov (HMM) permet l’analyse de sons inharmoniques ;
chant (Synthèse Source-Filtre) et l’analyse par Modèles de résonance (ResAn) ;
enveloppes spectrales pour l’analyse de la voix ;
analyse et synthèse Psola ;

Configuration : MacOSX
Format de fichiers son : AIFF et Sound Designer II ; format des fichiers d’analyse : SDIF.
Logiciel Diphone Studio

Equipe Représentations musicales
Logiciel OpenMusic
OpenMusic (OM) est un environnement de programmation visuelle pour la création d’applications de composition et d’analyse musicale assistées par ordinateur.
OpenMusic offre à l’utilisateur de nombreux modules qui peuvent être associés à des fonctions mathématiques ou musicales, représentées par des icônes. L’utilisateur peut relier ces modules entre eux et créer un programme appelé « patch » qui va générer ou transformer des structures musicales. Les patchs peuvent s’emboîter les uns dans les autres pour constituer des programmes et créer des structures de plus en plus élaborées. OpenMusic est aujourd’hui utilisé par un grand nombre de compositeurs et de musicologues. Il est enseigné dans les principaux centres d’informatique musicale ainsi que plusieurs universités en Europe et aux Etats-Unis.

Fonctions principales
Programmation visuelle (fonctionnelle, orientée-objet, par contraintes)
Objets musicaux et éditeurs graphiques
Fonctions pour la création et la transformation de structures musicales (hauteurs, rythmes...)
Exports vers les formats standards MIDI, MusicXML , SDIF, communication OSC 
Courbes et outils 2D/3D
Outils mathématiques et combinatoires pour l'analyse et la composition 
Objets et fonctions de traitement audio
Manipulation algorithmique des données aux formats MIDI, Audio (WAV, AIFF), SDIF.;
Éditeur de maquettes, permettant de donner une forme temporelle et hiérarchique aux « patchs » et de définir des « programmes temporels ».

Parmi les récents développements de cet environnement, la bibliothèque OMChroma permet le réaliser des processus avancés de synthèse sonore à l’aide d’outils de contrôle de haut niveaux (« évènements » de synthèse implémentés sous la forme de matrices de paramètres), intégrés dans des modèles compositionnels à plus grande échelle. Cette bibliothèque intègre ou est associée à un certain nombre de technologies disponibles dans l’environnemet, telles que la synthèse sonore avec OM2Csound, les analyse sonores avec OM-SuperVP ou OM-pm2, la synthèse sonore spatiualisée avec la bibliothèque OMPrisma ou les plus récentes extensions à la synthèse vocale avec OM-Chant.

Autres bibliothèques spécialisées
LZ : analyse statistique et génération d’improvisations musicales ;
OMKant : quantification rythmique et segmentation ;
OMRC : programmation de contraintes rythmiques ;
OMCS : programmation par contrainte généralisée ;
Repmus : fonctions de l’équipe Représentations musicales ;
Profile : manipulation de profils harmoniques et de contour ;
Morphologie : analyse de séquences de nombres et de symboles ;
OMChaos : utilisation des fonctions fractales ;
OMAlea : fonctions aléatoires ;
Esquisse : fonctions spectrales ;
OMPitchField : manipulation des hauteurs ;
OMTimePack : manipulation des durées ;
OM2Csound : génération de partitions et d'instruments Csound ;
OM_AS : génération de fichiers de paramètres pour AudioSculpt et SuperVP ;
OM-SuperVP : outils pour l'analyse, le traitement et la synthèse sonore avec SuperVP et PM2 ;
Om-pm2 contrôle des analyse et synthèses sonores additives avec pm2
OM-Chant : Contrôle du synthétisuer Chant dans OpenMusic
OM-Spat : spatialisation de sources sonores utilisant la technologie Ircam Spat.
OM-Diph : création de dictionnaires et de scripts pour le synthétiseur Diphone ;
Pixels : generation et traitement d’images et de tableaux de pixels.

Caractéristiques techniques et configuration
Programmation basée sur le langage Common Lisp / CLOS (MCL sur Macintosh et ACL sur Windows).
Compatible Macintosh OSX PPC et Windows XP.

Technologies et partenaires
LispWorks (HYPERLINK "http://www.lispworks.com"www.lispworks.com)
MidiShare et LibAudioStream de Grame (HYPERLINK "http://www.grame.fr"www.grame.fr)
Finale de MakeMusic ! (HYPERLINK "http://www.makemusic.com"www.makemusic.com)
libsndfile de Erik de Castro Lopo


Editeurs du logiciel OpenMusic

Logiciel OM-Chroma

Contrôle de la synthèse sonore pour la composition musicale

Ce projet vise à l'étude des nouvelles modalités d'écriture et de composition musicale mettant en jeu les sons et la synthèse sonore dans le cadre de la composition assistée par ordinateur.
Les technologies de synthèse sonore et de traitement du signal ont en effet permis d'entrevoir des ouvertures significatives dans le domaine musical : la compréhension et la maîtrise avancée des phénomènes sonores issue du domaine du traitement du signal induisent des possibilités inédites liées à la production des sons par le calcul.
Cependant ces ouvertures sont souvent restées spéculatives ou à l'état expérimental, s'insérant parfois difficilement dans les pratiques compositionnelles. L'approche classique en effet nécessite l'appropriation de systèmes puissants mais complexes, dont l'appréhension et le paramétrage, nécessaires à la production des sons de synthèse, peuvent à eux seuls accaparer le travail du compositeur, le détournant de toute activité réellement créative.



L'approche proposée dans ce projet tire parti des expériences et du savoir-faire acquis dans le domaine de la composition assistée par ordinateur pour traiter ce problème et l'insérer dans un contexte prioritairement compositionnel.
La notion de modélisation compositionnelle met en avant le caractère calculatoire des processus de composition, dès lors susceptibles d'être représentés par des programmes, ainsi que leur propriétés expérimentales et évolutifves qui ont conduit au développement de langages de programmation spécialisés plutôt que d'outils logiciels spécifiques.
Rapporté au domaine du son et de la synthèse sonore, il s'agit donc selon ce principe de donner au compositeur les outils informatiques lui permettant de mettre en place des procédés originaux liés au signal sonore dans le sens de la synthèse ou de l'analyse, avec des outils, interfaces et structures adaptées pour le traitement des données de description mises en jeu. La synthèse sonore à proprement parler intervient en dernière instance dans cette approche, traitée par des outils et environnements externes avec lesquels est établie une communication.
Cette démarche englobe donc des préoccupations de bas niveau liées au structures de stockage et de transfert des données, mais remontent jusqu'à des niveaux compositionnels abstraits avec des outils de plus haut niveau (structures de données symboliques, structuration temporelle des processus de synthèse, etc.)
Les outils développés dans le cadre de ce projet sont intégrés à l'environnement OpenMusic sous la forme de fonctions, librairies, ou éditeurs spécialisés. Ils permettent aux compositeurs d'expérimenter ou d'étendre leur champ compositionnel au domaine du signal et de la synthèse sonore.


Logiciel OMax





Le projet Omax est un cas particulièrement emblématique du problème de clonage musical : il s’agit d’un système d’improvisation assistée par ordinateur, qui se propose de recréer le style de l’interprète, et de l’étendre à des développements ou des proliférations inattendus mais cohérents. Le fait de pouvoir confier une partie de la tâche d’improvisation à une machine a un énorme potentiel, puisqu’il touche directement à l’improvisation composée ou, plus précisément, au rapport entre l’improvisation et l’écriture. Techniquement, Omax est un système qui articule temps réel et temps différé, approche signal et approche symbolique, grâce à l’interaction de OpenMusic et de Max/MSP. Omax « écoute » un musicien jouer et dans le même temps élabore une représentation de haut niveau qui capture des éléments stylistiques, grâce à un algorithme d’apprentissage statistique. La navigation instantanée dans cette représentation – qui peut être rendue visible et manipulable sous forme d’arches colorées - permet d’engendrer des « improvisations » en cohérence avec le jeu du musicien, ce qui crée une situation d’interaction inédite.
OMax analyse, modélise et réimprovise en temps réel le jeu d'un ou de plusieurs instrumentistes, en audio ou en Midi. Le logiciel est basé sur une représentation informatique nommée "Oracle des facteurs", un graphe qui interconnecte tous les motifs des plus petits aux plus grands et fournit donc une carte de navigation dans la logique motivique apprise de l'instrumentiste, engendrant ainsi un grand nombre de variations cohérentes stylistiquement. OMax base sa reconnaissance soit sur des notes (suivi de hauteurs), soit sur des timbres (suivi spectral). OMax 3 (2004-2009) ést programmé en OpenMusic (Lisp) et Max. OMax 4 est une version entièrement réarchitecturée et écrite en C et en Max entre 2010 et 2012.
Applications: improvisation avec ordinateur, œuvres musicales interactives, accompagnement automatique
Fonctions principales
Ecoute artificielle : extraction de descripteurs F0, MFCC, entrée Midi, segmentation automatique, apprentissage adaptatif de l’alphabet symbolique des unités musicales
Modélisaion: construction incrémentale du modèle de connaissances représentant la carte exhaustive des motifs musicaux selon diverses fonctions de similarité
Visualisation temps-réel interactive du modèle de connaissance, fonctions de sélections multiples et de focalisation sur la représentation visuelle
Génération de séquences selon une heuristique de navigation à travers le modèle prenant en compte ses caractéristiques formelles et des critères musicaux de continuité motivique, rythmique, et énergétique.
Architecture modulaire permettant d’allouer des agents improvisateurs, des agents joueurs (players) et de les inetrconnecter librement (e.g. plusieurs joueurs connectés sur un même improvisateur peuvent créer par exemple un canon avec augmentation rythmique)

Configuration: Max/MSP 5 + Jitter, MacOSX 10.5+ , archivage au format JSon

Logiciel Orchidée





Orchidée est un serveur d’Orchestration agrémenté d’un client en OpenMusic et d’un Client en Max. L'intégration du moteur Orchidée en relation avec un environnement compositionnel est conçue sur le modèle d'une architecture client / serveur. Le serveur, ou moteur de résolution, intègre les aspects calculatoires du système. Il communique avec une ou plusieurs interfaces clientes en relation à un environnement ou un processus compositionnel donné. Cette communication se décline selon deux perspectives complémentaires: spécification du problème et navigation dans l'espace de solutions.

La spécification du problème d'orchestration comprend elle-même trois aspects principaux : 1) la composition orchestrale, c'est-à-dire l'ensemble des "variables" du problème (instruments disponibles et configuration de l'orchestre) et des "valeurs" pouvant être prises par ces variables ; 2) une cible, décrivant de façon plus ou moins abstraite le résultat que l'on souhaite obtenir ; 3) des filtres et contraintes symboliques qui expriment des caractéristiques souhaitées ou imposées dans la résolution du problème et les solutions proposées (contraintes harmoniques, sur les modes de jeux, etc.) Un client Orchidée communicant avec le moteur de résolution a donc pour fonction initiale de communiquer ces différents types de données au serveur.

Musique Lab 2

Cf. Musique Lab 1 au § REF _Ref113348120 \r \h 4.8.5.5.1.

Musique Lab 2 est un environnement d’aide à l’éducation musicale développé par l’Ircam suivant les prescriptions du ministère de l’Éducation nationale et du ministère de la Culture - direction de la Musique et de la danse. Il est destiné aux professeurs et élèves de collèges, de lycées et de conservatoires. Cet environnement basé sur les technologies et savoir-faires de l’équipe edans le domaine de la compositioon assistée par ordinateur (et particulièrement sur l’environnement OpenMusic) permet d’élaborer des documents pédagogiques interactifs adaptés à diverses situations et méthodes d’enseignement.
Par des opérations simples de « drag and drop », de paramétrage et d’écoute, professeurs et élèves des classes de musique sont en mesure de générer du matériau musical plus ou moins complexe, intégrés dans des modèles et structures temporelles inspirés d’études d’oeuvres ou de concepts musicaux choisis. Divers formalismes et concepts musicaux sont abordés, tels que les différents paramètres des structures musicales, les transformations et opérations sur ces structures, l'harmonie, l'intégration temporelle des objets musicaux. Le champ d'application s'étend potentiellement de la musique classique, avec un ensemble d'outils intégrant un modèle de calcul et de représentation des structures tonales (contrepoint, transpositions, modulations, etc.) jusqu'à la musique spectrale contemporaine avec des puissants outils d'analyse et de traitement du signal (basés sur le moteur pm2, développé par l'équipe Analyse/Synthèse de l'Ircam).
Des documents pédagogiques, créés en collaboration avec des professeurs et professeurs et représentants de la Direction des technologies éducatives du Ministère de l'éducation nationale, sont disponibles et fourns en complément de l’application.
Musique Lab 2 est développé à partir de l’environnment OpenMusic, distrubué par le Forum Ircam et disponible pour les enseignants sur le site Educ’Net. La version Musique lab 2 2.1 (distribué en 2010) a été étendue et intégrée à l’offre Ircam forum « Pédagogie », déclinée en version française et anglaise.

Objectifs/roadmap
Les démarches pédagogiques sont la prérogative des professeurs et varient considérablement du collège au conservatoire. Cependant, quelques principes généraux se dégagent pour l’utilisation de Musique Lab 2 :
partir de l’expérience de l’écoute du répertoire musical le plus varié, notamment les œuvres choisies pour le baccalauréat ;
pouvoir interagir en temps réel avec les structures musicales utilisées par les compositeurs à la fois dans les domaines audio et symbolique ;
introduire des notions d’interprétation dans la pratique sur ordinateur par l’utilisation de métaphores instrumentales, la manipulation de la lutherie informatique et l’utilisation de contrôleurs externes ;
favoriser de multiples ponts entre le domaine du son et celui de la note ;
introduire le concept de guides d’écoute instrumentée « Écoutes Signées » combinant contenus multimédia et outils pour les manipuler (cf. N. Donin, article in Organised Sound n° 9) ;
développer des contenus dans le cadre de collections réalisées à la demande des collectivités territoriales ;
prolonger les capacités de l’outil vers l’interprétation et notamment le suivi automatique d’interprètes dans le cadre du projet européen i-Maestro.

Modules logiciels
Trois modules accompagnent trois démarches pédagogiques principales : Écoute/analyse, Écriture, Interprétation. Ces trois logiciels échangent des données aux formats audio, MIDI ou XML selon les cas :
ML-Annotation : cet environnement permet d’annoter et de synchroniser des sons et des images (enregistrements et partitions par exemple) et de lire des données provenant des deux environnements précédents et de les articuler autour d’un scénario. Le professeur peut mettre en valeur certains constituants d’une œuvre en privilégiant certaines représentations ;
ML-Maquette : basé sur les maquettes d’OpenMusic, cet environnement permet d’opérer des manipulations symboliques. Il permet de placer sur un espace de travail des opérateurs simulant des processus musicaux pour recréer une œuvre. Ces processus sont paramétrés par les élèves qui peuvent ainsi aller au-delà de la version du compositeur pour explorer l’espace musical autour d’un ou plusieurs principes fondateurs de l’œuvre étudiée ;
ML-Audio : cet environnement est dédié à l’interaction temps réel. Il permet aux élèves d’enregistrer des sons, d’en représenter le sonagramme, d’agir sur leur contenu spectral, d’exporter ces données vers les deux autres logiciels. Il est basé sur une architecture permettant aux professeurs de développer leur propre application audio, l’Ircam en fournissant un certain nombre. L’interaction peut se faire sur l’ordinateur ou au moyen d’interfaces MIDI et vidéo (mouvement capté par une caméra).

Contenus pédagogiques et documentaires
De nombreux exemples pédagogiques et guides d’écoutes à partir d’œuvres du répertoire sont le moteur du développement des modules logiciels. Parmi ces œuvres, on peut citer :
Chaconne pour violon de J. S. Bach transcrite pour piano par F. Busoni
Partiels de G. Grisey
Miserere d’Ä. Part
Atem de M. Kagel
Voi(Re)x de P. Leroux
Avis de tempête de G. Aperghis
Comparaison d’interprétation appliquée au Prélude du clavier bien tempéré de J.-S. Bach.
Achorripsis de I. Xenakis
Goldberg variations, Bach
Offrande Musicale, Bach
Quatuor pour la Fin du Temps, O. Messiaen
La Rousserolle Effarvatte, Messiaen
Forbidden Planet de FredWilcox (1956), musique de Louis & Bebe Baron
Opus d’A. Webern
Boucle techno du groupe Aphex Twin
 Logiciel Musique Lab 2


Antescofo
Conception et développement: équipes Représentations musicales et projet MuSync
Antescofo est un système de suivi de partition modulaire et un langage de programmation synchrone pour la composition musicale. Le module permet la reconnaissance automatique de la position dans la partition et le tempo du musicien en temps réel, permettant ainsi de synchroniser une performance instrumentale avec celle d’une partition virtuelle informatique. Antescofo réunit la description de la partie instrumentale et électronique dans la même partition, et grâce à un langage synchrone conçu pour la pratique de musique mixte, afin d'augmenter l'expressivité lors de l'écriture des processus temps réel et proche au langage commun des artistes pour l'écriture du temps et de l'interaction. Après le chargement de la partition, Antescofo est capable de suivre la position et tempo des musiciens en temps réel et synchroniser les actions programmées pour la partie d’informatique musicale (déclenchement et contrôle de la partie électronique). Antescofo prend comme entrée un flux d’audio polyphonique.
Les événements et répertoires d’Antescofo pour les œuvres réalisées à l’Ircam sont documentés sur le site du logiciel : HYPERLINK "http://repmus.ircam.fr/antescofo"http://repmus.ircam.fr/antescofo
Antescofo est lauréat du prix spécial du jury du magazine La recherche en 2011.
Applications: œuvres musicales interactives, accompagnement automatique, pédagogie musicale
Fonctions principales
Reconnaissance temps réel de la position et tempo des flux audio polyphonique sur une partition
Écriture des processus électronique en temps relatif, absolu et rationnel
Séquencement interactif des partitions multimédia
Affichage interactif à travers l’environnement NoteAbility Pro.
Chargement des partitions MIDI ou MusicXML avec NoteAbility Pro

Configuration:
Antescofo est une bibliothèque d’objets pour l’environnement Max/MSP (Ircam/Cycling’74) sous systèmes d’exploitation Mac OSX ou Windows XP. Antescofo est également disponible comme objet pour PureData sous MacOSX, Windows et Linux.




Equipe Interactions musicales temps réel
Musique Lab 1
Les Musique Lab sont six applications réalisées conjointement par l’Ircam et le ministère de l’Éducation nationale. Élaborées dans le cadre du dispositif de soutien aux ressources multimédia piloté par la direction de la Technologie du ministère de l'Éducation nationale, elles sont destinées à l’enseignement musical dans l’éducation nationale, et seront librement diffusables dans ce seul cadre et prochainement éditées sur cédérom. Chacune des cinq premières applications explore un domaine particulier de la création sonore en s’appuyant sur des notions fondamentales des langages musicaux d’aujourd’hui et d’hier :
Hauteurs et intensité : exploration de la hauteur et de l'intensité sous la forme de continuums évolutifs et de variations dynamiques ;
Polycycles : exploration des jeux de cycles, de la polyrythmie, des systèmes répétitifs, de l'isorythmie et des jeux de décalages ;
Nuages : fabrication de textures diverses ou trames évolutives grâce à divers procédés de type granulaires ;
Échelles et modes : découverte du monde des échelles, des gammes et des modes anciens, contemporains, tempérés, non égaux ou inégaux, des gammes orientales ou non-octaviantes (hauteur, intensité, durée, rythme, temps, couleur, etc.) ;
Construction rythmique : création de modèles rythmiques sur 4 voies.

Accompagné d’un sixième logiciel dédié au montage des créations réalisées dans les cinq autres, l’ensemble propose un champ d'investigation large et coordonné.


Application « Hauteur et intensité » du logiciel Musique Lab 1

Logiciel FTM

La bibliothèque FTM, développée comme extension de l’environnement Max/MSP, représente la plate-forme principale d’intégration des travaux de l’équipe Interactions musicales temps réel. FTM permet la manipulation graphique et algorithmique de données musicales complexes (séquences, descriptions de timbre, graphes) intégrées dans le paradigme de programmation de Max. Les bibliothèques de modules Max/MSP Gabor et MnM, basées sur FTM, intègrent des fonctionnalités de traitement de signal et diverses techniques utilisées dans la reconnaissance de forme et l’apprentissage automatique. L’ensemble FTM & Co est une boîte à outil complète pour le prototypage et l’expérimentation des paradigmes d’interaction entre interprète et informatique musicale ainsi que des méthodes avancées développées pour ce contexte.

Gabor est une boîte à outils pour le traitement de timbre intégrant de multiples représentations sonores et techniques d’analyse/synthèse (granulaire, additive, Psola, FOF, vocodeur de phase). La bibliothèque MnM fournit des outils pour l’analyse et la reconnaissance de formes.

Configuration
Max/MSP sous Mac OSX, Windows.


Exemple de patch de stynhèse audio dans Max/MSP réalisé avec Gabor/FTM

MuBu pour Max/MSP


Descriptif
MuBu (pour « Multi-Buffer ») pour Max/MSP est un ensemble de modules de représentation et de traitement du signal pour Max/MSP autour d’un un « container » de données temporelles. Le container de MuBu est optimisé pour la représentation en mémoire de données temporelles, considérant de multiples représentations comme des signaux, des descripteurs, des segmentations et des annotations du son, du geste et du mouvement. Des représentations musicales symboliques simplifiés et des paramètres de contrôle de synthèse et de la spatialisation peuvent être également intégrées.

Le développement de ces modules repose sur l’expérience acquise lors des développements de la bibliothèque FTM & Co ainsi que sur des développements des composants logiciels dans le cadre des projets de recherche (bibliothèques MuBu, ZsaZsa et RTA).

Principales fonctions réalisées :
Optimisation et documentation de l’ensemble de modules Max/MSP
Importation et sauvegarde de contenus (SDIF, MIDI standard files, MusicXML, texte)
Extension du module de synthèse granulaire par un mode de synthèse synchrone (PSOLA)
Extension du module de synthèse concatenative par un mode de préservation de rythme
Création d’une interface client au container permettant la connexion de modules indépendants
Intégration de multiples nouvelles fonctionnalités comme copier-coller et la gestion de fichiers audio
Exemples d’utilisation (synthèse granulaire, concatenative et additive, audio mosaicing, synthèse concatenative par corpus contrôle par descripteurs)
version du moteur IAE portable intégré en iOS, préparation de l’intégration en Unity3D

ImtrEditor

Descriptif
ImtrEditor est un ensemble de modules d’affichage et d’édition de donnés, alignés temporellement et complètement configurables, écrit en C++ et basé sur le Framework Juce. Actuellement il est utilisé pour l’affichage des structures de données FTM (ftm.editor) et MuBu (imubu). Il est donc également utilisé pour le suivi de geste.

gf (suivi continu)


Descriptif
L’objet gf (pour gesture follower) permet de reconnaître et de suivre l’évolution temporelle de morphologies gestuelles et/ou sonores. L’objet compare en temps réel un flux de données avec un ensemble de «phrases» pré-enregistrées. Deux types d’information en sortie sont continuellement mises à jour :
« likelihood » = « similarité » entre le flux de données entrant et les phrases enregistrées
« Time index » = index indiquant la progression temporelle d’une phrase

L’objet gf fonctionne avec tout type de données multidimensionnelles, régulièrement échantillonnées dans le temps comme des données de capteurs, des descripteurs sonores, des descripteurs d'images, etc. La méthode repose sur une modélisation des courbes temporelles multidimensionnelles basée sur des modèles de Markov.

Principales fonctions réalisées
Un module complet est réalisé en se basant sur la libraire MuBu, ce qui permet entre autres d’utiliser l’objet d’édition et visualisation de données iMuBu.
Parmi les nouvelles fonctionnalités notons :
Sauvegarde et chargement des données et configuration en format mubu et text.
Track « Settings » pour l’affichage et l’édition de la configuration du gf.
Fonctionnalité de batch processing, qui permet l’utilisation du gf en mode offline sur des données pré chargées.
Track « Probability » pour la visualisation de la fonction de probabilité qui est utilisée pour l’estimation de l’index temporel.
IAE
Descriptif
La IMTR Audio Engine (IAE) est un moteur de synthèse sonore par descripteurs. Permettant des fonctionnalités similaires à MuBu pour Max/MSP, le moteur intègre les mêmes bibliothèques développées par l’équipe dans une classe C++ portable et optimisée :
MuBu, container de données temporelles
ZsaZsa, moteur de synthèse granulaire et concatenative
RTA, analyse et modélisation de données

Dans le cadre du projet Topophonie, le moteur a été intégré en tant que plugin de l’environnement de d’animation graphique 3D Unity sur Mac OS X et iOS ainsi que dans un module expérimental de Max/MSP.
Principales fonctions réalisées
Première version complète du moteur
Extension du moteur pour pouvoir traiter multiples voix de synthèse
Intégration dans un plugin Unity Mac OS X et iOS
Intégration expérimentale dans Max/MSP
SuperVP pour Max/MSP
Descriptif
SuperVP pour Max/MSP est un ensemble de modules Max/MSP qui intègre le moteur d’analyse/synthèse sonore SuperVP. L’ensemble comprend six modules Max/MSP qui permettent la transformation en temps-réel des flux sonores et de sons préalablement enregistrés :

supervp.play~ et supervp.scrub~ … transformation de sons préalablement enregistrés
supervp.ring~ … transformation d’un flux temps-réel dans un tampon circulaire
supervp.trans~ … transformation d’un flux sonore entrant en temps-réel
supervp.cross~ et supervp.sourcefilter~ … synthèse croisée

Les fonctionnalités fournies par les modules comprennent 
Dilatation temporelle avec préservation des transitoires
Transposition de la hauteur avec préservation de l’enveloppe spectrale (timbre)
Déformation séparée de l’enveloppe spectrale (timbre)
Remixages des composants sinusoïdales, bruitées et transitoires du signal
Synthèse croisée généralisée
Synthèse croisé source-filtre
Principales fonctions réalisées
L’ensemble des six modules a été maintenu en suivant l’évolution des différentes versions du moteur SuperVP intégrant diverses améliorations et optimisations.
MAX
Le standard mondial pour l’interactivité sonore temps réel
http://cycling74.com/products/max/
Max (anciennement Max/MSP) est un environnement visuel pour la programmation d’applications interactives temps réel. C’est actuellement la référence mondiale pour la création d’installations sonores interactives. Max est la combinaison du logiciel Max (Ircam/Cycling’74) pour le contrôle temps réel d’applications musicales et multimédia interactives par MIDI, de MSP, une bibliothèque d'objets pour l'analyse, la synthèse et le traitement du signal audio en temps réel et de Jitter qui est un ensemble d’objets vidéo, matriciels et graphiques 3D pour l'environnement. Max est conçu pour les musiciens, les designers sonores, les enseignants et les chercheurs qui souhaitent développer des programmes interactifs temps réel. Max/ MSP est développé et édité par la société Cycling’74 (USA) sous licence exclusive de l’Ircam.
Composition
Génération de structures musicales au moyen de modèles mathématiques et aléatoires.
Accompagnement Live
Production d’œuvres mixtes où la partie électronique réagit au jeu de l’instrumentiste (par captation du jeu instrumental par microphone ou par MIDI) ou bien par modification directe du son de l’instrument. Max se comporte comme un séquenceur en contrôlant la diffusion de sons ou de fichiers audio dans le temps. Le contrôle dynamique de programmes complexes pilotant de la musique, de la vidéo ou des effets de lumière est aussi possible.

Postproduction audio et pilotage de périphériques
Contrôle possible de périphériques extérieurs tels que tables de mixage, systèmes «direct-to-disk», synthétiseurs, etc.
Traitement vidéo temps réel
Une bibliothèque d’objets pour le traitement vidéo (Jitter) est incluse avec le logiciel. Elle permet un contrôle de très bas niveau et la programmation de nombreuses applications.
Enseignement
Max/MSP est un outil pédagogique largement répandu dans les universités, les écoles de musique et les conservatoires. La documentation intégrée directement dans le logiciel comprend de nombreux tutoriels interactifs pour la compréhension du signal audio, du système MIDI ou encore de la vidéo.
Recherche
Max/MSP est utilisé en recherche pour prototyper des algorithmes de synthèse ou de traitement du signal en temps réel. De nouveaux objets externes peuvent être programmés en langage JavaScript, Java et C..
Caractéristiques techniques
Plusieurs centaines d’objets pour la synthèse, le contrôle, le traitement, l’échantillonnage ou l’analyse. Le moteur audio de Max 6 offre le support du multiprocessing, du calcul en 64 bits et apporte de nombreuses améliorations du rendu sonore. Max 6 intègre un système de génération de code et compilation à la volée à partir de patches, permettant la création rapide de nouveaux traitements performant directement dans l’environnement Max. GEN est utilisé pour les différents domaines de l’application : audio (gen~), matrices Jitter (jit.gen, jit.pix) et OpenGL (jit.gl.pix)



CataRT

La synthèse concaténative par corpus utilise une base de données de sons enregistrés, et un algorithme de sélection d'unités qui permet de choisir les segments de la base de données, afin de synthétiser par concaténation une séquence musicale. La sélection est fondée sur les caractéristiques de l'enregistrement, qui sont obtenues par analyse du signal et correspondent par exemple à la hauteur, à l'énergie ou au spectre.
La mise en œuvre en temps réel de cette nouvelle approche de la synthèse sonore par le système CataRT permet une exploration interactive et en temps réel d’une base sonore et une composition granulaire ciblée par des caractéristiques sonores précises, et permet aux compositeurs et musiciens d'atteindre de nouvelles sonorités, et aux designers sonores de rapidement explorer un corpus sonore constitué par un grand nombre d´enregistrements.
CataRT existe en application standalone ou en système modulaire implémenté dans Max/MSP avec les extensions FTM, Gabor et MnM. L'interaction repose sur une interface simple consistant en l'affichage d'une projection 2D de l'espace de descripteurs, et une navigation avec la souris, où les grains sont sélectionnés et joués par proximité géométrique.
Applications: œuvres musicales et multimédia interactives, recherche dans les bases de données sonores
Fonctions principales
Importation audio avec segmentation et analyse automatique
analyse, visualisation, et jeu interactif avec des sons
exportation des données d'analyse
composition par navigation interactive dans un espace de descripteurs sonores
brassages et juxtapositions d’un nombre massif de sons
traitements granulaires flexibles
communication avec séquenceurs MIDI
recherche interactive efficace d’évènements ou singularités dans des nombreux et longs enregistrements, séparation de bruits parasites

Configuration:
Version application : Mac OSX 10.5 ou supérieur. Universal Binary, Compatible Mac PPC, Mac Intel.
Version modulaire : Mac OSX 10.4 ou supérieur ou PC Windows avec Max/MSP et FTM&Co.

Formats de fichiers audio :
• jusqu'à 32-bit/192 kHz entier et flottant : AIFF, AIFC, Wav, FLAC.
• fichiers SDIF pour l’importations de marqueurs de segmentation de AudioSculpt
• fichiers MIDI pour l’importations de segmentation et annotation de pitch
• fichiers Text pour l’importations de segmentation et annotation de labels, p.ex. de Audacity


Annexe : Projets de valorisation, contrats et prestations
Projets multi-équipes
Projet Consonnes
Contrôle des sons instrumentaux naturels et synthétiques
Équipes concernées : Acoustique instrumentale, Analyse et synthèse des sons
Financement : ANR, programme blanc
Période de réalisation : décembre 2005-juin 2009
Partenaires extérieurs : Laboratoire de mécanique et d’acoustique (LMA Marseille-CNRS, coordinateur), Télécom Paris
Coordinateur Ircam : René Caussé

L’objectif du projet est d’avancer dans la compréhension du contrôle des instruments de musique réels et de leurs modèles physiques de synthèse, en s’attachant notamment au lien existant entre les paramètres de facture et de jeu d’une part, les caractéristiques physiques et perceptives des sons produits d’autre part. Le projet s’intéresse notamment à l’étude des transitoires, phénomènes les plus délicats à étudier et à modéliser, dans le contexte des instruments à vent.
Les équipes de l’Ircam participant au projet orientent leurs travaux vers les objectifs suivants :
modélisation simplifiée des résonateurs d’instruments à vent en vue de leur implantation en temps réel et de la mise en œuvre de fonctions de contrôle comme résolution de problèmes inverses (calcul des variations des paramètres de jeu pour produire un son enregistré donné) ;
conception et réalisation d'un robot musicien, évolution de la bouche artificielle existante, permettant non seulement d'effectuer des mesures reproductibles d'instruments à vent réels selon différents types d'embouchures et de modes d'excitation, mais susceptibles également d'utilisations musicales.
Projet VoxStruments
Lutherie numérique intuitive et expressive : nouveau concept d’instruments à contrôle vocal
Équipes concernées : Acoustique instrumentale, Interactions musicales temps réel
Financement : ANR (programme RIAM)
Période de réalisation : décembre 2006-février 2009
Partenaires extérieurs : sociétés Arturia et Voxler
Coordinateur: Hugues Vinet (Ircam)

Le projet vise la réalisation d’instruments à vent commandés par la voix. Il s’inscrit en continuité avec le projet Windset, qui avait abouti à la réalisation de modèles physiques de trompette, trombone et saxophone, commercialisés par la société Arturia, sous la forme de synthétiseurs logiciels (produit Brass) pilotés par une commande MIDI (clavier, séquenceurs). L’objectif est ici à la fois de développer de nouveaux modèles physiques, jusqu’à présent inédits, d’instruments à vent (clarinette, hautbois, basson, flûte), mais également de leur conférer un contrôle intuitif à la voix en fonction de caractéristiques analysées en temps réel à partir du signal vocal. Une part d’expérimentation importante du projet porte donc sur la mise en correspondance (mapping) entre les descripteurs extraits du signal vocal et les paramètres de contrôle des modèles physiques.
Projet SID
Sonic Interaction Design
HYPERLINK "http://www.cost-sid.org"http://www.cost-sid.org
Équipes concernées : Perception et design sonores, Interactions musicales temps réel
Partenaires : treize pays de la communauté européenne, et un pays non-membre (universitéMcGill, Canada)
Programme : COST, Commission européenne
Période de réalisation : juillet 2007-juin 2011
Coordinateur : département d'art et de design industriel (IUAV université de Venise)
Coordinateur Ircam : Patrick Susini

Le design interactif sonore (SID) consiste à exploiter la modalité sonore pour transmettre une information, combinée à une composante esthétique/émotionnelle, utile dans des contextes d'usage interactif. En d'autres termes, il s'agit de favoriser les interactions par le biais du sonore.
L'objectif de la COST Action SID est de contribuer à la création et à la consolidation d'une théorie, d'outils et de domaines d'application du design sonore afin d'améliorer ou d'introduire la composante sonore dans la conception d'objets et de systèmes interactifs. Un des enjeux à long terme est de coordonner les travaux dans ce domaine au niveau européen, et de dégager des nouvelles perspectives pour les prochains programmes européens (7TH Framework Programme…). Les efforts vont être portés par quatre groupes de travail, chacun étant associé à un axe de recherche ou d'application révélé pertinent pour le domaine :
Approches perceptive, cognitive et émotionnelle dans les interactions sonores ;
Design sonore produit ;
Interactions musicales et artistiques ;
Sonification.
Projet ECOUTE
Environnement auteur pour l’écoute musicale instrumentée, la gestion des archives sonores et leur publication multi support
Équipes concernées: Ingénierie des connaissances musicales, Analyse et synthèse des sons, Analyse des pratiques musicales
Financement: ANR – programme Riam
Période de réalisation : décembre 2005 – mars 2008
Partenaires extérieurs: université technologique de Compiègne, Ina-GRM, sociétés MPO Online, Dalet, Kélis
Coordinateur: Jérôme Barthélemy, Ircam

S’appuyant sur l’expérience d’acteurs reconnus de la production de contenus audiovisuels relatifs à la musique, le projet vise le développement précompétitif d’un environnement éditorial hypermédia générique centré sur les documents sonores et musicaux. Cet environnement sera paramétrable en fonction d’usages/ pratiques «métiers» pour construire de manière productive des chaînes éditoriales hypermédia dédiées notamment à :
La valorisation de catalogues musicaux : publication enrichie (pochettes, paroles synchronisées, crédits, critiques, avis du public, etc.) par l’indexation automatique par le contenu (per- mettant de réaliser des résumés sonores, des recherches par similarités instrumentale, rythmique, mélodique, etc.), facilitant la recherche et la navigation intuitive dans les catalogues d’indépendants, de majors, des portails musicaux comme Fnac-music.com, etc. ;
La valorisation hypermédia d’archives radiophoniques et de fonds sonores patrimoniaux (MNATP, MSH, MMSH aidés par le ministère de la Culture pour leur numérisation/valorisation avec le concours de l’Ircam), sous formes interactives réunissant les documents sonores enrichis par tous documents associés (thèses, articles scientifiques, iconographie, cartographie, rushes, etc.) ;
L’éducation musicale : vers de nouveaux outils d’écoute et de création sonore alliant logiciels interactifs et contenus hypermédia, ouvrant le champ à de nouvelles pratiques pédagogiques – écoutes signées, créations/publications collectives en classe, pratique à domicile.

Le projet vise à cet effet la résolution de deux verrous scientifiques et un verrou technologique essentiels :
Génie documentaire musical et sonore : modélisation des connaissances théoriques sur la musique et le son pertinentes par rapport aux pratiques et usages visés ;
Extraction automatique et indexation par le contenu : extraction automatique de paramètres des documents sonores/musicaux facilitant la navigation dans des masses de documents et à l’intérieur d’un document sélectionné ;
Ingénierie des systèmes multimédia: intégration technique pour le traitement de corpus de documents temporels qui posent des problèmes particuliers d’indexation et de synchronisation.
Projet DISCO
 HYPERLINK "http://www.lamsade.dauphine.fr/disco/" \t "_top" www.lamsade.dauphine.fr/disco/
Partenaires : CNAM, European Archive, Réunion des musées nationaux, Université Paris Dauphine,
Financement : ANR Masse de données et connaissances
Dates : janvier 2008 – décembre 2010
Equipes concernées : Analyse/synthèse, Interactions musicales temps réel
Coordinateur Ircam : Geoffroy Peeters

Le projet DISCO consiste à concevoir et expérimenter des techniques génériques et flexibles de recherche et d’indexation basées sur le contenu, et dédiées à des sources de documents multimédia distribuées.
Les outils de recherche et d’exploration du Web restent fortement orientés vers le traitement de documents textuels. Or de très nombreuses sources de données fournissent des documents multimédia (sons, images, documents audiovisuels) pour lesquels les techniques de description, d’indexation et de recherche restent rudimentaires, restreintes à des types de sources très caractérisées (par exemple des photos d’identité) et peu homogènes car construites en fonction de besoins particuliers.
Le projet Disco a visé le développement de techniques d'indexation pour de très grandes bases de données compatibles pour les documents audio, image et vidéo.
Ce projet a étudié plusieurs problématiques souvent éludées comme la représentation dans un espace unique des descripteurs propres à l'audio, l'image et la vidéo, la représentation du temps (audio) et de l'espace (image) de manière compatible, l'étude des index et opérateurs de recherche dans les très grandes bases de données, la distribution des données et les algorithmes de recherche.
L'Ircam a contribué au projet à travers :
le développement d'un classifieur générique (parole, musique, sons environnementaux) ;
l'extraction de descripteurs audio pour la recherche par similarité, propres aux trois catégories mentionnées ci-dessus ;
l'étude de l'adaptation des représentations propres à l'image et à la vidéo, au domaine du son ;
l'étude des algorithmes de recherche rapide dans des très grandes bases de données ;
l'étude de l'adaptation des représentations spatiales propres à l'image, au domaine du son.
Projet EarToy 
Avatars sonores et interactions ludiques par l’audition
Equipes participantes : Espaces acoustiques et cognitifs (coordinateur), Interactions musicales temps réel
Financement: ANR, Programme RIAM
Période de réalisation : décembre 2006 – mai 2010
Partenaires extérieurs : UMR 7593 CNRS-Hôpital de la Salpêtrière, Sony CSL
Coordinateur Ircam : Olivier Warusfel

L’objectif du projet EarToy est l’étude de l’interaction audition/ corps/espace dans les dispositifs de reproduction sonore dits immersifs. Le projet EarToy consiste à exploiter les technologies de restitution audio 3D et de capture du mouvement, et à explorer le potentiel de la modalité d’interaction audition/corps/espace à travers des scénarios s’appliquant, en particulier, au domaine du jeu musical. Il s’agit de promouvoir les applications interactives accordant la primauté à la modalité sensorielle auditive, et de développer de nouveaux paradigmes d’interaction avec un contenu sonore. La conception de tels environnements interactifs, centrés sur la modalité auditive, soulève des questions scientifiques intéressantes dans le domaine de la cognition spatiale auditive et présente un potentiel d’applications innovantes dans le domaine musical. Il expérimente le concept d’avatar sonore, manifestation auditive de la présence de l’utilisateur dans le monde virtuel, au travers de l’élaboration d’un répertoire de modes d’interaction sur la base de règles de mise à jour du monde sonore en fonction des mouvements de l’utilisateur. La pertinence au niveau perceptif et cognitif de ce réper-toire d’interactions est évaluée expérimentalement.
Projet Sample Orchestrator (SOR)
Équipes concernées : Analyse et synthèse des sons, Représentations musicales, Perception et design sonores, Interactions musicales temps réel
Financement : ANR (programme RIAM)
Période de réalisation : décembre 2006-juin 2009
Partenaire extérieur : Société Univers Sons
Coordinateur : Hugues Vinet (Ircam)

Le projet Sample Orchestrator a été conçu pour la réalisation et l’expérimentation de nouvelles applications reposant sur la gestion et la manipulation par le contenu de banques d’échantillons sonores (sons isolés préenregistrés).

Sa réalisation s’est inscrite à la conjonction de deux processus: d’une part, la disponibilité commerciale de grandes banques d’échantillons diffusées sur différents supports (CD et DVD, bases en ligne), mais limitées dans leurs applications (synthétiseurs par échantillonnage); d’autre part, des avancées scientifiques et technologiques récentes en matière de méthodes d’indexation et de systèmes de gestion de bases de données audio, permettant d’envisager des fonctions musicales encore inédites, faisant appel à des modes de gestion globale et de manipulation par le contenu de l’ensemble des échantillons disponibles :

Gestion par le contenu de banques d’échantillons: classifica- tion automatique, recherche par similarité, synthèse concaté- native sur la base de descriptions de haut niveau ;
Traitement audio par le contenu (se fondant sur une analyse préalable des caractéristiques des signaux traités): transposi- tion, dilatation, hybridation, etc. Ces fonctions de traitement se décomposent en fonctions de prétraitement, visant la pré- paration d’échantillons en studio, et celles de post-traitement, intervenant en temps réel lors de l’utilisation de banques de sons par un dispositif instrumental d’échantillonneur de nouvelle génération ;
Outil d’aide à l’orchestration, intégré à l’environnement Open- Music, trouvant, sur la base de la modélisation de connaissances musicales, généralement empiriques de la part de compositeurs, les meilleures combinaisons de sons en vue de l’obtention de l’effet musical recherché (fusion/séparation, réorchestration à partir de sons existants, etc.).

L’organisation du projet a intégré la coordination d’activités de recherche de plusieurs équipes de l’Ircam autour des principaux verrous scientifiques et technologiques identifiés : description, indexation et classification automatique des contenus sonores et musicaux, traitement sonore par le contenu, ingénierie des connaissances musicales et leur application à l’orchestration, environnements logiciels pour le traitement audio temps réel.
Le projet a fait l’objet d’une importante production scientifique (2 thèses de doctorat, 10 articles dans des revues et livres, 18 conférences), d’une valorisation industrielle (les technologies développées dans le projet ont permis la réalisation du logiciel MachFive 3 d’Univers sons commercialisé par la société américaine Mark of the Unicorn) et de nombreuses créations musicales à l’Ircam.
Le projet a été sélectionné au titre «d’avancée scientifique majeure» par l’ANR dans son rapport d’activité 2006.
Projet Sample Orchestrator 2 (SOR2)
Équipes concernées : Analyse et synthèse des sons, Espaces acoustiques et cognitifs, Représentations musicales, Interactions musicales temps réel
HYPERLINK "http://sor2.ircam.fr"http://sor2.ircam.fr

Financement: ANR - programme Contenus et interactions
Période de réalisation : novembre 2010 – octobre 2013
Partenaires extérieurs: Société Univers Sons, Conservatoire national supérieur de musique et de danse de Paris
Coordinateur: Hugues Vinet (Ircam)

Cette suite du projet Sample Orchestrator vise la constitution de fonctions nouvelles destinées aux échantillonneurs logiciels de nouvelle génération, selon trois aspects complémentaires :
Techniques hybrides de synthèse sonore en temps réel, intermédiaires entre modèles de signaux conçus pour tous types de sons et sons échantillonnés, et bénéficiant des variations rendues possibles par la paramétrisation des premiers et de l’efficacité des seconds. Il s’agit plus particulièrement de dégager des modèles spécifiques à chaque famille d’instruments ;
Techniques hybrides de spatialisation sonore en temps réel, intermédiaires entre les modèles paramétriques tels que celui du Spat de l’Ircam, et la convolution des signaux par des réponses impulsionnelles mesurées dans des salles. Ici encore, l’enjeu est de constituer des modèles représentant les meilleurs compromis en termes d’une part de variabilité et qualité, d’autre part d’efficacité de calcul ;
Méthodes de voicing et d’orchestration en temps réel, fournissant une extension du jeu instrumental en fonction de méthodes d’orchestration modélisées et/ ou apprises dans différents corpus musicaux.
L’ensemble des objectifs du projet se situent au-delà de l’état de l’art de la recherche et le projet, par l’étroite synergie qu’il met en œuvre entre les différentes équipes de l’Ircam et partenaires extérieurs, vise des avancées importantes à la fois dans les champs scientifique, industriel, et pédagogique.
Projet SAME
Sound And Music for Everyone Everyday Everywhere Every way
HYPERLINK "http://www.sameproject.eu"http://www.sameproject.eu
Equipes concernées : Interactions musicales temps réel, Espaces acoustiques et cognitifs
Programme: ICT 2007 (Networked Media), 7ème PCRD, Commission européenne
Période de réalisation : Janvier 2008-décembre 2010
Partenaires : Université de Gênes (UGDIST, coordinateur, Italie), Nokia Research Center (Finlande), KTH (Suède), Pompeu Fabra University (Espagne), Université technologique de Helsinki (Finlande)
Coordinateur Ircam : Hugues Vinet

Les pratiques et l’écoute musicales sont des cas particulièrement représentatifs d’activités humaines sociales et interactives, deux grands défis actuels des technologies de la communication. Cependant, ces activités sont généralement vécues de manière passive, non interactive et indépendante du contexte dans lequel elles s’effectuent. Les technologies électroniques actuelles, avec tout le potentiel d’interactivité et de communication dont elles sont porteuses, n’ont pas encore pu être mises au service de ces aspects essentiels de la musique. Ceci peut être considéré comme une dégradation des pratiques et de l’écoute musicales, dans lesquelles le public avait (et a encore) la possibilité d’interagir de nombreuses manières avec les interprètes pour modifier les caractéristiques expressives d’une œuvre musicale.
L’objectif principal du projet Same est de constituer une chaîne complète de systèmes d’écoute musicale active, sensibles au contexte, dans des situations de mobilité. Le projet vise à répondre à des questions telles que : «quel sera dans 5 ans l’appareil équivalent de l’actuel iPod?», «quels nouveaux marchés de tels appareils sont-ils susceptibles d’ouvrir ?».
Les objectifs du projet comprennent trois aspects principaux:
ÿÛÜdéfinir et développer une plateforme de recherche innovante pour la réalisation de bout en bout d applications musicales mobiles, s adressant tant à des utilisateurs mélomanes avertis qu à des non experts,
ÿÛÜinvestiguer et mettre en Suvre de nouveaux paradigmes de communication et d’interaction pour des applications musicales mobiles reposant sur des interfaces multimoda- les, non-verbales de haut niveau, permettant à l’utilisateur d’influencer, de moduler, d’interagir avec le contenu d’écoute, en s’investissant activement et physiquement dans l’expérience,
ÿÛÜdévelopper de nouvelles applications pour les mobiles sensibles au contexte, à partir du paradigme d écoute active, qui actualiseront les aspects sociaux et interactifs de la musique à l âge des technologies de l information.

Le rôle de l Ircam dans le projet consiste notamment à concevoir de nouvelles situations d’interaction, intégrant captation du geste et spatialisation sonore, et à coordonner les actions de diffusion du projet.
Projet WAVE
Web Audio : Edition/Visualisation
Équipes concernées : Analyse des pratiques musicales et Interactions musicales temps réel,
Programme : ANR Contenus et interactions
Période de réalisation : 2012– 2014
Partenairesextérieurs : Eurecom, Sophia Antipolis, Édition Durand (Universal Music Publishing Classical), Vi-live
Coordinateur : Samuel Goldszmidt, Ircam

Le projet WAVE vise à formaliser de nouveaux moyens d’édition, de visualisation et d’interaction avec des objets temporels audiovisuels diffusés sur le web. Il donnera lieu à la conception et au développement de briques logicielles concernant les interfaces et interactions utilisateurs, les interfaces audionumériques, les interfaces clients/serveurs, et leurs échanges de données. Ces différentes briques logicielles seront issues de l’analyse de pratiques musicales expertes confrontées à des usages ordinaires d’applications et standards du web, dans le but de proposer des cas d’usages innovants.
Le projet a pour objectif d’intégrer ces briques logicielles pour développer de nouveaux services et en enrichir des existants. Moyens nouveaux de consommer et partager des documents musi- caux et audiovisuels en ligne, ces services seront mis en place dans le cadre du projet et mis à disposition des utilisateurs par les partenaires du projet dans le cadre de développements de leurs produits et/ou nouvelles offres commerciales.
Le projet utilisera d’une part les standards du W3C (particulièrement HTML5 et la nouvelle plate-forme web), en les complétant si besoin, et d’autre part, les possibilités d’interaction offertes par les nouveaux terminaux, afin de proposer des interfaces cohérentes, accessibles et innovantes et des nouvelles expériences utilisateurs adaptées à la consultation, à l’interaction, à l’annotation, à la trans- formation et au partage d’objets temporels. Dans un contexte technologique web protéiforme, la formalisation et l’instanciation de ces multiples interfaces dans différentes technologies et prenant appui sur des standards et recommandations du W3C contribuera à l’émergence d’un web véritablement hypermédia et interactif. Dans un contexte de crise des industries culturelles, et particulièrement celles ayant attrait à la musique, les entreprises partenaires et les partenaires institutionnels pourront mettre à profit ces cas d’usage et exploiter de nouveaux marchés à travers des dispositifs innovants d’écoute et de consultation interactives et enrichies de flux temporels sur le web.
Projet PHYSIS
Modélisation, transformation, et synthèse de sons pour les mondes virtuels interactifs –
Équipes concernées : Analyse et synthèse des sons, Interactions musicales temps réel
Financement: ANR-ContInt
Période de réalisation : avril 2012 – avril 2015
Partenaires extérieurs: Audio Gaming, LMA, Game Audio Factory
Coordinateur Ircam : Axel Roebel

Physis est un projet de recherche industriel centré sur la modéli- sation, la transformation et la synthèse des sons diégétiques pour les mondes virtuels interactifs (jeux vidéo, simulateurs, serious games) et la réalité augmentée.
Par sons diégétiques, nous entendons tous les sons générés par des objets identifiables dans la scène virtuelle (par exemple les bruits d’armes, de liquides, de feu, d’eau, de tissus, etc.) et leurs interactions possibles: impacts physiques, frottements, glissements, roulements...
Physis considère la production de contenu sonore interactif dans son ensemble et de façon systémique. Il couvre en effet la totalité des étapes nécessaires à la réussite d’un tel challenge : depuis la recherche fondamentale indispensable pour une bonne modélisation des phénomènes sonores, jusqu’à la production de code embarquable dans des consoles de jeu ou du matériel spécifique. Physis prévoit également la création d’outils utilisables par des sound designers, l’analyse et la transformation de fichiers sonores, la création de contrôles sémantiques et physiques de haut niveau ainsi que leur mise en situation interactive.
Les principaux résultats du projet conduiront à :
des avancées significatives dans la modélisation des propriétés acoustiques des sons du corpus ciblé ;
des modèles de synthèse et de nouvelles stratégies destinés à créer et transformer les sons de façon interactive avec des commandes sémantiques et/ou physiques ;
des démonstrateurs technologiques qui mettent en avant ces innovations.
L’émergence récente de jeux vidéo complexes et des univers virtuels, comme «Second Life», a fait apparaître les limites des moteurs son actuels, qui utilisent des sons préenregistrés alors que l’image de synthèse est, elle, calculée en temps réel.
Par ailleurs, l’utilisation de modèles physiques permet un comportement graphique plus réaliste, plus complexe et plus varié, mais ces derniers n’ont qu’une faible incidence sur les comportements sonores basés sur des fichiers préenregistrés. Or, la montée en puissance du matériel a rendu possible la simulation précise des propriétés audio et acoustiques des bruits quotidiens basés sur des paramètres physiques.
De plus, de nouvelles interfaces sont maintenant incluses dans les smartphones, tablettes, consoles de jeux vidéo et sont en train de permettre une révolution dans la façon dont nous accédons à l’information numérique. Ces dispositifs sont sous-exploités d’un point de vue sonore car la lecture de sons préenregistrés ne permet pas une interaction correcte avec ce type d’interface. La synthèse audio en temps réel est ainsi parfaitement adaptée à ces nouvelles interfaces et aux usages qui en découlent.
En conclusion, Physis permettra de créer une base scientifique et technologique solide pour répondre à l’ensemble de ces nouveaux besoins.
Projet Voice4Games
Traitement de la voix pour la production de jeux vidéo
Équipes concernées : Analyse et synthèse des sons, Interactions musicales temps réel
Financement : FEDER, région Île-de-France, Pôle Cap Digital
Période de réalisation : novembre 2011 – octobre 2013
Partenaires extérieurs: ExeQuo, Voxler, Cyanide
Coordinateur Ircam : Nicolas Obin

Le projet Voice4Games vise à la conception et la réalisation de solutions technologiques nouvelles dans le domaine du traitement de la voix pour la production (interaction temps réel) et la post- production de jeux vidéo.
Dans un contexte d’explosion du marché du jeu vidéo, le consor- tium Voice4Games s’est formé pour répondre aux demandes d’ana- lyse, de transformation, et d’indexation de contenu audio de voix parlée et chantée.
Les innovations du projet Voice4Games visent à enrichir et élargir l’éventail de services de traitement vocaux dans les secteurs de la production audio de la voix, dans une synergie de l’indexation et de la transformation de la voix en production temps réel et en post-production.
Les principales innovations visent :
• L’homogénéisation de la qualité audio de la voix multilingue ;
• La recherche de voix par similarité pour le casting vocal multilingue ;
• L’intégration des nouvelles technologies audio/vidéo (Kinect) pour l’interaction vocale en temps réel (commande vocale, voix chantée).
Le rôle de l’Ircam au sein du projet Voice4Games est d’impulser et de coordonner les recherches sur l’analyse/indexation/transformation de la voix avec les partenaires ExeQuo, Voxler, et Cyanide pour l’enrichissement des applications de traitement de la voix dans les secteurs de la production et de la post-production de jeux vidéo.
Projet HOULE
Hierarchical Object based Unsupervised Learning
HYPERLINK "http://houle.ircam.fr"houle.ircam.fr
–
Équipes concernées : Analyse et synthèse des sons, Perception et design sonores, Représentations musicales
Financement: ANR Programme Jeunes Chercheurs
Période de réalisation : septembre 2011 – août 2014
Coordinateur : Mathieu Lagrange (STMS-CNRS)

Dans le cadre du projet HOULE, nous proposons des techniques originales d’apprentissage non supervisé pour résoudre le problème de la structuration des scènes auditives (Computational Auditory Scene Analysis : CASA), problème consistant à identifier et décrire les objets sonores constituant une scène. CASA est un domaine très actif du traitement du son ayant de nombreuses applications. Les points bloquant les méthodes actuelles sont :
• Ne pouvant faire d’hypothèse sur la nature des objets traités, on ne peut les modéliser a priori
• Les objets mélangés dans la scène ne peuvent être observés en isolation ;
• Leur structure est gouvernée par de nombreuses relations dont la priorité est difficile à établir.
Les caractéristiques dont nous tirons parti pour notre approche sont, l’organisation hiérarchique des scènes audio (atomes rassemblés en objets qui sont des instances de classes comme «La4 de piano», elle-même un exemple de «Note de piano»), et la redon- dance présente à tous les niveaux de cette hiérarchie. Cette redon- dance nous permet d’identifier des motifs récurrents sur lesquels fonder une représentation riche et robuste.
À cette nouvelle approche de la représentation de scènes audio correspond un algorithme d’apprentissage non supervisé spéciale- ment conçu pour traiter ces données. Le système est structuré en deux composants : le Regroupement Multi-Niveaux (RMN) opère la structuration des données, tandis que le «Superviseur» (module d’adaptation réflexive) incarne l’aspect «apprentissage» en optimisant à la volée le fonctionnement de RMN en référence à une mémoire d’exécutions passées.
L’originalité de notre proposition tient dans son détachement des approches traditionnelles à CASA, en commençant par le paradigme de représentation des scènes et objets. L’innovation est principalement présente dans les méthodes d’apprentissage non supervisé que nous allons développer, dont les applications dépassent largement le cadre de CASA.
Projet LEGOS
Apprentissage sensori-moteur dans les systèmes interactifs sonores basés sur le geste
Équipes concernées: Interactions musicales temps réel, Perception et design sonores, Acoustique instrumentale, Espaces acoustiques et cognitifs
Financement: ANR - programme Blanc
Période de réalisation : novembre 2010 – décembre 2014
Partenaires extérieurs: Laboratoire de neurophysique et physiologie (CNRS UMR 8119), université Paris Descartes
Coordinateur : Frederic Bevilacqua, Ircam

L’idée centrale du projet Legos est de croiser des expertises avancées sur les technologies de contrôle sonore par le geste avec des problématiques liées aux neurosciences et aux sciences cognitives de l’audition, concernant en particulier les apprentissages sensori-moteurs. Nous pensons en effet que ces aspects sont insuffisamment intégrés aux développements des systèmes sonores interactifs. Une meilleure compréhension des mécanismes d’ap- prentissage du couplage geste/son pour la réalisation d’une action est nécessaire pour proposer des méthodologies efficaces pour leur évaluation et optimisation. Cela permettra de dépasser de manière significative les limites auxquelles sont confrontés les systèmes sonores interactifs actuels basés sur le geste, souvent développés de manière empirique.
L’objectif du projet Legos est d’étudier de manière systématique l’évaluation de la qualité du couplage geste-son dans des sys- tèmes sonores basés sur une interface gestuelle. Pour cela, nous évaluerons l’apprentissage sensori-moteur, et en particulier son évolution dans le temps, dans divers dispositifs interactifs.
Il s’agit donc à la fois de développer, d’évaluer et comparer des systèmes interactifs afin de proposer à moyen terme des nouvelles interfaces gestuelles de contrôle de médias numériques (dont les jeux vidéos et le design sonore) ainsi que des applications médicales comme la rééducation.
Le projet permettra d’apporter un nouvel éclairage sur la perception des sons dans un processus actif engageant une action de l’auditeur.

Le projet s’appuie sur des méthodes expérimentales, considérant les trois éclairages suivants :
Contrôle sonore
Ce premier point correspond à un cas d’apprentissage sensori-moteur où la finalité est de produire un son donné grâce à la manipulation d’une interface gestuelle, comme dans le cas des instruments de musique numérique. L’apprentissage sensori-moteur est évalué au niveau de la qualité du son produit.
• Apprentissage de geste avec retour sonore Ce deuxième point correspond à l’apprentissage sensori-moteur dans le cas où la finalité est d’effectuer un geste donné en s’aidant d’un retour sonore. L’apprentissage sensori-moteur est dans ce cas observé au niveau de la qualité/performance du geste reproduit.
• Design sonore interactif Ce troisième point correspond à l’apprentissage sensori- moteur dans le cas d’interfaces tangibles, où la finalité est la manipulation correcte d’un objet. Dans ce dernier cas, l’appren- tissage sensori-moteur est jugé à travers la manipulation de l’objet interactif pour répondre à un usage donné.
Equipe Acoustique instrumentale
Projet PAFI
Plateforme modulaire d’Aide à la Facture Instrumentale
Équipes concernées : Acoustique instrumentale, Atelier de mécanique
Financement : ANR, programme Contenus et interactions
Période de réalisation : décembre 2008-mai 2013
Partenaires extérieurs : Laboratoire d’acoustique de l’Université du Maine (LAUM, Le Mans coordinateur), Télécom Paris, ESEO Angers, ITEMM Le Mans.
Coordinateur Ircam : René Caussé

Ce projet propose une démarche partenariale ambitieuse et totalement originale entre des laboratoires de recherche, un pôle national d'innovation des métiers de la musique et un collectif d'artisans-luthiers agissant au nom d'associations professionnelles de la facture instrumentale, représentatif du tissu des micro-entreprises françaises. Il s'agit de répondre à la problématique de la reproduction et de l'optimisation de la conception d'instruments de musique haut de gamme, caractéristiques de la lutherie française sur le marché mondial. PAFI propose donc la mise en œuvre d'outils de caractérisation et de prédiction acoustique dédiés à l'analyse et au prototypage virtuel des instruments. Ainsi sont prévus la mise au point d’un dispositif expérimental de caractérisation de la justesse de l'instrument par un dispositif de mesure d'impédance d'entrée, le développement d’un outil prédictif de justesse, et, dans le cadre d'une thèse, la mise en place d’une méthodologie du contrôle et de l'innovation avec les facteurs, en s'appuyant sur les outils du module développés par les autres partenaires et en prospectant vers des outils plus en amont (bancs d'essai tels que des bouches artificielles et les simulations par modèle physique des instruments en situation de jeu).
Projet CAGIMA
Conception acoustique globale d’instruments de musique à anche, justes et homogènes
Financement: ANR, programme blanc
Période de réalisation : décembre 2011 - novembre 2015
Collaborations: Laboratoire de mécanique et d’acoustique de Marseille, Laboratoire des sciences, des procédés et des matériaux de l’université Paris-13 et société Buffet-Crampon
Coordinateur : Joel Bensoam

Le projet Cagima s’intéresse aux défauts de justesse et d’homogénéité d’émission et de timbre des instruments de musique à anche, tant du point de vue de celui qui les joue que de celui qui les fabrique, et vise à intégrer au mieux les contraintes relatives à chacun d’eux.
Le projet ambitionne de remplacer l’approche incrémentale histo- rique adoptée par les facteurs par une approche rationnelle et glo- bale visant à concevoir ab initio de nouveaux instruments, appelés «logiques», minimisant les défauts identifiés, ce qui constitue un réel saut méthodologique et technologique dans la facture instrumentale.
Il s’agit pour cela d’évaluer d’abord les contraintes sur la production du son imposées par un instrument au musicien, via la mesure et l’interprétation du geste (pression dans la bouche, appui sur l’anche avec la lèvre, configuration du conduit vocal, etc.), et de les corréler à des défauts acoustiques des instruments afin de pro- poser des méthodologies novatrices de conception globale de la perce et des trous latéraux des instruments à anche.
Pour cela, l’étude de critères globaux sera au centre du projet, et leur prise en compte aboutira, après un processus d’optimisation, à la fabrication de deux prototypes jouables, l’un de clarinette, l’autre de saxophone.
Projet IMAREV
Instruments de musique actifs avec réglages virtuels
Financement: ANR, programme retour post-doc
Période de réalisation : octobre 2011 - septembre 2014
Collaborations : université Pierre et Marie Curie, Open University (Royaume-Uni)
Coordinateur : Adrien Mamou Mani

Au cours des cinquante dernières années, les sciences et technologies de la synthèse sonore ont permis de créer et contrôler des nouveaux sons à partir de synthétiseurs. Pourtant, des centaines de millions d’instruments acoustiques sont toujours utilisés dans le monde. En effet, l’interaction avec les claviers numériques et la diffusion par des haut-parleurs est relativement pauvre comparée aux subtilités des instruments de musique acoustiques.
Une famille d’instruments de musiques innovants s’est développée ces dernières années, appelée instruments actifs. Leur principe est basé sur l’utilisation d’instruments acoustiques contrôlés par feed- back avec du traitement et de la synthèse sonore, en vue d’étendre les possibilités sonores des instruments. Le son final est ainsi hybride. Il provient de la superposition de la vibration acoustique (ou mécanique) et de son traitement numérique.
Les Instruments Actifs ont un avantage important sur les synthé- tiseurs : l’interface avec le musicien reste l’instrument acoustique, tout en incluant les potentialités de la synthèse sonore. Pourtant, les Instruments Actifs ne sont pas aussi diffusés que les synthé- tiseurs. En effet, il n’y a pas encore de méthodologie et d’outils unifiés pour la conception et la fabrication d’instruments actifs. Le but de ce projet est de développer des modèles, algorithmes et appareils permettant la création d’instruments actifs optimisés, de manière unifiée. Les modèles intègreront des «réglages virtuels» qui sont des paramètres déduits de la connaissance et des réglages des fabricants d’instruments. Ceci permettra un contrôle intuitif par les musiciens ainsi qu’une simplification de la complexité de la conception des Instruments Actifs. La qualité de la modélisa- tion des «réglages virtuels» sera évaluée à partir de la synthèse sonore par modèle physique et sera ensuite incorporée dans les Instruments Actifs.
En plus de l’application à la création musicale, ce projet permettra de créer des instruments avec une qualité «réglable» utilisant un traitement numérique après la fabrication. Ce projet comporte un volet de recherche fondamentale, avec des applications à la création musicale, la fabrication des instruments de musique et au domaine du contrôle actif.
Equipe Espaces acoustiques et cognitifs
Projet ConceptMove
Partenaires : IRISA (coordinateur), Danse 34 Productions (N+N Corsino)
Période : décembre 05 – mars 08
Financement : ANR - programme RIAM (Recherche Innovation en Audiovisuel et Multimedia).
Coordination Ircam : Hugues Vinet

Dans le contexte des installations interactives et de la réalité virtuelle, le projet vise à constituer un environnement informatique assurant un cadre unificateur pour la réalisation d’œuvres associant captation gestuelle, synthèse d’image 3D et spatialisation sonore. La captation, la simulation et le rendu de ces différentes modalités sensorielles étant généralement assurés par des logiciels différents et dotés de langages spécifiques, l’objectif principal du projet est la conception et la réalisation d’un métalangage, permettant de spécifier le cadre de l’interaction selon un formalisme compatible avec ces logiciels [Delerue07a]. Le projet s’inscrit dans le cadre de la thématique transversale « Ecriture du temps » et participe à l’organisation du colloque « Ecritures du temps et de l’interaction » les 13 et 14 juin 2006 dans le cadre des journées Résonances. Le cahier des charges technique du projet se fonde notamment sur le retour d’expérience de l’installation interactive « Seule avec loup » de Nicole et Norbert Corsino, créée au Centre Pompidou dans le cadre du festival Agora 2006, associant synthèse d’image de mouvement dansé, spatialisation par Wavefield synthesis et système d’interaction mono-utilisateur.
Projet Crossmod
http://www-sop.inria.fr/reves/CrossmodPublic/
Partenaires : INRIA (FR), Univ. Erlangen (D), Univ. Bristol (UK), Univ. Vienne (A), Univ. Pise (I), UMR7593-CNRS-Salpêtrière (FR).
Période : décembre 05 – novembre 08
Financement : programme européen FET- 6ème PCRD.
Coordination Ircam : Olivier Warusfel

L’objet de ce projet est d’exploiter les propriétés perceptives multi-sensorielles afin d’optimiser la qualité et l’interactivité des applications de réalité virtuelle. Notre perception est coordonnée à travers différentes modalités sensorielles, notamment visuelle et auditive mais également proprioceptive. Différentes études ont mis en évidence des phénomènes d’intégration sensorielle dans lesquels une modalité sensorielle est affectée par une autre, notamment en termes de congruence spatiale ou temporelle. Aussi, les algorithmes de restitution visuelle et sonore qui exploitent les propriétés perceptives devraient-ils prendre en compte ces propriétés d’intégration multi-sensorielle dès lors que l’on se situe dans le cadre d’un environnement virtuel multimédia. La démarche générale du projet a consisté à identifier, sur la base d’études bibliographiques, les phénomènes inter-modalitaires les plus prometteurs pour l’optimisation du rendu visuel et sonore. Les candidats principaux sont, par exemple, les effets de congruence spatiale (effet visuo-auditif ventriloque) ou de dominance sonore pour la perception des phénomènes temporels et périphériques. Dans un premier temps, les expériences ont été appliquées à des environnements simples en vue de leur exploitation ultérieure dans les domaines d’application comme le jeu, les simulateurs pour l’architecture, les transports ou la médecine, et les applications artistiques et culturelles. Les travaux menés par l’Ircam au cours de ce projet ont fait l’objet de nombreuses publications en collaboration avec les autres partenaires [Suied09a ; Suied09b ; Nguyen09a ; Bonneel10a ; Drettakis07a ; Moeck07a ; Bonneel08a ; Suied08c ; Suied08d ; ViaudDelmon08a].
Projet CoRSAIRe 
Partenaires : LIMSI-CNRS (Coordinateur), LEI-Univ.Paris5, EBGM-INSERM, HAPTION.
Période : janvier 06-décembre 08
Financement : programme ANR-ARA-MDMSA (Programme Masses de Données).
Coordination Ircam : Olivier Warusfel

Le but du projet est de développer de nouvelles modalités d’interaction avec des données numériques issues par exemple de procédés de simulation ou de représentation scientifique. L’enjeu est d’enrichir l’interaction en proposant à l’utilisateur d’observer et de manipuler les données à travers différents canaux sensori-moteurs dépassant le cadre conventionnel de l’observation exclusivement visuelle. L’une des difficultés majeures réside dans la définition des règles et principes de distribution de l’information sur les différents canaux sensoriels en fonction de leurs propriétés perceptives, de la nature des données à observer et des fonctions d’interaction dont on veut pourvoir l’utilisateur. Le but du projet est simultanément de concevoir une plateforme d’exploration multi-sensorielle des données et d’étudier différents paradigmes d’interaction. La mission principale de l’Ircam est de fournir des technologies pour l’exploitation sonore tri-dimensionnelle des données et d’étudier différentes modalités de sonification spatiale des données [Katz07a][Katz08a].

Projet HC2
Partenaires extérieurs : Starlab (coordinateur), Catholic University of Milan, Johannes Kepler Universität Linz.
Période de réalisation : octobre 2010 - septembre 2013
Équipe concernée : Acoustique des salles
Financement : Commission européenne, Programme Coordinating Communities, Plans and Actions in FET Proactive Initiatives
Coordination Ircam : Isabelle Viaud-Delmon

Les recherches sur la confluence entre l’homme et l’ordinateur sont faites dans le cadre de programmes ambitieux étudiant comment la relation symbiotique émergente entre les humains et les outils informatiques permet des formes radicalement nouvelles de perception, d’interaction et de compréhension. C’est un champ de recherche hautement multidisciplinaire, couvrant des disciplines aussi diverses que les sciences cognitives, l’informatique fondamentale et l’électronique. Le projet HC2 a une activité de coordination promouvant la construction d’une identité et proposant la définition de recherches futures et de programmes éducatifs. HC2 va atteindre ses objectifs en construisant un point d’information central et en utilisant une méthodologie de travail basée sur la participation active de la communauté et la création d’évènements (2 écoles d’été, 2 workshops, une rencontre pour la création d’un ERA NET, une journée entreprises).

Projet REVA
Partenaires extérieurs : Université Paris Descartes, Hôpital Européen Georges Pompidou,
Période de réalisation : janvier 2008 - juin 2009
Financement: Tinnitus Research Initiative (TRI), Société Amplifon
Coordination Ircam : Olivier Warusfel

Cette étude est consacrée à l’élaboration et à l’évaluation d’une thérapie basée sur la réalité virtuelle pour le traitement des acouphènes, qui désignent un ensemble de sensations auditives fantômes en l’absence de stimulation acoustique extérieure. La physiopathologie des acouphènes subjectifs reste encore incomplètement élucidée, mais il existe de fortes présomptions quant au rôle de la plasticité cérébrale dans le développement des troubles à l’origine de sensations acouphéniques. Une telle situation clinique peut être rapprochée des syndromes douloureux chroniques après amputation, pour lesquels les mises en situation employant les techniques de réalité virtuelle ont fait la preuve de leur intérêt théorique et pratique. L’objectif de l’étude est d’appliquer ces mêmes techniques aux patients acouphéniques en évaluant l’efficacité d’une mise en situation de réalité virtuelle 3D (visuelle et auditive) pour favoriser la plasticité cérébrale et réduire la gêne induite par l’acouphène subjectif.
La thérapie proposée consiste à favoriser la dissociation entre la perception de l’acouphène et sa représentation mentale en travaillant sur l’appropriation progressive par le patient de la localisation de l’acouphène dans l’espace de sorte à permettre, à terme, sa mise « hors champ». En pratique, il s’agit de construire un avatar sonore et visuel de l’acouphène et de fournir au patient les moyens d’en contrôler la localisation dans l’espace, à la fois en direction et en distance. Le protocole d’habituation repose sur le choix des caractéristiques acoustiques de l’avatar sonore [Bertet09a], sur les modalités de contrôle de sa localisation et sur leur éventuelle évolution au cours des séances [Baskind09a, Londero09a].

Projet VERVE
Partenaires extérieurs : Trinity College Dublin (Irlande, coordinateur); Centre Hospitalier Universitaire de Nice; INRIA Sophia Antipolis, CNRS TELECOM ParisTech (France); Testaluna (Italie), Kainos (UK), Université de Zaragoza (Espagne) et Deutsches Forschungszentrum für Künstliche Intelligenz (Allemagne).
Période de réalisation : octobre 2011 – septembre 2014

Financement : Programme FP7 IST call 7 ICT-2011.5.5 ICT for smart and personalized inclusion, Commission Européenne.
Coordination Ircam : Isabelle Viaud-Delmon

Le projet vise à l’amélioration de la qualité de vie de personnes à risque d’exclusion sociale due à la peur et l’apathie associées au vieillissement et aux troubles neurologiques. Le consortium travaillera sur la spécification, le développement et le test d’environnements virtuels personnalisés et peuplés d’humanoïdes, qui pourront être utilisés sur différents types de plateformes, allant de la salle immersive (CAVE) au téléphone intelligent.
Les efforts de VERVE vont se concentrer sur trois situations, chacune ciblant un groupe différent de symptômes : la peur de tomber et la maladie de Parkinson, l’apathie et les troubles comportements reliée au déclin cognitif, en particulier dus à la maladie d’Alzheimer, et d’autres troubles émotionnels liés à l’anxiété. Bien que focalisés sur ces domaines au départ du projet les résultats de la recherche devraient être applicables à un éventail beaucoup plus large de situations.
Le son 3D sera utilisé dans les situations immersives, de sorte à étudier les liens entre l’intégration visuo-auditive et l’émotion. La compréhension de l’impact affectif du rendu visuel et auditif d’un environnement virtuel, au niveau de la perception émotionnelle et au niveau du ressenti affectif, permettra la mise en place de nouvelles stratégies thérapeutiques pour les troubles liés à l’anxiété.

Projet NIEVE
Partenaires extérieurs : Equipe REVE INRIA, equipe BUNRAKU INRIA
Période de réalisation : janvier 2010 – décembre 11
Financement : Programme ARC INRIA
Coordination Ircam : Isabelle Viaud-Delmon

Le projet a deux objectifs : participer à la compréhension de la navigation dans les environnements virtuels et à l’amélioration des interfaces pour la navigation ; étudier la manipulation de la valence émotionnelle des environnements virtuels audiovisuels. Nous nous intéressons en particulier à l’influence de la spatialisation de l’audio sur la modulation émotionnelle. L’application visée est l’évaluation et le traitement de la phobie des chiens.

Projet AUDIOSELF
Partenaire extérieur : Département de Neurologie de l’Hôpital Universitaire de Zurich, Suisse.
Période de réalisation : janvier 2010 – décembre 11
Programme : projet de recherche spatiale, vols paraboliques
Coordination Ircam : Isabelle Viaud-Delmon

Il s’agit d’étudier les interactions auditives et vestibulaires pour la perception du corps propre et du sentiment de soi. Dans cet objectif, nous testons chez des individus en micro-gravité le sentiment d’appartenance du corps, par l’utilisation d’entrées vestibulaires et auditives modifiées. Ce sentiment est fragilisé dans des circonstances exceptionnelles et les vols paraboliques peuvent être une situation révélatrice de telles situations complexes. L’idée pourrait à long terme aboutir à une expérience dans la station spatiale internationale.
Equipe Perception et Design sonores
Projet CLOSED
Closing the Loop Of Sound Evaluation and Design
HYPERLINK "http://closed.ircam.fr/"http://closed.ircam.fr/
Partenaires : HGKZ (École supérieure de design et d'arts appliqués),
NIPG (université de Berlin), Univerona-VIPS (université de Vérone)
Programme : NEST (New and Emerging Science and Technology), appelMTI (Measuring The Impossible), 6e PCRD, Commission européenne
Période de réalisation : juillet 2006 à juin 2009
Coordinateur : Patrick Susini (Ircam)

Le projet CLOSED a pour vocation de proposer une nouvelle approche du design sonore en termes d’outils de création, de mesure et d’évaluation des productions sonores dans le domaine du design des objets du quotidien. Elle s'inscrit dans une démarche plus large empruntée au domaine du design industriel. Le processus de design sonore est vu comme une boucle itérative : une première phase d’analyse permet de dégager des spécifications vis-à-vis des qualités/propriétés du son à réaliser, la phase de création sonore s’opère à partir de ces connaissances préalables puis est ensuite validée sur la base des spécifications initiales ; le cas échéant, la production est affinée en repassant dans la boucle création/validation.
À l’intérieur de ce cadre, le projet est centré sur l’élaboration d’outils de mesure reliés aux aspects fonctionnels, esthétiques et émotionnels du son, et ayant pour vocation d’être utilisés par les designers dans leurs processus de création. À travers ces outils, le designer pourra à la fois façonner les sons d’objets du quotidien et, dans le même temps, évaluer le résultat de sa création. L’outil d’évaluation sera composé d’un ensemble d’indicateurs facilement interprétables en termes de fonctionnalité, d’esthétique et de réactions émotionnelles, qui seront associés à un contexte donné d’utilisation du produit.
Ce projet fédère quatre laboratoires européens qui articulent son contenu suivant quatre différents axes :
synthèse sonore basée sur la modélisation d'événements physiques (solide, liquide…). C, le contrôle de la synthèse par paramètres physiques et perceptifs orientés vers le design interactif ;
l’étude de la perception des sons environnementaux et de leur organisation perceptive et cognitive. Intégration des aspects esthétique et fonctionnel perçus du son dans le processus de design, et évaluation de leur impact émotionnel ;
étude des nouveaux usages du design sonore. Élaboration de principes d'interaction sonore avec un objet en relation avec la perception et la cognition. Élaboration de scénarios par la création de prototypes sonores favorisant les interactions entre un usager et un objet ;
techniques d'apprentissage et de classification automatique des sons basées sur des modèles physiologiques pour une évaluation automatique de l'esthétique, de la fonction et des aspects émotionnels du son intégrés dans le processus global du design sonore.
Projet SID
Partenaires: treize pays de la communauté européenne, et un pays non-membre (université McGill, Canada) Programme: COST, Commission européenne Période de réalisation : juillet 2007 – juin 2011 Coordinateur: département d’art et de design industriel, IUAV université de Venise

Le design interactif sonore (SID) consiste à exploiter la modalité sonore pour transmettre une information, combinée à une compo- sante esthétique/émotionnelle, utile dans des contextes d’usage interactif. En d’autres termes, il s’agit de favoriser les interactions par le biais du sonore.
L’objectif de la COST action SID est de contribuer à la création et à la consolidation d’une théorie, d’outils et de domaines d’application du design sonore afin d’améliorer ou d’introduire la composante sonore dans la conception d’objets et de systèmes interactifs.
Un des enjeux à long terme est de coordonner les travaux dans ce domaine au niveau européen, et de dégager des nouvelles perspectives pour les prochains programmes européens (7 programme...). Les efforts vont être portés par quatre groupes de travail, chacun étant associé à un axe de recherche ou d’application révélé perti- nent pour le domaine :
Approches perceptive, cognitive et émotionnelle dans les interactions sonores ;
Design sonore produit ;
Interactions musicales et artistiques ;
Sonification.

Projet MINET
Measuring the Impossible NETwork
HYPERLINK "http://www.measuringimpossible.net"http://www.measuringimpossible.net
Coordinateur : Stockholms Universitet
Partenaires : vingt et un partenaires européens (Israël compris), académiques et industriels
Programme : 6e PCRD (Programme Cadre R&D), Commission européenne
Type de programme : Coordination Action 043297
Période de réalisation : février 2007-mars 2010
Coordinateur Ircam : Patrick Susini

Le projet MINET a pour objectif de regrouper tous les projets européens du programme « Measuring the Impossible » (MTI), auquel le projet CLOSED appartient, ainsi que des spécialistes de métrologie. En effet, le point commun de tous ces projets est qu’ils cherchent à mesurer l’impossible, c’est-à-dire des phénomènes liés à l’être humain, traditionnellement réputés non mesurables, telles que les émotions ou la perception. L’objectif global de MINET est donc de réfléchir à ce concept de mesure appliqué à l’humain. À travers l’organisation d’échanges, de groupes de réflexions, de séminaires, de visites d’études, ou d’écoles d’été entre les différents projets partenaires de MINET, cet objectif se subdivise en plusieurs points : augmenter la productivité des différents projets partenaires de MINET, structurer et élargir la communauté scientifique européenne s’intéressant à la mesure de quantités liées à l’humain, développer et standardiser les concepts métrologiques propres à la mesure de l’humain.
Projet ROADSENSE
Période de réalisation : octobre 2010 – mars 2013
Programme: ANR VTT Partenaires: CETE, LEPSIS, COLAS
Coordinateur : AXIMUM
Coordinateur Ircam : N. Misdariis

RoadSense est un projet de recherche industrielle qui vise à conce- voir, à mettre en œuvre et à valider expérimentalement une aide à la conduite destinée aux usagers motorisés. Cette aide est fournie par une délinéation par l’infrastructure, produisant une alerte sonore et vibratoire au passage des roues. Cette aide est destinée à alerter les conducteurs ayant une trajectoire aléatoire ou aber- rante par rapport aux voies de circulation en rase campagne. Pour atteindre cet objectif le projet de recherche RoadSense vise à :
• Proposer un cadre d’analyse fonctionnelle de la sûreté des voies de circulation à partir de l’état de l’art des connaissances et de l’identification des enjeux et des mécanismes d’accidents de la route en rase campagne ;
• Concevoir sur simulateur numérique des signaux sonores per- tinents, les implémenter sur simulateur de conduite et sur banc physique, et expérimenter l’efficacité et l’acceptabilité d’une «bande d’éveil de vigilance » par délimitation sonore de la voie de circulation ;
• Réaliser et expérimenter un nouveau système d’aide à la conduite à bas coût, rapidement généralisable et efficace pour l’ensemble du parc des véhicules existants sur routes dépar- tementales, nationales ou autoroutes par une validation graduelle in situ (sur piste puis sur route).
Projet LoudNat
Programme: ANR Blanc 2011
Période de réalisation : novembre 2011 – octobre 2015
Collaborations: LVA-INSA, Lyon (coordinateur) et LMA-CNRS, Marseille
Coordinateur Ircam : Patrick Susini

La sonie (sensation de force sonore – loudness en anglais) est un caractère fondamental de perception d’un son. Des modèles existent pour prédire cette sensation à partir de mesures effec- tuées sur le signal sonore, mais ils sont limités à des cas particu- liers de sons qui s’éloignent des sons environnementaux (naturels). Ces restrictions limitent donc fortement l’utilisation de ces modèles pour mesurer la sonie des sons de l’environnement dont les carac- téristiques acoustiques varient au cours du temps (par exemple, bruit de passage d’un véhicule).
L’impression globale de sonie d’un auditeur dépend alors du type de variation des caractéristiques du son dont il faut tenir compte dans un modèle prédictif. D’autre part, la localisation de la source ainsi que l’obstacle constitué par le corps de l’auditeur dans un contexte environnemental quotidien induisent des modifications du son et des différences interaurales dont dépend la sonie jugée par un auditeur. Ces modifications sont aussi à prendre en compte dans un modèle prédictif adapté aux sons de l’environnement. L’objet de ce projet est donc d’étendre la validité de modèles de sonie à des sons de l’environnement. L’étude consistera en des expériences psychoacoustiques visant à tester plusieurs hypo- thèses concernant des mécanismes perceptifs et cognitifs à prendre en compte pour modifier et adapter les modèles de sonie existants.
Equipe Analyse et synthèse des sons
Projet MusicDiscover
Indexation et recherche dans des bases de données audio
Financement : ACI (programme Masse de données)
Période de réalisation : octobre 2005-octobre 2007
Partenaires extérieurs : LTCI/ENST, Paris et LIRIS, École centrale de Lyon
Coordinateur: Xavier Rodet (Ircam)

L'accroissement des enregistrements et des débits sur les réseaux rend indispensable l’accès au contenu, i.e. une description structurée : mélodie, genre/style, rythme, instrumentation, structure musicale, harmonie. Cette collaboration avec le LTCI/ENST et le LIRIS sur financement ACIMasse de données développe des moyens adaptés à l'utilisateur, techniques et outils d'analyse, indexation, représentation et recherche d'information qui permettent de construire et d'utiliser une description structurée.
En collaboration avec les équipes Interactions musicales temps réel, Systèmes informatiques et Services en ligne, l’Ircam étudie :
la constitution de corpus ;
l’indexation des instruments ;
l’estimation des hauteurs ;
la mise à la disposition des utilisateurs sur réseau.
Un autre travail, en collaboration avec le CEA, a étudié la fusion des informations contenues dans différents médias pour les utiliser pour l’indexation conjointe de documents multimédia.
Projet Vivos
Création de voix expressives : applications multimédia
Financement : ANR (programme RIAM)
Période de réalisation : décembre 2005-septembre 2008
Partenaires extérieurs : France Télécom, Irisa, Chinkel, BeTomorrow
Coordinateur Ircam : Xavier Rodet

L’objectif du projet est de combler le manque actuel d’outils de postproduction à l’image liés à la voix, dans le contexte du cinéma, de la vidéo et de la production multimédia. Il vise à cet effet la mise en œuvre d’un ensemble de techniques de synthèse et de traitement, s’attachant spécifiquement au caractère expressif des voix produites, à travers la combinaison de plusieurs méthodes telles que :
transformation d’identité de voix : changement des caractéristiques de l’identité vocale à partir d’un enregistrement existant, modification du timbre de la voix ;
transformation de type et de nature de voix : passage d’une voix d’homme à une voix de femme ou d’enfant, etc. ;
synthèse de voix expressive : modification de l’expression intrinsèque à une voix ;
synthèse à partir du texte : production d’une voix de synthèse à partir d’un document textuel ;
synthèse à partir de corpus d’acteurs et personnages : synthèse consistant à faire dire un texte à une voix existante, caractérisée à partir d’un corpus d’enregistrements.
Les applications prévues sont nombreuses et comprennent notamment le doublage au cinéma à partir de voix de synthèse, la création de voix de personnages pour les dessins animés, la synthèse de voix d’un acteur ou personnage existant à partir d’un texte inédit, la modification de l’expression ou de l’accent sous-jacents à une voix enregistrée, l’obtention de plusieurs identités vocales (personnages) à partir d’un seul comédien, la synthèse vocale dans le contexte des jeux à partir de systèmes de production générative de texte et de caractéristiques expressives liées au contexte de la narration, la production de commentaires sportifs multilingues en direct, etc.
Projet Quaero
www.quaero.org
Financement : Agence pour l’innovation industrielle (OSEO)
Période de réalisation : janvier 2008- décembre 2013
Partenaires : Thomson (coordinateur), France Télécom, Ina, Exalead, Bertin, LTU, Synapse et Vecsys CNRS (INIST, LIMSI, IMMI), DGA, BnF, LNE, INRIA, Institut Télécom, IRIT, LIPN, MIG-INRA, université Joseph Fourier, université de Karlsruhe, université RWTH d'Aix-la-Chapelle
Coordinateurs Ircam : Hugues Vinet, Geoffroy Peeters

Quaero, doté d’un budget de 200 millions d’euros, est l’un des plus importants projets de R&D industrielle français. Quaero vise la conception et la réalisation de solutions technologiques nouvelles permettant l’extraction, l’analyse, la classification et l’exploitation d’informations dans les contenus numériques multimédia et multilingues, en se concentrant sur le traitement automatique de la parole, du langage, de la musique, de l’image, de la vidéo et des documents imprimés numérisés.
Dans un contexte d'explosion des informations numériques accessibles à tous via PC, télévision, ou terminaux de poche, le consortium Quaero a été créé pour répondre aux nouveaux besoins d’analyse de contenus multimédia en provenance du grand public et des professionnels. Il permettra aux multiples technologies de pointe dans ce domaine issues des laboratoires publics et privés en France et en Allemagne d’être pleinement exploitées au niveau industriel par des acteurs clés de ce secteur : PME de croissance et grands groupes industriels.

Les développements de Quaero conduiront à l’enrichissement des services offerts par les portails, les moteurs de recherche, les applications pour la télévision interactive, les environnements professionnels pour la production ou la postproduction de contenus multimédia et la mise en ligne de bibliothèques de contenus numériques culturels (livres, films, émissions de télévision…).
Cinq grands domaines applicatifs sont visés :
recherches multimédia sur Internet ;
enrichissement des services d'accès aux contenus audiovisuels sur les portails ;
sélection et diffusion personnalisées de vidéos ;
gestion de ressources audiovisuelles professionnelles ;
numérisation et enrichissement des contenus des bibliothèques, du patrimoine audiovisuel et de l’édition scientifique.

Le rôle de l’Ircam dans le cadre du projet est de coordonner les recherches sur l’indexation musicale et de collaborer avec les industriels Exalead et France Télécom au développement des applications de recherche multimédia et d’enrichissement des services d’accès aux contenus audiovisuels.

Projet Affective Avatars
Equipe concernée : Analyse et synthèse des sons
Financement : ANR - TLOG
Période de réalisation : janvier 2008 à décembre 2009
Partenaires extérieurs : Cantoche, LIMSI, Voxler
Coordinateur Ircam : Xavier Rodet

De nombreux acteurs économiques investissent aujourd'hui massivement dans la création de services, de jeux ou de mondes virtuels où les utilisateurs interagissent entre eux via leur « avatar ».
Le projet Affective Avatars a pour but de créer des avatars affectifs animés en temps réel. La voix de l'utilisateur est l'interface de contrôle de l'expressivité de l'avatar. Les paramètres expressifs/émotionnels extraits par traitement du signal vocal en temps réel, sont utilisés pour piloter l'expression labiale, faciale et corporelle des avatars. Le timbre vocal de l'utilisateur est également transformé en temps réel pour donner à l'avatar une voix cohérente et adaptée à son image. Nous abordons quatre verrous scientifiques/technologiques dans ce projet :
Détection d'émotions dans la voix humaine ;
Modélisation de l'expressivité corporelle (bodytalk) ;
Transformation du timbre vocal en temps réel;
Modélisation d'un catalogue de profils vocaux avec expressivité et cohésion multimodale.
Projet Rhapsodie
Corpus prosodique de référence en français parlé
Equipe concernée : Analyse et synthèse des sons
Financement : ANR - SHS
Période de réalisation : janvier 2008 à décembre 2011
Partenaires extérieurs : Laboratoires MODYCO-université Paris-X UMR 7114, LATTICE UMR 8094, CLLE Université Toulouse-2 UMR 5263, LPL université de Provence UMR 6057
Coordinateur Ircam : Xavier Rodet

Le projet Rhapsodie est consacré à l’élaboration d’un corpus prosodique de référence en français parlé, échantillonné en différents genres discursifs. Outre les annotations prosodiques, le corpus est doté d’annotations syntaxiques et informationnelles exploitables pour l’analyse de ses relations avec la syntaxe et du statut de la prosodie dans le discours (mise en place de la structure communicative, gestion des tours de parole). La question du standard d’annotation est donc là une question majeure.
Les objectifs complémentaires des partenaires associés à ce programme s’orientent autour de 7 axes :
Mise au point de formats pour l’annotation et la lecture des données intonosyntaxiques dans une perspective d’interopérabilité et d’échange ;
Mise à disposition au sein de la communauté scientifique de ressources de français parlé alignées (30 heures de parole) dont 20 % auront été annotées prosodiquement (adaptation des conventions de transcription de la TEI, format XML) ;
Distribution en ligne d’outils pour traiter et analyser ces ressources avec manuels d’utilisation exhaustifs ;
Développement de méthodes linguistiques raisonnées et explicitées pour l’interprétation et la génération des structures ;
Enrichissement des modèles intonosyntaxiques du français parlé ;
Contribution à l’amélioration de la prosodie en synthèse de la parole ;
Organisation à l’issue du programme d’un colloque international sur le thème de l’interface prosodie-discours qui nous permettra d’exposer nos résultats, de les confronter aux travaux des équipes reconnues internationalement dans le domaine et de faire le point sur les modèles prosodiques.
Projet Respoken
Transformation de voix pour le dessin animé et le doublage
Équipe concernée : Analyse et synthèse des sons
Financement : FEDER-DRIRE Cap Digital Île-de-France
Période de réalisation : janvier 2009-décembre 2010
Partenaires extérieurs : Vocally, Chinkel
Coordinateur Ircam : Xavier Rodet

Le projet Respoken a pour but de produire des outils logiciels permettant diverses transformations de voix. D'une part, une transformation de la voix d’un locuteur pour obtenir la voix d’un locuteur différent, une voix de femme devenant une voix d’homme par exemple. Cette transformation trouvera des usages dans des domaines d'application restés jusque-là à l'écart comme le film d'animation et le doublage de film. D'autre part, pour des applications de jeux vidéo, animation et films, il est indispensable de pouvoir modifier la façon de prononcer tel ou tel segment ou phrase, ou d’obtenir des effets qui ne correspondent pas à une voix habituelle, comme le fait un acteur. Enfin, l'Ircam travaillera particulièrement sur la modification de l’expressivité, c'est-à-dire des émotions, des affects, des intentions véhiculés par une phrase. Partant d'une phrase donnée (un flux audio), le logiciel pourra la transformer en une phrase phonétiquement équivalente mais avec une expression modifiée (peur, colère, joie, tristesse, dégoût, surprise, etc.). De plus, l'utilisateur, c'est-à-dire un opérateur, un ingénieur du son, pourra indiquer un degré d'expressivité à appliquer depuis très faible jusqu'à très fort.
Projet AngelStudio
Générateur d’Avatars Personnalisés
Équipe concernée : Analyse et synthèse des sons
Financement : FEDER-DRIRE Cap Digital Ile de France
Période de réalisation : mars 2009 - février 2010
Partenaires extérieurs : As An Angel, SoBuzzy, TélécomSud Paris
Coordinateur Ircam : Xavier Rodet

Le projet AngelStudio a pour objectif de développer un générateur d’avatars permettant de produire à partir de photos et d’échantillons de voix – correspondant à un utilisateur donné – un avatar de ce dernier, sous la forme d’un visage 3D photo réaliste, animé en temps réel et doté d’une voix de synthèse paramétrable.
L’objectif scientifique du projet est de parvenir à une reproduction de l’animation faciale et de la voix d’un utilisateur avec un niveau de simulation correspondant au seuil d’acceptabilité pour les utilisateurs. L’objectif industriel du projet est d’intégrer ce générateur aux solutions développées par les deux PME du consortium : As An Angel et SoBuzzy. Le développement du marché des agents conversationnels ainsi que de celui du Web3D se heurte à la dure réalité du seuil d’acceptabilité de l’utilisateur final.
De nombreux projets et études, conduits notamment par As An Angel (projet Agent Conversationnel Expressif), le Laboratoire Informatique de Grenoble (ex CLIPS) et le réseau d’excellence HUMAINE, ont montré que ce seuil, qui peut certes varier d’une culture à une autre, reste globalement très élevé. En effet, les attentes des utilisateurs, modelées notamment par la littérature et le cinéma de science-fiction, correspondent à une simulation crédible de l’humain, tant au niveau des capacités de dialogue qu’à celui de la représentation et l’animation d’un visage et d’un corps de synthèse. Le projet AngelStudio vise donc à permettre à des agents conversationnels ou à des avatars d’atteindre le seuil d’acceptabilité pour deux modalités de communication :
l’animation faciale expressive de visages « photo-réalistes » ;
la simulation crédible d’une voix humaine expressive.
L’Ircam prend en charge le développement et la fourniture d’algorithmes de conversion d’identité de voix, et la fourniture d’algorithmes de transformation d’expressivité de voix, des phrases synthétisées par un système de synthèse à partir de texte (TTS) du marché ou par celui de l'Ircam (Ircam TTS).
Projet MIReS
Équipe concernée : Analyse et synthèse des sons
Financement : Commission européenne, programme ICT
Période de réalisation : octobre 2011 – mars 2013
Partenaires extérieurs: MTG-UPF, Stromatolite, OFAI, INESC Porto, QMUL, BMAT
Coordinateur Ircam : Geoffroy Peeters

Le projet MIReS est une action de coordination et de support du 7e programme de la Commission européenne Son objectif est d’élaborer un état de l’art et de proposer les directions du champ de recherche en Music Information Retrieval.
Le projet étudie notamment les challenges relatifs aux informa- tions multimodales, multi-culturelles et pluridisciplinaires.
Projet 3DTVS
Équipe concernée : Analyse et synthèse des sons
Financement: Commission européenne, programme ICT
Période de réalisation : novembre 2011 – octobre 2014
Partenaires extérieurs: université de Thessalonique, Fraunhofer HHI, Flying Eye, Velti, Sky-Deutschland, Arte
Coordinateur Ircam : Axel Roebel

Le projet 3DTVS est consacré à l’étude des techniques de des- cription de contenu, d’indexation automatisée, de recherche et de navigation dans les contenus audiovisuels tridimensionnels dispo- nibles sur les plates-formes mobiles et non mobiles, avec notamment pour objectif d’améliorer la performance des analyses du fait du format tridimensionnel des signaux audio et vidéo analysés. Le projet vise également l’enrichissement des indexations audio/vidéo par la multi-modalité des approches. Le rôle de l’Ircam dans le projet porte sur les méthodes d’analyse de signaux audio spa- tialisés (flux audio multicanal) afin d’améliorer l’indexation et de fournir la localisation des sources dans l’espace 3D.

Projet Hamecmopsys
Approche Hamiltonienne pour l’analyse et la commande des systèmes multiphysiques à paramètres distribués
Partenaires : FEMTO-ST/AS2M UMR CNRS Besançon, Université Nancy Inst. E. Cartan, LAGP UMR CNRS 5007 université de Lyon, Ircam
Financement : Programme ANR : Blanc - SIMI 3 - Matériels et logiciels pour les systèmes et les communications 2011
Dates : décembre 2011 – décembre 2015
Coordinateur Ircam: Thomas Hélie (CNRS)

Le projet HamecMopSys (Approche Hamiltonienne pour l'analyse et la commande des systèmes multiphysiques à paramètres distribués, vise à développer de nouvelles méthodes pour l'analyse, la réduction d'ordre, la simulation et la commande de systèmes physiques ouverts en profitant de la structure apportée par des équations de bilan (en particulier sur l'énergie).
L'objectif du projet a été de fédérer les efforts de différents laboratoires d’Automatique et de Mathématiques appliquées travaillant sur les propriétés structurelles des systèmes et leur commande, et ce en couvrant plusieurs domaines d'application tels que l'acoustique, les structures mécaniques, les phénomènes de transport, les procédés chimiques. Plus précisément, l'objectif est de développer de nouvelles méthodes et algorithmes pour la commande des systèmes non linéaires ouverts en utilisant le formalisme Hamiltonien à port dissipatif. Un premier axe portera sur la caractérisation et la modélisation des couplages entre phénomènes réversibles et irréversibles par le biais d'une même structure géométrique. Le deuxième axe portera sur la caractérisation numérique des approximations associées aux méthodes de réduction Hamiltonienne et à leur prise en compte lors de la synthèse de lois de commande.
Equipe Représentations musicales
Projet REACT
Robust Theories for Emerging Applications in Concurrency Theory
HYPERLINK "http://cic.puj.edu.co/wiki/doku.php?id=grupos:avispa:react"http://cic.puj.edu.co/wiki/doku.php?id=grupos:avispa:reactCollaborations : LIX École polytechnique, université Javeriana Cali, université del Valle Bogota.
Coordinateur Ircam : Gérard Assayag

Le projet REACT, financé en partie par un programme Colciencias (l’équivalent du CNRS en Colombie) rassemble deux partenaires français (l’Ircam et le laboratoire LIX de l’École polytechnique) et plusieurs universités colombiennes. L’objectif est d’explorer, à un niveau fondamental et pratique, comment les récentes avancées en programmation concurrente par contraintes peuvent s’appliquer à trois domaines : les protocoles de sécurité, les systèmes biologiques et la musique (contribution de l’Ircam). Les calculs de processus comme la programmation concurrente par contraintes (ccp) ou le pi-calcul ont été inventés pour décrire et raisonner sur les systèmes concurrents. Les calculs ccp ont été utilisés à l’Ircam dans la modélisation de différents processus musicaux tels que l’interaction, le calcul massif de contraintes musicales, l'improvisation.
Dans toutes ces applications, les calculs de processus sont utilisés pour au moins deux raisons. D'abord, de par leur définition mathématique rigoureuse, ces calculs peuvent fournir une sémantique formelle de haut niveau aux applications ainsi spécifiées. En outre, on peut raisonner sur le comportement ou les propriétés des processus. En musique, cela signifie par exemple qu’un système très lourd de règles musicales (contraintes) pourrait être formellement validé pour déterminer s’il modélise bien le problème avant de lancer un calcul coûteux.

Malgré la grande diversité des applications, on remarque une surprenante similarité dans la nature des analyses qu'on cherche à faire dans chaque cas. Par exemple, dans le domaine de la sécurité, on a souvent besoin d'une étude des configurations atteignables : s'il est possible d'atteindre un état où l'attaquant connaît un secret, alors le protocole ne fonctionne pas correctement. En modélisation musicale, on s'intéresse à des questions similaires, par exemple : « Est-ce que le processus musical atteint un état où les voix forment un canon tout en gardant un champ harmonique donné ? »
Projet INEDIT
Interactivité dans l’écriture de l’interaction et du temps
Financement: programme ANR contenus et interactions
Période de réalisation : septembre 2012 – août 2015
Partenaires extérieurs: LaBRI, Grame
Coordinateur : Arshia Cont (Ircam)

L’objectif du projet INEDIT est de permettre l’interopérabilité des outils de création sonore et musicale, afin d’ouvrir la voie à de nou- velles dimensions créatives couplant écriture du temps et écriture de l’interaction.
Nos motivations reflètent les efforts internationaux pour réconcilier la division actuelle entre les aspects «compositionnels» et « performatifs » des outils existants de création sonores. Cette division est apparente dans la catégorisation des outils en « composition assistée par ordinateur » et « temps réel ».
Pour le compositeur, les outils «orientés performance» (synthèse et traitements, mixage, post-production audio) se limitent souvent à des métaphores des sources de production et de traitement (notamment oscillateurs, filtres, modèles physiques). Cependant, ces métaphores doivent s’intégrer dans un langage symbolique comme celui de la partition afin de permettre une réelle écriture musicale et favoriser des modalités plus puissantes de représentation, de conceptualisation et de communication.
Inversement, les outils «orientés composition» peinent à prendre en compte une nouvelle problématique, celle de l’interaction: un dispositif sonore correspond de moins en moins à une œuvre fermée et spécifiée totalement à l’avance, mais doit de plus interagir en temps réel avec un environnement. C’est le cas par exemple pour les œuvres musicales interactives, les jeux vidéo, l’habillage sonore, les dispositifs et installations multimédia, etc.

Notre approche repose sur une vision langage : une œuvre interactive est vue comme un interprète (au sens informatique) qui doit articuler des flux temporels bas niveaux localement synchrones (le signal audio) dans un temps événementiel globalement asynchrone (les événements pertinents pour le processus de composition). Le projet INEDIT promeut aussi une approche hybride permettant la coopération de différents outils et approches stylistiques au sein d’un environnement supportant toutes les phases du workflow musical, de la composition à la performance.
Pour atteindre ces objectifs, il faut développer de nouvelles technologies: ordonnanceur dédié, mécanismes de couplage coopératif, compilation au vol, ainsi que les visualisations innovantes et les interfaces tangibles qui permettront de spécifier et de contrôler en temps réel les processus musicaux sous-jacents d’une manière naturelle pour le créateur et le concepteur.
Projet IMPROTECH
Technologies et musiques improvisées
Programme : ANR - Sciences, technologies et savoirs en sociétés Période de réalisation : janvier 2010 – décembre 2012
Partenaires: CAMS (Centre d’analyse et de mathématique sociales, UMR 8557 CNRS-EHESS), LAHIC (Laboratoire d’anthropologie et d’histoire de l’institution de la culture, UMR 8177 CNRS- EHESS), Crem (Centre de recherche en ethno- musicologie, UMR 7186, ancien UMR 7173), ENS-LSH de Lyon (laboratoire junior «penser l’improvisation»)
Coordinateur Ircam : Gérard Assayag

Ce projet a pour objectif d’étudier l’impact des nouvelles technologies sur la création musicale du point de vue des savoirs mis en jeu. L’avancée scientifique attendue au terme de cette étude est une meilleure compréhension de l’évolution actuelle des musiques populaires dans le contexte des bouleversements provoqués par la généralisation des technologies numériques à tous les stades de leur production.
Comme on l’a vu plus haut, les musiques sont toutes liées à des savoirs, mais l’accent est mis dans ce projet sur celles qui, au sein des musiques populaires, reposent sur des capacités musicales spécifiques, la capacité d’improviser, et de ce fait mettent en jeu des savoirs complexes. C’est le cas du jazz notamment. Il est donc nécessaire de s’interroger sur la nature de ce type de savoirs musicaux.
Au-delà de l’aspect technique, la musique a un aspect sémantique. Cela veut dire que dans une improvisation, le support sonore «double» autre chose que lui-même par le partage d’éléments communs au sein d’une communauté de personnes qui jouent, écoutent et font vivre cette musique (même si le terme de «communauté» pose plus de difficultés que dans une ethnographie classique liée à un territoire donné). Au sein de cette communauté, les tournures musicales sont partagées dans un jeu complexe de reprises et d’emprunts.
L’un des buts de ce projet est de suivre les voies de ce partage et de montrer comment les créations individuelles s’articulent les unes aux autres en laissant une place possible à l’innovation. Le caractère original de ce projet réside dans la confrontation de deux types de savoirs exogènes, savoirs musicaux d’un côté, savoirs technoscientifiques de l’autre, encore que ce dualisme soit à nuancer. L’idée est d’observer si une sorte de «greffe» s’opère actuellement dans le monde de la musique improvisée du fait de l’influence croissante que prennent les outils informatiques.
Le critère de réussite d’un tel projet est la vision claire qu’il contribuera à donner de la place actuelle des technologies dans les musiques improvisées, qui sont en pleine effervescence créatrice comme on l’a dit, mais dont il est difficile aujourd’hui de dresser un tableau synthétique.
Sa mise en œuvre passe par le choix d’un certain nombre de musiciens avec qui travailler, dont la représentativité est une condition de réussite du projet.
Equipe Analyse des pratiques musicales
Projet Scenari Platform
Système de conception de chaînes éditoriales pour les contenus interactifs
Programme : RNTL (ANR)
Période : Décembre 2005-Juillet 2008
Partenaires: Université technologique de Compiègne (coordinateur), Kelis conseil et développement, SkemA, Institut National de l’Audiovisuel, Université de Corse Pascal Paoli, M2 Editions, SNCF/ Université d’Angers, Axa France
Coordinateur Ircam: Nicolas Donin

Le projet Scenari-platform a pour objet l’élaboration d’une plateforme logicielle permettant le développement de chaînes éditoriales pour la création, la gestion et la publication de documents hypermédia. Cette plateforme doit être mise à disposition de l’ensemble de la communauté des fournisseurs de solutions documentaires et de leurs clients, sous une licence libre, gratuite et open source. Elle se fonde sur une suite logicielle dont le développement est coordonné par l’UTC : Scenari Platform, Scenari Builder.
Le rôle de l’Ircam dans le projet a été de développer des modules spécifiques pour les contenus audio et musicaux en vue de la réalisation de documentations hypermédia.
Projet MuTEC
Musicologie des techniques de composition contemporaines
Programme : Création (ANR)
Période : 2009-2012
Partenaires: Université de Lille III, Université technique de Troyes
Coordinateur: Nicolas Donin (Ircam)

Ce projet vise à documenter et interroger la spécificité d'un ensemble de techniques de composition caractéristiques de la musique contemporaine savante occidentale, par l'étude approfondie et coordonnée de plusieurs processus créateurs représentatifs de la musique des XXe et XXIe siècles, documentés au moyen d'archives de l'activité créatrice (esquisses, brouillons, etc.) et/ou d'entretiens approfondis avec les compositeurs (pour les compositeurs en activité - Stefano Gervasoni, Jean-Luc Hervé et Marco Stroppa).

La méthode et les références du programme sont à la croisée de plusieurs domaines disciplinaires complémentaires : musicologie, critique génétique, sciences cognitives. Le projet développera notamment une méthodologie innovante basée sur la notion de « remise en situation de composition ».
Equipe Interactions musicales temps réel
Projet i-Maestro
Interactive MultimediA Environment for technology enhanced muSic educaTion and cReative collaborative cOmposition and performance

Programme : Information Society Technology (IST), 6ème PCRD, Commission européenne
Projet IST 026883 (STREP)
Période de réalisation : octobre 2005-septembre 2008 (36 mois)
Partenaires extérieurs : Université de Leeds (GB - coordinateur), Université de Reading (GB), Sibelius Software (Londres), Academia Nazionale Santa Cecilia (Rome), Fundacion Albeniz (Madrid), Université de Florence (Italie), Exitech (Florence), Arca Progetti (Vérone), Stichting FNB (Amsterdam), London City University (Londres).
Coordinateur Ircam : Norbert Schnell

L'objectif du projet i-Maestro est le développement de nouvelles méthodes pour l'apprentissage de la musique, basées sur les innovations récentes issues du développement des technologies de l’information. Il concerne aussi bien l’apprentissage théorique (solfège) que la pratique instrumentale.
Les résultats du projet seront validés au travers d’un ensemble d’outils et de méthodes :
- des outils et des méthodes pour la production de logiciels éducatifs musicaux
- des outils interactifs pour la formation musicale et instrumentale
- des modèles pédagogiques pour la formation musicale et instrumentale
Le projet comprend aussi des activités de démonstration et de validation, qui seront menées dans des institutions européennes majeures telles que l’Academia Nazionale Santa Cecilia (Rome), la Fondation Albeniz (Madrid), et l’Ircam.
Les retombées du projet seront intégrés dans différentes offres de produits et services qui seront mis à disposition du public et des établissements d’enseignement, notamment grâce à la participation de la société Sibelius, une société spécialisée dans les logiciels pour la musique, et notamment dans les outils logiciels pour l’éducation musicale.
Le rôle de l’Ircam dans ce projet est principalement :
- de développer les méthodes et les outils de suivi automatique de partition, afin de permettre l’accompagnement intelligent de l’exécutant, et le contrôle du rendu musical
- de développer des méthodes et des outils pour la captation du geste et son évaluation dans un cadre pédagogique
- de développer des modèles formels et des outils pour l’annotation et la description du contenu musical, afin de permettre notamment son utilisation dans un cadre pédagogique.
Projet Interlude
Nouveaux paradigmes numériques pour l'exploration et l'interaction gestuelle expressive avec des contenus musicaux.
Financement: ANR, Programme Contenus et Interaction
Période de réalisation : décembre 2008 - juin 2011
Partenaires extérieurs : Grame, Voxler, Da Fact, NoDesign, Atelier les Feuillantines
Coordinateur: Frédéric Bevilacqua (Ircam)

Ce projet touche les trois axes de recherche de l’équipe Interac- tions musicales temps réel: paradigmes d’interactivité, modélisa- tion multimodale et interfaces gestuelles collaboratives. Les développements récents de l’informatique musicale permettent d’analyser, de traiter, de manipuler la musique et le son tant sur le plan du signal audio que sur le plan symbolique d’une partition. Ces traitements et manipulations sont en général effec- tués à l’aide d’interfaces classiques : clavier-souris ou éventuelle- ment des interfaces de mixage avec des potentiomètres. De fait, les possibilités d’interagir gestuellement et corporellement, comme dans le cas d’instruments acoustiques, avec des éléments sonores numériques, restent encore peu exploitées.
Le but du projet Interlude était précisément d’explorer de nou- veaux moyens d’expression musicale en couplant des systèmes de captation de geste modulaires, des logiciels innovants de syn- thèse sonore interactive, et des systèmes de visualisation dynamique. Les retombées attendues concernent à la fois la création artistique, la pédagogie musicale et le monde des jeux musicaux. Plus généralement, ce projet vise une communauté d’utilisateurs en plein essor, composée aussi bien de professionnels que du grand public, qui s’intéresse à une utilisation gestuelle et expressive des nouveaux outils numériques.
Les nouvelles interfaces musicales MO (Modular Musical Objects) issues du projet ont remporté le 1er prix du concours international Guthman 2011 des nouveaux instruments de musique. Ces inter- faces ont fait partie de plusieurs expositions internationales, dont « Talk to Me » au Moma de New York, à la Biennale du design Saint- Etienne, Objet(s) du numérique - design d’un nouveau monde industriel, Lift Experience à Genève.
Les interfaces MO et les logiciels associés (MuBu, gesture follower) ont permis des applications concrètes, en particulier pour la péda- gogie musicale. Celles-ci ont été appliquées avec succès par une école de musique, l’Atelier des Feuillantines.
De nouvelles formes de jeux musicaux ont également été créées, comme l’Urban Musical Game qui a été présenté au festival Futur en Seine 2011 (jeux de balles musicales). Notons enfin que le projet a permis de faire émerger une start-up, Phonotonic, qui valorisera une partie de ces développements. Des valorisations industrielles spécifiques sont également en cours par les différents partenaires du projet.
Le projet a d’ores et déjà fait l’objet de plus de 17 communications scientifiques, comprenant des journaux scientifiques et des actes de conférences nationales et internationales, de nombreuses communications dans la presse (écrite et Internet) ainsi que de plusieurs présentations publiques en Europe, aux États-Unis et en Asie.
Contrat avec la société PSA : évolution du système HARTIS
Ces travaux ont porté sur la restructuration du système HARTIS de simulation de bruit de véhicule développé pour PSA Peugeot Citroën développé avec notre bibliothèque FTM. Le système HARTIS permet la resynthèse temps réel et interactive de sons de moteur et de roulement captés à l’intérieur du véhicule. Plusieurs contrats ont permis la mise à jour du système HARTIS et de son évolution avec de nouvelles interfaces.
Médiathèque
Projet « Portail de la musique contemporaine »
Ce projet, conçu et réalisé depuis 2007 par la Médiathèque (Michel Fingerhut, chef de projet scientifique et technique), a mis en place sur l’internet un portail bilingue servant à trouver, à localiser (identifier l’organisme détenteur) et à consulter (dans la mesure de leur disponibilité en ligne) des ressources concernant la musique contemporaine en France : documents (livres, partitions, périodiques, biographies, notes de programme, articles, enregistrements sonores d’archives…), mais aussi un calendrier d’événements (concerts, conférences, formations…) et un carnet d’adresses (personnes, organismes). Débuté avec six partenaires en 2007 (Centre de documentation de la musique contemporaine, Cité de la musique, Conservatoire national de Paris, Ensemble intercontemporain, Médiathèque musicale Mahler), il a vu s’y rajouter huit nouveaux organismes en 2008 (le centre Acanthes, six centres nationaux de création musicale, le Conservatoire national de Lyon) et six autres en 2009 (cinq ensembles « historiques » de musique contemporaine, Musique française d’aujourd’hui, Voix nouvelles à Royaumont). En sus, il collabore avec la base Collections du ministère de la culture et de la communication d’une part, et avec le projet Europeana d’autre part, pour le référencement des contenus du Portail dans leurs portails respectifs.
Collaborations externes
Centre Pompidou
Participation au comité de pilotage, puis au groupe de travail restreint « Centre Pompidou Virtuel » (depuis 2008).

EDLnet, puis Europeana v1.0
En juin 2008, Michel Fingerhut a été invité à représenter l’Ircam en tant que partenaire du European Library Thematic Network of Partners et en juillet à participer au groupe de travail WG2.1 « Standards & Interoperability of Standards ».
En 2009, il a été invité à représenter l’Ircam dans le projet qui a pris la suite, Europeana v1.0, dans le groupe de travail WG3.1 « Objet Model and Metadata », puis dans le Core Expert Group. Il a en sus été solicité pour participer au API Requirement Task Group.

Enssib (école nationale supérieure des sciences de l’information et des bibliothèques)
En avril 2007, le ministère de l’éducation nationale a approuvé l’intégration de Michel Fingerhut au conseil scientifique de l’enssib (École nationale supérieure des sciences de l’information et des bibliothèques).

European Library
En mars 2007, Michel Fingerhut a été invité à se joindre au conseil consultatif (« advisory board ») de la European Library (portail des bibliothèques nationales européennes).

Groupe Ever
Cet éditeur français de logiciels documentaires a accordé un mécénat à la Médiathèque en 2009. Cette somme devrait permettre de recruter une personne compétente pour effectuer la migration du logiciel bibliothéconomique de la Médiathèque.

Grove Dictionary of Music
En 2006, l’éditeur en chef du dictionnaire de la musique Grove a proposé à Michel Fingerhut de participer à son comité consultatif technique (« Technical Advisory Committee »).

IAML (association internationale des bibliothèques, archives et centres de documentation musicaux)
Michel Fingerhut participe aux conférences internationales de l’association, et Sandra El-Fakhouri prend part aux travaux du groupe national.
Depuis 2003, Michel Fingerhut est l’éditeur de la lettre d’information électronique de l’association.

OSTC (Services fédéraux belges des affaires scientifiques, techniques et culturelles)
Les Services fédéraux des affaires scientifiques, techniques et culturelles belges font administrativement partie des Services du Premier Ministre et relèvent de l’autorité du ministre fédéral qui a la politique scientifique dans ses attributions. Ils ont sollicité la participation de Michel Fingerhut pour expertiser des projets présentés dans le cadre de leur appel d’offre pour le programme pluriannuel de support à la société de l’information.

Ville de Paris
Michel Fingerhut a participé à la mission de conseil de l’Ircam auprès de la Ville de Paris dans le cadre de son projet de réalisation d’un centre dédié aux musiques actuelles et arts numérique dans l'ancien théâtre de la Gaité Lyrique.


Annexe : participation à des instances scientifiques et professionnelles
Equipe Acoustique instrumentale
René Caussé
Membre du Comité d'Orientation Scientifique et Technique (COST) du Pôle d'innovation des métiers techniques de la musique de l'Itemm (Le Mans)
Membre du Technical Committee on Musical Acoustics de l'Acoustical Society of America (2007-2011)
Equipe Espaces acoustiques et cognitifs
Markus Noisternig
membre du comité directeur de DAFx
membre du comité directeur de la conférence Ambisonics

Isabelle Viaud-Delmon
membre du comité éditorial de la revue Intellectica
participation à des jurys de thèse de doctorat : 1 en tant que rapporteur et 1 en tant qu’examinateur
expertises pour l'ANR (FR),  ICT FET-OPEN (UE)
Olivier Warusfel
participation à des jurys de thèse de doctorat : 3 en tant que rapporteur/opponent et 7 en tant qu’examinateur
participation à des jurys d’HDR : 2 en tant qu’examinateur
expertises projets pour ANR (FR), ICT FET-OPEN (UE), SNF(CH), NSF (US), NSERC (CAN)


Equipe Perception et design sonores
Patrick Susini
membre actif au sein du bureau du Groupe spécialisée Perception Sonore (GPS) de la Société Française d’Acoustique (SFA)
participation à des jurys de thèse de doctorat : 2 en tant que rapporteur/opponent et 2 en tant qu’examinateur

Equipe Analyse/synthèse
Thomas Hélie


2007 - 2010
Hélie, T., Membre du Bureau (secrétaire depuis 2011) du Groupe Spécialisé en Acoustique Musicale de la Société Française d’acoustique (GSAM-SFA, www.sfa-asso.fr/)

2006 - 2012
Hélie, T., Membre du Comité de sélection de l’Université Paris Sud, section CNU 61

Matthieu Lagrange
Lagrange, M., Projet ANR Jeune Chercheur Houle, Coordinateur du projet (2011 – 2014)
Participation à une commission de spécialiste de recrutement de MDC en section 27 à l'université de Bordeaux 1 (2012)

Geoffroy Peeters
MIReS (Projet Européen 7th Framework), Ecriture de la cartographie de la recherche en MIR en Europe (2011-2013)
Projet Quaero (Oseo) Chef de Projet à l’Ircam, Coordination de la tâche indexation audio et musique (INRIA/Metiss, Télécom Paris-Tech, Ircam, LIMSI-CNRS- 2008 – 2013)
Jurys de thèses de doctorat : 6 en tant que rapporteur/opponent, 5 en tant qu’examinateur.

Axel Röbel
Röbel, A., Membre du conseil d’administration de l’association GRETSI (Groupe d’Etude du Traitement du Signal et des Images, depuis 2011)

Xavier Rodet
Projet Vivos (ANR RIAM), 2005-2008, Coordinateur du projet.
Jurys de thèses de doctorat : 6 en tant qu’examinateur.


Equipe Représentations musicales
Jean Bresson 
Comité de lecture ICMC 2010 (International Computer Music Conference, New York / Stony Brook, USA), SBCM 2011 (Brasilian Symposium on Computer Music, Vitoria, Brésil), Programme de résidence en recherche musicale Ircam, DAFx 2011 (International Conference on Digital Audio Effects, Paris), Comité scientifique (meta-reviewer sur le thème Representations and Models for Computer Music), ICMC 2012 (Ljubjana, Slovenia), Co-résident du comité scientifique MCM 2011 (Mathematics and Computation in Music, Paris).
Membre AFIM (Association Française d’Informatioque Musicale, membre du CA depuis 2012), ICMA (Intrenational Computer Music Association), ACM SIGMM (Special Interest Group on Multimedia).
Coordinateur (avec John Mandereau) du séminaire MaMuX (Mathématiques/Musique et relations avec d’autres disciplines) – depuis 2011

Moreno Andreatta
Membre invité pour le meeting d’experts sur «Creativity», FET (Future and Emerging Technologies) Proactive – FP7, Bruxelles, 28 novembre 2011
Membre du comité de pilotage pour la demande de création d’un GDR « Esthétique Arts & Sciences » (2012-2015). En cours d’évaluation. Membre invité pour le comité de sélection pour un poste MCF avec chaire CNRS, section 27, informatique au LaBRI (mai 2011)
Reviewer pour des conférences internationales (International Computer Music Conference, Sound and Music Computing, Mathematics and Computation in Music)
Reviewer pour des revues à comité de lecture (Journal of Mathematics and Music, Journal of New Music Research, Musimédiane, Advances in Complex Systems).
Membre fondateur et membre du comité éditorial du Journal of Mathematics and Music
Membre fondateur et vice-Président de la Society of Mathematics and Computation in Music.
Membre du conseil d’administration de la SFAM (Societé Française d’Analyse Musicale)
Membre de l’AFIM (Association Française d’Informatique Musicale) et de la SidAM (Société
Italienne d’Analyse Musicale).
Codirecteur (avec Jean-Michel Bardez) de la collection « Musique/Sciences » (Ircam-Delatour France)
Codirecteur (avec Guerino Mazzola) de la collection Computational Music Science chez Springer.

Gérard Assayag
Membre de comités de sélection académiques : CS de l’UPMC pour le recrutement d’un professeur en informatique, mai et octobre 2011, CS du CNSMDP pour le recrutement du Pr. d’acoustique musicale, janvier 2011
Membre de comités d’expert : CE du programme ANR CONTINT, 2010, 2011 ; CE pour l’évaluation du projet Integra Live, Programme Culture de la Commission Européenne, 2010-2011.
HDR : 2 fois examinateur, Thèses : 7 fois examinateur, 3 fois rapporteur.
Membre des conseils : conseil scientifique de l’UFR d’ingénierie de l’UPMC, bureau de l’ED130 EDITE, conseil de l’ED130 EDITE
Membre des sociétés savantes : Society for Mathematics and Computation in Music (SMCM, membre fondateur), Association Française d’Informatique Musicale (AFIM, membre fondateur, membre du CA), FWO Research Society on Foundations of Music Research
Membre de comités de rédaction : Journal of New Music Research (Taylor & Francis), Journal of Mathematics and Music (Taylor & Francis), Musimédiane (revue en ligne, comité scientifique)
Reviews (journaux) : JMM, JNMR, Constraints, CMJ, JBCS
Comités de programme : ICCC 2011, ICME 2010, SMC 2010, ISMIR 2010, ECAI 08, CIM08, CMMR08, LOMUS08, ICMC2007, 2012, SBCM2007
Conference (co-)Chair : ImproTech 2012, MCM2011, Symposium international sur la Complexité dans les arts et les sciences (Ircam 2009), IHM2007
Comités de pilotage : Sound and Music Computing Conference (SMC 2007-2012)

Jean-Louis Giavitto
Editeur en chef de Technique et Science Informatique (TSI)
Comité de direction du GDR GPL (coresponsable du pôle « Langages et vérifications »)
Conseil scientifique du LIFO (2011, 2012) ; conseil scientifique de l’ENSIIE (jusqu’en 2011)
Comité de suivi du programme DEFI de l’ANR (depuis 2009)
Membre extérieur du conseil de l’ED SITEVRY ; jury pour les bourses de l’ED EDITE (2011, 2012)
Expert du cluster scientifique Isle de la région Rhones-Alpes (jusqu’en 2011)
Comités de programmes : NICSO 2011 ; MeCBIC 2011, 2012 ; LIGC 2011 ; CS2Bio 2011 ; SCW 2011, 2012 ; MCM 2011 ; AFADL 2012 ; ICECCS 2011 ; IPCAT 2012 ; GECCO 2012 ; FHIES 2012
Thèses : 5 fois rapporteur, 4 fois examinateur ; HDR : 3 fois rapporteur, 2 fois examinateur
Co-responsable du réseau Clasyco du RNSC
Reviewers (journaux) : TCS, Natural Computing, Biosystems, TSI

Arshia Cont
Reviewers (journaux) : Computer Music Journal, IEEE Transactions on Audio and Speech, IEEE Transactions on Pattern Analysis and Machine Intelligence, IEEE Signal Processing Letters, EURASIP Journal of Audio and Speech.
Thèse : 3 fois examinateur.
Membre du jury du prix de thèse Gilles Kahn/Specif depuis 2010.

Equipe Analyse des pratiques musicales
Nicolas Donin
Membre de la rédaction de HYPERLINK "http://revuecircuit.ca/"Circuit. Musiques contemporaines (Presses de l’Université de Montréal) (2001-…).
Correspondant français de HYPERLINK "http://www.nutidamusik.se/"Nutida Musik (Stockholm, ISCM) (2005-2011).
Membre de la rédaction de HYPERLINK "http://www.musimediane.com/"Musimédiane. Revue audiovisuelle et multimédia d’analyse musicale (2006-…).
Conseiller musicologique de la base HYPERLINK "http://brahms.ircam.fr/"B.R.A.H.M.S. de l’Ircam (2007-…).
Membre du comité de rédaction de Genesis: Revue internationale de critique génétique (2010-…).
Membre du Comité scientifique des éditions Symétrie (Lyon), Responsable de la série 20-21 (collection Symétrie Recherche) depuis 2010
Membre du Conseil de Laboratoire de l’UMR STMS (2006-2008 ; 2011-2013).
Membre du Conseil d’Administration de la Société Française d’Analyse Musicale (2008-…).
Membre du Conseil pédagogique du Master de l’EHESS, spécialité Musique (2008-…). Dans ce cadre, tuteur de mémoires de Master1 et Master2
Expertises pour les revues Acta Musicologica, Circuit, Intermédialités, Filigrane, Musicae Scientiae.
- Expertises pour le comité scientifique des éditions Symétrie
- Expertises pour le Fonds Québécois de la Recherche sur la Société et la Culture, l’Agence Nationale de la Recherche, l’European Research Council.

Laurent Feneyrou
Membre de l’Association Jean Barraqué (depuis 2000).
Membre qualifié de la Fondation Salabert (depuis 2004).
Membre du Conseil d’administration des Amis d’André Boucourechliev (2005-2011).
Membre l’Académie Charles Cros (depuis 2005).
Membre du jury de la Bourse des Muses (depuis 2006).
Membre de l’association Messiaen 2008 (depuis 2007).
Membre du Conseil de laboratoire du STMS (2008-2011).
Membre du Conseil d’administration de L’Itinéraire (2008-2012).
Membre de la commission « Arts » du CNL (depuis 2010).
Membre du Comité d’expertise du CDMC (depuis 2011).
Participation à 2 jurys de thèse de doctorat en tant qu’examinateur

Jacques Theureau
Participation à 1 jury de thèse de doctorat en tant que rapporteur
Equipe Interactions musicales temps réel
Frédéric Bevilacqua
Steering committe of the New Interface for Musical Conferences, 2006-2011
Program Committee for the “Social Behavior in Music Workshop” organized in conjunction with the 2009 IEEE International Conference on Social Computing (SocialCom-09)
Scientific committee, 3rd International Conference on Music and Gesture, McGIll 2010
Technical Program Committee Sound and Music Computing conference 2011, 2012
Paper Program Committee: ICMC International Conference on Comptuter Music, 2012,
Technical Program Committee INTETAIN 2011, 4th International ICST Conference on Intelligent Technologies for Interactive Entertainment
Comité de lecture pour l’ANR et du Fonds national suisse (FNS) de la recherche scientifique
Comité de lecture pour les conferences NIME2008, ICMC2009, ICMC2011, SMC2012, ICMC2012, NIME 2012
Comité de lecture pour les revues Biological Cybernetics, IEEE Transactions on Multimedia, EURASIP Journal on Advances in Signal Processing, journal TSI (Technique et Science Informatiques)
Comité de lecture pour les résidences des compositeurs en recherche Ircam, 2009-2011

Diemo Schwarz
Paper Program Committee : ICMC 2009, 2012
Comité de lecture pour les revues Computer Music Journal, Journal of New Music Research, Elsevier Signal Processing, IEEE Transactions on Multimedia
Comité de lecture pour les conférences NIME 2011, 2012, ICMC 2007, 2010, 2011, DAFx 2007, 2008, 2011, SMC 2009, 2011, ISMIR 2011, UIST 2010, EUROGRAPHICS 2011, SIGGRAPH 2012, SIGGRAPH ASIA 2012
Comité de lecture pour les résidences des compositeurs en recherche Ircam, 2009-2011

Norbert Schnell
Steering committe of the New Interface for Musical Conferences, depuis 2006
Scientific Review Committee conference SMC 08
Comité de lecture pour des projets de l’ANR
Comité de lecture pour les conférences NIME, ICMC, DaFx, SMC
Comité de lecture pour les résidences des compositeurs en recherche Ircam, 2009-2011


Baptiste Caramiaux
Comité de lecture pour les conférence NIME2011, NIME2012, ICMC2012, SMC2012, f(MIR)2010
Comité de lecture pour la revue Pattern Recognition Letters (PRL) 2011
Comité de lecture pour les résidences des compositeurs en recherche Ircam, 2011

Sarah Fidili Alaoui
Comité de lecture pour cCHI 2012, NIME 2011 (New interfaces for musical expression), scientific commitee of the special issue on Art and computer sciences of the journal TSI (Technique et Science Informatiques).

Autres
Hugues Vinet
Membre (représentant élu des laboratoires publics) du comité de supervision du projet Quaero (depuis 2008) ;
Pôle de compétitivité Cap Digital : fondation, responsable adjoint de la commission technique « Image, son, interaction », puis « Contenus » (depuis la création du pôle) ; coordination et synthèse de l’expertise de plusieurs dizaines de projets FUI, Feder, ANR par an ; participation en tant que représentant des laboratoires aux auditions d’évaluation du Pôle (2012) ;
Membre extérieur (élu) de l’UFR 919 Ingénierie de l’Université Pierre et Marie Curie (jusqu’en 2012)
Membre du groupe de travail sur l’interdisciplinarité à l’AERES (janvier-juin 2011) ;
Membre du comité scientifique du projet Art-Science SINLAB, EPFL/La Manufacture, Lausanne, depuis 2011
Membre du comité scientifique du projet FUI Callisto-SARI (coordinateur : Bouygues Construction)
Membre du bureau du GRETSI (depuis 2006)
Vice Président Europe (élu) et Directeur régional (élu) de l’International Computer Music Association (depuis 2006)

Expertise pour le programme ANR CHIST-ERA From Data to New Knowledge (2012)
Expertises pour le programme ANR Contenus et interactions (2009-2010)
Expertise pour le Crédit Impôt Recherche (2009)
Evaluateur pour la Commission européenne, programme FET (2008)
Membre du Comité d’évaluation du programme ANR Contenus et interactions (2008)
Membre du Comité d’évaluation du programme ANR Audiovisuel et multimédia (2007)






Annexe : Collaborations scientifiques
Equipe Acoustique Instrumentale
LMA, Marseille, projet ANR Consonnes et Cagima
Laboratoire TMH du KTH de Stockholm (thèse M. Demoucron), 
IDML Laboratory, McGill University (thèse M. Demoucron)
LAM, UPMC (thèse de M. Demoucron)
LIST du CEA Saclay (thèse D. Roze)
Ecole des Mines (Projet Consonnes) 
LAUM et ITEMM, Le Mans (Projet PAFI)
ESEO d'Angers (Projet PAFI)
Télécom ParisTech (Projet PAFI)
Open University (projet IMAREV)
Ijrlda, UPMC (projet IMAREV, thèses T. Meurisse et S. Benacchio)
Dassault Systèmes (thèse F.A. Baugé)
 
Sociétés :
- Projet VoxStrument : sociétés Arturia et Voxler.
- Projet CAGIMA : société Buffet-Carmpon
- Société Genesis (aide à la conception de montres)
- Société Oxylane (aide à la conception de sonneries de bicyclettes).
- Société Dassault Systèmes (Thèse de F.A. Baugé).
Equipe Espaces acoustiques et cognitifs
Academy of Sciences Vienna, Acoustic Research Institute (ARI), Autriche
CNSMDP (Conservatoire Nal Sup de Musique de Paris), Paris
France Télécom R&D, OrangeLabs, Lannion
INRIA – Equipe Reves –, Sophia Antipolis
INSA, Lyon
IRISA, Rennes,
Hôpital Européen Georges Pompidou, Paris
Joanneum Research, Institute for Information and Communication Technologies, Graz, Austria
HUT, Helsinky, Finlande
KTH, Stockholm, Suède
Laboratoire d'Acoustique Musicale (UMR-CNRS), Université Paris VI, Paris
Laboratoire de Mécanique et d’Acoustique (LMA-CNRS), Marseille
Centre Emotion – CNRS USR 3246, Paris
LIMSI-CNRS, Orsay
SonicEmotion, Suisse
Sony-CSL, Paris
UGDIST, Université de Gênes, Italie
Université de Paris-Descartes
Université de Pise, Italie
Université de Southamption, Insitute of Sound and Vibration Research (ISVR), Angleterre
University of Music and Performing Arts, Institute of Electronic Music and Acoustics (IEM), Graz, Autriche
Unité de Neuropsychologie, département de Neurologie, Hopital Universitaire de Zurich, Suisse
xFace, Graz, Autriche
RWTH Aachen, Institut für Technische Akustik, Allemagne

Equipe Perception et design sonores
France Télécom R&D
Interaction Design Centre, Limerick.
Institut de Médecine Aérospatiale du Service de Santé des Armées, Paris.
Laboratoire de Mécanique et d'Acoustique (L.M.A), Marseille (UPR 7051)
Laboratoire d'Acoustique Musicale de l'Université Paris 6 (UMR 7604)
Laboratoire Cognition & Usages de l'Université Paris 8 (FRE 2627)
School of Creative Communication, Canberra.
The Vision, Image Processing & Sound (VIPS) laboratory, Vérone.
PETRA - Unité de Recherche Interdisciplinaire Octogone, Université Toulouse II - Le Mirail
Renault
SNCF
EDF
01dB
Barrass, S., Université de Canberra
Bresin, R., KTH, Stockholm
Brazil, E., Interaction Design Centre, Limerick
Fontana, F., Université de Verone
Franinovic, K., ZHDK, IAD Interaction Design, Zurich
Hermann T., Univ. Bielefeld
Hug, D. ZHDK, IAD Interaction Design, Zurich
Katz, B., LIMSI, Paris
McAdams, S., Giordano, B., McGill, CIRMMT
Meunier, S., LMA-CNRS, Marseille
Polotti, P., Univ. Verone, Italie
Purwins, H., Adiloglu, K., NIPG, UT, Berlin
Rath, M., Berlin University of Technology, Deutsche Telekom Laboratories, Quality and Usability Lab
Rochesso, D., Université IUAV, Venise
Equipe Analyse/ synthèse
Acoustic Research Institute (AUTRICHE)
As An Angell
Association E Voce di O Cumune
Association PILE
AudioGaming
Bel Canto Vocal Acoustics Laboratory, Université d'Alberta (CANADA)
BeTomorrow
Cantoche
CNAM
CNMAT-Université de Berkeley
Cyanide
DGA
Ecole des Mines de Paris
Ecole Polytechnique
EMI
Europ-Archive
Exalead
ExeQuo
Festivoce Pigna
Flying Eye (ALLEMAGNE)
France Télécom R&D / Orange
Fraunhofer HHI (ALLEMAGNE)
GdR ISIS
Haption
Ina-GRM
INIST
INRIA / Metiss
Institut Audiovisuel de l'Université Pompeu Fabra de Barcelone (ESPAGNE)
IRCCyN (Ecole Centrale de Nantes)
IRISA
IRIT
LAM Paris
LIMSI
LTCI CNRS-GET/Télécom Paris
MODYCO
NRIA/Alapage
NuHag, Université de Vienne (AUTRICHE)
Ondim
Orosys
Paris Dauphine
ParisTech
Signal Processing Lab, Cambridge (UK)
Sky-Deutschland (ALLEMAGNE)
Sony (JAPON)
Studio Chinkel
Technicolor
UMR8506 CNRS-LMA Marseille
UNIFI Florence (Italie)
Université Ben Gourion (Israël)
Université d'Anvers
Université de Huddersfield (GB)
Université de McGill (CANADA)
Université de Thessalonike (GRECE)
Université Paris X
Université Publique de Navarre, Pampelune
Université National Cheng Kung (TAIWAN)
Université Technique de Berlin (ALLEMAGNE)
University College Of London (ROYAUME-UNI)
UPF-Barcelone
Velti (GRECE)
Vocally
Voxler
Xtranormal (Canada)
Yacast
Equipe Représentations musicales
Music Dpt, CALIT2, UCSD, Shlomo Dubnov
Département Multimédia Université de Zurich, Guerino Mazzola
Dpt of Mathematics, Brock University, Chantal Buteau
Groupe MaMuth TU Berlin, Thomas Noll
GREYC Université de Caen, Marc Chemillier
Labo d’Ethnomusicologie du Musée de l’Homme Marc Chemillier
Dept d’Informatique Université Javeriana de Cali, Camilo Rueda
Lip6, Université Paris VI, Emmanuel St James, Philippe Codognet
SFAM, Jean-Michel Bardez, André Riotte
CEA- Saclay : Franck Jedrzejewski
CNSM, Marco Stroppa, Frédéric Durieux
Département de Mathématique université de Bucarest, Dan Tudor Vuza.
Département de mathématiques, université de Crète, Mihalis Kolountzakis
Dept Musicologie, Columbia University, Elaine Freitas, Tristan Murail, Francisco Iovino
Dept Musicologie, Harvard University, Joshua Fineberg
Dept mathématique Université de  Graz, Harald Fripertinger
Dept Musicologie, Université de Lisbonne, Benoît Gibson
Centre de Mathématique Appliquée Lisbonne, Francisco Rodrigues
Equipe Combinatoire et optimisation, université Paris 6 : Jean-Paul Allouche
IPEM, Université de Ghent, Marc Leman
LACL, université Paris 12 : Olivier Michel et Antoine Spicher
L.E.A.D. - C.N.R.S. UMR 5022  Université de Bourgogne, Emmanuel Bigand
Dept Musicologie Université Marc Bloch, Strasbourg, Georges Bloch
Dept Musicologie Université Marc Bloch, Strasbourg, Xavier Ascher
Compagnie Lubat, Bernard Lubat, Loïc Lachaise
LINA, Université de nantes, Charlotte Truchet
Dept de Musicologie, Université de Jyvaskyla, Olivier Lartillot, Petri Toiviainen
CAMS-EHESS : Marc Chemillier, Jean Petitot
CIRMMT, McGill University, Stephen McAdams, Marlon Schumacher, Jon Wild, Christoph Neidhofer
CNMAT, UC Berkeley, Nils Peters
IDEAT, Sorbonne : Hugues Dufourt, Jean-Marc Chouvel
Institut Pasteur, Catherine Letondal
Institut de Mathématiques de Jussieu / Université Paris 7 Denis Diderot : René Guitart
MINT, Université Paris IV, Marc battier
In-Situ, INRIA, Wendy Mackay
IRMA (Institut de Recherche Mathématique Avancée) : Athanase Papadopoulos
LRI, Université Paris-Sud, HYPERLINK "http://insitu.lri.fr/~mbl/"Michel Beaudouin-Lafon
La Kitchen, Thierry Codhuys
Atelier des Feuillantines, Fabrice Guédy
ENS, Département d’informatique : Marc Pouzet, Louis Mandel, Giuseppe Longo
ENS, Laboratoire Pensée des Sciences : Charles Alunni
Grame, Lyon, Yann Orlarey, Dominique Fober, Stéphane Letz
LaBRI, Bordeaux
Université d’Alicante, Espagne (LSI, GRFIA, CM Lab) José Manuel Iñesta, Carlos Pérez Sancho, David Rizo, Perdo Ponce de Leon
Université de Picardie-Jules Verne : Andrée C. Ehresmann (professeur émérite)
Université de Pise, Italie : Fabrizio Broglia, Francesca Acquistapace
Université de Washington à Seattle : John Rahn (rédacteur en chef revue Perspectives of New Music)
LACL, Université de Créteil : Olivier Michel et Antoine Spicher
IBISC, Université d’Evry : Franck Delaplace, Hanna Klaudel
IRISA : Thierry Priol, Cédric Tedeschi
INRIA Rhones-Alpe : Pascal Fradet
LRI, Université de pars Sud : Frédéric Gruau
Université de York (UK) : Susan Stepney
Université de Malaga (Espagne) : René Doursat
Institut des Système Complexe (ISC-PIF) : Taras Kowalik, Romain Rouillon
Université de Paris 1, Géographie Cité : Denise Pumain, Sébastien Rey
MIT & BBN (US) : Jake Beal
TU Delf (Hollande) : S. Dullman
LIENS, Ecole Normale : Marc Pouzet
Queen Mary University : Elaine Chew
Institut des Systèmes Complexe Paris Ile-de-France : Arnaud Banos, Romain Rouillon, Paul Bourgine
THALES RESEARCH
LIX, École Polytechnique
Equipe Analyse des pratiques musicales
Centre Canadien d’Etudes Allemandes et Européennes, Université de Montréal / Philippe Despoix
Centre de Recherches sur les Arts et le Langage, EHESS/CNRS / Esteban Buch
Conservatoire de Genève/Haute Ecole de musique / Rémy Campos
Conservatoire National Supérieur de Musique de Paris / Rémy Campos
CMPCP (AHRC Research Centre for Musical Performance as Creative Practice), Université Royal Holloway, Londres / John Rink
EDF R&D / Yvon Haradji, Geneviève Filippi
Groupe Ergonomie cognitive & IHM, Renault R&D / Thérèse Villame
Groupe de recherches musicales INA-GRM / Patrick Courounet, François Delalande, Dominique Saint-Martin
Groupe de Sociologie Morale et Politique, EHESS/CNRS / Frédéric Keck
Institut des Textes et Manuscrits Modernes, ENS/CNRS / Pierre-Marc de Biasi, Almuth Grésillon, Jean-Louis Lebrave
Kelis & Université de Technologie de Compiègne / Thomas Bottini, Stéphane Crozat, Sylvain Spinelli
Laboratoire Musique et Informatique de Marseille / Marcel Formosa, Marcel Frémiot
Institut de Recherche en Informatique de Toulouse / Pascal Salembier
Laboratoire d’Ethnomusicologie du Musée de l’Homme / Marc Chemillier, Christine Guillebaud, Bernard Lortat-Jacob, Dana Rappoport
Observatoire International de la Création Musicale, Université de Montréal / Michel Duchesneau
Psychomuse, Université de Paris-X Nanterre / Maya Gratier
Sony Eutec / Taufan Zimmer
TechCICO, Université de Technologie de Troyes / Pascal Salembier
Département Pédagogie, département Musicologie, Conservatoire National Supérieur de Musique et de Danse de Paris / Emmanuel Ducreux, Rémy Campos
Faculté de Musique, Université des Arts de Belgrade / Tatjana Markovic
Département musique, humanités et médias, Université de Huddersfield / Michael Clarke
Département des relations industrielles, Université de Laval / Fernande Lamonde
Département de musicologie, Universite de Lille-3 / Vincent Tiffon
Département de musique, Université de Montréal / Jean-Jacques Nattiez
Département de musique et musicologie, Université de Reims / Jean-Marc Chouvel
Département de musique, Université de Victoria (BC, Canada) / Jonathan Goldman
Equipe Interactions musicales temps réel
Grame, centre national de création musicale - Lyon – France
Università degli Studi di Genova - DIST - Casa Paganini - InfoMus Lab, Italy (coordinator)
Nokia Research Center, Finland
Kungliga Tekniska Högskolan - KTH, Sweden
Pompeu Fabra University, Spain
Helsinki University of Technology - TKK, Department of Signal Processing and Acoustics, Finland
Université catholique de Louvain (UCL)
University of California San Diego (UCSD)
Université McGill (Montréal),
CNMAT (Université de Berkeley),
Goldsmiths University of London (Londres, Royaume-Uni)
Columbia University, USA
University of Oslo, Norway
BEK, Bergen Center for Electronic Arts, Bergen, Norway
Université Technique Berlin,
IEM - Institut für Elektronische Musik und Akustik, Graz,
ENSCI (Paris),
ENSAD, Paris
LIMSI (Université Paris-Sud),
Université Paris 8, Laboratoire d'Informatique Avancée de Saint-Denis
STEIM, NL,
Atelier les Feuillantines, Paris
Compagnie Emio Greco & Peter Scholten (Amsterdam)
Association PuceMuse (Rungis, France)
Da Fact,
Voxler,
No Design
PSA
Univers Sons/Ultimate Sound Bank,
Arturia
Cycling'74,
Orbe
UserStudio Navidis
Phonotonic SAS

 HYPERLINK "http://www.ircam.fr/65.html"http://www.ircam.fr/65.html
 HYPERLINK "http://www.industrie.gouv.fr/tc2015/"http://www.industrie.gouv.fr/tc2015/
 HYPERLINK "http://www.dailymotion.com/Ircam-CGP"http://www.dailymotion.com/Ircam-CGP
 HYPERLINK "http://www.ircam.fr/uploads/media/Brochure_RD_2012.pdf"http://www.ircam.fr/uploads/media/Brochure_RD_2012.pdf
 HYPERLINK "ftp://ftp.ircam.fr/private/direction/hv/SemanticHIFI/SHF_D1.2.4_WithVideos.pdf"ftp://ftp.ircam.fr/private/direction/hv/DossierPresseSTMS2007-sept2012.pdf (57 Mo)
 HYPERLINK "http://pasillo.renater.fr/weathermap/weathermap_idf.html"http://pasillo.renater.fr/weathermap/weathermap_idf.html

 Rowe, E.J., Rowe, W.G., Stimulus suffix effects with speech and nonspeech sounds. Memory and Cognition, 1976, 4, 128-131.
 De Gelder, B., Vroomer, J., Modality Effects in Immediate Recall of Verbal and Non-Verbal Information, European Journ. of Gognitive Psychology, 1997, 9 (1), 97-110
 HYPERLINK "http://www.soundobject.org/SDT/"www.soundobject.org/SDT
 Tagg P., Teoria degli affetti”, Analyzing popular music: theory, method and pratice, Popular Music, no. 2, pp 37-67, 1982.
 HYPERLINK "http://recherche.ircam.fr/anasyn/helie/Brasstronics/"http://recherche.ircam.fr/anasyn/helie/Brasstronics/
HYPERLINK "http://repmus.ircam.fr/antescofo/repertoire"http://repmus.ircam.fr/antescofo/repertoire
 HYPERLINK "http://repmus.ircam.fr/antescofo/events"http://repmus.ircam.fr/antescofo/events
 HYPERLINK "http://tcpm2011.meshs.fr/"http://tcpm2011.meshs.fr/
 HYPERLINK "http://www.ircam.fr/images_d_une_oeuvre.html"http://www.ircam.fr/images_d_une_oeuvre.html
 HYPERLINK "http://ressources.ircam.fr"http://ressources.ircam.fr
 HYPERLINK "http://www.musiquecontemporaine.fr/"http://www.musiquecontemporaine.fr/
 HYPERLINK "http://www.ircam.fr/equipes.html"http://www.ircam.fr/equipes.html
 La ville de Paris et ses départements limitrophes sont considérés comme une seule et même résidence administrative)

 http://www.ircam.fr/65.html
 http://www.ircam.fr/recherche-musicale.html
 On pourra aussi se référer à l’article suivant : A. Cont, A. Gerzso.  «  HYPERLINK "http://articles.ircam.fr/textes/Cont10a/index.pdf" \t "_blank" The C in IRCAM : Coordinating Musical Research at IRCAM », International Computer Music Conference, New York, 2010
 HYPERLINK "http://repmus.ircam.fr/antescofo/repertoire"http://repmus.ircam.fr/antescofo/repertoire
 HYPERLINK "http://repmus.ircam.fr/antescofo/events"http://repmus.ircam.fr/antescofo/events
 http://forumnet.ircam.fr
 http://www.cycling74.com/
http://resolution.nodecube.net/products/pdfs/Resolution-Special-Supplements/Resolution%20Awards%20Winners%202011.pdf
 HYPERLINK "http://computermusic.org"http://computermusic.org









Unité mixte de recherche STMS Ircam-CNRS-UPMC


 PAGE 246

UMR 9912 STMS - Rapport scientifique – auto-évaluation – 2007-2012

 PAGE 57

Projet 2007-2010