Nicolas OBIN is associate professor at the Faculty of Science and Engineering of Sorbonne University and a research scientist in the sound analysis and synthesis team from the Science and Technology of Music and Sound laboratory (Ircam, CNRS, Sorbonne University). I hold a PhD thesis in computer science and telecommunications on the modeling of speech prosody and speech style for text-to-speech synthesis (2011), for which I obtained the prize for the best PhD thesis from La Fondation Des Treilles in 2011. Fascinated by sound, waves, vibrations and by the theory of information and communication, I have developed over the years a keen interest in the study and modeling behavior and communication between humans, animals and robots. My research activities cover audio signal processing, artificial intelligence, and statistical modeling of sound signals with a specialization in speech processing and human communication. My main area of research is structured generative modeling of complex human productions such as speech, singing and music with various applications in speech synthesis and transformation, multimodal virtual agent animation and humanoid robotics, and deep fakes. Lately I initiated activities in the fields of bioacoustics and sound ecology. I am the author of 50+ publications in international conferences or journals and I participate in numerous academic and industrial collaborative research projects. I am a member of the GdR TAL and the French Voice Lab initiative for the promotion of the French language and digital sovereignty in voice technologies.
I am responsible at Sorbonne University for the Master's degree in Engineering of Intelligent Systems (ISI) in which I teach digital audio signal processing, deep learning, and biometrics. I am co-responsible for Deep Learning by Practice professional training delivered by Sorbonne University, I regularly give conferences and interviews for prestigious French schools, institutions, and medias (Collège de France, Ecole Normale Supérieure, Science Po, CNIL, Les Napoléons, Le Monde, Télérama, TF1, France Culture, France 5, Arte). I am the founder of DeepVoice, Paris (since 2020) the annual Parisian event on voice technologies and artificial intelligence, SophIA (2021): the student association of Sorbonne University for Artificial Intelligence in collaboration with the Sorbonne Center for Artificial Intelligence (SCAI), and Fast-Forward (2022) the informal and experimental meetings of science and technology and sound design in cinema.
As part of my artistic commitment to Ircam, I a actively promoting digital science and technology for arts, culture, and heritage, and collaborated with renowned musicians and artists, such as: Eric Rohmer, Philippe Parreno, Roman Polansky, Leos Carrax, George Aperghis, and Alexander Schubert.
[ 2022 ] Anima, par l'artiste Alexander Schubert, Festival Manifeste, Centre-Pompidou.
[ 2021 ] Annette, film du réalisateur Léos Carax, avec le sound designer Erwan Kerzanet
[ 2019 ]Lullaby experience, par le compositeur Pascal Dusapin, Frankfurter Positionen festival (Frankfurt) et Théâtre 104 (Paris).
[ 2018 ]Les guerriers de l'ombre, documentaire réalisé par Frédéric Schoendoerffer, Canal+. Anonymisation réaliste de voix d'agents secrets.
[ 2014-2015 ]Pourquoi j'ai pas mangé mon père, film de Jamel Debbouze. Recréation de la voix de Louis de Funès par la technologie de conversion d'identité de la voix
[ 2014-2015 ]Juger Pétain, films documentaires de Richard Saada, Planète, France 5. Recréation de la voix du maréchal Pétain et de protagonistes de son procès par la technologie de conversion d'identité de la voix
[ 2013 ]Aliados, opéra composé par Sebastian Rivas, Ircam Manifeste festival.
[ 2012-2013 ]Marilyn, film de Philippe Parreno, Fondation Beyeler (2012) et Palais de Tokyo (2013) avec le sound designer Nicolas Becker. Recréation de la voix de Marilyn Monroe par la technologie de conversion d'identité de la voix
[ 2011 ]Luna Park, théâtre musical composé par Georges Aperghis, festival Agora (Paris).
[ 2010 ]Escort Girl, première partie du cycle de documentaires "L'Europe judiciaire" réalisé par Olivier Ballande, Maha Productions, France Télévision. Anonymisation réaliste de voix de protagonistes impliqués dans des enquêtes judiciaires.
[ 2009 ]Hypermusic Prologue, opéra du compositeur Hector Parra, festival Agora (Paris).
Communication
Here is a selection of my main public interventions
Voix artificielle et sound design : concepts, pratiques, enjeux (avec N. Misdariis, de l'équipe Perception et Design Sonore, Ircam), HyperVoix : enjeux de conception des interfaces conversationnelles, Journée d'étude organisée par la Fing, Le Square, Paris, 15 avril 2019.
AI and creativity: can AI be creative?, Changing IP in Changing Europe, Trilateral Seminar of the French, German and Polish Groups of AIPPI, Paris, France, 05 avril 2019.
Soutenance d'habilitation à diriger des recherches
Nicolas Obin soutient son Habilitation à Diriger des Recherches (HDR) le 12 septembre 2023 à 14h - "De la représentation du signal à l’apprentissage de représentations : modélisation structurée de signaux de parole »
Composition du jury
• M. Thomas HUEBER, Directeur de recherche CNRS, GIPSA lab, Rapporteur • M. Emmanuel VINCENT, Directeur de recherche INRIA, MultiSpeech, Rapporteur • M. Bjorn SCHULLER, Professeur, Imperial College London, Rapporteur • M. Gérard BIAU, Professeur, Sorbonne Université, Examinateur • M. Jean-François BONASTRE, Directeur de Recherche INRIA, Défense et Sécurité, Examinateur • Mme Catherine PELACHAUD, Directrice de recherche CNRS, ISIR, Examinatrice • M. Axel ROEBEL, Directeur de recherche, IRCAM, Examinateur • Mme Isabel TRANCOSO, Professeure, INESC - Université de Lisbonne, Examinatrice • Mr Nicolas BECKER, Designer sonore et artiste, Membre Invité
Résumé Cette habilitation présente mes dix dernières années de recherche sur la modélisation structurée de signaux de parole. La parole, en tant que langage oral, constitue le système de communication le plus élaboré observé à ce jour, caractérisée par une multidimensionnalité à la fois temporelle, paramétrique, et factorielle. Son étude mobilise de nombreux domaines scientifiques tels que le traitement du signal et de l'information, l’apprentissage machine, la linguistique, la psychologie, la sociologie ou l’anthropologie. Outre ses fonctions linguistiques, la parole révèle un grand nombre d'informations sur un individu, de nature biométrique (identité), physiologique (genre/âge, poids/taille, santé, etc...), psychologique (état émotionnel, attitude sociale, personnalité, etc...), stylistique (adaptation à l'audience et au canal de communication), et culturelle (origines géographiques, statut socioprofessionnel). Le problème principal de la modélisation de signaux de parole est que les facteurs de variabilité ne sont pas accessibles directement à l'observation mais sont intriqués de manière complexe et ambiguë dans le signal de parole. L'enjeu du traitement automatique de la parole consiste donc à pouvoir identifier et démêler les facteurs de variabilité dans les signaux de parole, en particulier par l'observation statistique de régularités sur des bases de données.
Ma recherche s'est concentrée sur le problème de l'identification et de la modélisation des facteurs de variabilité liés à la stylistique et à l'expressivité de la communication parlée. J'ai en particulier exploré l'utilisation de l'apprentissage machine pour analyser, modéliser et générer des signaux de parole. L’enjeu principal de ma recherche est de résoudre, par apprentissage à partir d'un nombre limité de données, les ambiguïtés dans le signal de parole, en apprenant de manière structurée les représentations encodant de manière différenciée les informations associés aux facteurs de variabilité considérés (comme l'identité, le style, ou l'expressivité). Cette recherche s'articule autour de trois axes principaux : 1) la cognition, et les représentations mentales de la voix humaine et de leur similarité ; 2) la perception, et la capacité de l'être humain à séparer et localiser des sources sonores ; et enfin 3) la génération, ou comment créer ou manipuler l'identité ou l'expressivité de voix humaines réelles ou artificielles. J’exposerai la transition d'un paradigme signal à un paradigme apprentissage : ce phénomène s’est manifesté dans le domaine de la synthèse de la parole par une évolution en trois temps, depuis la synthèse par sélection d'unités, à la modélisation statistique multi-paramétrique, et à la génération neuronale à partir de représentations compressées et incomplètes. Ce changement de paradigme s'explique par les limitations des modèles de signaux traditionnels pour l'analyse et la synthèse de la parole — en particulier expressive ; et par la limitation historique liée à la dualité du modèle de signal et du modèle d'apprentissage en séparant les modèles de représentation des modèles d’apprentissage. L'apparition des réseaux de neurones profond a permis de dépasser cette dualité en apprenant les représentations au cours de l’apprentissage.
La question des données est primordiale et conditionne l'ensemble des problèmes de l'apprentissage. A une extrémité du spectre, l'abondance des données contrebalance le manque de spécification de connaissances humaines dans les modèles d'apprentissage ; à l'autre extrémité du spectre, certains modèles — par exemple, physique — sont entièrement spécifiés par la connaissance humaine et n'ont pas besoin de données pour l'apprentissage. Entre ces deux pôles, il existe un intermédiaire entre la spécification de connaissances humaines et l'apprentissage machine à partir de données. Les conclusions principales de ma recherche soutiennent l’idée d’une nécessaire coopération entre les deux pôles de la connaissance humaine et de l’apprentissage machine, notamment par la formulation de modèles d’apprentissage structurés à partir de connaissances humaines. En l’occurrence, si la génération de la parole a désormais résolu en grande partie les problèmes de l’intelligibilité et de la naturalité, la parole résiste encore à la connaissance humaine et aux machines et de nouveaux défis s’ouvrent pour la recherche. Les problèmes des fonctions expressives et esthétique de la parole — et par prolongement naturel de l’interprétation —, de la multimodalité parole-geste des comportements humains, de la modélisation de la communication verbale et non verbale, située et en contexte, et plus largement des modèles d’apprentissages économes en ressources matérielle comme algorithmique, et respectueux des données personnelles sont autant de nouvelles voies à explorer.
Cette habilitation sera accompagnée de nombreuses illustrations sonores issues de ma recherche et de ses applications créatives et artistiques.
Deep Voice, Paris
Deep Voice, Paris est l’événement parisien dédié à la voix et à l’intelligence artificielle dont l’objectif est de réunir expertises scientifique et technique, innovation et entrepreneuriat.
Des ateliers techniques - “hands-on” - seront proposés aux participants pour développer leurs compétences dans les domaines du traitement de la parole et du langage naturel.
Des moments de rencontres et de réseautage en fin de journée faciliteront les rencontres et l’échange entre les participants en toute décontraction.
Deep Voice est un événement co-organisé par l’Ircam, Sorbonne Université, et SCAI dans le cadre du festival ManiFeste 2022.
L'Hôtel du Temps (2022)
Recréation de la voix de Dalida avec de l'intelligence artificielle pour la nouvelle émission de Thierry Ardisson "L'Hôtel du Temps"
Deepfake : le vrai du faux d'une technologie révolutionnaire
Le Meilleur des Mondes, France Culture, 13 Mai 2022
Animé par François Saltiel
Assistants, robots affectifs et réalité virtuelle | Deep Voice, Paris 2021
Comment la simulation des émotions va-t-elle modifier notre rapport affectif aux machines et notre immersion dans un monde social artificiel ?
Une table-ronde organisée par le Sorbonne Center for Artificial Intelligence (SCAI) et l'Ircam, animée par Nicolas Obin, chercheur à l'Ircam.
En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour nous permettre de mesurer l'audience, et pour vous permettre de partager du contenu via les boutons de partage de réseaux sociaux. En savoir plus.