Les sons pour le soin

Conférence professionnelle de l’axe Son/Musique et Santé du laboratoire STMS

  • Recherche
  • Séminaires

L’axe Son/Musique et Santé du laboratoire STMS organise une deuxième journée annuelle autour de ses projets de recherche. Cet axe regroupe les actions du laboratoire s’intéressant au son pour la prévention et la promotion de la santé et du mieux-être, pour les interventions dans la prise en charge du patient, et aux mécanismes de la perception de la musique et du son chez l’homme.

Ses objectifs sont de mutualiser les efforts pour accroître l’efficacité, la visibilité et la légitimité des actions (notamment par des collaborations médicales), et d’élargir le champ d’application des recherches.

Cette journée propose la présentation de projets par des binômes ou trinômes, formés par un ou deux chercheurs dans le domaine de la santé et un chercheur dans le domaine du traitement du signal, informatique et musique. Les projets aborderont les thèmes de la sonification et des troubles moteurs, de la perception sonore atypique dans l'autisme, des pertes auditives cachées, de la saillance auditive des scènes sonores chez les malentendants, et de l'espace péripersonnel et des déficits auditifs.

Programme

 10h | Introduction

avec Isabelle Viaud-Delmon, chercheuse CNRS, équipe Espaces acoustiques et cognitifs du laboratoire STMS

 10h15 | Transformer la perception du corps par le son, le mouvement et la marche : Approches neuroscientifiques, Interfaces Homme Machine, et IA, appliquées à la santé

avec Ana Tajaduria-Jimenez, professeure associée, i_mBODY Lab à l'Université Carlos III de Madrid (Espagne) et chercheuse honoraire, Interaction Centre de l'Université College London  (Royaume-Uni)

La perception du corps est essentielle au fonctionnement moteur, social et émotionnel, ainsi qu’à la santé, et elle est continuellement façonnée par l’information sensorimotrice. S’appuyant sur les neurosciences, les IHM et l’IA, notre laboratoire étudie les expériences de transformation du corps — des illusions perceptives de transformation corporelle induites par des rétroactions sensorielles. Cette présentation exposera nos travaux montrant comment une rétroaction sonore pendant la marche peut remodeler la perception corporelle et influencer l’émotion, le comportement et l’identité. Je présenterai des exemples illustrant la manière dont nos technologies sonores centrées sur le corps peuvent venir en soutien de la santé, tant dans des environnements contrôlés que dans des contextes réels, tout en constituant des outils pour étudier les influences multisensorielles sur la perception du corps. Notre objectif est de développer un cadre pour une manipulation sensorielle individualisée et durable de la perception corporelle, fondé sur quatre piliers : les neurosciences multisensorielles, la modélisation basée sur l’IA, la conception d’interactions portables et des études de terrain. Enfin, j’identifierai les défis et les perspectives qui se dessinent dans ce domaine de recherche.

 10h45 | Contributions multisensorielles au développement locomoteur

avec Yury Ivanenko, directeur du Laboratoire d'analyse de la marche, Fondation Santa Lucia IRCCS à Rome (Italie)

Le développement de la locomotion humaine repose sur l’émergence précoce de générateurs de rythme et sur l’intégration progressive d’informations multisensorielles. Les signaux visuels, somatosensoriels, vestibulaires et auditifs façonnent conjointement le contrôle postural et la maturation des schémas de marche. Ma présentation va se focaliser sur les caractéristiques motrices de base de la génération de structures temporelles. Cependant dès la période périnatale, les nourrissons sont exposés à un riche environnement acoustique rythmique qui entraîne leur tempo moteur spontané et favorise l’émergence de rythmes locomoteurs coordonnés. À mesure que les circuits de la marche mûrissent, le retour sensoriel ajuste les synergies musculaires et le contrôle adaptatif. Les stimuli auditifs fournissent des prédictions spatiales et temporelles qui stabilisent le mouvement, tandis que la locomotion elle-même module le traitement cortical auditif, révélant un couplage bidirectionnel. Comprendre ces interactions offre un éclairage sur la maturation locomotrice et peut guider le développement de stratégies sensorielles pour améliorer la marche et la rééducation.

Discussion

 11h35 | Rôle de la perception auditive atypique dans le bien-être d’enfants autistes avec déficience intellectuelle

avec Pierre-Luc Bossé, directeur du Pôle d’appui aux projets de vie et à l’innovation à  la Fondation John BOST, Pierre Cornaggia, coordinateur des pratiques psychoéducatives – Expert TND et situations complexes à la Fondation John BOST, et Valentin Bauer, post-doctorant, équipe Espaces acoustiques et cognitifs du laboratoire STMS

Les enfants autistes peu ou non verbaux avec déficience intellectuelle présentent souvent une perception auditive atypique, rendant certains sons aversifs et d’autres plaisants, avec un impact important sur leur fonctionnement quotidien et les accompagnements possibles. Les protections auditives offrent un apaisement ponctuel mais peuvent renforcer, à long terme et en leur absence, les problèmes de surstimulation et de phonophobie. Certaines méthodes d’évaluation existent, reposant sur des hétéro-questionnaires ou une évaluation de la valence avec des smileys, mais restent peu adaptées à ces populations. Pour pallier ces limites, nous avons conçu une méthode comportementale reposant sur des sons approchants en réalité augmentée audio. Ces sons sont sélectionnés avant la séance pour chaque enfant par deux professionnels de santé parmi un corpus de sons familiers conçus avec une démarche participative. Une étude multicentrique est en cours pour évaluer la validité de cette méthode.

Pause déjeuner

 13h45 | Combler le fossé entre le laboratoire et la clinique : des modèles animaux et de la recherche chez l’humain aux diagnostics cliniques de la synaptopathie cochléaire

avec Fabrice Giraudet, maître de conférences des universités, équipe de Biophysique (UMR INSERM 1107, Faculté de Médecine de Clermont-Ferrand, Université Clermont Auvergne) et Emmanuel Ponsot, chercheur CNRS, équipe Perception et design sonores du laboratoire STMS

La synaptopathie cochléaire, ou “perte auditive cachée”, constitue un défi majeur pour les sciences de l’audition. Cette pathologie, caractérisée par la perte de synapses entre les cellules ciliées internes et les fibres du nerf auditif, n’affecte pas les seuils audiométriques tonals et demeure donc indétectable par l’audiométrie standard. Cette présentation prendra la forme d’une discussion interactive entre deux chercheurs — l’un spécialisé en neurosciences auditives humaines et l’autre en modèles animaux, également audioprothésiste — autour des méthodes visant à évaluer la synaptopathie cochléaire chez l’homme. Nous passerons brièvement en revue les découvertes fondamentales réalisées chez l’animal qui ont mis en évidence cette pathologie, puis nous présenterons l’état actuel des connaissances sur ses effets perturbateurs sur le codage neural au sein du système auditif. La présentation examinera ensuite les approches neurophysiologiques actuelles (par ex. ABR, MEMR, EFR), employées à la fois en recherche animale et humaine, afin d’identifier des biomarqueurs sensibles. Un enjeu central que nous aborderons concerne la difficulté à quantifier l’impact de la synaptopathie sur la perception auditive, en particulier sa contribution aux déficits de compréhension de la parole dans des environnements d’écoute difficile. Nous conclurons en soulignant que l’avenir des soins auditifs dépend du développement et de la transposition clinique de nouveaux outils diagnostiques capables d’évaluer les déficits auditifs supraliminaires, tels que la synaptopathie cochléaire, ouvrant ainsi la voie à une intervention précoce et à des stratégies de prise en charge personnalisées.

 14h40 | Sources possibles de saillance anormale chez les personnes malentendantes équipées d'aides auditives

avec Paul Avan, directeur du Centre de Recherche et d'Innovation  en Audiologie Humaine, Institut Pasteur, IHU reConnect, et Armand Schwarz, doctorant au sein de l'équipe Perception et design sonores du laboratoire STMS et de l'Institut Pasteur, IHU reConnect

Les auditeurs malentendants signalent souvent que certains sons du quotidien (bruits de cuisine, véhicules, etc.) deviennent anormalement intrusifs lorsqu’ils utilisent des aides auditives. Les audioprothésistes tentent de répondre à ces plaintes en supposant qu’elles proviennent principalement d’une intensité excessive, liée à la perte de compression cochléaire physiologique associée à la plupart des types de surdité. La combinaison de la perte auditive et de l’hyperacousie est parfois évoquée, d’autant plus que, faute de vocabulaire, les patients décrivent souvent les sons inconfortables comme étant trop forts. Nous proposons que cette plainte découle d’une saillance anormale associée à ces sons. La saillance auditive est définie comme un processus bottom-up qui dirige l’attention vers des sons spécifiques au sein d’une scène acoustique complexe, grâce aux propriétés physiques des stimuli. Nous avons cherché à identifier certaines dimensions physiques du son qui, à travers l’aide auditive et la perte auditive, pourraient engendrer une différence perceptuelle plus marquée. Pour cela, nous avons étudié deux contributeurs périphériques potentiels à ce phénomène : les distorsions de la croissance de la sonie (en mesurant les fonctions de sonie de différents sons complexes particuliers) et la perception du timbre (en réalisant une analyse multidimensionnelle de stimuli synthétiques complexes).

 15h35 | Expériences multisensorielles pour tous : ce qu'un smartphone peut amener aux soins auditifs et aux études expériementales

avec Elisa Taffoureau, audioprothésiste diplômée d'État et doctorante à l'École normale supérieure  et Ulysse Roussel, doctorant au sein de l'équipe Espaces acoustiques et cognitifs du laboratoire STMS

Cette présentation explore comment les smartphones peuvent permettre des expériences multisensorielles précises, évolutives et accessibles en dehors des laboratoires, dans des environnements plus écologiques. En nous appuyant sur notre étude démontrant la précision milliseconde des mesures du temps de réaction à des stimuli audio-tactiles sur des appareils Android, nous montrons comment les smartphones peuvent être évalués pour devenir des outils fiables pour étudier la perception, l'attention et l'intégration multi-sensorielle. Au-delà de la recherche, ces outils ouvrent de nouvelles possibilités, notamment pour les pratiques audiologiques. Ils pourraient permettre aux cliniciens, grâce à une collecte des données de patients dans leur environnement réel, de mieux comprendre les profils individuels et s’y adapter pour les réglages des appareils auditifs. Ces outils pourraient ouvrir la voie à de futurs systèmes de confort sonore personnalisés, fondés sur des données continues et centrées sur l’utilisateur.

Conclusion

Café de clôture

Organisation

Equipes Interaction son musique mouvement, Perception et design sonores, et.   Espaces acoustiques et cognitifs du laboratoire STMS (Ircam, Sorbonne Université, CNRS, Ministère de la culture)

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour nous permettre de mesurer l'audience, et pour vous permettre de partager du contenu via les boutons de partage de réseaux sociaux. En savoir plus.