Warning: Undefined variable $default_menu_align in /homepages/12/d799818799/htdocs/wordpress/wp-content/themes/empowerwp-pro/pro/inc/header-options/navigation-options/nav-bar.php on line 1349

Les aides auditives : demain, après-demain

La question de l’assistance et/ou du « remplacement » du professionnel de santé par des robots se pose également pour les audioprothésistes, les aides auditives étant de plus en plus perfectionnées – voire de plus en plus « autonomes ».

Dans leurs recherches, les fabricants se concentrent sur le confort d’écoute et la compréhension dans le bruit, « grâce à de nouveaux algorithmes, de nouvelles fonctionnalités », explique Mikael Ménard, docteur en acoustique chez Signia. « Les études MarkeTrak, qui portent sur les attentes des patients malentendants, montrent que nous sommes bons en termes de discrétion, de confort dans le calme, mais qu’on peut encore faire mieux en termes de compréhension dans le bruit. »

 

Intention d’écoute

Sur ce sujet, Christophe Micheyl, directeur européen de la Recherche Starkey France explique que plusieurs équipes de chercheurs travaillent déjà sur la possibilité de « guider les aides auditives à partir de signaux biophysiques. Cela pouvait paraître de la science-fiction il y a quelques années, mais une équipe a montré qu’on peut identifier, dans une conversation, la personne que l’on souhaite écouter, sur la base du signal Electro-encéphalographique (EEG). C’est ce que nous appelons le concept du Bio-guidage des aides auditives. Selon son « intention d’écoute », une personne bien-entendante peut se concentrer sur une source sonore particulière dans un environnement bruyant. Pour les mal-entendants, ceci pose plus de difficultés. Les aides auditives actuelles sont équipées de microphones et d’algorithmes directionnels, qui permettent de renforcer les sons qui viennent de devant l’auditeur. Mais ces algorithmes sont « aveugles » quant aux intentions d’écoute de l’utilisateur. Même s’il reste encore de nombreux obstacles à surmonter, on peut imaginer que les audioprothèses de demain pourront mieux deviner les intentions d’écoute de l’utilisateur. »

Christophe Micheyl

Autre thème de recherche chez Starkey : « le signal EOG. Il s’agit d’un signal qui mesure la position de l’œil, et donc, la direction du regard. Nous avons déposé un brevet sur un système permettant de contrôler les audioprothèses sur la base du signal EOG. Nos recherches ne visent pas du tout à remplacer l’audioprothésiste, mais à améliorer les performances d’écoute des mal-entendants dans leur vie quotidienne.»

Environnement
En lien direct avec la recherche sur la compréhension dans le bruit et le confort d’écoute se développe celle sur la connectivité des appareils. « Nous sommes dans ce domaine en plein bouleversement », explique Mikael Ménard. « Lors du dernier Congrès des audioprothésistes, nous avons lancé nos premiers appareils directement bluetooth. Ils permettent d’entendre son téléphone ou sa télévision directement dans les audioprothèses, sans collier ni autre dispositif de relais. » Pour lui, « de plus en plus, le smartphone fera partie de l’appareillage du patient. Par exemple, il serait utile de savoir en permanence si la personne appareillée est immobile ou si elle se déplace, car les réglages ne sont pas les mêmes dans les deux situations. L’audioprothèse ne permet pas de savoir cela, mais le smartphone, lui, peut donner cette information, et l’envoyer vers l’audioprothèse pour que les réglages soient modifiés. Le smartphone peut donner à l’appareil auditif des données sur l’environnement de la personne. A l’avenir, on peut imaginer d’optimiser le fonctionnement de l’audioprothèse en fonction du lieu dans lequel se trouve le patient », estime Mikael Ménard.

 

 

Dans le cloud
Christophe Micheyl confirme également l’importance des aides auditives connectées au smartphone : « Certains algorithmes de traitement du signal acoustique sont très performants, mais aussi très « gourmands » en termes de mémoire et de puissance de calcul. Ils ne peuvent donc pas encore être installés directement dans l’aide auditive, car ils prendraient trop de place et consommeraient trop d’énergie – la batterie se déchargerait trop vite. Grâce à nos aides auditives aujourd’hui connectées sur iPhone et Android, nous pouvons envoyer des signaux depuis le téléphone vers l’aide auditive, et maintenant envisager d’installer des algorithmes sur les téléphones portables, plutôt que dans l’aide auditive elle-même. Une difficulté vient de la vitesse de traitement des informations ; si le décalage entre le signal reçu dans l’aide et la vision (par exemple, mouvements des lèvres) est trop grand, cela entraîne des difficultés pour l’auditeur, comme dans un film mal doublé. Heureusement, avec le développement de la 5G et autre progrès technologique actuel, nous aurons bientôt accès à des délais de transmission de l’information encore plus courts, non seulement entre le téléphone et l’aide auditive, mais entre le téléphone et le cloud. Les aides auditives pourront alors mieux utiliser les connaissances présentes dans le cloud pour adapter au mieux en permanence les réglages des aides auditives. »

 

Des appareils plus solides et plus simples

L’un des corollaires de la connectivité des appareils, c’est le besoin de puissance. Pour William Meauzoone, responsable Technique & Formations chez Biotone Technologies, « les audioprothèses de demain seront toutes rechargeables – nous sommes pionniers dans ce domaine, sur lequel nous travaillons depuis dix ans déjà – car il est inconcevable que, dans notre monde de plus en plus nomade, la personne appareillée soit obligée de changer quotidiennement les piles de ses appareils. Pour le moment, les batteries rechargeables ont la même taille – voire sont un peu plus grandes – que les piles, mais nous espérons que des évolutions auront lieu dans ce domaine. »
« Nous travaillons également avec des fabricants de batteries sur des batteries rechargeables. A terme, nous pensons qu’il sera possible de miniaturiser davantage les appareils », explique Christophe Micheyl, chez Starkey.
Les appareils seront aussi, souligne William Meauzoone, « étanches, solides, il n’y aura plus besoin de les manipuler puisqu’ils n’auront pas de pile. Ce sera juste une coque, facile d’entretien. Nous avons d’ores et déjà sorti un produit intra-auriculaire ne nécessitant pas de prise d’empreinte grâce à des matériaux innovants. C’est l’un des intras les plus discrets du marché. Cette absence de prise d’empreinte nous permet de les produire à la chaîne, ce que n’autorise pas le sur-mesure des aides auditives actuelles. Nous gagnons dans tous les domaines : l’appareil est discret, donc plus facilement accepté par le patient, il est immédiatement disponible et le service après-vente est instantané. »

 

Optimiser les réglages à distance
Les chercheurs de Starkey s’orientent également « vers des réglages de plus en plus fins en fonction de l’environnement de la personne, à chaque instant. Aujourd’hui, nous avons déjà dans les aides auditives Starkey des algorithmes capables de détecter automatiquement le type de bruit de fond. De plus, avec nos aides connectées au téléphone, l’audioprothésiste peut programmer différents réglages selon l’endroit où se trouve l’utilisateur. Nous essayons de plus en plus de sortir du laboratoire et de travailler avec nos utilisateurs en conditions d’écoute naturelles, dans leurs environnements quotidiens. Nous recréons des environnements de test en laboratoire qui ressemblent de plus en plus à la réalité sonore complexe. »
« Si l’on se projette plus loin, dans dix ans, je pense que l’on arrivera à des aides auditives connectées, non seulement entre elles comme c’est déjà le cas aujourd’hui, mais également avec tout un écosystème d’autres objets connectés », poursuit Christophe Micheyl.

 

William Meauzoone

« Accompagner » l’audioprothésiste
Mais dans un tel contexte, quid du travail de l’audioprothésiste ? « Nous allons davantage aider l’audioprothésiste, qui aura donc plus de temps à passer avec ses patients, que ce soit par l’appareil en lui même ou par des solutions modernes de suivis de l’appareillage », explique William Meauzoone, responsable Technique & Formations chez Biotone Technologies. « Par exemple, nous avons développé ce que nous appelons un « intra-RIC », qui a tous les avantages du système RIC (Receiver in the canal) et ceux de l’intra. Le service après-vente de cet appareil est aussi simple que sur un RIC classique. Nous travaillons également sur une plateforme en ligne qui fait le lien entre le patient et son audioprothésiste par le biais du smartphone du porteur. Celle-ci permettra à l’audioprothésiste d’être connectée aux appareils du patient, à distance – en accord bien sûr avec ce dernier. Il pourra ainsi avoir accès à diverses informations qui lui permettront de mieux comprendre l’environnement du patient et d’adapter en fonction les réglages de l’audioprothèse. Il aura accès aux données de l’appareil en temps réelle et pourra effectuer des corrections à distance. Cela évitera une perte de temps pour lui comme pour le patient lorsqu’il s’agit de faire un micro-réglage. »

 

Interface
Chez Signia, la volonté de simplifier la vie de l’audioprothésiste est affirmée de la même manière : « nous avons présenté au Congrès des audioprothésistes Telecare, un outil d’accompagnement des audioprothésistes dans l’appareillage et le suivi des patients », explique Mikael Ménard. « Nous proposons une interface pour le patient, via une application, grâce à laquelle il peut contrôler son audioprothèse ». Attention, précise-t-il, « Il ne s’agit pas de donner la possibilité au patient de régler lui-même son appareil, mais de changer de programme ou régler le volume, notamment, qui sont des fonctions que nous proposons déjà, via une télécommande. Le patient pourra aussi avoir accès aux notices d’utilisation de son appareil sous forme de vidéo et recevoir des conseils pour mieux entendre – par exemple, comment se positionner dans un environnement bruyant pour entendre mieux son interlocuteur, etc. »

Mikael Ménard

« Telecare permet également de renseigner à distance l’audioprothésiste sur la satisfaction du patient. L’objectif est d’accompagner le travail de l’audioprothésiste,

de fournir une interface privilégiée entre lui et son patient pendant la période d’essai de l’appareil. En effet, lors qu’un premier appareillage, le patient sort de chez l’audioprothésiste avec beaucoup d’informations. L’application lui permettra d’avoir accès facilement à ces informations, pour le rassurer », affirme-t-il.

Tous ces axes de recherche seront développés « pendant les 5 à 10 ans à venir », expliquent les fabricants. Viendront ensuite les phases de développement. Mais globalement, les prothèses de demain et d’après-demain sont toutes proches.

 

Surdités profondes…

Les audioprothèses pourront-elles un jour remplacer les implants cochléaires ? « Non, c’est difficile à imaginer », répond Christophe Micheyl, chez Starkey. « En revanche, on voit de plus en plus de combinaisons, sous forme de prothèses hybrides, comprenant à la fois un implant et une aide auditive. Il s’agit de préserver l’audition résiduelle grâce à l’implant et de stimuler les signaux grâce à l’audioprothèse. »
Dans ce domaine, poursuit le directeur européen de la recherche chez Starkey France, « on commence aussi à voir des aides auditives dont un élément est ‘collé’ sur le tympan et stimulé par un système optique. Une start-up de la Silicon Valley propose cela. On peut discuter de la pertinence de cette solution. Potentiellement, elle générerait davantage de gains acoustiques dans les hautes fréquences, ce qui serait bénéfique pour les individus ayant encore des restes auditifs dans les très hautes fréquences. Mais les aides auditives classiques font aussi des progrès dans ce domaine et permettent de plus en plus de gains dans les hautes fréquences. »

… et obscures

Autre champ de recherche pour les scientifiques : « des recherches sont faites actuellement sur les « surdités obscures », dont souffrent les gens qui ont des seuils auditifs normaux, mais des difficultés d’audition dans le bruit », explique Christophe Micheyl. « Aujourd’hui, on cherche des méthodes permettant d’objectiver ces difficultés. Le Professeur Liberman et ses collaborateurs à Harvard ont découvert que, si la cochlée est soumise à un niveau sonore élevé pendant une période prolongée, cela peut entraîner des dégénérescences du nerf auditif. La cochlée reste saine, mais les fibres du nerf auditif ne sont plus fonctionnelles. Cela peut être à l’origine de troubles de l’audition dans le bruit en dépit d’un audiogramme tonal apparemment normal. Nous suivons ce sujet avec intérêt, en réfléchissant à un traitement possible. »