ArticlePDF Available

INFLUENCE DE L’ENCRASSEMENT DU MICROPHONE SUR LES PERFORMANCES DE L’IMPLANT COCHLÉAIRE ÉTUDE PRÉLIMINAIRE EN SIMULATION DES CODAGES CIS ET N OF M

Authors:

Abstract and Figures

RÉSUMÉ Le vieillissement (usure, encrassement) des aides et pro-thèses auditives est un sujet qui est d'actualité dans le monde qui nous entoure. Dans ce travail, on se pose la question des consé-quences de l'encrassement des microphones dans le cas de l'implant cochléaire et d'une éventuelle influence de la stratégie de codage. Cette étude préliminaire a pour but d'explorer ces hypothèses et de voir si une étude à plus grande échelle peut être envisagée. Des listes de mots dissyllabiques ont été proposées à trois sujets normo-entendants en simulant le codage de l'implant cochléaire avec deux stratégies : CIS et « n of m ». Les premiers résultats montrent qu'un encrassement faible ne perturbe pas trop les performances de reconnaissance. De même, lorsque les conditions d'écoute ne sont pas trop défavorables (RSB positif, micro peu encrassé), la stratégie CIS semble donner de bons résultats. De même, le test des microphones doit être rigoureusement standardisé. Dans ces conditions, une étude plus approfondie mérite d'être envisagée. Index Terms— Encrassement des microphones, implant cochléaire, stratégies CIS et « n of m », simulation du codage.
Content may be subject to copyright.
INFLUENCE DE L’ENCRASSEMENT DU MICROPHONE SUR LES PERFORMANCES
DE L’IMPLANT COCHLÉAIRE
ÉTUDE PRÉLIMINAIRE EN SIMULATION DES CODAGES CIS ET N OF M
K. Perreaut1, S. Gallego1,3, C. Berger-Vachon1,2, F. Millioz1,2
1Université Lyon 1, 43 bvd du 11 Novembre, 69 622 Villeurbanne-Cedex
2Centre de Recherche des Neurosciences de Lyon, Équipe DYCOG, INSERM U1028
95 bvd Pinel, 69 675 Bron-Cedex
3Centre Audition Conseil, 34 Av Lacassagne, 69 003 Lyon
RÉSUMÉ
Le vieillissement (usure, encrassement) des aides et pro-
thèses auditives est un sujet qui est d’actualité dans le
monde qui nous entoure.
Dans ce travail, on se pose la question des consé-
quences de l’encrassement des microphones dans le cas
de l’implant cochléaire et d’une éventuelle influence de la
stratégie de codage. Cette étude préliminaire a pour but
d’explorer ces hypothèses et de voir si une étude à plus
grande échelle peut être envisagée.
Des listes de mots dissyllabiques ont été proposées à
trois sujets normo-entendants en simulant le codage de
l’implant cochléaire avec deux stratégies : CIS et « n of
m ».
Les premiers résultats montrent qu’un encrassement
faible ne perturbe pas trop les performances de reconnais-
sance. De même, lorsque les conditions d’écoute ne sont
pas trop défavorables (RSB positif, micro peu encrassé), la
stratégie CIS semble donner de bons résultats. De même, le
test des microphones doit être rigoureusement standardisé.
Dans ces conditions, une étude plus approfondie mérite
d’être envisagée.
Index TermsEncrassement des microphones, im-
plant cochléaire, stratégies CIS et « n of m », simulation
du codage.
1. INTRODUCTION
Le vieillissement et l’encrassement du matériel sont
deux problèmes classiques de l’instrumentation médicale.
Ceci affecte le fonctionnement des machines [1, 2] et des
efforts sont à effectuer pour réduire cette incidence.
Dans les systèmes de réhabilitation de la surdité, le
microphone est situé à l’entrée de la chaîne. De manière
classique il vieillit et s’encrasse et cette incidence est loin
d’être négligeable [3, 4]. En effet, des anomalies à ce ni-
veau seront répercutées et amplifiées, ce qui affectera sé-
rieusement les performances de la machine.
Les auteurs remercient les personnes et organismes qui les ont sou-
tenus dans ce travail, le Pr Eric Truy, le Pr Hung Thai-Vanla société
MED-EL France et son directeur, M. Michel Beliaeff ainsi que M. Fabien
Seldran, et aussi les responsables de la section GBM de Polytech’Lyon
puisque le travail a été effectué dans ce cadre.
Ce phénomène, déjà abordé au niveau des aides au-
ditives classiques, mérite d’être revu avec l’implant co-
chléaire. L’implant permet de réhabiliter les surdités pro-
fondes et son utilisation n’est plus confidentielle, puisqu’il
s’en pose environ 1000 par an en France et de 15 à 20 000
dans le monde.
Une étude, à grande échelle avec des sujets implantés
et même avec des témoins normaux est soumise aux règles
de la recherche en Santé Publique et le « CPP » (Comité de
Protection des Personnes) doit se prononcer sur les règles
de l’éthique.
Une pré-étude apparaît nécessaire pour argumenter au
niveau du CPP et aussi pour voir si le travail mérite d’être
poursuivi, sur le plan scientifique. Nous avons donc réalisé
un travail en simulation pour explorer ces directions.
Deux types de simulation ont été employés, avec la
participation de sujets témoins qui seront soumis à des si-
gnaux acoustiques ayant les caractéristiques de ceux qui
parviennent aux sujets implantés. Des traitements du si-
gnal réalisés « sur table » [5, 6, 7] sont proposés à des
sujets normo-entendants qui écoutent des signaux acous-
tiques dans la gamme du conversationnel. La validité de
cette approche a été soulevée et des études spécifiques [8,
9] ont indiqué que, dans les grandes lignes, on pouvait se
fier aux résultats qui sont ainsi obtenus. Les stratégies de
codage sont aussi concernées et on peut se demander si
elles se comportent toutes de la même manière, notamment
lorsque le signal est altéré [10, 11].
Dans cette étude, nous abordons la question de l’in-
fluence du microphone sur les performances obtenues avec
un implant cochléaire, en simulation, dans le cadre d’une
étude pilote.
2. MATÉRIEL ET MÉTHODES
2.1. Codage par l’implant cochléaire
Nous ne reviendrons pas en détail sur l’implant co-
chléaire. On sait que cette prothèse réalise une transduc-
tion entre le signal acoustique et le signal électrique qui est
ensuite délivré sur les électrodes. Dans notre cas, le simu-
lateur sera essentiellement composé de deux parties (FIG
1) :
le microphone qui sera plus ou moins altéré, no-
tamment à la suite de l’encrassage naturel lié à son
Microphone Processeur Vocal
2 choix possibles :
-CIS
-nofm
4 choix possibles :
-Microphone neuf
-Micro peu usé
-Micro usé
-Micro très usé
Choix de la fonction de
transfert du microphone
Choix de la stratégie de
codage
En entrée on utilise
du matériel vocal de
"Fournier" mélangé
à un bruit de type
"Cocktail Party"
En sortie on obtient du
matériel vocal permettant
de simuler l'écoute à travers
un implant cochléaire chez
un patient normoentendant.
Au final on évalue 8
situations différentes
Fig. 1. Représentation de l’ensemble « microphone + implant cochléaire »
utilisation,
le processeur vocal qui codera le signal à l’aise de
deux stratégies, CIS (Continuous Interleaved Sam-
pling) ou « n of m » (n canaux actifs sur m pos-
sibles). Nous reviendrons sur ces aspects dans le
cadre de la simulation.
2.2. Étude du microphone
2.2.1. Micros testés
Le fabricant Knowles electronics (Ataska, Illinois,
USA) est le leader sur le marché des transducteurs et il
équipe aussi bien les aides auditives conventionnelles que
les implants cochléaires. Ces microphones sont, a priori,
omnidirectionnels et nous les avons considérés comme tels
dans ce travail.
Nous avons mesuré la fonction de transfert des micro-
phones à l’aide d’une chaîne « New Aurical ». Le micro-
phone est soumis à un balayage tonal, de 200 à 8 000 Hz,
à 60 dB. Nous avons travaillé sur plusieurs aides auditives,
indépendamment de la marque (Oticon, Phonak, Siemens,
Starkey) et indépendamment du type de dispositif. Les me-
sures ont été effectuées sur les aides auditives de malen-
tendants consentants qui venaient pour l’entretien de leur
matériel. La fréquence de ces rendez-vous est de 3 à 4 fois
par an.
Pour chaque dispositif, nous avons effectué deux me-
sures. La première a été effectuée après un nettoyage mi-
nutieux de la partie écouteur + embout qui permet de trans-
mettre le signal sonore dans le conduit auditif, ce qui cor-
respond à « écouteur propre » et « microphone sale ». La
seconde a été réalisée après le nettoyage de la partie récep-
tion (micro) de l’aide auditive. La soustraction de la pre-
mière courbe à la seconde indique le gain qui résulte de
l’encrassement du microphone.
2.2.2. Courbes d’encrassement
Après avoir nettoyé les microphones, nous avons pu,
pour chaque fréquence, évaluer l’apport du nettoyage (en
décibels) et donc déterminer un niveau d’encrassement.
Nous avons considéré quatre cas pour l’encrassement :
c1 : pas d’encrassement,
Fig. 2. Simulation du codage de l’implant cochléaire
c2 : peu d’encrassement ; ceci correspond à l’en-
crassement de 50% des micros,
c3 : encrassement moyen : il correspond aux 20%
les plus encrassés (percentile 80%),
c4 : fortement encrassé : il correspond aux 10% les
plus encrassés (percentile 90%).
Dans notre expérience, l’analyse spectrale du signal d’en-
trée sera modifiée, fréquence par fréquence, en retranchant
les valeurs ci-dessus (exprimées en décibels).
2.3. Simulation de l’implant cochléaire
Le simulateur utilisé obéit au principe du vocodeur et
il est représenté sur la FI G. 2. Les différentes étapes du
traitement du signal sont :
1. le signal capté par le micro passe par un filtre de
préemphase qui est un filtre passe-haut de fré-
quence de coupure 1.2 kHz et de pente 12 dB par
octave,
2. ensuite on réalise une transformée de Fourier ra-
pide. Les raies spectrales sont regroupées sur m=20
bandes réparties de façon logarithmique, conformé-
ment à la physiologie de l’oreille. La durée d’une
fenêtre d’analyse est 8 millisecondes et le signal
est échantillonné à la fréquence de 16 kHz, ce qui
conduit à 128 points, soit 64 raies spectrales.
3. au terme de cette analyse, les électrodes les plus
énergétiques sont sélectionnées et ceci conduit à la
stratégie « n of m ». Si n = m, toutes les bandes
sont retenues et on a alors affaire à la stratégie CIS.
Dans cette étude nous avons fixé n = 8.
4. dans chaque bande, l’énergie est calculée en som-
mant les carrés des amplitudes de chaque raie spec-
trale (théorème de Parseval),
5. enfin, pour chaque bande, on module l’amplitude
d’un bruit blanc filtré avec l’énergie détectée. Le
signal de sortie est obtenu en sommant les n ca-
naux retenus. On notera que pour les deux premiers
canaux, très étroits, la stimulation correspond pra-
tiquement à une sinusoïde.
2.4. Matériel acoustique
2.4.1. Listes de Fournier (signal vocal)
Compte tenu de la difficulté du test, nous avons choisi
les listes de Jean-Étienne Fournier qui sont des mots dis-
syllabiques plus faciles à reconnaître.
Chaque liste est constituée de 20 mots (par exemple :
« le bouchon ») et on dispose au total de 40 listes. L’unité
de reconnaissance et le mot.
2.4.2. Bruit
Pour le bruit, on a utilisé un bruit de type « cocktail-
party» constitué des voix de 8 interlocuteurs francophones,
4 hommes et 4 femmes.
Nous avons choisi ce bruit car il contient suffisamment
de voix différentes afin d’assurer un niveau et une difficulté
de masquage constante tout au long du test.
2.4.3. Signal d’entrée
Le signal proposé à l’entrée a été un mélange de bruit
et de signal vocal.
Nous nous sommes assurés que le niveau maximum
des signaux de sortie reste en dessous de 70 dB, soit 10
dB de moins que le seuil réglementaire défini pour les ex-
positions aux bruits professionnels.
Six rapports signal sur bruit (SNR) ont été retenus : -3
dB, 0 dB, 3 dB, 6 dB, 9 dB et 12 dB.
2.4.4. Situations étudiées
En pratique, nous avons souhaité tester huit conditions :
4 niveaux d’encrassement du microphone,
2 stratégies de codage.
0 1000 2000 3000 4000 5000 6000 7000
0
1
2
3
4
5
6
7
8
9
Courbes représentant l'atténuation induite par 3 niveaux d'usure simulés du microphone
50% microphone légèrement usé
20% microphone moyennement usé
10% microphone très usé
Fréquence en Hz
Atténuation en dB
Fig. 3. Fonctions de transfert des microphones (avec les
percentiles d’encrassement)
Six SNR étant considérés, nous avons réalisé 1920 fi-
chiers (2*4*6*40) qui contenaient toutes les situations pos-
sibles. Le passage des listes a été randomisé.
2.5. Auditeurs
Trois sujets normo-entendants ont participé à cette
étude. Leur moyenne d’âge était de 42 ans ; le plus jeune
avait 25 ans et le plus âgé 51 ans.
Les seuils auditifs ont été vérifiés avant l’étude et ils
étaient inférieurs à 20 dB pour toutes les fréquences com-
prises entre 250 et 8 000 Hz, par demi-octave. Selon le
BIAP (Bureau International d’Audio-Phonologie) les su-
jets sont considérés comme normo-entendants.
Les tests ont aussi été précédés par un examen otolo-
gique pour éliminer des antécédents ou troubles ORL in-
compatibles avec le test. Les trois sujets étaient droitiers.
Chaque session de test a été précédée par un petit en-
traînement pour habituer le sujet aux consignes et aussi
pour configurer l’intensité d’émission des signaux afin
qu’ils soient confortables.
Le temps de passage a été de 45 minutes.
3. RÉSULTATS ET DISCUSSION
3.1. Étude des microphones
On a mesuré les fonctions de transfert de 98 aides audi-
tives. On a retenu la gamme de fréquences de 200 Hz à 6.3
kHz avec une résolution au tiers d’octave. La mesure des
fréquences en dehors de cette gamme ne sont pas fiables et
elle correspond aux limitations usuelles des aides auditives
conventionnelles.
De ces premières mesures, il résulte 1 568 valeurs et
parmi elles 1206 ont été retenues. En effet, le signal d’en-
trée est à 60 dB et on rejeté les valeurs de sortie inférieures
à ce seuil liées à la fiabilité des mesures.
On représente sur la FI G. 3 les courbes d’encrassement
des microphones, telle qu’elles ont été mesurées.
3.2. Intelligibilité des listes de Fournier
Le pourcentage de reconnaissance, pour chaque condi-
tion (encrassement + stratégie), a été représenté en fonc-
tion du rapport signal/bruit. On indique sur la FI G. 4 les
reconnaissances obtenues. Les courbes sont relativement
a)
c)
b)
d)
Fig. 4. Pourcentages de reconnaissance obtenus selon l’état du microphone (a = micro neuf, b = micro peu encrassé, c =
micro moyennement encrassé, d = micro très encrassé)
similaires et il est difficile de différencier les stratégies de
codage CIS ou « n of m ».
3.3. Influence de l’encrassement
L’influence de l’encrassement est représentée sur la
FIG. 5 ; ces courbes correspondent à une moyenne obtenue
avec les trois auditeurs. On constate sans surprise, que
plus l’encrassement est important, moins bonnes sont les
performances. Par contre, on remarque que les différences
maximales sont observées pour un SNR de 0 dB (signal et
bruit de même intensité), et que, pour les bonnes valeurs
du SNR (au-delà de 6 dB) les résultats sont équivalents.
On remarque aussi que lorsque l’encrassement n’est
pas trop important les performances liées au microphone
sont peu détériorées.
On voit que les différences maximales sont obtenues
pour un SNR de 0 dB et que les différences de pourcen-
tages sont de l’ordre de 50%.
Par contre, pour un SNR trop faible (moins de 3 dB)
ou trop bon (plus de 6 dB) les différences sont beaucoup
moins importantes.
3.4. Rôle de la stratégie
Les différences obtenues avec les stratégies sont repré-
sentées sur la FI G. 6. On représente la différence « CIS –
n of m » pour les 4 cas d’encrassement. À première vue, il
semblerait que la courbe c2 soit au-dessus des autres dans
la zone 3 à 9 dB. Ceci pourrait indiquer que la stratégie CIS
est avantageuse, lorsque le micro est peu encrassé et que le
rapport signal/bruit est bon. Bien sûr, cette hypothèse de-
vra être revue avec plus de sujets et aussi avec les patients
implantés dès qu’on sera en mesure de le faire.
Fig. 6. Comparaison des stratégies CIS et « n of m »
3.5. Discussion générale
Les résultats donnés dans cette étude sont indicatifs,
car ils ont été obtenus en simulation et avec un nombre
réduit de sujets. Une étude plus approfondie est en prépa-
ration, dès que le CPP nous permettra de la mener. De plus,
l’étude des microphones devra être revue pour comprendre
pourquoi on a parfois un signal affaibli.
En pratique, les principaux résultats que nous avons
obtenus montrent que, pour des micros faiblement « en-
crassés » (soit 50% de la population), les performances en
reconnaissance restent satisfaisantes.
En ce qui concerne la stratégie de codage, l’approche
CIS a semblé être avantageuse, par rapport au « n of m »,
dans le cas de micros « corrects » (pas trop encrassés) et
pour des SNR satisfaisants. De plus, en regardant la FIG.
5, la stratégie CIS semble donner une meilleure tenue des
résultats pour des SNR 3 dB.
Ces remarques sont donc encourageantes pour aller ex-
plorer plus complètement ces comportements.
De plus, la mise en place de cette étude pilote a permis
de préciser les contraintes qui seront à respecter lors d’un
travail à plus grande échelle. Elle a aussi montré l’impor-
Fig. 5. Intelligibilité obtenue en fonction de la stratégie et du micro
tance d’une bonne collaboration entre médecins, audiolo-
gistes, scientifiques et industriels.
4. CONCLUSIONS
Ce travail, en simulation sur l’étude de l’encrassement
des microphones, dans le cas d’un codage du signal sem-
blable à celui fourni par l’implant cochléaire a montré que :
un encrassement modéré des microphones n’alté-
rait pas trop les performances de reconnaissance,
— de même, il semble que la stratégie CIS puisse
conduire à de meilleurs résultats lorsque les condi-
tions d’écoute sont correctes,
le test des microphones est un sujet à repenser.
Il faut maintenant valider ces constatations, sur des sujets
porteurs d’un implant cochléaire et avec une population
pouvant être exploitée statistiquement.
5. RÉFÉRENCES
[1] T.J. Balkany, A.V. Hodges, C.A. Buchman, W.M.
Luxford, C.H. Pillsbury, P.S. Roland, J.K. Shallop,
D.D. Backous, D. Franz, J.M. Graham, B. Hirsch,
M. Luntz, J.K. Niparko, J. Patrick, S.L. Payne, F.F.
Telischi, E.A. Tobey, E. Truy, and S. Staller, “Co-
chlear implant soft failures consensus development
conference statement,” Otol Neurotol, vol. 26(4), pp.
815–8, Jul 2005.
[2] R.D. Battmer, G.M. O’Donoghue, and T. Lenarz, “A
multicenter study of device failure in european co-
chlear implant centers,” Ear Hear, vol. 28(2 Suppl),
pp. 95S–99S, Apr 2007.
[3] S. Razza and S. Burdo, An underestimated issue:
unsuspected decrease of sound processor microphone
sensitivity, technical, and clinical evaluation, Co-
chlear Implants Int, vol. 12(2), pp. 114–23, 2011.
[4] S. Razza, S. Burdo, and S. Bonaretti, “Acoustical si-
gnal check: microphone integrity evaluation through
a common hearing aid analyzer, in Presented at 5th
Objective Measures Symposium in Cochlear Implants
and ABI; Varese, Italy,, May 19–22 2007.
[5] J. Laneau, M. Moonen, and J. Wouters, “Factors af-
fecting the use of noise-band vocoders as acoustic
models for pitch perception in cochlear implants,” J
Acoust Soc Am, vol. 119(1), pp. 491–506, 2006.
[6] F. Seldran, S. Gallego, H. Thai-Van, and C. Berger-
Vachon, “Influence of coding strategies in electric-
acoustic hearing: A simulation dedicated to eas co-
chlear implant in the presence of noise,” Applied
Acoustics, vol. 76, pp. 300–30, Jan 2014.
[7] B.S. Wilson, C.C. Finley, J.C. Farmer, D.T. Lawson,
B.A Weber, R.D Wolford, P.D. Kenan, M.W. White,
M.M. Merzenich, and R.A. Schindler, “Comparative
studies of speech processing strategies for cochlear
implants,” Laryngoscope, vol. 98, pp. 1069–77, 1988.
[8] M.F. Dorman, P.C. Loizou, J. Fitzke, and Z. Tu, “The
recognition of sentences in noise by normal-hearing
listeners using simulations of cochlear-implant signal
processors with 6-20 channels,” J Acoust Soc Am,
vol. 104(6), pp. 3583–5, 1998.
[9] S. Kerber and B.U. Seeber, “Sound localization in
noise by normal-hearing listeners and cochlear im-
plant users,” Ear Hear, vol. 33(4), pp. 445–57, 2012.
[10] M.F. Dorman, P.C. Loizou, A.J. Spahr, and E. Maloff,
A comparison of the speech understanding provi-
ded by acoustic models of fixed-channel and channel-
picking signal processors for cochlear implants,” J
Speech Lang Hear Res, vol. 45(4), pp. 783–8, Aug
2002.
[11] T. Green, A. Faulkner, and S. Rosen, “Spectral and
temporal cues to pitch in noise-excited vocoder simu-
lations of continuous-interleaved-sampling cochlear
implants,” J Acoust Soc Am, vol. 112, pp. 2155–64,
Nov 2002.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Sentences were processed through simulations of cochlear-implant signal processors with 6, 8, 12, 16, and 20 channels and were presented to normal-hearing listeners at +2 db S/N and at -2 db S/N. The signal-processing operations included bandpass filtering, rectification, and smoothing of the signal in each band, estimation of the rms energy of the signal in each band (computed every 4 ms), and generation of sinusoids with frequencies equal to the center frequencies of the bands and amplitudes equal to the rms levels in each band. The sinusoids were summed and presented to listeners for identification. At issue was the number of channels necessary to reach maximum performance on tests of sentence understanding. At +2 dB S/N, the performance maximum was reached with 12 channels of stimulation. At -2 dB S/N, the performance maximum was reached with 20 channels of stimulation. These results, in combination with the outcome that in quiet, asymptotic performance is reached with five channels of stimulation, demonstrate that more channels are needed in noise than in quiet to reach a high level of sentence understanding and that, as the S/N becomes poorer, more channels are needed to achieve a given level of performance.
Article
Full-text available
Vowels, consonants, and sentences were processed by two cochlear-implant signal-processing strategies-a fixed-channel strategy and a channel-picking strategy-and the resulting signals were presented to listeners with normal hearing for identification. At issue was the number of channels of stimulation needed in each strategy to achieve an equivalent level of speech recognition in quiet and in noise. In quiet, 8 fixed channels allowed a performance maximum for the most difficult stimulus material. A similar level of performance was reached with a 6-of-20 channel-picking strategy. In noise, 10 fixed channels allowed a performance maximum for the most difficult stimulus material. A similar level of performance was reached with a 9-of-20 strategy. Both strategies are capable of providing a very high level of speech recognition. Choosing between the two strategies may, ultimately, depend on issues that are independent of speech recognition-such as ease of device programming.
Article
Full-text available
Four-band and single-band noise-excited vocoders were used in acoustic simulations to investigate spectral and temporal cues to melodic pitch in the output of a cochlear implant speech processor. Noise carriers were modulated by amplitude envelopes extracted by half-wave rectification and low-pass filtering at 32 or 400 Hz. The four-band, but not the single-band processors, may preserve spectral correlates of fundamental frequency (F0). Envelope smoothing at 400 Hz preserves temporal correlates of F0, which are eliminated with 32-Hz smoothing. Inputs to the processors were sawtooth frequency glides, in which spectral variation is completely determined by F0, or synthetic diphthongal vowel glides, whose spectral shape is dominated by varying formant resonances. Normal listeners labeled the direction of pitch movement of the processed stimuli. For processed sawtooth waves, purely temporal cues led to decreasing performance with increasing F0. With purely spectral cues, performance was above chance despite the limited spectral resolution of the processors. For processed diphthongs, performance with purely spectral cues was at chance, showing that spectral envelope changes due to formant movement obscured spectral cues to F0. Performance with temporal cues was poorer for diphthongs than for sawtooths, with very limited discrimination at higher F0. These data suggest that, for speech signals through a typical cochlear implant processor, spectral cues to pitch are likely to have limited utility, while temporal envelope cues may be useful only at low F0.
Article
Full-text available
Although in a number of experiments noise-band vocoders have been shown to provide acoustic models for speech perception in cochlear implants (CI), the present study assesses in four experiments whether and under what limitations noise-band vocoders can be used as an acoustic model for pitch perception in CI. The first two experiments examine the effect of spectral smearing on simulated electrode discrimination and fundamental frequency (FO) discrimination. The third experiment assesses the effect of spectral mismatch in an FO-discrimination task with two different vocoders. The fourth experiment investigates the effect of amplitude compression on modulation rate discrimination. For each experiment, the results obtained from normal-hearing subjects presented with vocoded stimuli are compared to results obtained directly from CI recipients. The results show that place pitch sensitivity drops with increased spectral smearing and that place pitch cues for multi-channel stimuli can adequately be mimicked when the discriminability of adjacent channels is adjusted by varying the spectral slopes to match that of CI subjects. The results also indicate that temporal pitch sensitivity is limited for noise-band carriers with low center frequencies and that the absence of a compression function in the vocoder might alter the saliency of the temporal pitch cues.
Article
This study aimed to characterize horizontal plane sound localization in interfering noise at different signal-to-noise ratios (SNRs) and to compare performance across normal-hearing listeners and users of unilateral and bilateral cochlear implants (CIs). CI users report difficulties with listening in noisy environments. Although their difficulties with speech understanding have been investigated in several studies, the ability to localize sounds in background noise has not extensively been examined, despite the benefits of binaural hearing being greatest in noisy situations. Sound localization is a measure of binaural processing and is thus well suited to assessing the benefit of bilateral implantation. The results will inform clinicians and implant manufacturers how to focus their efforts to improve localization with CIs in noisy situations. Six normal-hearing listeners, four unilateral, and 10 bilateral CI users indicated the perceived location of sound sources using a light pointer method. Target sounds were noise pulses played from one of 11 loudspeakers placed between -80 and +80 degrees in the frontal horizontal plane in the free field. Localization was assessed in quiet and in diffuse background noise at SNRs between +10 and -7 dB. Speech reception thresholds were measured and their relation to the localization results examined. Localization performance declined with decreasing SNR: target sounds were perceived closer to the median plane and the standard deviation of responses increased. Localization performance across groups was compared using a measure of "Spatial Resolvability" (SR). This measure gives the angular separation between two sound sources that would enable an ideal observer to correctly distinguish them 69.1% of the time. For all participants SR increased with decreasing SNR, that is, at low SNRs the spatial separation between sound sources remained distinguishable only when it was larger. Normal-hearing participants performed best, with SR between 1.4 and 5.1 degrees in quiet. Bilateral CI users showed SR between 8.3 and 43.6 degrees in quiet, corresponding approximately to the spatial resolution of normal-hearing listeners at an SNR of -5 dB. Most bilateral CI users had lost the ability to correctly determine which side the sound came from at an SNR of -3 dB. Overall, the SNR had to be at least +7 dB to achieve localization performance near to that in quiet for all bilateral CI users. No significant correlation was found between spatial resolution and speech reception thresholds, but the speech processor sensitivity setting did significantly affect performance. Unilateral CI users showed the most severe localization problems, with only two of four participants being able to correctly determine which side sounds came from in quiet. This study is the first to examine sound localization with CIs at various SNRs and to compare it with normal hearing. The results confirm that localization with CIs is strongly disrupted in noisy situations. Bilateral CIs were shown to be clearly superior over unilateral CIs for localization in quiet and in noisy situations. With bilateral CIs, localization declined at moderately high absolute noise levels (>63 dB SPL), suggesting that an extension of the acoustic-dynamic range to higher levels would be beneficial. The absence of a relation between speech reception thresholds and spatial resolution highlights the need for additional clinical tests to assess the binaural benefit of a second implant.
Article
To describe the rate of occurrence of unsuspected decrease in sensitivity of the sound processor microphone and to evaluate its effect on the patient's audiological performance in terms of reduction in speech recognition scores. Speech processor microphones were tested by connecting the speech processor acoustic monitor circuit to a hearing aid analyzer. The response curves were compared with those obtained from fully working microphones. During a 6-month investigation period, microphone response curves were measured from a group of cochlear implant recipients who had not reported any problems. Despite the absence of any subjective problem, some microphones were found to show a loss of sensitivity. Their users, aged between 4 and 67 years, were tested both with the defective and a working microphone in order to calculate the correlation between the degree of microphone failure and the decline in audiological performance. To quantify the effect of microphone failure, patients' speech recognition skills were measured by live voice connected discourse tracking series administered in different conditions and by recorded sentences lists. A total of 120 apparently fully functioning sound processors were tested in the investigation: 33 (27.5%) were affected by a subjectively unreported sensitivity decrease. Speech-tracking scores correlated significantly with the loss of microphone sensitivity in all test conditions (r = 0.69-0.77, P < 0.05). A high degree of correlation was also found for speech audiometry tests (r = 0.70-0.73, P < 0.05). Microphone sensitivity loss affected speech recognition skills, especially without lip reading and in the presence of background noise. The results indicate that any reduction in sound processor microphone sensitivity causes a degree of hearing decline that negatively affects the cochlear recipient's clinical performance. Microphone faults are often unreported events, and their occurrence rate is underestimated. To establish that the microphone is providing correct input to the speech processor a standard control procedure, including technical and clinical checks, is needed in clinical practice.
Article
A wide variety of speech processing strategies for multichannel auditory prostheses were compared in studies of two patients implanted with the UCSF electrode array. Each strategy was evaluated using tests of vowel and consonant confusions, with and without lipreading. Included among the strategies were the compressed analog processor of the present UCSF/Storz prosthesis and a group of interleaved pulses processors in which the amplitudes of nonsimultaneous pulses code the spectral variations of speech. For these patients, each with indications of poor nerve survival, test scores were significantly higher with the interleaved pulses processors. We believe this superior performance was a result of 1. the substantial release from channel interactions provided by nonsimultaneous stimuli and 2. a fast enough rotation among the channels to support adequate temporal and spectral resolution of perceived speech sounds.
Article
In summary, CI soft failure is an uncommon occurrence in which a device malfunction is suspected but cannot be proven. It is a working diagnosis, based on characteristic symptoms such as shocking sensations, popping sounds, intermittency, or unexplained progressive decrement in performance. Complete otological evaluation, CT scan, expert re-programming, exchange of all external hardware, and integrity testing by the manufacturer are necessary before the working diagnosis is made. The usual management is device replacement when aversive symptoms are intolerable or performance becomes unacceptable as determined by the team and family.