Content uploaded by Mariapaola D'Imperio
Author content
All content in this area was uploaded by Mariapaola D'Imperio on Mar 07, 2021
Content may be subject to copyright.
CHAPITRE
10
Prosodie et intonation : notions de base
et données neuro-psycholinguistiques
Mariapaola D’Imperio, Éva Dittinger, Mireille Besson
La prosodie est un aspect déterminant du langage parlé qui
permet de véhiculer un message linguistique et paralinguis-
tique et que nous pouvons définir comme un système gram-
matical complexe (Beckman, 1996) dont les sous-composantes
sont l’intonation, le phrasé et l’accentuation (intonation, phra-
sing, prominence). D’un point de vue strictement phonétique, il
s’agit principalement des modulations mélodiques et rythmiques
produites dans un énoncé qui servent à véhiculer du sens pragma-
tique (comme le focus de phrase) ou bien à marquer la frontière
des constituants syntaxiques. En effet, afin de saisir pleinement
lesens ou la structure linguistique d’un énoncé, les informations
le
xicales, syntaxiques et sémantiques ne suffisent pas, et les modu-
l
ations prosodiques doivent être prises en compte. Par exemple,
la même phrase « Aujourd’hui il fait vraiment beau » peut véhicu-
ler soit un sens littéral, si elle est prononcée avec une intonation
assertive neutre, ou bien signifier son contraire si elle est pronon-
cée avec une prosodie ironique (D’Imperio, Champagne-Lavau,
Loevenbruck, et Fouillaud, 2013 ; Loevenbruck, Jannet, D’Impe-
rio, Spini & Champagne-Lavau, 2013). La prosodie joue aussi un
rôle dans la désambigüisation syntaxique, si on prend l’exemple
« La vieille ferme la porte », qui peut être prononcé soit comme
« La vieille ferme la porte » ou bien « La vieille ferme la porte »
(où la rupture prosodique est marquée par la barre verticale), qui
diffèrent par la fonction de l’homophone « ferme » qui revêt un
rôle verbal dans la première phrase vs celui d’un adjectif dans la
deuxième. Il s’agit aussi des premiers aspects de la parole acquis
par l’enfant, et ce à partir du stade prénatal (de Boysson-Bardies,
1996), qui lui permettront d’accéder au lexique (Gerken, 1996 ;
Gerken, et Aslin, 2005 ; Jusczyk, Cutler, et Redanz, 1993 ; Jusc-
zyk, et Kemler Nelson, 1996) ainsi qu’à d’autres structures lin-
guistiques, telles que les constituants syntaxiques de haut niveau.
Parmi les sous-systèmes prosodiques, un aspect qui a retenu
l’attention de nombreux chercheurs est l’intonation, ou les varia-
tions mélodiques au cours de l’énoncé qui peuvent être utilisées
pour apporter une valeur pragmatique contrastive (Beyssade,
Delais-Roussarie, Marandin, et Rialland, 2004 ; Ladd, 1996/
2008 ; Portes et Reyle, 2014). Dans le langage adulte, des patrons
intonatifs contrastifs, tels que des accents mélodiques catégori-
q
uement différents (qui diffèrent par exemple en alignement tonal,
c’est-à-dire la position temporelle du pic mélodique à l’intérieur
d’une syllabe accentuée, voir D’Imperio2011 pour une revue),
peuvent en effet déterminer à eux seuls la valeur pragmatique
d’un énoncé telle que, par exemple, le contraste entre une ques-
tion et une assertion, comme dans (1) ; ou signaler la portée du
focus informationnel (large ou étroit) ou un contraste dans le
discours, comme dans (2) ; ou bien désambigüiser un référent dan
s
le discours (Ito et Speer, 2008), ce qui est exemplifié en (3). Plus
spécifiquement, une courbe mélodique montante (voir 1b) est uti-
SOMMAIRE
1. À venir 000
2. À venir 000
3. À venir 000
4. À venir 000
5. À venir 000
6. À venir 000
104 Neurolinguistique
lisée pour une demande de confirmation ou une question oui/non
en français et aussi dans d’autres langues romanes (sauf dans des
variétés d’italien méridional, comme le napolitain, voir D’Imperio
et House, 1997, D’Imperio2005a, D’Imperio2011). Par contre,
la position de l’accent nucléaire (le plus proéminent de la phrase)
est souvent utilisée pour marquer une information contrastive,
comme on peut voir en 2. L’accentuation peut être aussi utilisé
aussi en tant que mécanisme visant à la désambigüisation de réfé-
rents pronominaux, comme on peut voir en (3).
(1)
a. Jean est venu.
b. Jean est venu ?
(2)
Marie ARRIVERA demain, elle ne partira pas.
(3)
a. Anne et Robert sont allés au café hier soir.
b. Quand ils sont arrivés au comptoir, ELLE a payé, non
pas Robert.
Pourtant, ces mêmes caractéristiques sont parmi les dernières
à être complètement maîtrisées à la fois en production et compré-
hension d’une langue seconde, surtout en ce qui concerne le détail
phonétique fin comme les allongements accentuels ou ceux qui
marquent la présence d’une frontière prosodique (preboundary
lengthening) ou bien l’alignement tonal (D’Imperio, Cavone, et
Petrone, 2014 ; Mennen, 2004). Dans les sections suivantes, nous
traiterons d’abord les aspects linguistiques de la prosodie et de
l’intonation (section1) avant de considérer les lignes de recherches
les plus récentes concernant le traitement de la prosodie dans les
paradigmes psycholinguistiques (section2) et neurolinguistiques,
visant à mieux comprendre les bases cérébrales de ces processus
en bénéficiant des méthodes d’analyse en temps réel, telles que les
mouvements oculaires, les potentiels évoqués et l’imagerie céré-
brale (section3). Dans la dernière section (section4), nous résu-
merons les avancées principales dans l’étude des interactions
entre prosodie et musique et nous donnerons quelques notions
relatives à la prosodie émotionnelle.
1. Prosodie et intonation : notions
linguistiques de base
Avant de décrire l’impact de la prosodie et de l’intonation sur le
traitement et la compréhension de la parole, nous devons définir
ces termes. En premier lieu, la prosodie peut être envisagée comme
un système phonologique complexe qui repose sur trois sous-
systèmes : l’intonation (ou modulations mélodiques de l’énoncé à
caractère pragmatique), l’accentuation (proéminence au niveau
du mot et de la phrase) et le phrasé (structuration en constituants
de nature prosodique dont les frontières sont signalées par une
rupture rythmique et/ou intonative). Nous défendons donc ici
une vision structurelle de la prosodie (Beckman, 1996) dans la
mesure où il s’agit d’un système qui représente plus qu’un simple
ensemble de propriétés acoustiques/phonétiques (telles que la
durée segmentale, l’intensité, la fréquence fondamentale [f0] ou
hauteur perçue [pitch], et la qualité de la voix). Tout phénomène
prosodique, tel que la proéminence accentuelle ou de phrasé
(phrasing), peut être signalé par une combinaison d’indices pho-
nétiques différents et cette combinaison peut-être différente pour
chaque langue. Par exemple, le marquage perceptif de la proémi-
nence, qui pourrait signaler l’accent lexical (stress) ou mélodique
(pitch accent), peut se manifester aussi bien par des variations des
paramètres spécifiques de durée et d’intensité que par une modu-
lation de la f0 qui se traduit par une variation de hauteur perçue
(pitch). En outre, ces propriétés peuvent se combiner de manière
différente dans différents contextes d’énonciation ainsi que dans
différentes variétés de langues. Qui plus est, certains patrons de
durée segmentale, tel l’allongement d’une voyelle en position
finale de mot, pourraient également être utilisés pour signaler le
phrasé (phrasing ou forme prosodique), c’est-à-dire le marquage
d’une rupture prosodique, ou break, correspondant à la frontière
d’un constituant prosodique. Ainsi, une simple correspondance
biunivoque entre un élément prosodique et une seule propriété
acoustique/prosodique ne peut être envisagée. En d’autres termes,
l’idée qu’un accent soit forcement réalisé par une excursion de f0
ou par un pic d’intensité (Bolinger, 1978 ; Fry, 1955, 1958) n’est
pas corroborée par les données issues de langues différentes (Jun,
2005, 2014). Le concept même d’accent lexical ou de stress doit
être revu, dans la mesure où la proéminence rythmique au niveau
du mot peut s’exprimer à travers différentes typologies accen-
tuelles selon la langue étudiée (voir le concept de stress accent vs
non-stress accent de Beckman, 1986).
En même temps, concevoir les propriétés prosodiques de la
parole en tant que structures abstraites ne suffirait pas non plus.
Dans le modèle de la phonologie prosodique classique (Nespor et
Vogel, 1986 ; Selkirk, 1984), les constituants prosodiques tels que
la syllabe, le syntagme phonologique ou le syntagme intonatif,
sont dérivés par des algorithmes syntaxiques qui ne prennent pas
en compte la variabilité des énoncés. Or, nous savons que la même
structure syntaxique peut être réalisée avec des ruptures pro-
sodiques différentes ou avec un emplacement accentuel variable
qui reflète plutôt la portée pragmatique que syntaxique d’un
énoncé. Par exemple, la question « Qui a mangé le poulet aux
amandes ce soir ? » peut recevoir une montée initiale (voir Welby,
2006 ; D’Imperio et al., à paraître) sur « aux amandes » ou bien
sur « le poulet », ce qui se traduit par un contraste de nature prag-
matique ou de structure de l’information perçu et interprété dif-
féremment par les auditeurs (voir German et D’Imperio, 2015 ;
D’Imperio, German, et Michelas, 2012 pour la relation entre
structure de l’information et focus en français ; Cutler, Dahan, et
van Donselaar, 1997 pour des effets concernant l’anglais et Magne
et al., 2005, ci-dessous, pour les bases cérébrales du focus prag-
matique).
Les locuteurs peuvent mettre en relief un mot parmi d’autres
à l’intérieur d’un énoncé grâce au placement de l’accent de foca
li-
sation, pour les langues telles que l’anglais ou l’italien (D’Imperio,
2002 ; Grice, D’Imperio, Savino, et Avesani, 2005 ; voir Ladd,
1996/2008 pour une revue) ou grâce à la présence d’une montée
initiale en français (German et D’Imperio, 2010 ; 2015). En effet,
les travaux sur le français suggèrent qu’au lieu d’une simple proé-
minence prosodique, les constituants focalisés ou porteurs de
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 105
contraste pourraient être signalés par la présence de tons de fron-
tières spécifiques (Di Cristo, 1999 ; Féry, 2001), tels que la mon-
tée initiale LHi (voir figure 1a). Des études plus récentes montrent
que la focalisation prosodique en français est un phénomène com
-
plexe. Ainsi, il existe au moins deux façons de marquer l’accent en
français et la relation entre accent et prosodie ne peut être mo
déli-
sée que par une approche intégrée dans laquelle différents niveaux
linguistiques seraient pris en compte simultanément (D’Imperio
et al., 2012 ; German et D’Imperio, 2010 ; voir aussi Dohen et
Lœvenbruck, 2004).
Du côté de la compréhension, il semble que les auditeurs
recher chent activement les mots accentués dans le discours en rai-
son
de leur rôle sémantique central (Cutler, 1982 ; Sedivy, Tanen-
haus, Spivey-Knowlton, Eberhard, et Carlson, 1995). De plus, les
auditeurs sont capables d’interpréter l’information prosodique
pour obtenir des indices relatifs à la structuration discursive (Hir-
schberg et Pierrehumbert, 1986), et à la prise de parole (turn-ta-
king), un mécanisme qui se mettrait en place déjà à partir de la
petite enfance, comme démontré par des travaux récents (Lam-
mertink, Casillas, Benders, Post, et Fikkert, 2015). La structure
intonative est également primordiale dans l’interprétation du dis-
cours : la dérivation du sens de l’intonation implique la considé-
ration simultanée des contours mélodiques (tunes), du contexte
propositionnel de la phrase ainsi que du discours dans lequel ils
apparaissent (Grabe, Gussenhoven, Haan, Marsi, et Post, 1998).
Cependant, l’intégration entre indices prosodiques et contextuels
semble être acquise plus tard que la compétence intonative simple
(après 5 ans, voir Laval et Bert-Erboul, 2005), et pourrait être
sévèrement altérée dans les populations pathologiques, comme
dans le cas de la schizophrénie.
Cette complexité signifie aussi que les propriétés objective-
ment mesurables au niveau de l’énoncé, telles que le niveau de
hauteur (pitch) ou la durée d’une syllabe ne donnent souvent
qu’une image partielle de la prosodie de l’énoncé. Par consé-
quent, il est très important de décrire l’énoncé comme un système
prosodique à la fois phonologique et phonétique. En d’autres
termes, nous souscrivons à la position de Beckman (1996) selon
laquelle le niveau prosodique du langage parlé doit être analysé
comme une structure grammaticale, tout en reconnaissant la
nécessité de modéliser une composante phonétique qui permet de
traduire le niveau de représentation phonologique en propriétés
acoustiques concrètes du signal de parole (ou représentation pho-
nétique).
Pour ce faire, nous adoptons un modèle phonologique de l’in-
tonation, le modèle « Autosegmental-Metrical » (théorie AM, voir
Ladd, 1996/2008), issu du travail de Pierrehumbert (1980) et de
ses collègues. Ce modèle est également à la base du système de
transcription prosodique ToBI (Tones and Break Indices) qui a
été employé pour décrire plusieurs langues du monde (Beckman
et Ayers-Elam, 1993 ; voir D’Imperio, Grice, et Cangemi, 2016
pour des approches récentes à partir de ce système) et qui a aussi
été récemment appliqué à des langues comme le français (Delais-
Roussarie et al., 2015). Selon la théorie AM, le contour tonal
d’un énoncé peut être envisagé comme une série de cibles tonales
(par exemple, des cibles statiques comme les niveaux hauts H
(High) ou bas L (Low) qui peuvent être associées à des syllabes
métriquement fortes en donnant lieu à des accents mélodiques ou
pitch accents (d’où l’utilisation de la notation avec astérisque,
H*, L*, etc.). Ce système codifie aussi des mouvements com-
plexes, tels que des montées (par exemple : L+H *, voir Figure2 ;
ou L*+H) ou des chutes de f0 (par exemple, H+L*), ainsi que les
tons qui délimitent les frontières prosodiques à différents niveaux
(telles que H % pour une montée finale de contour questionnant
en français ou un H- de syntagme intermédiaire, voir Figure3 ;
voir D’Imperio et Michelas, 2014 ; Michelas et D’Imperio, 2012 ;
2015).
Il faut remarquer que l’inventaire exact des accents mélo-
diques tout comme le type et le nombre de niveaux de phrasé
dépendent strictement de la langue décrite. De plus, ces événe-
ments de nature tonale doivent être considérés en tant que repré-
sentations phonologiques, puisque le détail de leur réalisation
phonétique (tels que l’alignement tonal exact de leur pic ou bien
la synchronisation entre ton et segment ; voir D’Imperio, 2011)
est également spécifique à une langue donnée. Comme souligné
par les
fondateurs de ToBI, ce système ne doit pas être utilisé
comme un alphabet phonétique international (API) pour l’intona-
tion. Il est donc nécessaire d’opérer au préalable une analyse pho-
nologique des patrons intonatifs potentiels et des niveaux de
rupture prosodique qui seraient contrastifs dans la langue étudiée.
Du point de vue du traitement du langage, cette analyse pho-
nologique permet de considérer que les distinctions prosodiques
perceptivement pertinentes impliquent souvent la combinaison
FIGURE 1. Contours de f0 pour la phrase « en genévrier » réalisée comme un seul syntagme accentuel, avec une montée
initiale (LHi) et une montée nale (LH*), en 1a, ou avec seulement une montée LH* nale (1b). Tiré de German and
D’Imperio (2015).
106 Neurolinguistique
de plus d’un paramètre acoustique, et que ces paramètres sont
influencés par le contexte segmental de réalisation (c’est-à-dire la
présence et le type d’attaque consonantique ou de coda sylla-
bique, van Santen et Hirschberg, 1994). Par exemple, un accent
mélodique montant de type H* verrait son pic déplacé à la fois
vers la fin ou vers le début d’une syllabe en Italien selon que la
syllabe à laquelle ce ton est associé est ouverte ou fermée (D’Im-
perio, 2000, 2005b ; Prieto, D’Imperio, et Gili Fivela, 2005) ou
bien qu’elle est placée au début ou à la fin du syntagme intonatif
(Silverman et Pierrehumbert, 1990). En d’autres termes, ce
modèle est basé sur l’idée que les détails prosodiques acoustique-
ment et perceptivement saillants ainsi que les contrastes linguisti-
quement pertinents auxquels ces détails contribuent (au niveau
lexical, syntaxique et pragmatique) sont essentiels et doivent être
décrits. Ce modèle semble aussi assez robuste en termes de pou-
voir descriptif, de testabilité et par son applicabilité avérée au
français (D’Imperio et al., 2012 ; D’Imperio, Bertrand, Di Cristo,
et Portes, 2007 ; Jun et Fougeron, 2000 ; 2002 ; Post, 2000 ; voir
aussi D’Imperio, et Michelas et Portes, à paraitre).
2. Traitement de l’intonation et
de la prosodie en compréhension :
données psycholinguistiques
Comme nous l’avons vu ci-dessus, la prosodie est un aspect
fondamental du langage parlé, pourtant longtemps considéré
comme moins déterminant que la syntaxe ou la sémantique qui
occupaient le devant de la scène. Le langage était alors considéré
comme un système comprenant différents niveaux de traitement
(phonologique, syntaxique, sémantique et éventuellement prag-
matique) hiérarchiquement organisés, chaque niveau étant relati-
vement indépendant des autres niveaux de traitement. L’enjeu
majeur était de comprendre la structuration syntaxique des
phrase et dans un deuxième temps, leur signification, leur portée
sémantique. Or, les résultats de travaux en linguistique, psycho-
et neurolinguistique ont largement remis en cause ces concep-
tions hiérarchiques et modulaires de l’organisation du langage et
la manière dont le langage est perçu, compris et produit par les
locuteurs.
Ainsi, la structuration prosodique d’un énoncé influence
l’analyse linguistique à plusieurs niveaux au cours de la produc-
tion et la compréhension du langage parlé (voir Wagner et Wat-
son, 2010 pour une revue récente). Les nombreuses fonctions du
marquage prosodique et intonatif concernent la segmentation
lexicale (Cutler, Dahan et van Donselaar, 1997 ; Spinelli, Gri-
maud, Meunier et Welby, 2010), la segmentation des phrases en
constituants syntaxiques, l’interprétation de la signification lin-
FIGURE 2. Courbe de f0 et spectrogramme de l’énoncé « La mamie
des amis de Rémy ? Elle viendra demain ». Les lignes de registre du
premier et du deuxième syntagme intermédiaire sont identiées par
les deux lignes horizontales. Tiré de D’Imperio et Michelas (2014).
FIGURE 3. Courbes de f0 et spectrogrammes des énoncés « La mamie de Rémy demandait l’institutrice » (gauche) et « La mamie
des amis de Rémy demandait l’institutrice » (droite) produits par 2 locutrices féminines. Le ton de syntagme H- est signalé dans
les deux cas, mais dans l’énoncé à droite (avec 3 AP), il est clair que ce ton de frontière provoque un rehaussement du pitch accent
LH* de sorte qu’il revienne à la ligne de registre du syntagme intermédiaire. Tiré de D’Imperio et Michelas (2014).
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 107
guistique (à la fois sémantique et pragmatique) et extra-linguis-
tique, ainsi que l’établissement et le maintien des fonctions
discursives telles que la prise de tour de parole (voir Venditti et
Hirschberg, 2003 pour une revue).
Un des rôles principaux de la prosodie et de l’intonation dans
la reconnaissance des mots est d’aider à la segmentation de la
chaîne continue des sons de parole en unités distinctes que sont
les mots. Les résultats d’études dans de nombreuses langues (voir,
par exemple, pour une revue Otake et Cutler, 1996) ont montré
que les auditeurs peuvent utiliser la structure rythmique des
é
noncés pour déterminer le positionnement des frontières de mots.
Comme la structure rythmique diffère selon les langues, les proces-
sus
impliqués dans la segmentation des énoncés en mots peuvent
également être spécifiques à une langue donnée. Par exemple, la
segmentation se fait sur la base de la syllabe en anglais (Cutler et
Norris, 1988), mais sur le positionnement de l’accent lexical
(stress) en français (Mehler, Dommergues, Frauenfelder, et Segui,
1981) et de la more, qui est une unité prosodique plus petite que
la syllabe, en japonais (Otake, Hatano, Cutler, et Mehler, 1993).
Cette spécificité de la langue peut entraîner une mauvaise appli-
cation des procédures de segmentation dans une langue étrangère
qui auraient une structure rythmique différente (Otake et Cutler,
1996). Autre exemple : les nourrissons peuvent distinguer percep-
tivement des langues rythmiquement différentes, mais pas celles
qui sont rythmiquement similaires (Nazzi, Bertoncini, et Mehler,
1998).
De multiples sources d’information sont traitées simultané-
ment pour construire la structure linguistique d’un énoncé (Nor-
ris, McQueen, et Cutler, 2000 ; Spivey-Knowlton et Tanenhaus,
1998), mais nous ne savons toujours pas comment les informa-
tions pragmatiques de haut niveau sont combinées aux informa-
tions prosodiques, ou comment et à quel moment les informations
acoustiques suprasegmentales (pitch, durée, qualité de la voix,
intensité sonore) s’intègrent pour permettre l’identification d’un
évènement phonologique de nature linguistique tel qu’un accent
mélodique et/ou un ton de frontière. Ce manque de connaissances
est, au moins en partie, lié au fait que la plupart des études sur la
perception et la fonction de l’intonation et du phrasé prosodique
en français ont été conduites en utilisant des méthodes « hors
ligne » ou des jugements de pertinence pour lesquels les processus
de compréhension ne sont pas indépendants des processus déci-
sionnels (Christophe, Peperkamp, Pallier, Block, et Mehler, 2004 ;
Michelas et D’Imperio 2015 ; Millotte, René, Wales, et Chris-
tophe, 2008 ; Pynte et Prieur, 1996). Cependant, des recherches
plus récentes sur le placement et la catégorie d’accent mélodique
(surtout de contraste ou focus), utilisant des mesures en temps réel,
ont mis en évidence que le positionnement des accents contrastifs
est à la base d’inférences contrastives très rapides (Dahan, Tanen-
haus, et Chambers, 2002 ; Ito et Speer, 2008). Malgré ces études,
il n’y a pas à l’heure actuelle de modèle de la façon dont le sens
prosodique s’intègre aux autres niveaux linguistiques dans le trai-
tement de la parole.
La relation entre le traitement du phrasé prosodique et de la
structure syntaxique des énoncés est l’un des aspects les plus étu-
diés en psycholinguistique. Il semble que les indices prosodiques
associés à la structure syntaxique soient produits à la fois en lec-
ture et en parole spontanée. En fait, la reconnaissance de la struc-
ture syntaxique d’un énoncé serait très largement déterminée par
le phrasé prosodique (Clifton, Carlson, et Frazier, 2002). Bien
que la syntaxe puisse fournir des indices pour la prosodie et vice
versa, la relation entre syntaxe et prosodie n’est pas univoque. Le
rôle de l’unité prosodique est particulièrement complexe lorsque
l’objet de l’étude est la parole conversationnelle, et non pas sim-
plement la parole de laboratoire. Bien que la structuration pro-
sodique soit beaucoup plus complexe, la plupart des études en
traitement de la prosodie considèrent une seule unité prosodique
maximale, le syntagme intonatif ou Intonation Phrase (IP), basé
sur de petites unités hiérarchisées, comme le Syntagme Intermé-
diaire ou Intermediate Phrase (IP, voir D’Imperio et Michelas,
2014 pour le français) et le Syntagme Accentuel ou Accentual
Phrase (AP, pour le français, voir Jun et Fougeron, 2000).
Des études récentes en français (D’Imperio et Michelas, 2014 ;
Michelas et D’Imperio, 2012) ont mis en évidence les caractéris-
tiques phonétiques et phonologiques du syntagme intermédiaire.
Il aurait, entre autres, une fonction syntaxique dans la mesure où
sa frontière droite semble placée entre des constituants syn-
taxiques majeurs (e.g., entre un syntagme nominal sujet et un
syntagme verbal). Cette structuration se baserait largement sur
un phénomène de reset du registre tonal déterminé par la hauteur
du premier pic de l’énoncé. De plus, les frontières de syntagme
intermédiaire, ainsi que celles de syntagme accentuel, seraient uti-
lisées en temps réel pour prédire le statut morphosyntaxique du
mot qui suit immédiatement un fragment d’énoncé. Dans l’étude
de Michelas et D’Imperio (2015), ces frontières ont été placées
après le fragment « La Nanadu sauna », qui pouvait être suivi,
par exemple, soit par « d’Héléna » (donc interne au syntagme
nominal) ou par « était…. » (donc un syntagme verbal). Nous
avons modulé la hauteur tonale de la dernière syllabe du frag-
ment, et demandé au sujet de choisir entre les deux complétions
possibles. Les résultats ont montré que la hauteur tonale est utili-
sée efficacement dans cette tâche : comme dans le cas d’une fron-
tière de syntagme intermédiaire, la dernière syllabe du fragment
est plus haute (ou bien elle n’est pas abaissée par un phénomène
de downstep), comme on peut voir en Figure 4b (Michelas et
D’Imperio, 2015, voir aussi D’Imperio et al., à paraître).
Une des méthodes qui commence à être largement utilisée
dans l’étude de l’utilisation incrémentale des indices prosodiques
dans le processus de compréhension du sens pragmatique (tel que
le contraste) est celle des mouvements oculaires. Elle permet de
mesurer les délais de fixations oculaires ainsi que leurs distribu-
tions sur une scène visuelle (Visual World Paradigm, Tanenhaus
et al., 1995). Elle permet aussi de montrer que les fixations sont
plus ou moins anticipées par rapport à des objets cibles affichés
sur un écran selon les modifications prosodiques des stimuli.
Ainsi, cette méthode permet d’étudier les effets d’anticipation du
contexte syntaxique, sémantique et prosodique. Un autre avan-
tage de cette méthode est que les effets en temps réel de la pro-
sodie peuvent être étudiés dans des milieux assez « naturel ». Par
exemple, grâce à une étude récente utilisant les mouvements ocu-
laires et exploitant le paradigme de la scène visuelle (Esteve-
Gibert, Portes, Schafer, Hemforth, et D’Imperio, 2016, à
paraître), nous avons montré une relation entre les différences
cognitives individuelles liées aux niveaux d’empathie (perspective
taking) et le traitement incrémental des indices prosodiques de
l’énoncé dans le cas de la signalisation du contraste prosodique.
En effet, les patrons de fixations oculaires des sujets les plus
empathiques seraient différenciés dès lors que la partie initiale
(ou pré-nucléaire) du syntagme intonatif est présentée. Ce résul-
tat démontre, pour la première fois, que l’auditeur ne doit pas
attendre d’avoir perçu l’accent nucléaire (et, donc, le ton de fron-
tière qui le suit) pour opérer un processus d’inférence sémantique
guidé par l’intonation.
108 Neurolinguistique
3. Traitement de l’intonation
et de la prosodie en compréhension :
données neurolinguistiques
N
ous prendrons ici quelques exemples issus de la neurolinguistique
qui soulignent les interactions étroites entre prosodie, sémantique
et syntaxe et qui illustrent l’évolution vers des modèles dynami-
ques de la construction du sens.
La méthode des Potentiels évoqués (PEs)1 permet de suivre, en
temps réel, le déroulement des opérations mentales qui président
à la compréhension du langage. Ainsi, on distingue typiquement
les composantesN100 et P200, liées au traitement sensoriel et
perceptif, la composanteN200 souvent associée aux processus de
c
atégorisation, la composanteN400, associée au traitement séman-
t
ique, et la famille des composantesP300 qui reflètent la prise de
décision et les processus liés à la détection d’un évènement perti-
nent et parfois surprenant, comme une violation syntaxique dans
un énoncé ou le non-respect d’une frontière prosodique.
3.1. Interaction des traitements prosodiques,
sémantiques et syntaxiques
L’une des premières études utilisant la méthode des PEs, réalisée
par Steinhauer et collaborateurs, a permis de montrer que les
indices prosodiques, en particulier les frontières prosodiques,
sont utilisés en temps réel pour construire la structure syntaxique
des énoncés, et sont associés à une composante positive tardive,
1. L’enregistrement de l’activité électrique cérébrale (EEG) au moyen
d’électrodes placées sur le scalp (typiquement insérées dans un casque à
électrodes) et le moyennage de cette activité en prenant comme origine des
temps le début de la stimulation (la présentation d’un mot, par exemple)
permet de faire émerger de l’électrogénèse corticale les variations ou
composantes qui sont liées au stimulus, au mot. Les composantes des PEs
sont caractérisées par leur polarité (N pour négatif, P pour positif), leur
latence par rapport au début du stimulus (N100, composante négative à
100 ms), leur amplitude et leur signication fonctionnelle qui est le plus
souvent encore matière à débats.
probablement de la famille des P300 (Steinhauer, Alter et Friede-
rici, 1999). En montrant qu’une composante des PEs était sen-
sible au traitement prosodique, ces résultats ont ouvert la voie à
d’autres études visant à examiner les relations entre la prosodie et
les autres niveaux de traitement linguistique. Ainsi, nous avons
comparé traitements prosodique et sémantique afin de détermi-
ner s’ils sont indépendants ou interactifs (Astésano, Besson, et
Alter, 2004). Pour ce faire, nous avons construit des énoncés pro-
sodiquement congruents (phrases interrogatives ou déclaratives)
ou incongrus (un début de phrase interrogative combiné à une fin
d
e phrase déclarative et vice-versa) et des énoncés sémantiquement
congruents (« la lumière clignotait ») ou incongrus (« la toiture
conduisait »). Les participants faisaient attention à l’intonation
ou à la sémantique des énoncés. Les résultats principaux montrent
que la composanteN400 est plus ample lorsque le dernier mot de
la phrase est incongru que lorsqu’il est congruent (indépendam-
ment de la direction de l’attention) et que l’amplitude d’une com-
posante positive tardive, de la famille des P300, est plus ample
pour les énoncés prosodiquement incongrus que congruents
(lorsque les participants prêtent attention à la prosodie). Sur la
base de cette première analyse, on pourrait conclure que les deux
types d’incongruité sont associés à des composantes des PEs dif-
férentes et donc à des processus différents, et que, par consé-
quent, traitements sémantique et prosodique sont indépendants.
Mais les choses ne sont pas si simples. En effet, l’effet de la valeur
prosodique de l’énoncé est plus fort pour les phrases sémantique-
ment incongrues que pour les phrases congruentes ce qui montre
que les aspects prosodiques (ici l’intonation) et sémantiques d’un
énoncé sont traités en temps réel et en interaction. Ils démontrent
également que la valeur sémantique de l’énoncé est comprise
automatiquement (indépendamment de la direction de l’atten-
tion) alors qu’il faut prêter attention aux « monstres prosodiques »
(début de phrase interrogative associé à une fin de phrase décla-
rative) pour qu’ils suscitent un effet au niveau électrophysiolo-
gique.
Il y a bien sûr mille manières de tester les relations entre pro-
sodie et sémantique. Dans une autre expérience (Magne et al.,
2007), nous avons comparé des énoncés métriquement con-
FIGURE 4. Courbes de f0 pour les deux fragments de phrase « La nana du sauna » dont la dernière syllabe « na » est soit associée à
une frontière de type AP (a), soit à une frontière de syntagme intermédiaire de type ip (b).
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 109
gruents, pour lesquels l’allongement de la durée syllabique qui se
produit typiquement à la fin d’un mot est bien placé (« Le con-
cours a regroupé mille candidats »), et des énoncés métriquement
incongrus, pour lesquels l’allongement syllabique est mal placé
sur l’avant-dernière syllabe (« Le concours a regroupé mille can-
didats »). Les énoncés, sémantiquement congruents dans les
exem ples ci-dessus, pouvaient également être sémantiquement
incongrus (« Le concours a regroupé mille bigoudis » et « Le
concours a regroupé mille bigoudis »). Les participants faisaient
attention à la métrique ou à la sémantique des énoncés. Une petite
parenthèse avant de résumer les résultats obtenus. Modifier la
durée d’une syllabe sans modifier sa fréquence fondamentale (f0)
ou son intensité est un problème ardu, que nous avons pu résou-
dre, mais qui montre clairement les interactions très fortes entre
les différents paramètres acoustiques qui forment les sons. Par
exemple, la perception de la durée d’un son semble dépendre non
seulement de sa fréquence, mais aussi de son intensité perçue, la
sonie. Retournons maintenant aux résultats qui montrent que les
mots métriquement incongrus suscitent, comme nous l’avons vu
pour d’autres incongruités prosodiques, des composantes posi-
tives tardives de type P300, dont la latence varie entre 300 et
800ms post-stimulus. Or, dans ce cas, une composanteN400
précède la composante positive tardive, ce qui pourrait signifier
qu’un allongement syllabique mal placé sur l’avant-dernière syl-
labe perturbe l’accès au sens du mot. De nouveau, ces résultats
ill
ustrent les interactions qui existent entre traitements prosodique
(métrique) et sémantique. Des collègues du Max Planck Institute
à Leipzig, Schmidt-Kassow et Kotz (2009), ont utilisé un proto-
cole très proche pour tester les relations entre métrique et syn-
taxe. Ils ont obtenu des résultats similaires ce qui les a conduits à
conclure que la valeur métrique d’un énoncé influence non seule-
ment les aspects sémantiques, mais aussi de structuration syn-
taxique. De manière générale, ces résultats sont en accord avec
les modèles actuels de la compréhension du langage mentionnés
ci-dessus, selon lesquels les différents indices disponibles (accents,
intonations, phrasés, sémantiques et syntaxiques) sont utilisés en
temps réel pour faciliter la compréhension des énoncés (Hagoort,
2014 ; Norris et al., 2000).
3.2. La fonction pragmatique de la prosodie
Dans une autre étude (Magne et al., 2005) nous avons testé la
fonction pragmatique de la prosodie à travers le concept de focus
prosodique (accent d’emphase). Évidemment, c’est un peu com-
pliqué, mais allons-y ! Nous avons construit de courts dialogues
sous forme de questions-réponses :
1) A-t-il donné une bague ou un bracelet à sa fiancée ? Il a donné
une bague à sa fiancée (l’accent focal est là où il doit être, tout
va bien)
2) A-t-il donné une bague à sa fiancée ou à sa sœur ? Il a donné
une bague à sa fiancée (ici rien ne va plus, l’accent focal est
mal placé ; peut-être que le locuteur ne souhaite pas répondre
à une question dont la réponse peut prêter à conséquences…).
3) A-t-il donné une bague à sa fiancée ou à sa sœur ? Il a donné
une bague à sa fiancée (l’accent focal est bien placé sur le
dernier mot, c’est clair, tout va bien)
4) A-t-il donné une bague ou un bracelet à sa fiancée ? Il a donné
une bague à sa fiancée (de nouveau, rien ne va plus, peut-être
que le locuteur ne veut pas répondre à la question posée par
peur d’incidents diplomatiques…)
Ce protocole assez complexe a néanmoins permis d’obtenir
des résultats très clairs. Un accent focal mal placé suscite des
variations particulières au niveau des PEs : l’accent focal est donc
traité en temps réel et permet de mieux comprendre la réponse à
la question posée. Ces variations sont différentes en fonction de
la position de l’accent focal dans l’énoncé : au milieu de l’énoncé,
il crée un effet de surprise qui se traduit par l’occurrence d’une
composante de type P300 (comme vu précédemment pour les
incongruités métriques et d’intonation). À la fin de l’énoncé, il
crée une incompréhension (il n’y a pas d’autres informations dis-
ponibles pour éclairer le malentendu) qui est associée à une com-
posanteN400. Ces jolis résultats, qui n’ont été que très peu cités
dans la littérature…, montrent que la prosodie, en soulignant la
valeur pragmatique des énoncés, facilite la fonction communica-
tive du langage.
Enfin, il est également important de noter que des travaux
récents (Rufener, Oechslin, Wöstmann, Dellwo, et Meyer, 2015)
ont démontré une relation entre les oscillations neurales de l’EEG
dans le rang de fréquence thêta (4–8 Hz) lors de l’écoute d’énon-
cés qui sont modulés de manière à préserver l’enveloppe tempo-
relle et dans le rang de fréquence gamma (30-48 Hz) lorsque la
structure temporelle fine est préservée. Ces résultats vont dans le
sens du modèle proposé par Poeppel (2003) qui fait l’hypothèse
d’un isomorphisme entre les modulations de fréquence au niveau
des rythmes de l’EEG et les oscillations acoustiques du langage
parlé.
3.3. Les régions cérébrales activées par la prosodie
De nombreux travaux ont utilisé l’Imagerie par Résonance
Magnétique fonctionnelle (IRMf) pour tenter de localiser les
régions cérébrales spécifiquement impliquées dans le traitement
de la prosodie. Les premières études (Meyer, Alter, et Friederici,
2003 ; Meyer, Steinhauer, Alter, Friederici, et von Cramon, 2004)
ont souvent comparé des énoncés linguistiquement corrects à des
énoncés filtrés qui préservent les informations prosodiques d’am-
plitude, de fréquence et de durée, mais qui suppriment les infor-
mations morpho-syntaxiques et lexicales de telle manière que
l’énoncé est incompréhensible, mais qu’il est possible de recon-
naître le contour prosodique. Les résultats soulignent l’implica-
tion des régions frontales, en particulier des aires fronto-latérales
de l’hémisphère droit. En outre, les énoncés dont les mots à
contenu sémantique ont été remplacés par des pseudo-mots (qui
sont donc syntaxiquement et prosodiquement corrects mais qui
n’ont pas de sens) activent le planum polare et la région fron-
to-operculaire bilatéralement. Or, des résultats très récents (Nor-
man-Haignere, Kanwisher, et McDermott, 2015) obtenus en
utilisant des méthodes d’analyse sophistiquées montrent que le
planum polare serait spécifiquement impliqué lors de l’écoute de
sons musicaux…
Une idée, largement répandue (bien qu’elle ne soit pas néces-
sairement correcte), est que la prosodie est traitée dans l’hémis-
phère droit. En effet, les résultats des premières études ont montré
des activations plutôt à droite qu’à gauche. Par exemple, Wein-
traub et collaborateurs (Weintraub, Mesulam, et Kramer, 1981)
ont testé des participants avec lésions de l’hémisphère droit et des
participants de contrôle dans une tâche de discrimination de
phrases déclaratives et interrogatives ; ils ont montré que les
capacités de discrimination étaient diminuées chez les patients
avec lésion droite. Des résultats similaires ont été rapportés par
Bryan (1989) en utilisant la même tâche, mais en ajoutant un
110 Neurolinguistique
groupe de patients avec lésion à gauche ; les patients avec lésion
àdroite avaient plus de difficultés à percevoir l’intonation des
énoncés que les patients avec lésion à gauche et les participants
decontrôle. Ainsi, en accord avec l’idée que la prosodie est la
musique du langage (voir ci-dessous) et que le traitement de la
musique se fait dans l’hémisphère droit, les résultats de ces deux
études suggèrent que le traitement de la prosodie linguistique est
aussi préférentiellement localisé dans l’hémisphère droit (pour des
résultats similaires chez le participant sain voir Shipley-Brown,
Dingwall, Berlin, Yeni-Komshian et Gordon-Salant, 1988).
Cependant, d’autres résultats soulignent que l’intégralité des
deux hémisphères est nécessaire au traitement de la prosodie lin-
guistique. Par exemple, Perkins et al. (Perkins, Baran, et Gan-
dour, 1996) n’ont pas trouvé de différences significatives entre
patients avec lésions dans les hémisphères droit ou gauche dans
une tâche d’identification ou de discrimination de phrases inter-
rogatives ou déclaratives (i.e., avec intonation) et de frontières
syntaxiques (i.e., sans intonation). Imaizumi et collaborateurs
(Imaizumi, Mori, Kiritani, Hiroshi, et Tonoike, 1998) ont obtenu
des résultats similaires (activation bilatérale lors de tâches impli-
quant la prosodie linguistique) en utilisant la Magnétoencéphalo-
graphie (MEG). Plus récemment, Witteman et collaborateurs
(Witteman, van Ijzendoorn, van de Velde, van Heuven et Schiler,
2011) ont fait une méta-analyse des études conduites chez des
patients cérébro-lésés. Ces auteurs insistent sur le fait que ces
études posent souvent des problèmes au niveau méthodologique,
comme par exemple, le manque d’un groupe de contrôle adapté,
le fait que les effets de transfert inter-hémisphérique par le corps
calleux ne soient pas considérés et que l’hétérogénéité des lésions
(aussi bien du type de lésions que de leur localisation) dans l’hé-
misphère droit (ou gauche) puisse avoir des conséquences com-
portementales très différentes (Wong, 2002). En fait, les résultats
conduisent à penser que la spécialisation hémisphérique pour la
prosodie serait plutôt relative qu’en tout ou rien. Les auteurs con-
cluent qu’il n’y a pas de différences significatives entre les deux
hémisphères pour le traitement de la prosodie linguistique, et que
les lésions de l’hémisphère gauche, aussi bien que celles de l’hé-
misphère droit, ont un effet négatif important (voir aussi la revue
de Baum et Pell, 1999 pour des conclusions similaires).
Une autre méta-analyse de la perception de la prosodie lin-
guistique a été réalisée récemment par Belyk et Brown (2014),
cette fois chez des participants sains. Ces auteurs ont considéré
les données obtenues en utilisant l’IRMf ou la Tomographie par
Émission de Positons (TEP) en sélectionnant les études selon des
critères rigoureux (e.g., utilisation de tâches expérimentales por-
tant explicitement sur la perception de la prosodie ; une condition
de contrôle incluant un traitement de bas niveau ; une analyse
portant sur la différence entre tâche expérimentale et de contrôle ;
des analyses sur le cerveau pris dans son ensemble et non pas
centrées sur des régions d’intérêt...). De nouveau, les problèmes
méthodologiques sont tels que seules 10 études résistent à cette
sélection rigoureuse ! Le plus souvent, les résultats montrent des
activations dans les régions typiquement impliquées dans la per-
c
eption et la compréhension du langage : des activations bilatérales
du gyrus frontal inférieur (pars opercularis, aire de Brodmann44
[BA44], i.e., aire de Broca et homologue de Broca dans l’hémis-
phère droit), du gyrus frontal moyen, du cortex auditif primaire
(BA41) et de la partie postérieure du gyrus temporal supérieur,
du gyrus supra-marginal (BA40) et de l’aire motrice supplémen-
taire plutôt à droite, et des activations du noyau caudé plutôt
latéralisées à gauche.
Ainsi, les résultats de ces méta-analyses, réalisées 30 ans après
les premières études sur la perception de la prosodie linguistique,
soulignent de nouveau que les résultats, qu’ils soient obtenus
chez patients ou des participants sains, sont très variables : ils
révèlent parfois des activations unilatérales (à droite ou à gauche),
par exemple des régions auditives dans le lobe temporal, et par-
fois des activations bilatérales, par exemple du lobe frontal (Meyer,
Alter, Friederici, Lohmann, et von Cramon, 2002 ; Strelnikov,
Vorobyev, Chernigovskaya, et Medvedev, 2006). La question de
la spécialisation hémisphérique du traitement de la prosodie lin-
guistique reste donc ouverte.
Pour conclure cette section, nous considérons maintenant deux
h
ypothèses, liées aux effets du stimulus ou aux effets de la tâche,
qui ont été proposées pour expliquer la variabilité des résultats
concernant la localisation du traitement de la prosodie linguis-
tique.
L’hypothèse selon laquelle les différences de latéralisation
sont liées aux caractéristiques du stimulus repose sur l’idée que
tous les paramètres acoustiques de la prosodie sont traités dans
l’hémisphère droit et intégrés avec l’information traitée dans l’hé-
misphère gauche à travers le corps calleux (Klouda, Robin,
Graff-Radford, et Cooper, 1988). Cependant, d’autres résultats
montrent que certains paramètres acoustiques sont pris en charge
par l’un ou l’autre des deux hémisphères : temporel (hémisphère
gauche) vs spectral (hémisphère droit ; Robin, Tranel, et Damasio
,
1990 ; Van Lancker et Sidtis, 1992), haute (à gauche) vs basse
fréquence (à droite ; Ivry et Robertson, 1998), et transitions for-
mantiques rapides (à gauche) vs lentes (à droite ; Schwartz et Tallal,
1980).
L’hypothèse selon laquelle les différences observées sont liées
à la tâche repose plutôt sur les niveaux hiérarchiques de la struc-
ture linguistique (Behrens, 1989). Ainsi, les aspects prosodiques
au niveau de la phrase (intonation, phrasé) relèveraient d’un trai-
tement global pris en charge par l’hémisphère droit alors que les
as
pects prosodiques au niveau du mot (accent lexical) relèveraient
d’un traitement local dans l’hémisphère gauche. Par exemple,
Gandour et collègues (2003) ont montré dans une étude utilisant
l’IRMf et une tâche de discrimination de la taille des fenêtres
d’intégration temporelle (i.e., fenêtre courte = contours de hau-
teur associés aux tons chinois ; fenêtre longue = contours d’into-
nation), que les contours de hauteur locaux (tons chinois) étaient
traités dans l’hémisphère gauche alors que les contours de hauteur
globaux (intonation) étaient traités bilatéralement, avec une pré-
férence pour l’hémisphère droit. Ces résultats vont dans le sens
du modèle proposé par Poeppel (2001) dans lequel les informa-
tions auditives dans une fenêtre courte (25-50 ms) sont traitées
préférentiellement dans l’hémisphère gauche et dans une fenêtre
longue (150-250 ms), plutôt dans l’hémisphère droit.
En conclusion, et en accord avec l’évolution des modèles lin-
guistiques décrite dans la première section de ce chapitre, le trai-
tement de la prosodie linguistique impliquerait une interaction
dynamique entre les deux hémisphères. Cette interaction serait
modulée à la fois par le traitement des paramètres acoustiques
contenus dans le contour prosodique et par l’importance accor-
dée au niveau de structuration linguistique, avec une sensibilité
aux informations prosodiques suprasegmentales dans l’hémis-
phère droit et une dominance de l’hémisphère gauche dans le trai-
tement des variations prosodiques au niveau segmental.
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 111
4. Prosodie et musique
On dit souvent que la prosodie est la musique du langage. Mais
quelle est la réalité scientifique de cette jolie métaphore ? Comme
nous l’avons vu précédemment, la prosodie repose sur quatre
paramètres acoustiques, la fréquence, la durée, l’intensité et le
timbre qui correspondent aux percepts de hauteur, de rythme ou
de mètre, de sonie et de timbre, et sur leurs interactions. Or, la
musique repose également sur ces mêmes paramètres acoustiques
et sur leurs interactions ce qui a conduit les chercheurs à détermi-
ner si le traitement des aspects prosodiques du langage et de la
musique repose ou pas sur des processus communs (pour une
analyse des relations entre chant et musique, voir le chapitre de
Lévêque et al., ce volume). Cette question qui pourrait paraître
relativement simple et circonscrite a néanmoins une portée théo-
rique importante. En effet, si langage et musique partagent des
processus communs, le langage ne peut pas être considéré comme
un système isolé et indépendant des autres activités cognitives,
comme la musique, par exemple. Au contraire, l’acte de langage,
dans sa complexité et ses différents niveaux d’organisation (pho-
nologique, prosodique, sémantique, syntaxique, pragmatique) se
construit en interaction avec les autres fonctions cognitives, telles
que l’attention, la mémoire et les fonctions exécutives et motrices.
On voit ainsi qu’une réponse positive remet en cause une organi-
sation strictement hiérarchique et modulaire du langage au profit
d’une organisation dynamique et interactive où le système lin-
guistique tire profit de toutes les informations disponibles à un
instant donné pour construire l’acte de langage.
4.1. Les eets de l’expertise musicale
sur le traitement de la prosodie
Les musiciens ont développé une meilleure perception auditive et
ils perçoivent mieux que les non-musiciens des variations de hau-
teur ou de durée dans des phrases musicales. Ceci n’est pas pour
nous étonner compte tenu qu’un musicien professionnel âgé de
25 ans, a passé environ 30000 heures à pratiquer son instrument
de musique et donc à écouter et à produire des sons. Ce qui est
plus étonnant est que cet avantage s’étend à la perception des
différents aspects de la prosodie. Par exemple, dans une première
série d’expériences nous avons étudié la perception de l’intona-
tion, qui permet on l’a vu, de différencier phrases interrogatives
(la hauteur monte en fin de phrase : « Tu fumes encore ? ») et
phrases déclaratives (la hauteur reste stable ou descend en fin de
phrase : « La petite fille lit un livre d’images »). Nous avons mon-
tré que les adultes musiciens professionnels aussi bien que les
enfants, entre 9 et 12 ans, qui suivent un apprentissage musical
depuis 4 à 5 ans en moyenne, sont plus sensibles aux variations
d’intonation que les non-musiciens, surtout lorsque ces varia-
tions d’intonation sont difficiles à percevoir (faible variation de
la f0). Cette plus grande sensibilité se traduit par une latence
plus courte et une augmentation de l’amplitude de la compo-
sante P300, associée, entre autres, à la perception consciente
d’évènements pertinents (Magne, Schön, et Besson, 2006 ; Schön,
Magne, et Besson, 2004). En outre, les musiciens adultes sont
également plus sensibles que les non-musiciens à des variations
d’intonation dans une langue étrangère qu’ils ne comprennent
pas (des phrases en Portugais ; Marques, Moreno, Castro, et Bes-
son, 2007). Enfin, nous avons utilisé le protocole expérimental
décrit plus haut qui permet de manipuler l’allongement sylla-
bique sur le dernier mot (métriquement congruent) ou avant-der-
nier mot (métriquement incongru ; Magne et al., 2007) afin de
déterminer si les musiciens sont plus sensibles à la métrique d’un
énoncé (Marie, Magne, et Besson, 2010). En accord avec cette
hypothèse, les résultats montrent que les musiciens font moins
d’erreurs et réagissent plus fortement que les non-musiciens à la
structure des mots au niveau perceptif (augmentation d’ampli-
tude de la composanteP200) ce qui semble interférer avec l’inté-
gration du sens des mots (augmentation d’amplitude de la
composanteN400) dans le contexte de l’énoncé (augmentation
d’amplitude d’une composante positive tardive de type P300).
Ainsi, ces différents résultats suggèrent que les musiciens ont
développé une plus grande sensibilité aux différents paramètres
acoustiques que les non-musiciens ce qui leur permettrait de
mieux percevoir des variations de hauteur ou de durée non seule-
ment dans la musique, mais aussi dans le langage. Cependant, des
facteurs autres que perceptifs, tels que l’attention auditive (très
difficile à dissocier de la perception auditive) ou la mémoire audi-
tive, peuvent également contribuer à expliquer ces résultats.
L’apprentissage musical facilite également la perception des
variations de hauteur dans des langues à tons, comme le Chinois
Mandarin ou le Thaï, dans lesquelles ces variations sont linguis
ti-
quement pertinentes car elles modifient le sens des mots (Bidelman,
Gandour, et Krishnan, 2011). Par exemple, le mot monosylla-
bique /di/ prononcé sur un ton haut signifie « bas » alors que /di/
prononcé sur un ton descendant signifie « terre ». L’analyse des
PEs montre que la composanteN2 associée à la catégorisation et
la composanteP300, associée, entre autres, à la prise de décision
sont respectivement de plus courte latence et de plus grande
amplitude pour les musiciens que pour les non-musiciens (Marie,
Delogu, Lampis, Olivetti Belardinelli, et Besson, 2011). Ces
résultats confortent l’idée intuitive selon laquelle les musiciens
ont des facilités pour apprendre des langues étrangères, et en par-
ticulier, peut-être, les langues à tons…
En conclusion, il est intéressant de noter un retour d’intérêt
pour les similarités entre prosodie et musique. En effet, alors que
de nombreux travaux au cours des 15 dernières années ont eu
pour but de comparer la structure harmonique des phrases musi-
cales et la structure syntaxique des phrases linguistiques, certains
auteurs (Heffner et Slevc, 2015) argumentent de manière tout à
fait convaincante en faveur d’une plus grande similarité entre
structures prosodiques et musicales qu’entre structures syn-
taxiques et harmoniques. Ceci ouvre évidemment la voie à de
nouvelles recherches…
4.2. La prosodie émotionnelle
La prosodie est aussi le véhicule privilégié pour la transmission
des émotions : comment rester insensible à une voix pathétique
ou refuser une demande énoncée d’une voix très douce… Les pre-
miers travaux dans ce domaine (Schirmer, Kotz, et Friederici,
2002) ont examiné la fonction émotionnelle de la prosodie en
manipulant l’intonation joyeuse ou triste d’énoncés sémantique-
ment neutres (« Hier, elle a passé son dernier examen). La présen-
tation visuelle d’un mot cible qui ne correspond pas à l’intonation
(e.g., le mot « succès » après une intonation triste) est associée à
une composanteN400 plus ample que si le mot cible correspond
à l’intonation (e.g., le mot « succès » après une intonation joyeuse)
ce qui montre que, comme la prosodie linguistique, la prosodie
émotionnelle interagit avec le traitement sémantique. Des tra-
vaux suivants (Kotz et al., 2003), utilisant cette fois l’IRMf, ont
montré que les intonations tristes et joyeuses activent un réseau
112 Neurolinguistique
bilatéral fronto-temporal ainsi que des régions sous-corticales
(les ganglions de la base). En outre, l’activation frontale est ren-
forcée lorsque les énoncés sont filtrés de manière à ne retenir que
les modulations prosodiques (le contenu linguistique n’est pas
intelligible).
Qu’en est-il des effets de l’expertise musicale sur la perception
de la prosodie émotionnelle ? Des travaux récents (Lima et Cas-
tro, 2011) montrent que les musiciens reconnaissent plus précisé-
ment que les non-musiciens les émotions de colère, de dégoût, de
peur, de joie, de tristesse ou de surprise, portées par une phrase
sémantiquement neutre (e.g., « Elle a voyagé par train »). Par
conséquent, si vous voulez cacher vos sentiments, mieux vaut ne
pas parler à un musicien : son oreille entraînée pourrait déceler
vos secrets…
5. Conclusion
Ce résumé, forcément incomplet, des travaux conduits en linguis-
tique, psycho- et neurolinguistique sur la perception et la produc-
tion de la prosodie permet néanmoins de souligner un aspect
fondamentalement encourageant : l’évolution convergente des
conceptions issues de ces différentes approches. En effet, les théo-
ries linguistiques ont évolué à partir d’une conception modulaire
de l’organisation du langage, accordant un rôle premier à la syn-
taxe, vers une conception dynamique dans laquelle tous les
indices linguistiques, y compris bien sûr les indices prosodiques,
sont traités en temps réel et en interaction pour comprendre et
produire un énoncé. Ces conclusions sont largement en accord
avec celles basées sur les données acquises en psycho- et neurolin-
guistique et avec les modèles proposés dans ces domaines. On
assiste donc à la convergence des cercles linguistique, psycholin-
guistique et neurolinguistique et au développement de la « neu-
ro(psycho)linguistique » décrite par Jean-Luc Nespoulous dans
l’introduction de ce livre, ce qui témoigne s’il en est encore besoin,
de l’importance de l’interdisciplinarité.
Références bibliographiques
Astésano, C., Besson, M. & Alter, K. (2004). Brain potentials
during semantic and prosodic processing in French. Cognitive Brain
Research, 18, 172-184.
Baum, S. & Pell, M. (1999). The neural bases of prosody : Insights
from lesion studies and neuroimaging. Aphasiology, 13, 581-608.
Beckman, M.E. (1986). Stress and non-stress accent (Netherlands
Phonetics Archives, vol. VII). Dordrecht : Foris Publications. Pp.xiii +
239.
Beckman, M.E. (1996). The parsing of prosody. Language and
Cognitive Processes 11, 17-67.
Beckman, M.E. & Ayers Elam, G. (1993). Guidelines for ToBI
labelling, version 3.0. Manuscript and accompanying speech materials,
Ohio State University. [Obtain by writing to tobi@ling.ohio-state.edu]
Behrens, S.J. (1989). Characterizing sentence intonation in a right
hemisphere-damaged population. Brain and Language, 37, 181-200.
Belyk, M. & Brown, S. (2014). Perception of affective and linguistic
prosody : an ALE meta-analysis of neuroimaging studies. Social
Cognitive and Affective Neuroscience, 9, 1395-1403.
Beyssade, C., Delais-Roussarie, E., Marandin, J.-M. & Rialland, A.
(2004). « Prosody and Information in French », in F. Corblin & H. de
S
wart & (eds.),Handbook of French Semantics, Stanford : CSLI. 477-500.
Bidelman, G.M., Gandour, J.T. & Krishnan, A. (2011). Musicians
and tone-language speakers share enhanced brainstem encoding but not
perceptual benefits for musical pitch. Brain and Cognition, 77, 1-10.
Bolinger, D.L. (1978). Intonation across languages. In J. Greenberg,
Ed., Universals of Human Language, vol. 2, Phonology. Palo Alto, CA :
Stanford University Press, pp. 471-524.
Bryan, K.L. (1989). Language prosody and the right hemisphere.
Aphasiology, 3, 285-299.
Christophe, A., Peperkamp, S., Pallier, C., Block, E. & Mehler, J.
(2004). Journal of Memory and Language, 51, 523-547.
Clifton, C., Carlson, K. & Frazier, L. (2002). Informative prosodic
boundaries. Language and Speech, 45, 87-114.
Cutler, A. (1982). Prosody and sentence perception in English. In
J.Mehler, E.C.T. Walker & M.F. Garrett, Eds., Perspectives on Mental
Representation : Experimental and Theoretical Studies of Cognitive
Processes and Capacities. Hillsdale, NJ : Erlbaum, pp.201-216.
Cutler, A., Dahan, D. & van Donselaar, W. (1997). Prosody in the
comprehension of spoken language : a literature review. Language &
Speech, 40, 141-201.
Cutler, A. & Norris, D.G. (1988). The role of strong syllables in
segmentation for lexical access. Journal of Experimental Psychology :
Human Perception and Performance 14, 113-121.
Dahan, D., Tanenhaus, M.K. & Chambers, C.G. (2002). Accent
and reference resolution in spoken-language comprehension. Journal of
Memory and Language, 47, 292-314.
De Boysson-Bardies, B. (1996). Comment la parole vient aux enfants.
Odile Jacobs.
Delais-Roussarie, E., Post, B., Avanzi, M., Buthke, C., Di Cristo, A.,
Feldhausen, I., Jun, S.A., Martin, P., Meisenburg, T., Rialland, A.,
Sichel-Bazin, R. & Yoo, H. (2015) Chapter3 : Intonational Phonology
of French : Developing a ToBI system for French, Intonation in
Romance, Oxford University Press, Editors : Sónia Frota & Pilar Prieto.
Di Cristo, A. (1999). Vers une modélisation de l’accentuation du
français : Première partie. Journal of French Language Studies, 9, 143-180.
D’Imperio, M. (2000). The role of perception in defining tonal target
s
and their alignment. Ph.D Dissertation, The Ohio State University.
D’Imperio, M. (2002). Italian intonation : An overview and some
questions. Probus, 14, 37-69.
D’Imperio, M. (2005a). Aspects prosodiques de l’italien de Naples :
proéminence, catégories accentuelles et cibles tonales. Mémoire HDR,
ParisIII (Sorbonne Nouvelle).
D’Imperio, M. (2005b). « La Phonologie de Laboratoire : finalités et
quelques applications ». In Nguyen, Noël, Wauquier-Gravelines, Sophie
and Durand, Jacques (Eds.) Phonologie et phonétique : Forme et
substance. Paris : Hermès. 2005, p.241-264.
D’Imperio, M. (2011). « Prosodic representations ». In A. Cohn, C.
Fougeron & M. Huffman (Eds.), Handbook of Laboratory Phonology.
Oxford : Oxford University Press (section on tonal alignment).
D’Imperio, M., Bertrand, R., Di Cristo, A. & Portes, C. (2007).
« Investigating phrasing levels in French : Is there a difference between
nuclear and prenuclear accents ? » In J. Camacho, V. Deprez, N. Flores,
L. Sanchez (Eds.), Selected Papers from the 36th Linguistic Symposium
on Romance Languages (LSRL). New Brunswick : John Benjamins
Publishing Company, pp.97-110.
D’Imperio, M., Cavone, R. & Petrone, C. (2014). Phonetic and
p
honological imitation of intonation in two varieties of Italian. Frontiers
in Psychology, 5, 1226.
D’Imperio, M., Champagne-Lavau, M., Loevenbruck, H. &
Fouillaud, L. (2013). Perceptual evaluation of tonal and contextual cues
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 113
to sarcasm in French. Phonetics and Phonology in Iberia (PaPI), June
25-26 2013, Lisbon.
D’Imperio, M., German, J. & Michelas, A. (2012). A multi-level
approach to focus, phrasing and intonation in French. In Elordieta, G.
and Prieto, P. (eds), Prosody and Meaning(pp. 11-35).
D’Imperio, M., Grice, M. & Cangemi, F. (2016). Advancing Prosodic
Transcription. Laboratory Phonology (special issue of prosodic
transcription).
D’Imperio, M.& D. House (1997). « Perception of questions and
statements in Neapolitan Italian », Proceedings of Eurospeech 97, 1,
251-254, Rhodes.
D’Imperio, M. & Michelas, A. (2014). Pitch scaling and the internal
structuring of the Intonation Phrase in French. Phonology, 31, 95-122.
D’Imperio, M., Michelas, A. & Portes, C. (à paraitre). École d’Aix
et approches tonales de l’intonation du français : un aperçu des recherches
depuis les années1970. Langue Française.
Dohen, M. & Lœvenbruck, H. (2004). Pre-focal rephrasing, focal
enhancement and post-focal deaccentuation in French. In Proceedings of
ICSLP, 1313-1316.
Esteve-Gibert, N., Portes, C., Schafer, A., Hemforth, B. &
D’Imperio, M. (2016). Intonation in the processing of contrast meaning
in French : an eye-tracking study. Proceedings of the Speech Prosody
2016, Boston, MA (USA).
Esteve-Gibert, N., Portes, C., Schafer, A., Hemforth, B. D’Imperio
M. (à paraitre). « Intonation and empathy in the online processing of
contrastive meaning in French ». Language and Speech (special issue on
Prosody and Meaning, Eds. P. Prieto and M.V. Escandell.
Féry, C. (2001). The Phonology of Focus in French.In : Audiatur
Vox Sapientiae. A Festschrift for Arnim von Stechow. C. Féry and
W.Sternefeld (eds.). Berlin. A-V. 153-181.
Fry, D.B. (1955). Duration and intensity as physical correlates of
linguisticstress. The Journal of the Acoustic Society of America, 27,
765-768.
Fry, D.B. (1958). Experiments in the perception of stress. Language
and Speech, 1, 126-152.
Gandour, J., Dzemidzic, M., Wong, D., Lowe, M., Tong, Y.,
Hsieh, L., Satthamnuwong, N. & Lurito, J. (2003). Temporal
integration of speech prosody is shaped by language experience : an
fMRI study. Brain and Language, 84, 318-36.
Gerken, L.A. (1996). Prosody’s role in language acquisition and
adult parsing. Journal of Psycholinguistic Research, 25, 341-352
Gerken, L.A. & Aslin, R.N. (2005). Thirty years of Reserch on Infant
S
peech Perception : The Legacy of Peter W. Juszyk. Language Learning
and Development, 1, 5-21.
German, J. & D’Imperio, M. (2010). « Predicting Phrase-initial
Accents in French : Length Constraints and Focus ». Speech Prosody5,
Mai 11-14, 2010, Chicago, USA, 100207 : 1-4.
German, J. & D’Imperio, M. (2015). The Status of the Initial Rise
as a Marker of Focus in French, Language and Speech, 59, 165-195.
Grabe, E., Gussenhoven, C., Haan, J., Marsi, E. & Post, B. (1998).
Preaccentual pitch and speaker attitude in Dutch. Language and
Speech41, 63-85.
Grice, M., D’Imperio, M., Savino, M. & Avesani, C. (2005). Towards
a strategy for labelling varieties of Italian. In Jun, S.-A. (ed.) Prosodic
Typology and Transcription : A Unified Approach. Oxford : Oxford
University Press. 55-83.
Hagoort, P. (2014). Nodes and networks in the neural architecture
for language : Broca’s region and beyond. Current Opinion in Neuro-
biology, 28, 136-141.
Heffner, C.C. & Slevc, L.R. (2015). Prosodic Structure as a Parallel
to Musical Structure. Frontiers in Psychology, 22, 1962.
Hirschberg, J. & Pierrehumbert, J. (1986). Intonational Structuring
of Discourse. Proceedings of the 24th Meeting of the Association for
Computational Linguistics, 136-144.
Imaizumi, S., Mori, K., Kiritani, S., Hiroshi, H. & Tonoike, M.
(1998). Task-dependent laterality for cue decoding during spoken
language processing. Neuroreport, 9, 899-903.
Ito, K. & Speer, S. (2008). Anticipatory effects of intonation : Eye
movements during instructed visual search. Journal of Memory and
Language. 58, 541-573.
Ivry, R. & Robertson, L. (1998). The two sides of perception.
Cambridge, MA : MIT Press.
Jun, S.-A. (2005). Editor. Prosodic Typology : The Phonology of
Intonation and Phrasing. Oxford University Press.
Jun, S.-A. (2014). Editor. Prosodic Typology II : The Phonology of
Intonation and Phrasing. Oxford University Press.
Jun, S.-A. & Fougeron, C. (2000). A Phonological Model of French
Intonation. In Intonation : Analysis, Modeling and Technology, ed. by
Antonis Botinis. Kluwer Academic Publishers. 209-242.
Jun, S.-A. & Fougeron, C. (2002). The Realizations of the
Accentual Phrase in French Intonation. Probus, 14,147-172.
Jusczyk, P.W., Cutler, A. & Redanz, N. (1993). Infants sensitivity
to predominant word stress patterns in English. Child Development, 64,
675-687.
Jusczyk, P.W. & Kemler Nelson, D. (1996). Syntactic units,
prosody, and psychological reality duringinfancy. In J. Morgan & K.
Demuth (Eds.), Signal to syntax : Bootstrapping from speech to
grammarin early acquisition (389-408). Cambridge, MA : MIT Press.
Klouda, G.V., Robin, D.A., Graff-Radford, N.R. & Cooper, W.E.
(1988). The role of callosal connections in speech prosody. Brain and
Language, 35, 154-171.
Kotz, S., Meyer, M., Alter, K., Besson, M., von Cramon, Y. &
Friederici, A. (2003). On the lateralization of affective prosody : An event-
r
elated functional MR investigation. Brain and Language, 86, 366-376.
Ladd, R.D. (1996/2008). Intonational Phonology, Cambridge
University Press.
Lammertink, I., Casillas, M., Benders, T., Post, B. & Fikkert, P.
(2015). Dutch and English toddlers’ use of linguistic cues in predicting
upcoming turn transitions. Frontiers in Psychology, 6, 495.
Laval, V. & Bert-Erboul, A. (2005). French-speaking children’s
understanding of sarcasm : The role of intonation and context. Journal
of Speech Language and Hearing Research, 48, 610-620.
Lima, C.F. & Castro, S.L. (2011). Speaking to the trained ear :
musical expertise enhances the recognition of emotions in speech
prosody. Emotion WashingtonDC, 11, 1021-1031.
Loevenbruck, H., Ben Jannet, M., D’Imperio, M., Spini, M. &
Champagne-Lavau, M. (2013). Prosodic cues of sarcastic speech in
French : slower, higher, wider. Proceedings of Interspeech 2013, August
25-29, Lyon, FRANCE.
Magne, C., Astésano, C., Aramaki, M., Ystad, S., Kronland-
Martinet, R. & Besson, M. (2007). Influence of syllabic lengthening on
semantic processing in spoken French : Behavioural and
electrophysiological evidence. Cerebral Cortex, 17, 2659-2668.
Magne, C., Astésano, C., Lacheret-Dujour, A., Morel, M., Alter, K.
& Besson, M. (2005). On-line processing of « pop-out » words in spoken
French dialogues. Journal of Cognitive Neuroscience, 17, 740-756.
Magne, C., Schön, D. & Besson, M. (2006). Musician children
detect pitch violations in both music and language better than non-
musician children. Journal of Cognitive Neuroscience, 18, 199-211.
Marie, C., Delogu, F., Lampis, G., Olivetti Belardinelli, M. &
Besson, M. (2011). Influence of musical expertise on tone and phoneme
processing in Mandarin Chinese, Journal of Cognitive Neuroscience, 23,
2701-2715.
114 Neurolinguistique
Marie, C., Magne, C. & Besson, M. (2010). Musicians and the metric
structure of words. Journal of Cognitive Neuroscience, 23, 294-305.
Marques, C., Moreno, S., Castro, S.L. & Besson, M. (2007).
Musicians detect pitch violation in a foreign language better than non-
musicians : behavioural and electrophysiological evidence. Journal of
Cognitive Neuroscience, 19, 1453-1463.
Mehler, J., Dommergues, J.-Y., Frauenfelder, U. & Segui, J. (1981).
The syllable’s role in speech segmentation. Journal of Verbal Learning
and Verbal Behavior, 20, 298-305.
Mennen, I. (2004). Bi-directional interference in the intonation of
Dutch speakers of Greek. Journal of Phonetics, 32, 543-563.
Meyer, M., Alter, K. & Friederici, A.D. (2003). Towards the
cerebral substrates of sentence-level syntactic and prosodic processing.
Journal of Neurolinguistics, 16, 277-300.
Meyer, M., Alter, K., Friederici, A.D., Lohmann, G. & von
Cramon, Y. (2002). FMRI reveals brain regions mediating slow
prosodic modulations in spoken sentences. Human Brain Mapping, 17,
73-88.
Meyer, M., Steinhauer, K., Alter, K., Friederici, A.D. & von
Cramon, D.Y. (2004). Brain activity varies with modulation of dynamic
pitch variance in sentence melody. Brain and Language, 89, 277-289.
Michelas, A. & D’Imperio, M. (2012). When syntax meets prosody :
tonal and duration variability in French Accentual Phrases. Journal of
Phonetics, 40, 816-829.
Michelas, A. & D’Imperio, M. (2015). Prosodic boundary strength
guides syntactic parsing of French utterances. Laboratory Phonology, 6,
119-146.
Millotte, S., René, A., Wales, R. & Christophe, A. (2008).
Phonological phrase boundaries constrain the online syntactic analysis
of spoken sentences. Journal of Experimental Psychology : Learning,
Memory, and Cognition, 34, 874-885.
Nazzi, T., Bertoncini, J. & Mehler, J. (1998). Language discrimination
by newborns : Towards an understanding of the role of rhythm. Journal
of Experimental Psychology : Human Perception and Performance 24,
756-766.
Nespor, M. & Vogel, I. (1986). Prosodic Phonology. Dordrecht :
Foris Publications.
Norman-Haignere, S., Kanwisher, N.G. & McDermott, J.H. (2015).
Distinct Cortical Pathways for Music and Speech Revealed by
Hypothesis-Free Voxel Decomposition. Neuron, 88, 1281-1296.
Norris, D., McQueen J.M. & Cutler, A. (2000). Merging information
in speech recognition : feedback is never necessary. Behavioral and Brain
S
ciences, 23, 299-325.
Otake, T. & Cutler, A. (1996). Phonological Structure and Language
Processing : Cross-Linguistic Studies. Speech Research Series, 12, Mouton
de Gruyter, Berlin, 13-44.
Otake, T., Hatano, G., Cutler, A. & Mehler, J. (1993). Mora or
syllable ? Speech segmentation in Japanese. Journal of Memory and
Language 32, 358-378.
Perkins, J.M., Baran, J.A. & Gandour, J. (1996). Hemispheric
specialization in processing intonation contours. Aphasiology, 10,
343-362.
Pierrehumbert, J. (1980). The phonetics and phonology of English
intonation. Thèse de doctorat, MIT, USA.
Poeppel, D. (2001). Pure word deafness and the bilateral processing
of the speech code. Cognitive Science, 25, 679-693.
Poeppel, D. (2003). The analysis of speech in different temporal
integration windows : cerebral lateralization as « asymmetric sampling
in time ». Speech Communication, 41, 245-255.
Portes, C. & Reyle, U. (2014) The meaning of French « implication »
contour in conversation. Proceedings of the 7th International Conference
on Speech Prosody, 413-417.
Post, B. (2000). Tonal and phrasal structures in French intonation.
The Hague : Thesus.
Prieto, P., D’Imperio, M. & Gili Fivela, B. (2005). Pitch accent
alignment in Romance : primary and secondary associations with
metrical structure. Language and Speech, 48, 359-396.
Pynte, J. & Prieur, B. (1996). Prosodic breaks and attachment
decisions in sentence parsing. Language and Cognitive Processes, 11,
165-192.
Robin, D.A., Tranel, D. & Damasio, H. (1990). Auditory
perception of temporal and spectral events in patients with focal left and
right cerebral lesions. Brain and Language, 39, 539-555.
Rufener, K.S., Oechslin, M.S., Wöstmann, M., Dellwo, V. &
Meyer, M. (2015). Age-Related Neural Oscillation Patterns During the
Processing of Temporally Manipulated Speech. Brain Topography, 29,
440-458.
Schirmer, A., Kotz, S.A., Friederici, A.D. (2002). Sex differentiates
the role of emotional prosody during word processing. Brain research.
Cognitive brain research, 14, 228-233.
Schmidt-Kassow, M. & Kotz, S. (2009). Event-related potentials
suggest a late interaction of meter and syntax in the P600. Journal of
Cognitive Neuroscience, 21, 1693-1708.
Schön, D., Magne, C. & Besson, M. (2004). The music of speech :
music training facilitates pitch perception in both music and language.
Psychophysiology, 41, 341-349.
Schwartz, J. & Tallal, P. (1980). Rate of acoustic change may
underlie hemispheric specialization for speech perception. Science, 207,
1380-1381.
Sedivy, J., Tanenhaus, M., Spivey-Knowlton, M., Eberhard, K. &
Carlson, G. (1995). Using intonationally marked presuppositional
information in on-line language processing : Evidence from eye movements
to a visual model. Proceedings of the Seventeenth Annual Conference of
the Cognitive Science Society. Hillsdale, NJ : Erlbaum, 375-380.
Selkirk, E. (1984). Phonology and syntax. The relation between
sound and structure. MITPress, Cambridge, Massachusetts.
Shipley-Brown, F., Dingwall, W.O., Berlin, C.I., Yeni-Komshian, G.
& Gordon-Salant, S. (1988). Hemispheric processing of affective and
linguistic intonation contours in normal subjects. Brain and Language,
33, 16-26.
Silverman, K. & Pierrehumbert, J. (1990). The Timing of Prenuclear
High Accents in English, Papers in Laboratory Phonology I, Cambridge
University Press, Cambridge UK. 72-106.
Spinelli, E., Grimaud, N., Meunier, F. & Welby, P. (2010). An
intonational cue to segmentation in phonemically identical sequences.
Attention, Perception & Psychophysics, 72, 775-787.
Spivey-Knowlton, M.J. & Tanenhaus, M.K. (1998). Syntactic
ambiguity resolution in context : Modeling the effects of discourse
context and lexical frequency. Journal of Experimental Psychology :
Learning, Memory and Cognition, 24, 1521-1543.
Steinhauer, K., Alter, K. & Friederici, A.D. (1999). Brain potentials
indicate immediate use of prosodic cues in natural speech processing.
Nature Neuroscience, 2, 191-196.
Strelnikov, K.N., Vorobyev, V.A., Chernigovskaya, T.V. &
Medvedev, S.V. (2006). Prosodic clues to syntactic processing : a PET
and ERP study. Neuroimage, 29, 1127-34.
Tanenhaus, M.K., Spivey-Knowlton, M.J., Eberhard, K.M. &
Sedivy, J.C. (1995). Integration of visual and linguistic information in
spoken language comprehension. Science, 268, 1632-1634.
Van Lancker, D. & Sidtis, J. (1992). The identification of affective-
prosodic stimuli by left- and right hemisphere-damaged subjects : All
errors are not created equal. Journal of Speech and Hearing Research,
35, 963-970.
Van Santen, J.P.H. & Hirschberg, J. (1994). Segmental Effects on
Timing and Height of Pitch Contours. Proceedings ofICSLP-94,
Yokohama, September, 719-722.
CHAPITRE 10 • Prosodie et intonation : notions de base et données neuro-psycholinguistiques 115
Venditti, J. & Hirschberg, J. (2003). Intonation and Discourse
Processing. Proceedings of ICPhS 2003, Barcelona.
Wagner, M. & Watson, D.G. (2010). Experimental and theoretical
advances in prosody : A review. Language and Cognitive Processes, 25,
905-945.
Weintraub, S., Mesulam, M. & Kramer, L. (1981). Disturbances in
prosody : a right-hemisphere contribution to language. Archives of
Neurology, 38, 742-44.
Welby, P.(2006). French intonational structure : Evidence from
tonal alignment. Journal of Phonetics34 : 343-371.
Witteman, J., van Ijzendoorn, M., van de Velde, D., van Heuven,
V.J.P. & Schiler, N.O. (2011). The nature of hemispheric specialization
for linguistic and emotional prosodic perception : a meta-analysis of the
lesion literature. Neuropsychologia, 49, 3722-38.
Wong, P.C.M. (2002). Hemispheric specialization of linguistic pitch
patterns. Brain Research Bulletin, 59, 83-95.