06 juin 2008

L'approche Verbo-Tonale

Approche verbo tonale et contextes facilitants

1. Introduction
L’approche verbo-tonale est proprement européenne et s’est développée à partir des années 1970.
L'idée que les langues exploitent différemment les possibilités articulatoires à des fins perceptives distinctives est largement répandue. Une langue induit une "posture générale" articulatoire spécifique (positions et mouvements des articulateurs ; antériorisation/ centralisation / postériorisation, précision du mouvement : monophtongaison / diphtongaison). C'est cette gestuelle articulatoire spécifique à une langue donnée (décomposée en positions exactes des articulateurs et en gestes pour aller d'une cible à l'autre) qu'on appréhende par le biais des accents étrangers, des imitations ou caricatures, en logatomes, etc.; par exemple, le français se parle "en avant", l'anglais "en arrière" est une idée largement répandue et qui trouve une certaine justification phonétique dans les systèmes vocaliques eux-mêmes.

L'idée d'une "posture" spécifique à une langue a été déclinée dans le domaine de la perception. On défend généralement que, à l'instar de l'appareil phonatoire qui acquiert une posture spécifique à la langue, l'appareil perceptuel acquiert un filtre (abstrait) spécifique à la langue, permettant d'intégrer dans une même catégorie perceptive (on pourrait dire aussi fonctionnelle ou phonologique) des réalisations physiques diverses de parole (phonétiques). POLIVANOV (1931), et surtout TROUBETZKOY (1939), sont à l'origine de cette idée.
C'est ce "crible" spécifique à une langue donnée qui rendrait l'auditeur "sourd" aux catégorisations opérées par d'autres langues. L'apprentissage de sa langue maternelle par l'enfant consiste à apprendre à ignorer les variations non-distinctives. L'auditeur chercherait à faire passer des réalisations de parole dans une langue qu'il ne connaît pas par le filtre fonctionnel de sa langue maternelle. On lit fréquemment que si un apprenant d'une langue étrangère répète mal ou incorrectement un mot ou un son d’un mot de LE, c’est qu’il l’a mal entendu. On dira plutôt que l'apprenant a fait un mauvais choix parmi ce grand nombre d’informations qu’on lui a proposées, influencé par les habitudes de sa langue maternelle.

En didactique de la phonétique, cette idée s'est vue naturellement appliquée par l'élaboration d'exercices de discrimination : il s'agit d'apprendre à catégoriser perceptivement les réalisations physiques d'une langue étrangère suivant le nouveau système.

Mais on entend régulièrement parler de laboratoires de langues utilisant une technologie fondée apparemment sur un traitement de l'audition et de la perception, et qui ont trouvé et trouvent encore, un très large écho auprès du public français et étranger d'enseignants et d'apprenants en langue. L'existence de ces produits pose implicitement comme postulat que ce n'est pas la catégorisation phonologique propre à chaque langue qui est en jeu dans l'apprentissage linguistique mais la capacité de filtrage auditif en confondant l'hypothèse du filtre phonologique (fonction cognitive, cérébrale) avec le filtrage acoustique (fonction physiologique de l'oreille).

Figure 4.2 - Filtres physiologiques et filtre phonologique

L’apprenant LE serait “sourd”, au sens auditif du terme, aux sons de la LE. Ces hypothèses ont été déclinées :
- d'une part, par les très sérieux verbo-tonalistes à l’origine de la non moins sérieuse méthodologie SGAV, dont les chefs de file sont Petar GUBERINA de l'Université de Zagreb et surtout Raymond RENARD et Albert LANDERCY de l'Université de Mons.
   - mais aussi par de nombreux “promoteurs” de nouvelles méthodes de langues dont le représentant le plus médiatisé est Alfred Tomatis.

« On n'est pas sourd, semble-t-il, parce qu'on est inapte à apprendre l'anglais. Et bien, nous répondrons un peu durement que l'on est sourd effectivement à l'anglais. Cette notion, déconcertante de prime abord, est pourtant des plus évidentes si l'on veut bien se souvenir que l'oreille a été secondairement conditionnée au langage et qu'elle a fait son apprentissage grâce au milieu ambiant, au milieu acoustique s'entend, qui a déterminé l'ouverture du diaphragme sélectif de l'audition. Cette limitation, qui est presque la règle, ne nous a rendus maîtres à manier, avec toute la finesse, toute l'agilité désirée, qu'une gamme sonore et rythmique propre à une langue. »
TOMATIS, Alfred (1963), L'oreille et le langage, Editions du Seuil, 187p.

   Si le rapprochement de ces deux courants (l’un universitaire et l’autre commercial) peut choquer, force est de constater qu’ils se fondent tous les deux sur une idée commune : l’audition de messages filtrés faciliterait la nouvelle “mise en catégories fonctionnelles” suivant la norme de la langue étrangère.

En bref, l'idée que les langues occupent globalement différemment l'espace acoustique est souvent injustement liée à la notion de "crible phonologique" établie par TROUBETZKOY. "Oreille électronique", "SUVAG", "contextes favorisants" semblent suivre une même logique et leur coexistence jette un flou sur l'ensemble de la question.

   Après avoir succinctement montré les incohérences des argumentaires commerciaux, nous rappellerons l'origine, les principes et les outils du système verbo-tonal de correction phonétique, nous chercherons à réfléchir sur les conclusions pouvant être dégagées d'analyses en phonétique expérimentale, d'analyses en traitement du signal, et sur leur utilisation pédagogique.

2. La promotion du filtrage électro-acoustique

   Dans un article intitulé “Fausse science et marketing linguistique”, HARMEGNIES et POCH-OLIVE, [HARMEGNIES et POCH-OLIVE, 1992], proposent un amusant pastiche d'argumentaire publicitaire vantant les mérites du filtrage électro-acoustique en apprentissage des langues:

“Apprendre les langues à un rythme accéléré ; en acquérir sans effort une maîtrise parfaite, assortie d’un accent irréprochable ; PANGLOSS Inc. peut vous y aider. Encadré par nos spécialistes d’un haut niveau de compétence scientifique, vous bénéficierez de sessions intensives de training audio-oral sous appareillage AUDITRON®.(...)
L’AUDITRON® assure, sous contrôle computérisé, l’adaptation de votre oreille aux caractéristiques intrinsèques de la langue que vous apprenez. En effet, les expériences en la matière ont montré que nul n’est capable de produire des sons qu’il ne peut entendre. Or, du fait même de notre propre imprégnation par notre langue maternelle, notre oreille s’est peu à peu focalisée électivement sur certaines zones fréquentielles et a, par voie de conséquence, perdu l’usage des autres. Tout se passe donc comme si nous étions sourds aux sons des autres langues. On sait maintenant quelles sont les caractéristiques fréquentielles de chaque langue, qui peut dès lors être globalement caractérisée par sa courbe caractéristique propre. L’AUDITRON® (...) en réalisant un filtrage adapté, permet de contrebalancer cette surdité linguistique et assure un contre-entraînement de l’oreille qui libère l’apprenant de ses contraintes auditives et lui assure efficacement un accès aisé à l’exercice de la langue nouvelle.(...).”

   De manière générale, ces argumentaires montrent d'abord que les langues occupent différemment l'espace spectral, ce qui peut a priori sembler logique puisque :
- les unités phonologiques diffèrent ;
- leurs réalisations de ces unités phonologiques au niveau phonétique présentent des caractéristiques acoustiques différentes ;
- la fréquence d'occurrence de ces unités est différente d'une langue à l'autre.
   Il semble finalement assez probable qu'on obtienne au total une occupation différente selon les langues du spectre fréquentiel.

   Ces argumentaires proposent des “courbes de fréquences” (on ne sait finalement pas très bien de ce dont il s’agit, car rien n’est dit sur la méthode qui a permis de recueillir ces résultats prétendument expérimentaux ) appelées par exemple “ courbes de langue”, "ethnogrammes" ou "topogrammes quantitatifs des zones de reconnaissance des sons" (utilisées par les promoteurs de ces méthodes) qui auraient mis en évidence ces différences acoustiques globales entre les langues.

[HARMEGNIES, POCH-OLIVÉ, 1992] ont critiqué les principes généraux que de telles publicités exploitent dans leurs argumentaires prétendumment scientifiques. Nous en reprenons les deux principaux points suivants :

   1. Perception et production
S’il est clair qu’une distinction phonologique non perçue ne peut être consciemment reproduite , la réciproque de cette proposition n’est pas vraie dans tous les cas : ce n’est pas parce qu’une distinction phonologique est perçue qu’elle peut être produite. “Il ne suffit pas de «bien entendre» pour «bien produire»”. [JAKOBSON, 1968] (p. 714) relève que des sujets distinguent à l'audition des formes sonores qu'ils ne sont pas capable de reproduire. L'assymétrie entre les processus de production et de perception a été mise en évidence par [MACKAY, 1987].

   2. Une analogie indue entre les domaines du court et du long terme
Si l’on conçoit que la maîtrise des phonèmes (caractéristiques locales) passe par la capacité à percevoir ces phonèmes, “rien ne prouve que l’appréhension d’éventuelles qualités globales de la production dans une langue puisse être nécessaire ou utile à ses apprenants.”

   Et c'est pourtant à partir de ce constat - les langues utilisent globalement des fréquences différentes, qu'une correction auditive est ensuite prônée (par filtrage électro-acoustique) : il s'agit pratiquement de faire écouter à l'apprenant un message en langue étrangère filtré pour renforcer les zones de fréquences qui ne sont pas utilisées dans sa propre langue. C'est cette différence de point de vue qui creuse le fossé avec la méthodologie verbo-tonale de correction phonétique en cours de langue qui opère une analyse locale par utilisation de "contextes favorisants" mettant en valeur les caractéristiques du son.

Le point sur les différences acoustiques globales entre les langues
L'étude de BYRNE [BYRNE et al., 1994] cherche à déterminer si il existe des différences entre les Spectres moyens à Long terme dans différentes langues ce qui influencerait les prescription des aides auditives pour sourds. L'étude présente le Spectre Moyen à Long Terme pour 12 langues : anglais (plusieurs variétés), suédois, danois, allemand, français canadien, japonais, cantonais, mandarin, russe, polonais, singalais et vietnamien ; des échantillons de parole ont été enregistrés, en utilisant un équipement et des procédures standard pour chaque langue avec 20 locuteurs pour chaque langue (10 femmes, 10 hommes). Les analyses, conduites aux National Acoustic Laboratories de Sydney, ont montré que le SLT était globalement similaire pour toutes les langues même si de nombreuses différences statistiquement significatives ont été observées (n'excédant jamais 6 dB). D'après les auteurs, il semble clair que le SLT est largement dominé par les caractéristiques du mécanisme vocal. Même si les langues utilisent différentes voyelles et consonnes occupant différemment l'espace spectral, et que la fréquence d’occurrence des unités diffère, ces facteurs semblent n'avoir que des effets mineurs sur le SLT. Et ces différences ne sont pas cohérentes entre femmes et hommes de même langue.

"There is no single language or group of languages which could be regarded as being markedly different from the others. Therefore, it is feasible to propose a universal LTASS (Long Term Average Spectrum of Speech) that would be sufficiently precise for many purposes. Nonetheless, there are small but (statistically) significant differences among languages and more substantial differences, at the low frequencies, between male and female talkers."

1. Le système verbo-tonal

Nous évoquerons principalement les travaux de Petar GUBERINA qui a probablement le premier lié les observations faites à partir de l'utilisation de filtres électro-acoustiques et l'enseignement et la correction de la prononciation en classe de langue.
GUBERINA débute ses observations et ses recherches dès 1934 à l’Institut de Phonétique de Zagreb, pour établir en 1952 les principes de la théorie verbo-tonale (voir cours de méthodologie). Cette théorie fondée sur la correction auditive trouverait son application aussi bien dans les domaines de la correction des déficients auditifs qu'en correction phonétique de LE. En effet, l’une des idées fondamentales du système verbo-tonal est que l’oreille normale en contact avec des sons d’une langue étrangère se comporterait comme une oreille pathologique, ce qui explique que la rééducation de l’audition et la correction de la prononciation se font d’après les mêmes principes. Ces hypothèses sont infirmées.

Au cours de ses recherches, GUBERINA constate, par le biais de l'étude des déficients auditifs, les différences spectrales des voyelles et des consonnes. En distinguant les surdités de transmission (mauvaise audition des fréquences graves issue d'un mauvais fonctionnement de l'oreille moyenne) et les surdités de perception (mauvaise audition des fréquences aiguës issue d'un mauvais fonctionnement de l'oreille interne), les erreurs commises par des déficients perceptifs des deux types susmentionnés lui permettent d'ordonner voyelles et consonnes des plus graves au plus aiguës. Pour les voyelles, l'ordre est : [u, o, a, e, i], ce qui suit, au plan acoustique, les résultats de l'analyse spectrographique (deuxième formant), et pour la phonologie, l'ordre suit les traits de Jakobson à base acoustique (aigu/grave).
Pour les consonnes [p, b, m, v, l, k, t, S, s], suivant acoustiquement les zones de fréquences des consonnes.

3.2. Principes et pratique

3.2.1. Le principe fondateur du système verbo-tonal : l’intelligibilité optimale

   La première loi de la théorie verbo-tonale du point de vue fréquentiel est que :
"chaque son et chaque mot sont intelligibles dans une bande [de fréquence] limitée mais optimale" [GUBERINA, 1992].
   Nous reviendrons sur la validité de cette loi en ce qui concerne "le mot", mais commencons par en commenter l'intérêt pour "le son".

   Chaque son se caractérisant par ses fréquences, il semble naturel de penser (et on y a pris garde depuis l'invention du téléphone en transmission de la parole, jusqu'aux travaux sur la synthèse de la parole) que les fréquences propres à chaque son doivent être émises pour être perçues. La bande passante des lignes téléphoniques étant d'environ 400-4.000 Hz, on sait que la distinction hors contexte (dans l'énoncé d'un nom propre, par exemple) des consonnes [s] et [S] est difficile puisque la différence acoustique entre ces deux consonnes se joue dans une zone de fréquence aigues (au-delà de 4.000 Hz). Les recherches sur la transmission de la parole nous ont aussi appris que lorsqu'un son n'est pas intégralement transmis, notre perception a la capacité, jusqu'à un certain point, de rétablir l'information manquante (phénomènes de compensation liés à la présence de certains indices acoustiques -loci, ou liés au sens, au lexique).

   Alors que cette "loi" de la théorie verbo-tonale semble finalement assez évidente pour les sons isolés (chaque son a besoin de ses bandes de fréquences caractéristiques pour pouvoir être correctement perçu), elle l'est beaucoup moins pour les "mots". En effet, tous les ensembles constitués d'une successivité d'unités phoniques (syllabes, mots, énoncés) ne peuvent plus obéir strictement à cette loi, puisqu'il y a alors un continuum de fréquences propres à chaque unité. Autrement dit, un mot ou un énoncé a besoin des bandes de fréquences caractéristiques de l'ensemble des unités le composant. Il faudrait en conséquence changer de filtrage pour chaque son composant le mot ou l'énoncé ce qui est impossible.

   On trouve certaines contradictions apparentes dans les écrits de GUBERINA. Par exemple, dans [GUBERINA, 1992], l'auteur déclare que "la représentation spectrale (issue de la décomposition de Fourrier des ondes complexes en ondes sinusoïdales simples) est bien différente de la réalité perceptive et du fonctionnement du cerveau humain", alors que ses résultats de l'analyse acoustique des sons de la parole sont en accord avec ses résultats issus de ses recherches sur les sourds.

   L’idée générale sous-jacente à l’intelligibilité optimale est que grâce aux filtres “on éliminera toutes les fréquences qui peuvent nuire à une bonne audition (fréquences typiques pour les sons de la langue maternelle de l’élève) et l’élève écoutera un son donné sur une bande de fréquence très restreinte (une octave). Cela permettra à l’élève d’entendre justement les éléments typiques d’un son donné” [VULETIC, 1965]. La notion d’optimale est donc le filtrage grâce auquel le son de LE risque le moins d’être confondu avec un son analogue de LM.

Ce que l’expérience apprend de la perception de la parole filtrée utilisant des filtres d’une valeur d’une octave :
   A la suite d’un test sur 84 stimuli (14 voyelles x 6 présentations, produits par 2 locuteurs et 2 locutrices [LANDERCY, RENARD, 1974] concluent sans surprise que “il est indispensable d’utiliser des filtres correspondant aux zones fréquentielles formantiques pour obtenir des score de reconnaissance élevés” (p. 28-29). En fait, les scores de reconnaissance dépendent de façon globale des caractéristiques formantiques des voyelles et du “découpage” en octaves. Les auteurs font pourtant une distinction entre les voyelles appelées “primaires” [i, a, u] qui seraient mieux perçues sur la seule base d’une seule de leurs zones spectrales, et les voyelles appelées “secondaires” [y, œ, e, o] qui nécessiteraient un filtrage plus précis, cernant mieux les zones fréquentielles et qui “supposeraient une structuration plus complexifiée, située à un niveau plus hiérarchisé”.

   A partir de 1951, GUBERINA se rapproche de l’École Normale Supérieure de Saint-Cloud, qui travaillait à l'époque sur le Français Fondamental (GOUGENHEIM, RIVENC). Ils élaborent la méthode audiovisuelle structuro globale (SGAV), appelée aussi méthode Saint-Cloud-Zagreb, dans laquelle les principes de la théorie verbo-tonale de structure, de perception des sons et de correction phonétique sont définis. Le SUVAG LINGUA, appareil composé d’un banc de filtres, est élaboré pour la correction phonétique des cours de langues SGAV.

   Le SUVAG LINGUA est un ensemble de filtres acoustiques qui permet l’écoute de messages filtrés par octaves. L’entraînement conseillé par GUBERINA lui-même [GUBERINA, 1965] est le suivant : on fait d’abord écouter les fréquences qui sont “au-dessous et au-dessus de la zone de conversation”. Les fréquences au-dessous de la zone de conversation (10-75 Hz, 50-100 Hz, 100-200 Hz) sont décrites comme très stimulantes car permettant une bonne perception de l’intonation et du rythme de LE. Avec les fréquences au-dessus de la zone de conversation (au-dessus de 3.000 et 8.000 Hz) “le cerveau est stimulé par les fréquences aiguës”. Toujours suivant l’auteur, ces écoutes “préparent les organes articulatoires à la prononciation du nouveau système phonologique”.
   De fait, les enseignants utilisateurs des SUVAG LINGUA, qui rapportent consciencieusement leur expérience pratique dans les numéros de la Revue de Phonétique Appliquée consacrés à la méthodologie SGAV [RENARD, 1967] [RENARD, 1973] [ARAMBASIM, 1973] [TROCMÉ, 1973], [CUREAU, 1973], [VULETIC, 1973] expriment principalement leur enthousiasme quant à l’utilisation des filtres passe-bas, qui favorisent l’imitation correcte du rythme et de l’intonation. Nous insistons sur le fait qu'il s'agit là d'une utilisation globale d'un filtrage électro-acoustique.

   Dans la version la plus avancée appelée SUVAG LINGUA “de classe” [ARAMBASIM, 1973], l'appareil ne présente plus de filtres passe-bande d'octave pour la correction des sons isolés (alors qu'il existe 14 filtres de ce type dans le Suvag Lingua). Seuls quatre canaux demeurent dans la version SLC :
- le canal direct sans filtre
- le canal des graves : il s’agit d’un filtre passe-bas avec une fréquence de coupure fixée à 320 Hz, avec pente d’atténuation de 60dB/oct. et atténuation totale >70dB. Ce canal élimine l’intelligibilité de la parole, c’est-à-dire la zone conversationnelle et met en relief le rythme et l’intonation de la phrase. D’après l’auteur, “les résultats furent très encourageants en ce qui concerne l’utilisation de filtres passe-bas pour l’acquisition du rythme et de l’intonation de la phrase”.
- le canal des aigus : c'est un filtre passe-haut avec une fréquence de coupure fixée à 3200 Hz. L'auteur précise que "la zone de conversation est éliminée mais l'intelligibilité est suffisante", sans rien dire de l'utilisation d'un tel filtre.
- une "ligne générale" qui présente un creux sur la courbe de réponse entre 500 et 3000 Hz "qui atténue plus ou moins les fréquences de la zone conversationnelle, mais l'intelligibilité est totale".

   Pour [CUREAU, 1973], qui utilise l’appareil auprès de plusieurs centaines d’élèves de 10 à 15 ans, “dans 80% des cas, la mise en place de l’intonation et du rythme était parfaite”.
   [TROCMÉ, 1973] rapporte que l’utilisation d’un filtre passe-bas, ici de 20 à 300Hz, “constitue toujours un moment assez extraordinaire aussi bien auprès des étudiants que des collègues qui viennent “voir” le Suvag”.

   Mais suivant le principe fondateur, le SUVAG LINGUA permet surtout de travailler les sons “difficiles” de LE. Pour cela, le son difficile est écouté dans une phrase courte “à bande optimale de fréquence”. Comme l’explique l’auteur, “cette bande optimale est toujours étroite et aussi éloignée que possible de la bande de fréquences qui est optimale pour la faute de prononciation d’un étudiant”.
   Par exemple, les étudiants qui prononcent le [y] français comme un [u] (comme les anglophones) l’écouteront sur des fréquences où [y] est bien audible mais où il est loin des fréquences optimales du son [u] (renforcement des fréquences aiguës). Une fois le son prononcé correctement, on élargit peu à peu la bande jusqu’à écoute du spectre total du son.
   On pourrait dire qu’il s’agit ici d’une version “technologique” de la correction phonétique par prononciation nuancée.
   La correction phonétique semble aujourd’hui l’apport majeur du SUVAG par rapport à la parole des sourds, puisque que cette méthodologie était définie récemment par son auteur [GUBERINA, 1992] comme :
"l'étude et l'application des tonalités des sons du langage pour examiner l'audition et percevoir correctement les sons des langues étrangères".

Les résultats des recherches de GUBERINA sur l'utilisation des filtres électro-acoustiques en classe de langue portent à la fois sur un traitement global de la parole (filtre passe-bas) laissant apparaître les caractéristiques suprasegmentales (rythme et intonation) mais aussi sur un traitement local pour renforcer le caractère propre du phonème étudié par rapport à la faute commise.

Je vous incite très vivement à lire le long et très complet article de Paul RIVENC,un des grands acteurs du courant SGAV, qui retrace la construction de la méthodologie.
http://www.sgav.org/sgav5/documents/rivenc_histoire_sgav.doc

Vous consulterez de même avec profit :
RENARD, R. (éd.), Apprentissage d’une langue étrangère / seconde : 2. La phonétique verbo-tonale, Bruxelles : DeBoeck Université, 2002.

2. Contextes facilitants
contexte = littéralement "le texte autour", il s'agit ici des sons contigus (juste avant et juste après).
facilitants = ces contextes favorisent la perception / production des traits caractéristiques d'un son.

On retrouve certains principes du système verbo-tonal dans les ouvrages de phonétique du français à l’usage des étudiants étrangers, sous la forme des “contextes facilitants” [CALLAMAND, 1981], [KANEMAN-POUGATCH, PEDOYA-GUIMBRETIÈRE, 1991], [PAGNIEZ-DELBART, 1991-1992], [ABRY, CHALARON, 1994], [TROUTOT, 1997] . Il s’agit de présenter le son à acquérir dans un contexte renforçant un ou plusieurs traits caractéristiques du son, et en particulier le ou les traits qui ne sont pas maîtrisés par l’élève. Les traits susceptibles d’être renforcés par le contexte sont l’acuité (aigu / grave), la labialité ( arrondi / écarté), la tension (tendu / relâché).

Or, l'utilisation des contextes facilitants se justifie avant tout du point de vue articulatoire, plus que du point de vue perceptif. Par exemple, si on présente un [y] en contexte postérieur, il sera moins bien entendu car [y] a alors "perdu" ses caractéristiques antérieures. Ceci n'est pas dû à la perception mais à la réalité de production. La production du trait antérieur de [y] est bien sûr favorisé par l'antériorité du contexte.


L’application des contextes favorisants pose deux problèmes :

(i) le respect des contextes favorisants est une importante contrainte pour la construction d’exercices. D’ailleurs la plupart des manuels y faisant référence ne peuvent suivre absolument ce principe, ne fût-ce que par cette contrainte lexicale.
Par exemple, les exercices sur le /y/ français, corrigeant une tendance vers /u/, devraient présenter ce son encadré des consonnes aiguës /s, z, t, d, n/. On obtient :
/sys/ : suce, /syz/ : Suze, /tyn/ : tune, /dyn/ : dune, qui ne constituent pas des priorités dans l’apprentissage. Des enchaînements du type "tu tires" /tytiR/ ; "tu siffles" /tysifl/, peuvent faire apparaître un nouveau problème dû à l'anticipation de [i] entraînant le "désarrondissement" de [y].

(ii) le classement des phonèmes suivant les traits définis (acuité, labialité, tension) n’est pas absolu et varie selon les auteurs.

[RENARD, 1979] propose un classement auditif des consonnes des plus aiguës aux plus graves :

Classement auditif des consonnes d'après [RENARD, 1979]

MÉTHODE VERBO-TONALE
DE CORRECTION PHONÉTIQUE
(d’après R. RENARD, La Méthode verbo-tonale de correction phonétique, Didier, 1979)

I. TENSION

II. PHONÉTIQUE COMBINATOIRE
Influence des voyelles sur les consonnes
voyelles antérieures [i, y, e]      -> palatalisation
voyelles postérieures [u, o]      -> vélarisation
voyelles labiales [y, u]      -> labialisation

Influence des consonnes sur les voyelles
labiales, vélaires, [R]      -> assombrissement du timbre
nasales, sonores         -> assombrissement
alvéolaires, post-alvéol.      -> éclaircissement
fricatives sourdes         -> fermeture
occlusives sourdes         -> ouverture
         [j]      -> fermeture
         [S, J]      -> arrondissement

III. CLASSEMENT AUDITIF

1. CONSONNES (voir page précédente)

2. VOYELLES


[CALBRIS, 1976] propose un schéma synthétique des contextes favorisants selon la faute à corriger : débit, intonation, contextes consonantiques et vocaliques sont précisés. Ce schéma constitue une base simple pour une correction adaptée.

A RETENIR

Facteurs favorables selon la correction envisagée, d'après [CALBRIS, 1976].

En introduction du manuel "Plaisir des sons" [KANEMAN-POUGATCH et PEDOYA-GUIMBRETIÈRE, 1991], on trouve un inventaire complet des voyelles et des consonnes du français classées selon les mêmes trois critères : acuité, labialité, tension.

Les contextes facilitants
[KANEMAN-POUGATCH et PEDOYA-GUIMBRETIÈRE, 1991].

Parmi les critères descriptifs, la tension est celui qui est sans doute le plus discutable. On attribue une tension plus grande aux voyelles fermées qui nécessitent un jeu musculaire plus évident : [i] peut être très étiré, [y] peut être très arrondi, mais [E] ne peut effectivement pas être très "mi-ouvert".

Par exemple, le son /y/ du français est prononcé /u/ par un élève étranger. On fera d’abord entendre et produire le son /y/ dans un contexte aigu (/s, t/) pour faciliter la perception (puisque la production préserve toutes les caractéristiques acoustiques canoniques de /y/) et la reproduction du trait aigu manquant. La progression de l’apprentissage ira donc des contextes les plus favorisants aux contextes les moins favorisants (pour cet exemple, des consonnes aiguës aux consonnes graves).


Posté par fonetiks à 16:35 - - Commentaires [0] - Permalien [#]