Nous ne sommes pas sourds aux sons des langues étrangères.

   Nous n'avons simplement pas l'habitude de les pratiquer et il est parfois difficile de distinguer deux sons d'une langue étrangère (en fait, très rarement quand on y porte vraiment son attention).

   Mais notre premier réflexe est de dire : "Je n'entends pas la différence". Comme si cela était la faute de nos oreilles !

Comme l'écrit littéralement Xiadong, étudiant chinois : "D'abord, c'est la difficulté de distinguer de différents sons [occlusives sourdes/sonores]. Je sens aucune différence en les écoutant, de telle manière que je doute s'il y a quelque maladie dans mes oreilles."

Or, sauf cas spécifiques, nos oreilles entendent bien. C'est notre cerveau qui ne perçoit pas (parce qu'il n'en a pas l'habitude) une différence acoustique qui existe bel et bien dans la nouvelle langue, puisqu'elle est reconnue par tous les locuteurs natifs de cette langue.

   Alors, arrêtons d'accuser nos pauvres oreilles qui n'y sont pour rien. Et entraînons notre cerveau à percevoir de nouvelles subtilités acoustiques  !

Notre "surdité aux langues étrangères" est pourtant une notion bien pratique pour justifier nos difficultés à percevoir et adopter les nouveaux "gestes de parole" nécessaires à la nouvelle langue que nous apprenons.

 

   On a été chercher chez les linguistes de quoi défendre cette idée erronnée de surdité. On a souvent évoqué un des fondateurs de la phonologie occidentale moderne, Nicolas Troubetzkoy. Pourtant, comme il le précise bien dans un paragraphe intitulé "Fausse appréciation des phonèmes d'une langue étrangère", de son ouvrage : Principes de Phonologie, (Klincksieck, Paris, 1967, 1939) : 

Trubetzkoy    troubetzkoy

"(...) ce qu'on appelle "l'accent étranger" ne dépend pas du fait que l'étranger en question ne peut pas prononcer un certain son, mais plutôt du fait qu'il n'apprécie pas correctement ce son. Et cette fausse appréciation des sons d'une langue étrangère est conditionnée par la différence existant entre la structure phonologique de la langue étrangère et celle de la langue maternelle du sujet parlant. Avec les fautes de prononciation, il en va tout à fait de même qu'avec les autres fautes typiques dans le langage d'un étranger." (p. 56)

"Mais s'il [l'homme] entend parler une autre langue, il emploie involontairement pour l'analyse de ce qu'il entend le "crible phonologique" de sa langue maternelle qui lui est familier. Et comme ce crible ne convient pas pour la langue étrangère entendue, il se produit ne nombreuses erreurs et intercompréhensions. Les sons de la langue étrangère reçoivent une interprétation phonologiquement inexacte, puisqu'on les fait passer par le "crible phonologique" de sa propre langue." (p. 54)

 

Troubetzkoy parle bien de "crible phonologique" (ou "tamis" selon les traductions, mais jamais de "surdité"), "phonologique" ou "fonctionnel", regroupant des unités acoustiques diverses (elles le sont toujours) sous des étiquettes fonctionnelles dépendantes de la langue parlée.

L'idée d'une "posture" spécifique à une langue a été déclinée dans le domaine de la perception. À l'instar de l'appareil phonatoire qui acquiert une posture spécifique à la langue, l'appareil perceptuel acquiert un filtre (abstrait) spécifique à la langue, permettant d'intégrer dans une même catégorie perceptive (on pourrait dire aussi fonctionnelle ou phonologique) des réalisations (concrètes)  physiques diverses de parole (phonétique).

 

L'apprentissage de sa langue maternelle par l'enfant consiste à apprendre à ignorer les variations non-distinctives. L'auditeur chercherait à faire passer des réalisations de parole dans une langue qu'il ne connaît pas par le filtre fonctionnel de sa langue maternelle. On lit fréquemment que si un apprenant d'une langue étrangère répète mal ou incorrectement un mot ou un son d’un mot de LE, c’est qu’il l’a mal entendu. On dira plutôt que l'apprenant a fait un mauvais choix parmi toutes les informations acoustiques qui lui sont parvenues, influencé par les habitudes de sa langue maternelle.

 

En didactique de la phonétique, cette idée s'est vue naturellement appliquée par l'élaboration d'exercices de discrimination : il s'agit d'apprendre à catégoriser perceptivement les réalisations physiques d'une langue étrangère suivant le nouveau système, autrement dit d'affiner sa perception.

 

   Mais on entend régulièrement parler de laboratoires de langues utilisant une technologie fondée apparemment sur un traitement de l'audition  et de la perception, et qui ont trouvé et trouvent encore, un très large écho auprès du public français et étranger d'enseignants et d'apprenants en langue. L'existence de ces produits pose implicitement comme postulat que ce n'est pas la catégorisation phonologique propre à chaque langue qui est en jeu dans l'apprentissage linguistique mais la capacité de filtrage auditif en confondant l'hypothèse du filtre phonologique (fonction cognitive, cérébrale) avec le filtrage acoustique (fonction physiologique de l'oreille).

 

L’apprenant LE serait globalement “sourd”, au sens auditif du terme, aux langues étrangères selon les nombreux “promoteurs” de ce courant dont le représentant le plus médiatisé est Alfred Tomatis.

Tomatis        Tomatis1

« On n'est pas sourd, semble-t-il, parce qu'on est inapte à apprendre l'anglais. Et bien, nous répondrons un peu durement que l'on est sourd effectivement à l'anglais. Cette notion, déconcertante de prime abord, est pourtant des plus évidentes si l'on veut bien se souvenir que l'oreille a été secondairement conditionnée au langage et qu'elle a fait son apprentissage grâce au milieu ambiant, au milieu acoustique s'entend, qui a déterminé l'ouverture du diaphragme sélectif de l'audition. Cette limitation, qui est presque la règle, ne nous a rendus maîtres à manier, avec toute la finesse, toute l'agilité désirée, qu'une gamme sonore et rythmique propre à une langue. » TOMATIS, Alfred (1963), L'oreille et le langage, Editions du Seuil, 187p.

 

   Si une telle différence existait entre les langues au point de nous rendre sourds à certains sons des langues étrangères, il y a un domaine que cela concernerait au premier chef : l'industrie des aides auditives pour les sourds et les malentendants.

L'étude de BYRNE [BYRNE et al., 1994] cherche à déterminer s'il existe des différences entre les Spectres moyens à Long Terme dans différentes langues, ce qui influencerait les prescriptions des aides auditives pour sourds et malentendants.  L'étude présente le Spectre moyen à Long Terme pour 12 langues : anglais (plusieurs variétés), suédois, danois, allemand, français canadien, japonais, cantonais, mandarin, russe, polonais, singalais et vietnamien ; des échantillons de parole ont été enregistrés, en utilisant un équipement et des procédures standard pour chaque langue avec 20 locuteurs pour chaque langue (10 femmes, 10 hommes). Les analyses, conduites aux National Acoustic Laboratories de Sydney, ont montré que le SLT était globalement similaire pour toutes les langues même si de nombreuses différences statistiquement significatives ont été observées (n'excédant jamais 6 dB !). D'après les auteurs, il semble clair que le SLT est largement dominé par les caractéristiques du mécanisme vocal. Même si les langues utilisent différentes voyelles et consonnes occupant différemment l'espace spectral, et que la fréquence d’occurrence des unités diffère, ces facteurs semblent n'avoir que des effets mineurs sur le SLT. Et ces différences ne sont pas cohérentes entre femmes et hommes de même langue.

"There is no single language or group of languages which could be regarded as being markedly different from the others. Therefore, it is feasible to propose a universal LTASS (Long Term Average Spectrum of Speech) that would be sufficiently precise for many purposes. Nonetheless, there are small but (statistically) significant differences among languages and more substantial differences, at the low frequencies, between male and female talkers."

Vous pouvez lire l'intégralité de l'article [ici].

Je reproduis les schémas comparant les 12 langues de l'étude. (Cliquer sur les schémas pour les agrandir)

Byrne1  Byrne2

 

Byrne3   Byrne4

 

 

 

 

 * Bonus *

La promotion du filtrage électro-acoustique

Dans un article intitulé “Fausse science et marketing linguistique”, HARMEGNIES et POCH-OLIVE, [HARMEGNIES et POCH-OLIVE, 1992], proposent un amusant pastiche d'argumentaire publicitaire vantant les mérites du filtrage électro-acoustique en apprentissage des langues :

 [HARMEGNIES, B., POCH-OLIVÉ, D. (1992), Fausse science et marketing linguistique, Revue de Phonétique Appliquée, vol. 103-104, p. 181-194.]

“Apprendre les langues à un rythme accéléré ; en acquérir sans effort une maîtrise parfaite, assortie d’un accent irréprochable ; PANGLOSS Inc. peut vous y aider. Encadré par nos spécialistes d’un haut niveau de compétence scientifique, vous bénéficierez de sessions intensives de training audio-oral sous appareillage AUDITRON®.(...)

L’AUDITRON® assure, sous contrôle computérisé, l’adaptation de votre oreille aux caractéristiques intrinsèques de la langue que vous apprenez. En effet, les expériences en la matière ont montré que nul n’est capable de produire des sons qu’il ne peut entendre. Or, du fait même de notre propre imprégnation par notre langue maternelle, notre oreille s’est peu à peu focalisée électivement sur certaines zones fréquentielles et a, par voie de conséquence, perdu l’usage des autres. Tout se passe donc comme si nous étions sourds aux sons des autres langues. On sait maintenant quelles sont les caractéristiques fréquentielles de chaque langue, qui peut dès lors être globalement caractérisée par sa courbe caractéristique propre. L’AUDITRON® (...) en réalisant un filtrage adapté, permet de contrebalancer cette surdité linguistique et assure un contre-entraînement de l’oreille qui libère l’apprenant de ses contraintes auditives et lui assure efficacement un accès aisé à l’exercice de la langue nouvelle.(...).”

 

De manière générale, ces argumentaires montrent d'abord que les langues occupent différemment l'espace spectral, ce qui peut a priori sembler logique puisque :

- les unités phonologiques diffèrent ;

- leurs réalisations de ces unités phonologiques au niveau phonétique présentent des caractéristiques acoustiques différentes ;

- la fréquence d'occurrence de ces unités est différente d'une langue à l'autre.

Il semble finalement assez probable qu'on obtienne au total une occupation différente selon les langues du spectre fréquentiel.

 

Ces argumentaires proposent des “courbes de fréquences” (on ne sait finalement pas très bien de ce dont il s’agit, car rien n’est dit sur la méthode qui a permis de recueillir ces résultats prétendument expérimentaux[1]) appelées par exemple “ courbes de langue”, "ethnogrammes" ou "topogrammes quantitatifs des zones de reconnaissance des sons" (utilisées par les promoteurs de ces méthodes) qui auraient mis en évidence ces différences acoustiques globales entre les langues.

Voici par exemple les courbes d'enveloppe utilisés comme argumentaires par les écoles Tomatis. On voit que ces courbes n'ont rien de commun avec les Spectres moyen à Long Terme vus plus haut qui illustrent globalement les fréquences utilisées par une langue.

courbes

 

[HARMEGNIES, POCH-OLIVÉ, 1992] ont critiqué les principes généraux que de telles publicités exploitent dans leurs argumentaires prétendumment scientifiques. Nous en reprenons les deux principaux points suivants :

 

1. Perception et production

S’il est clair qu’une distinction phonologique non perçue ne peut être consciemment reproduite[2], la réciproque de cette proposition n’est pas vraie dans tous les cas : ce n’est pas parce qu’une distinction phonologique est perçue qu’elle peut être produite. “Il ne suffit pas de «bien entendre» pour «bien produire»”. [JAKOBSON, 1968] (p. 714) relève que des sujets distinguent à l'audition des formes sonores qu'ils ne sont pas capable de reproduire. L'assymétrie entre les processus de production et de perception a été mise en évidence par [MACKAY, 1987].

 

2. Une analogie indue entre les domaines du court et du long terme

Si l’on conçoit que la maîtrise des phonèmes (caractéristiques locales) passe par la capacité à percevoir ces phonèmes, “rien ne prouve que l’appréhension d’éventuelles qualités globales de la production dans une langue puisse être nécessaire ou utile à ses apprenants.”

 

Et c'est pourtant à partir de ce constat - les langues utilisent globalement des fréquences différentes, qu'une correction auditive est ensuite prônée (par filtrage électro-acoustique) : il s'agit pratiquement de faire écouter à l'apprenant un message en langue étrangère filtré pour renforcer les zones de fréquences qui ne sont pas utilisées dans sa propre langue. C'est cette différence de point de vue qui creuse le fossé avec la méthodologie verbo-tonale de correction phonétique en cours de langue qui opère une analyse locale par utilisation de "contextes favorisants" mettant en valeur les caractéristiques du son.



[1]"Usant des mêmes techniques que précédemment, sur phonogrammes ou sur sonagrammes, nous avons pu retrouver progressivement les courbes d'enveloppe des valeurs moyenne des fréquences souvent rencontrées dans l'analyse des phrases collectées dans les mêmes groupes ethniques. Ainsi, par exemple, le lieu d'élection de la plus grande agglutination fréquentielle pour le français se rencontre aux alentours de 800 à 1.800 Hz, tandis que pour l'anglais, il s'étend entre 2.000 et 12.000 Hz."

TOMATIS, Alfred, L'oreille et le langage, Editions du Seuil, 1963, 187p.

[2]On peut, bien sûr, produire des oppositions ayant valeur distinctive dans une langue étrangère mais sans valeur distinctive (allophones) dans sa langue maternelle.