Translate

jeudi 7 septembre 2017

Au programme : une méthode de lecture explicite

J.M. Blanquer, nouveau ministre de l’Éducation Nationale, a l’intention de s’attaquer aux méthodes de lecture, proposant une « pédagogie explicite, de type syllabique » en opposition à une méthode globale, inefficace. Tout le monde, et en particulier les enseignants, devrait s’en réjouir. Mais, comme à l’habitude, il n’en est rien. Vouloir introduire les données probantes dans l’enseignement en proposant une méthode dont l’efficacité est avérée, voilà de quoi en hérisser plus d’un ! Et les réseaux sociaux de s’affoler, et de ressortir des placards des arguments aussi obsolètes que tendancieux. En voici quelques-uns.

  • La méthode globale n’existe plus dans les écoles.

Certains prétendent même qu’elle n’a jamais existé. On ajoute que les méthodes mixtes l’ont remplacée, qui seraient des compromis idéaux faisant la part belle à la lecture syllabique.

Les méthodes mixtes ont toutes un départ global, au cours duquel les enfants mémorisent photographiquement un stock de mots. L’accès au code alphabétique intervient plus ou moins tard selon les méthodes [1].
Les mécanismes de la lecture globale, inculqués en début d’année (reconnaître un mot photographiquement, comme une image), risquent de persister chez le lecteur débutant, qui conservera cette habitude mauvaise de deviner plutôt que de lire. C’est une habitude néfaste car elle laisse à penser que lire c’est deviner. Ce qui est faux.
De plus, elle induit de multiples confusions dues à une perception trop générale. Ex : champion/champignon – cousin/ coussin etc… L’élève, quand il commet une erreur, n’a pas les moyens de se corriger, vu qu’il ne possède pas encore le code de déchiffrage. Dans le meilleur des cas, il va tâtonner, faire des tentatives essai/erreur, ce qui est coûteux en charge cognitive. Plus couramment, il va rester sur son erreur. Cette mauvaise habitude est très difficile à éradiquer, plus particulièrement si elle a été mise en place dès la Maternelle, ce qui est souvent le cas. Certains enfants apprendront à lire avec une méthode à départ global en s’appropriant le code alphabétique tout seuls mais il faut reconnaître qu’on leur aura bien compliqué les choses et l’expérience montre qu’ils ne sont pas à l’abri de vieux « réflexes globaux ». Quant à l’élève en difficulté, il ira grossir la clientèle des orthophonistes s’il a la chance d’être repéré par son enseignant ou ses parents.
Une méthode mixte, quelle qu’elle soit, comprend trop d’approche globale, que rien ne justifie, surtout pas l’accès au sens. Le sens a un préalable qui est un déchiffrage correct.

  • ·       Le sens : les méthodes phono-alphabétiques ou syllabiques négligent le travail sur le sens.

Voici le mantra préféré des détracteurs des méthodes phono-alphabétiques. Faire déchiffrer bloquerait l’accès au sens. Comment une telle ineptie a-t-elle pu avoir pignon sur rue depuis des décennies ? C’est exactement comme si en musique, l’étude du solfège était supposée empêcher de percevoir la mélodie jouée ou chantée. Dans les faits, il n’en est rien : sans déchiffrage, pas de sens.
Comme toujours dans les « raisonnements » constructivistes, on part d’une vérité. Ici : déchiffrer un mot ne donne pas obligatoirement d’indication sur son sens. Que l’on transforme en concluant : puisque déchiffrer n’apporte pas toujours de sens, alors déchiffrer n’est pas utile. Ce qui devient : déchiffrer empêche le sens d’émerger.
Les partisans des méthodes phono-alphabétiques ne sont pas idiots au point de ne pas avoir pour ambition la compréhension d’un texte écrit ; ils savent que l’acquisition du sens repose sur :
La maîtrise parfaite du code de déchiffrage
La maîtrise de la langue orale
La possession de vocabulaire
Les connaissances générales.
Omettre l’un de ces éléments conduit à un échec. C’est aussi simple que cela. Prenons un exemple : si je lis éruption pour irruption, la phrase n’aura pas de sens car j’ai fait une erreur de déchiffrage. Si j’avais lu correctement, j’aurais eu plus de chances de comprendre, pour autant que j’ai eu ce mot en stock, ce qui fait référence à un autre aspect de la lecture.

Toujours en rapport avec le sens, on reproche aussi aux méthodes phono-alphabétiques de ne pas proposer de vrais textes, mais plutôt des énoncés simples à la syntaxe et au vocabulaire pauvres. Voici un autre argument typiquement constructiviste, consistant à aborder la complexité d’emblée. Les sciences cognitives ainsi que les expériences de terrain disent qu’au contraire, si l’on veut éviter la surcharge cognitive, on doit partir du simple pour aller vers le complexe. Mais le bon sens parle aussi. Donnerait-on à lire, même en fin de CP, ce texte, tiré du Petit Poucet ?
« Ce n’est pas que le bûcheron ne fut peut-être encore plus fâché que sa femme ; mais c’est qu’elle lui rompait la tête, et qu’il était de l’humeur de beaucoup d’autres gens, qui aiment fort les femmes qui disent bien, mais qui trouvent très importunes celles qui ont toujours bien dit. »
Les méthodes d’apprentissage de la lecture, au CP, doivent obligatoirement partir de textes simples, et quand le déchiffrage est devenu automatique, alors il est temps de compliquer les sources, tout en tenant compte du niveau de l’enfant. Le travail de compréhension en lecture se prépare par un travail sur la langue, sur la syntaxe, sur le vocabulaire, sur les connaissances générales. On ne dira jamais assez l’importance de tout cela. C’est une caricature, ou pire, une tromperie, que de dire que si l’on enseigne le déchiffrage de façon systématique et explicite, alors on ne travaillera pas sur le sens.

  • Dans la méthode phono-alphabétique, il n’y a pas d’anticipation, ni de prise de risque sur le sens.

Deviner n’a jamais été un mode d’apprentissage efficace. Quant à la prise de risques, il est vrai qu’elle existe dans tout apprentissage. Elle doit être réduite et non pas érigée en système. La méthode phono-alphabétique a cet avantage de faire reposer la réussite sur une prise de risques minimale. Même quand une erreur est faite, la connaissance du code va aider l’enfant à se corriger, alors que dans une autre méthode, la correction consistera à prendre un nouveau risque, en disant un mot au hasard.

  • La lecture devient une activité en soi et non une recherche d’informations.

Cette remarque révèle une confusion entre l’apprentissage du déchiffrage (qui nécessite des séances systématiques et explicites ainsi qu’une importante pratique) et l’utilisation de la lecture comme moyen d’accès aux apprentissages. Elle révèle une confusion entre la méthode de déchiffrage phono-alphabétique et l’activité de lecture au sens de compréhension de l’écrit. Elle fait comme si, une fois le déchiffrage acquis, aucun travail sur la compréhension n’était réalisé. Au contraire, la méthode d’apprentissage phono-alphabétique permet aux élèves de décoder de manière sûre et rapide ; ils ne butent plus sur des mots nouveaux ou difficiles. Cette automatisation du déchiffrage libère la mémoire de travail, dont on sait qu’elle est limitée en temps et en contenu, et celle-ci peut alors se consacrer au sens. L’enfant incapable de cette automatisation du déchiffrage, sera en surcharge cognitive très rapidement et aura encore plus de difficulté pour le sens. Bien entendu, l’enseignant partage son enseignement de la lecture entre le déchiffrage et le travail, encore plus vaste, sur la compréhension.

  • Les limites de la méthode alphabétique : On ne peut pas tout lire en syllabant.

L’exemple tenant lieu de preuve est « Les poules du couvent couvent. » Les équivalences son/graphisme offrent parfois plusieurs solutions. Pour comprendre la phrase dans l’exemple cité, il faut avoir conscience que le premier couvent est un nom et que le second est un verbe; donc il faut une connaissance grammaticale pour pouvoir choisir le phonème adéquat. Il faut par ailleurs posséder la connaissance sémantique de couvent et couver. Si ces trois conditions ne sont pas réunies, il est impossible de lire. Cela montre bien que la lecture ne peut pas être une seule technique et que les approches grammaticale, orthographique et lexicale doivent se faire en même temps. Les détracteurs des méthodes phono-alphabétiques feraient mieux de se poser la question sur la même phrase, donnée à lire à un élève apprenant par la méthode globale.

  • Les méthodes phono-alphabétiques font pratiquer la lecture à haute voix, ce qui est généralement nuisible.

Ici, il s’agit d’affirmer que la lecture à haute voix n’a aucune action sur la compréhension et que les élèves qui s’y livrent auraient tendance à ânonner ; en d’autres termes, l’exercice empêcherait une oralisation fluide.
Pour répondre à cela, il est vrai que l’oralisation n’induit pas forcément le sens (même si parfois le fait de lire à haute voix nous éclaire soudainement). Mais les séances de lecture orale n’ont jamais eu cette prétention. Par ailleurs, si les élèves ânonnent, c’est justement car ils n’ont pas assez pratiqué la lecture à haute voix ; pour parvenir à une lecture fluide et expressive, il faut une pratique nombreuse et régulière.

  • Les méthodes phono-alphabétiques provoquent une « cécité orthographique ».

C’est le reproche que faisait en son temps E.Charmeux, repris ensuite par ses suiveurs. Cela est faux. Au contraire, le déchiffrage, en obligeant à regarder toutes les parties du mot, favorise l’accès au code orthographique. Les marqueurs orthographiques sont souvent à la fin des mots. L’enfant déchiffreur les lit obligatoirement au même titre que toutes les autres lettres. Le principe syllabique oblige l’élève à acquérir cette habitude de bien examiner les mots qu’il lit ; par conséquent, il sera plus réceptif aux marqueurs orthographique qu’un élève ayant un réflexe global.


Pour terminer, il faut souligner que toutes les données sur la question penchent en faveur des méthodes phono-alphabétiques, ce qui est confirmé par la pratique de terrain des enseignants qui les utilisent. C’est une étude américaine qui la première l’a révélé ; il s’agit du National Reading Panel, réalisé en 1997. C’est une méta-analyse reposant sur 100 000 recherches effectuées sur la question. La conclusion précisait :
-   Qu’un enseignement phonique systématique est de loin la méthode la plus profitable pour tous les élèves, même en difficultés.  Bien sûr, cet enseignement doit s’accompagner d’un travail sur l’usage des mots, c’est-à-dire sur le sens ; mais viendrait-il à l’idée d’un enseignant de ne travailler que le décodage sans jamais se pencher sur le sens de la langue 
-    Que la lecture courante ainsi que la lecture orale doivent aussi faire l’objet d’un enseignement particulier.
-   Que la compréhension implique des travaux sur le vocabulaire oral et écrit, de manière directe et explicite comme de manière indirecte et occasionnelle.

Par ailleurs, rappelons car c’est essentiel, que l’apprentissage systématique du décodage permet à la mémoire de travail de n’être pas saturée. Il faut retenir un nombre limité de combinaisons graphiques. Le travail sur le sens se fera beaucoup mieux au quotidien, quand le lecteur sera libéré du souci d’avoir à décoder le mot, autrement dit quand cela sera automatisé. Toute son énergie cognitive sera alors mise au seul service de la compréhension, qui est ne l’oublions pas, le but seul et unique de l’acte de lire.

D’autres recherches ont été faites sur la lecture, elles vont dans le même sens. Comme par exemple, celles de S. Dehaene, J. Ziegler, L. Sprenger-Charolles. Des expériences comparatives sur l’efficacité des différentes méthodes ont été menées aux États-Unis, en Belgique, en Écosse qui toutes sont arrivées à la conclusion suivante : la méthode phono-alphabétique est plus efficace pour la lecture de mots, la lecture de textes, l’orthographe phonétique. Mais elle l’est aussi en compréhension, vitesse de lecture, transcription de syllabes et de mots.


Il ne reste plus qu’à espérer que le nouveau ministre de l’éducation Nationale saura convaincre les hiérarchies intermédiaires et les éminences grises des instituts de formation de la nécessité de recourir aux données probantes et de l’idée, jusqu'alors saugrenue dans le monde éducatif, d’efficacité.

[1] . Selon le rapport de l’Inspection générale de l’Éducation Nationale de novembre 2005, L’apprentissage de la lecture à l’école primaire, en moyenne, il n’intervient pas avant le mois de novembre.





lundi 19 juin 2017

Connaissances primaires et connaissances secondaires



Voici une notion très importante, que tout enseignant devrait connaître. Mais ne comptez pas sur les formateurs des ESPE pour vous en informer, ni sur la formation continue dans les circonscriptions. Cela aurait dû être un véritable pavé dans la mare quand elle a été mise à jour, mais il n’en a rien été. Tout simplement car elle remettait en question les pratiques pédagogiques officielles. On ne touche pas à la doxa.

Elle est issue des travaux de David Geary, basés sur la psychologie évolutionniste. (Geary 2002, 2005, 2007). Selon lui, il faut distinguer les connaissances biologiquement primaires des connaissances biologiquement secondaires.

Les connaissances primaires sont celles acquises naturellement et facilement au cours de notre évolution ; on les acquiert inconsciemment par le simple fait d’être immergé dans la société. Il en est ainsi des connaissances comme apprendre la langue maternelle, reconnaître un visage. Nous n’avons pas besoin que l’on nous enseigne à résoudre un problème par l’analyse moyens-fins. Tout être humain acquiert ce type d’habileté sans problème.

Il en va autrement des connaissances secondaires. Elles concernent tout ce qui est culturel, c’est-à-dire apporté par les sociétés relativement avancées. Même si elles reposent sur les connaissances primaires, elles diffèrent de celles-ci. Prenons l’exemple de la lecture/écriture, qui à l’échelle du temps, est une invention relativement récente ; nous n’avons pas évolué vers la lecture/écriture de la même façon que nous avons évolué vers l’écoute ou la langue parlée. Pour ce qui relève de la langue orale, personne n’imaginerait l’enseigner en expliquant comment placer ses lèvres, sa langue, sa respiration. Cela serait inutile car c’est une habileté que nous possédons suite à l’évolution par immersion dans le groupe social qui parle et écoute. Il en va différemment de la lecture/écriture car nous n’avons pas évolué pour acquérir cette habileté spontanément. L’immersion dans une société qui écrit et qui lit ne garantit rien. Les preuves en sont nombreuses encore aujourd’hui. Nous avons besoin, pour maîtriser ces habiletés, qu’elles nous soient enseignées explicitement.

Voilà le pourquoi de l’école : enseigner les connaissances biologiquement secondaires. Si l’on considérait que celles-ci peuvent s’acquérir par simple immersion, cela aboutirait à des apprentissages minimaux et superficiels, donc inutiles. Et, de fait, c’est ce qui se produit quand les méthodes pédagogiques font fi de ce préalable essentiel et tentent de mettre en œuvre l’apprentissage naturel, indifféremment des types d’habiletés à traiter. L’École doit être le lieu d’acquisition des connaissances secondaires, non par immersion ou imprégnation mais par un enseignement explicite et clair.

Pourquoi l’enseignement des connaissances secondaires doit-il être explicite ? Les psychologues cognitivistes (Sweller en particulier, 2003, 2006) ont mis en évidence les principes de l’architecture cognitive humaine qui expliquent pourquoi l’enseignement doit être explicite avec un focus sur la charge cognitive. L’ouvrage de Chanquoy, Tricot et Sweller est une excellente synthèse sur la question.

Pourquoi est-ce important de savoir cela ? Tout simplement car cela nous éclaire sur les raisons de l’inefficacité des pratiques pédagogiques constructivistes. L’erreur des constructivistes a consisté à ne pas faire la différence entre les types de connaissances. Constatant que certaines connaissances s’acquéraient de manière naturelle, ils en ont déduit qu’il en était ainsi de toutes les autres, y compris des connaissances culturelles. Aucune étude n’a été menée pour transformer cette hypothèse, à la base logique, en principe établi. Il est vrai que quand le constructivisme est apparu en pédagogie, on ne savait rien des principes de Geary, ni de l’architecture cognitive. Néanmoins, une fois que ces découvertes furent faites et l’objet d’un consensus scientifique, aucune remise en cause n’a été opérée par les tenants du constructivisme, tout a continué comme si rien ne s’était passé. Je ne peux m’empêcher de souligner l’ironie de la situation :  ceux qui prétendent éduquer les élèves à l’esprit critique et scientifique, qui disent former le citoyen libre et éclairé de demain, sont ceux-là même qui ne remettent pas en cause leur édifice pédagogique quand la science leur fournit les données probantes de son échec.

À l’heure actuelle, les sciences cognitives font partie à part entière des sciences de l’éducation et leurs apports nous permettent des pédagogies de plus en plus efficaces. Heureusement, grâce à Internet [1], on peut se féliciter de la circulation des idées ; il n’en reste pas moins que les grands chambellans de la pédagogie restent sur leur mantra : hors du constructivisme point de salut. 




[1] Je vous conseille de visiter Form@PEx, le site qui vous fera découvrir tout ce que l’on ne vous dit pas dans les ESPE, et qui vous sera fort utile si vous vous destinez à l’enseignement.

mercredi 7 juin 2017

Les enfants du numérique, une légende urbaine


Parmi les idées fausses qui courent dans le monde éducatif, il en est une qui passe inaperçue, tant elle coule sous le sens. Elle consiste à dire que les enfants d’aujourd’hui ont des aptitudes innées pour les nouvelles technologies, et ce par le seul fait qu’ils sont nés dans une ère numérique. Voyons de plus près ce qu’en disent les chercheurs et en particulier Paul A.Kirschner et Jeroen J.G. van Merriënboer.[1]
 

L’idée courante est que ces enfants sont naturellement doués pour les nouvelles technologies. On les dit aptes à construire tout seuls un apprentissage efficace à partir d’informations audio-texto-visuelles, aptes à résoudre des problèmes, aptes à communiquer, aptes à réaliser plusieurs tâches en même temps. Tout se passe comme si ces enfants-là par le seul fait d’être nés dans leur époque, étaient très performants  dans l’environnement technologique. Les enseignants eux-mêmes diffusent ce genre de pensée. On peut donc s’étonner que les mêmes enfants réussissent si peu à l’école, où l’on fait aussi appel aux technologies et où les principes pédagogiques vont aussi dans le sens d’un auto-apprentissage par découverte.
Le terme digital native (enfant du numérique) a été inventé par Prensky (2001-2006). Ce faisant, il voulait simplement mettre un mot sur ce qu’il observait autour de lui, à savoir des enfants environnés d’ordinateurs, de jeux vidéo, de web cams, de téléphones portables…et il a posé comme principe qu’ils maîtrisaient cet environnement.
Le terme Homo Zappiens, lui, a été inventé par Veen et Vrakking (2006) en référence à une nouvelle génération d’apprenants supposés apprendre différemment de leurs prédécesseurs. On parle aussi de  Génération Internet, iGeneration , Génération Google.
Selon Veen et Vrakking, les enfants de cette génération développent tout seuls les habiletés métacognitives nécessaires pour un apprentissage par enquête, basé sur la découverte, ils apprennent par le net, par expérience, par collaboration, par l’action, par l’auto-organisation et l’auto-régulation, par la résolution de problèmes et en rendant leurs propres savoirs implicites, explicites pour les autres.
La question alors est de savoir si cette génération telle que décrite existe vraiment. Nombre de recherches se sont penchées sur la question. Elles proposent plusieurs conclusions :
Les étudiants de la iGeneration utilisent un nombre limité de technologies, ils n’en n’ont pas une connaissance approfondie et se comportent en utilisateurs basiques des suites bureautiques, des messageries, des textos, des réseaux sociaux et de la navigation sur la toile. Ils ont besoin de formation et d’un entraînement pour apprendre comment la technologie peut être utile à l’apprentissage et à la résolution de problèmes. Quand ils utilisent la technologie pour apprendre, cela se limite à une consommation immédiate et passive de l’information ou à un téléchargement de notes de lecture par exemple.
Un rapport rédigé par la British Library and JISC (P. Williams & Rowlands, 2007) s’attaque à l’hypothèse très répandue selon laquelle la Google génération serait plus érudite sur le web.  La conclusion est que “beaucoup de commentaires surestiment l’impact des technologies sur les jeunes et que l’omniprésence de la technologie dans leurs vies n’a pas eu pour conséquence l’amélioration de la recherche et l’obtention d’information ou l’évaluation des habiletés. » (p. 308). Les apprenants, devant un ordinateur, se comportent comme des papillons butinant les informations sur l’écran, avec plus ou moins de succès. Ils volètent d’une information vers une autre sans être capables d’en évaluer la pertinence. Ce cheminement ne suit aucun plan particulier. C’est ce que l’on appelle le défaut du papillon  (signalé par Salomon et Almog,1998). Les apprenants, à force de clics, oublient ce qu’ils cherchent et n’apprennent pas en profondeur, au mieux ils recueillent un amas d’éléments plus ou moins pertinents.
Une étude par Valtonen et al. (2011) s’est penchée sur les connaissances technologiques des enseignants de cette génération et l’utilisation qu’ils en font dans leur enseignement. Les résultats ont montré une utilisation très limitée et que par exemple, les médias sociaux étaient utilisés comme source d’information passive et non comme un outil pour créer du contenu, interagir avec les autres ou partager des ressources. Il en a été conclu que l’aptitude de cette génération d’enseignants pour adopter et adapter les nouvelles technologies dans leur enseignement est discutable.
Un article de Selwyn (2009) a déterminé que l’implication des jeunes dans les technologies digitales est surfaite par rapport à la réalité.  Dans une revue critique portant sur les preuves relatives au débat sur les enfants numériques, Bennett, Maton, and Kervin (2008) concluent à un réel décalage entre la confiance avec laquelle les affirmations sont faites et les preuves sur lesquelles elles reposent.


Voilà un ensemble d’éléments qui permettent de confirmer ce que tout praticien constate sur le terrain : les élèves n’ont qu’une maîtrise très superficielle des nouvelles technologies et celles-ci ne leur permettent pas d’approfondir leurs apprentissages. Au contraire, elles induisent des manières de faire inefficaces (effet papillon) et même porteuses d’informations erronées. De plus, comme les élèves ne sont pas formés à l’esprit critique [2], ils n’ont pas les moyens de d’évaluer la qualité des informations recueillies, ce qui peut être très dangereux, par-delà la question des apprentissages.  Parmi les perspectives d’amélioration de l’École, les ministres successifs proclament inlassablement le numérique comme solution miraculeuse, sans jamais questionner les conditions de l’enseignement actuel, qu’elles soient pédagogiques ou matérielles. Par conséquent, il serait utile qu’un véritable enseignement soit organisé et que les enseignants y soient correctement formés.





[1] Do Learners Really Know Best? Urban Legends in Education

Paul A. Kirschner et Jeroen J. G. van Merriënboer (EDUCATIONAL PSYCHOLOGIST, 48(3), 169–183, 2013)