Sources  :
– Rapport intégral, en  anglais : pour télécharger, faire dans Google :    » timms.be.edu PIRLS 2011 « 
– Note d’information MEN-DEEP de décembre 2012

L’étude PIRLS confirme la mauvaise place de la France par rapport à des pays comparables, et la diminution du nombre d’élèves bien instruits. Ce ne sont pas des surprises : les enquêtes PISA sonnaient les mêmes alertes.
De façon plus précise, les résultats des élèves français sont d’autant plus faibles que les questions sont plus élaborées et plus caractéristiques d’une lecture fine et d’une capacité de réflexion.
PIRLS  confirme que la cause principale ne se trouve pas dans les ZEP, secteurs dits « sensibles » mais en réalité abandonnés. La cause principale se trouve dans les modes pédagogiques majoritairement en vigueur, dans le désordre causé dans l’esprit des élèves et dans le découragement des professeurs.

Illustration de la MÉDIOCRITÉ CONSENTIE, selon l’expression de l’économiste Christian Saint Étienne, il s’est trouvé des responsables et  des médias pour nous expliquer que les résultats de la France dans les enquêtes internationales n’étaient pas si mauvais que cela, puisqu’elle ne se place pas trop loin de la moyenne générale. Or cette moyenne est influencée par la participation de nombreux pays pauvres.

Quel ministre proclamera-t-il une exigence d’excellence pour notre système d’enseignement ?

Il est permis, aussi, de se demander pourquoi nous sommes toujours sur la pente descendante, alors que les programmes du primaire ont été corrigés en 2008, et que de plus en plus d’enseignants, certes encore minoritaires, essaient de redresser la barre. Mais ils ne peuvent compenser les départs à la retraite d’enseignants convenablement instruits et formés.

La débâcle de l’école se poursuit, pour les mêmes raisons que la débâcle de 1940 : le manque de conviction ou de courage des détenteurs successifs du pouvoir politique, que le massacre des innocents n’empêche visiblement pas de dormir.

Les futurs concurrents de nos petits-enfants – sur tous les plans – sont déjà, dans PIRLS, à leur place : Singapour et Hong Kong en tête !

L’ETUDE PIRLS
Progress in International Reading Literacy Study
 
 
Enquête internationale réalisée par l’IEA, association scientifique indépendante, dont la compétence et la neutralité ne sont pas contestées.Le but est de classer, sur les mêmes bases, les pays participants, pour susciter les progrès de tous  (« benchmarking »).
 
La population ciblée est celle des enfants scolarisés à des niveaux d’étude comparables, soit le CM1 pour la France, à un âge moyen compris entre 9 et 10 ans. Ce choix est guidé par l’idée que cet âge correspond à la transition entre le stade « apprendre à lire » et le stade « lire pour apprendre ».
 
L’enquête se fait par sondage, soit, pour la France en 2011, 4400 élèves environ dans 277 classes.
L’étude a lieu tous les cinq ans : 2001, 2006, 2011.
 
Comment qualifier et repérer le « savoir lire » à cet âge ? 
 
On peut évidemment concevoir plusieurs définitions du « savoir lire » à 9-10 ans, construire diverses épreuves, donner divers poids relatifs à ces épreuves, définir plusieurs modalités et consignes de notation.
 
Des choix ont été faits après étude par L’IEA. Ces choix auraient pu être différents. Mais l’important, en l’occurrence, est d’assurer la fiabilité et la constance ou comparabilité des résultats dans le temps. De multiples précautions ont été prises, de telle sorte que la validité des résultats n’est pas niée, en tant que repères, (sinon en tant que mesures, qui n’auraient pas de sens).
 
La nature des épreuves, leurs poids relatifs et leurs modes de correction sont décrits dans les deux documents cités en référence.

Analyse des principaux résultats

Scores des élèves.

 
Les notes brutes subissent des traitements statistiques pour «normaliser» l’échelle du score global. Le score résultant des traitements varie entre 0 et 1000, moyenne 500. Les élèves sont nombreux autour de 500, et de plus en plus rares lorsque l’on se rapproche de 0 ou 1000.
L’amplitude de (écart entre le score le plus fort et le plus faible) dépend de la taille des échantillons. On peut imaginer que, dans l’enquête 2011, peu d’élèves obtiennent moins de 300 ou plus de 700 points, très peu au-delà de 200 et 800.
 
Les auteurs de l’étude ont proposé quatre niveaux de performance :
avancé 625 points
élevé          550 points
intermédiaire475 points
bas        400 points
 
 
 
La répartition des élèves entre ces niveaux varie d’un pays à l’autre.
Nous comparerons la France à des pays européens participant à l’étude 2011
 
2011 Avancé Elevé  IntermédiaireBas
France5 %   30 %40 %       20 %
Finlande18 %    45 %29 %        7 %
Angleterre     18 %   36 %29 %       12 %
Allemagne     10 %   36 %39 %       13 %
 
Moyenne
23 pays 9 %     35 % 36 %        15 %
européens
 
Les écarts les plus grands se situent dans les deux niveaux extrêmes, où l’on constate que les scores français sont très mauvais.
 
Circonstance aggravante, la part du niveau « avancé » a baissé, pour la France, de 7 % en 2001 à 5 % en 2011, écart significatif en probabilité .
 
 

Scores moyens par pays.

 
Les scores par pays sont des moyennes d’un grand nombre de scores individuels ; de ce fait ils sont plus resserrés autour de la moyenne. Pour l’Europe, en excluant Malte, les scores moyens des pays participants se situent entre 500 et 570, moyenne 534.
 
La France est 5ème avant-dernière (avant Espagne, Belgique francophone, Roumanie et Malte).
 
Moyenne2001         2006           2011
 France        525          522             520
Finlande                  568
Angleterre       553        539          552
Allemagne       539        548          541
 
Les variations de chaque pays ne sont pas significatives. Par contre les écarts entre les quatre pays en 2011 sont significatifs.
 
 

France : Critères de statut des écoles, et de situation en ZEP Ces informations ne figurent pas dans le rapport général mais dans celui du MEN/DEPP

 20012011
Enseignement public hors Education prioritaire533523
Education prioritaire 477480
Enseignement privé  527525
Ensemble 525520

La seule variation notable est celle de l’enseignement public hors éducation prioritaire, qui est largement majoritaire. Cela explique et conforte l’impression donnée par la baisse (non significative) de l’ensemble.   Les écarts entre le privé et le public hors éducation prioritaire ne sont pas significatifs, sans doute parce que le privé adhère majoritairement aux modes pédagogiques du public.

La qualité de la lecture

La lecture d’un texte peut être superficielle, immédiate, directe, limitée au sens propre. Elle peut aussi être approfondie,  le lecteur se construisant à partir du texte des images mentales, comblant les lacunes textuelles par des hypothèses, mettant en jeu son savoir, son imagination, sa réflexion. La qualité de la lecture peut aussi se définir par la capacité du lecteur à apprécier la qualité littéraire et culturelle du texte.

Pour cerner cette notion de qualité de lecture, l’étude combine plusieurs approches :  
– certains textes sont principalement informatifs, d’autres sont de la fiction narrative  
– certaines questions sont fermées, à choix forcés (QCM), d’autres appellent des réponses écrites et  construites
– questions et réponses ont été réparties entre 4 degrés de qualité, de profondeur, de compréhension :
1 – le lecteur se concentre sur les informations explicites et peut les extraire du texte :  « Prélever » coefficient 22
2 – le lecteur fait des inférences simples, déduit des informations d’autres informations non explicites mais résultant directement du texte : « Inférer » coefficient 28
3 – le lecteur interprète et combine idées et informations : « Interpréter » coefficient 37
4 – le lecteur examine et évalue le contenu, le langage et les éléments textuels : »Evaluer » coefficient 13.  

Les quatre composantes ont été dans plusieurs comparaisons regroupées deux par deux :
– Prélever et Inférer coefficient 50
– Interpréter et Évaluer coefficient 50  

On retrouve les deux degrés de lecture directe ou superficielle, et de lecture approfondie impliquant activement le lecteur.

Résultats : qualité de la lecture

2011           Prélever et Inférer            Interpréter et Evaluer
France               528                                          512
Finlande            569                                          567
Angleterre         546                                          555
Allemagne         548                                          536

Le fait le plus remarquable est l’extrême faiblesse des élèves français en lecture de qualité, dont le score  baisse très significativement dans le temps :

France                          2001                  2006              2011
Prélever et Inférer           529                   527                528
Interpréter Evaluer          523                   515                512

Il est d’ailleurs signalé que les résultats des élèves français sont d’autant plus faibles que les questions appellent des réponses écrites et étoffées.

NOTES

Qualité des réponses  

On peut se demander pourquoi les élèves français répondent moins bien lorsque la réponse ne se trouve pas dans un QCM, et encore moins bien si la réponse doit être convenablement construite car assez longue (quelques lignes);  

La première idée qui vient à l’esprit est que les élèves faibles en lecture sont encore plus faibles en écriture (travail mental et calligraphie).  

Il y a une autre hypothèse, que l’on peut formuler ainsi : À propos des QCM, une personne instruite peut penser que l’élève réfléchit d’abord à la question, élabore une réponse, puis choisit et coche la réponse la plus proche dans le choix proposé par le QCM. Dans cette hypothèse,  les scores devraient être voisins en QCM et réponses rédigées.  

Mais, le cerveau étant un organe très complexe, on peut imaginer aussi que :
– ayant survolé en mode global la question et les réponses
– l’élève compare l’idée globale qu’il a des données de la question avec les indices qu’il tire globalement de chaque réponse
– et choisit ainsi par vraisemblance, sans réflexion poussée  

Certes, ce processus ne garantit pas que toutes les réponses de l’élève sont correctes, mais il peut donner un score supérieur à des réponses au hasard.  

Un tel comportement est d’autant plus vraisemblable que les QCM de PIRLS ressemble plus aux QCM proposés à l’école.  

Un tel effet serait accentué si, dans le but d’améliorer les résultats de la France à PIRLS ou PISA, l’enseignement était axé sur des épreuves du type PIRLS ou PISA.   Si par contre l’enseignement français avait pour objectif majeur de développer les aptitudes intellectuelles et la capacité de raisonnement des élèves (ce qui n’est pas le cas aujourd’hui), ceux-ci réussiraient aussi bien les réponses rédigées que les QCM.    

A propos des programmes 2008 du primaire    

Dans sa note d’information de décembre 2012, la DEPP (Direction Evaluation Prospective Performance) remarque qu’un élève de CM1 en 2011 a étudié en CP sous l’empire des programmes 2002, et en CE1 CE2 et CM1 sous celui des programmes 2008.  

Au vu de l’évolution des scores dans PIRLS, on pourrait en conclure que les programmes 2008 sont inefficients, et qu’il convient de les changer, comme tout ce qui a été fait par Xavier Darcos.  

Il faut à ce sujet rappeler :
– que, pour nous, l’année cruciale pour la lecture est le CP
– que les programmes 2008 n’ont pas été appliqués immédiatement, et ne le sont pas encore
– que d’ailleurs, en ce qui concerne la grande section de maternelle et le CP, ils comportaient de graves sources de confusion, largement mises à profit par les pédagogistes  auteurs de manuels « conformes aux programmes 2008 ».  

Tout cela a été exposé en son temps sur ce site.      

L’environnement des élèves.  

PIRLS comporte de nombreuses questions sur l’environnement des élèves et des enseignants, afin de mettre en évidence des facteurs favorables ou défavorables à l’apprentissage de la lecture.  

Deux exemples :  

• Ressources en lecture à la maison.
« nombreuses » : score moyen des élèves 571 (niveau « élevé »)
« quelques-unes » : 510
« peu nombreuses » : 448    

• A l’école, nombre d’heures par an consacrées :
– à l’étude de la langue – moyenne : 232 H
– à des lectures en rapport avec l’instruction – moyenne : 70 H  

Curieusement, ces informations sont inexistantes dans 2 pays, dont la France. Que faut-il en penser ? 

Pour rester informé, je m'abonne à la lettre

(Visited 1 times, 1 visits today)

Pin It on Pinterest