Il existe un écart considérable entre de nombreux résultats de la recherche en psychologie de l'éducation et la pratique éducative. Cet écart est particulièrement notable dans le domaine de l'enseignement des sciences. Dans cet article, nous avons examiné les implications de trois catégories de recherches et de leurs résultats pour la politique d'enseignement des sciences aux États-Unis et dans d'autres pays. Nous indiquons qu'une catégorie particulière de recherches, que nous appelons “études basées sur des programmes”, a dominé la formulation des normes éducatives, tandis qu'un grand nombre de résultats critiques provenant d'études randomisées, contrôlées et corrélationnelles qui, dans leur grande majorité, montrent un soutien minimal à la politique suggérée, ont été considérés comme non pertinents et exclus. L'insistance générale actuelle sur les études fondées sur des programmes au détriment des autres types de recherche est déplacée.
Les normes éducatives devraient représenter une vision équilibrée des données disponibles, y compris les résultats des études contrôlées et corrélationnelles. Enfin, nous indiquons comment ces différentes formes de recherche pourraient s'informer mutuellement et fournir des implications cohérentes et constantes pour les procédures éducatives.
Il peut être difficile de combler le fossé entre les résultats de la recherche et la pratique éducative (Robinson et al., 2013 ; Wecker, 2013). Nous avons indiqué qu'un grand nombre d'ensembles de données critiques ont été négligés lors de la formulation de la politique d'enseignement des sciences, ce qui a conduit à une déconnexion entre les résultats de la recherche et la pratique éducative. Nous soulignons qu'aucune des trois catégories de recherche discutées ne doit être rejetée ou utilisée exclusivement lors de la détermination des procédures d'enseignement. Toutes peuvent apporter des informations utiles. Malheureusement, les études fondées sur des programmes semblent être la seule catégorie utilisée. Bien qu'importantes, ces études ne devraient jamais constituer les seuls ensembles de données utilisés pour déterminer les procédures d'enseignement. Il existe des dangers que cette approche ait conduit et continue de conduire à des résultats éducatifs moins qu'idéaux.
Bien que nous ayons axé notre discussion sur la compréhension par les élèves du contenu et des procédures scientifiques, nous reconnaissons l'importance de développer d'autres résultats d'apprentissage chez les élèves, tels que les intérêts et les attitudes à l'égard des sciences. Nous réaffirmons que nous n'avons aucune objection aux divers résultats d'apprentissage en sciences. Nous ne rejetons pas non plus les données indiquant que des activités d'investigation peuvent être incluses pour atteindre ces différents objectifs d'apprentissage. Nous souhaitons toutefois faire valoir que le développement efficace de la compréhension des concepts et procédures scientifiques par les élèves ne devrait pas être sacrifié en donnant la priorité à d'autres résultats d'apprentissage. Il est difficile de concevoir des intérêts et des attitudes valables à l'égard des sciences sans disposer des connaissances et de la compréhension conceptuelles nécessaires.
De nombreux facteurs sont importants pour la réussite de l'enseignement des sciences. Des éléments, tels que les contextes et ressources locaux, l'implication des praticiens dans les collaborations, ainsi que les nuances dans les interventions conçues, jouent un rôle important dans la réussite des mises en œuvre d'interventions (Renkl, 2013, 2015 ; Wecker, 2013). Cependant, nous soutenons deux points. Premièrement, les essais contrôlés aléatoires ont longtemps été considérés comme la seule procédure scientifiquement fiable pour établir une relation causale. Deuxièmement, nous devons vérifier si de telles relations peuvent être effectivement réalisées dans divers contextes et quels éléments contextuels et pratiques locales affectent la mise en œuvre. Nous pensons que le premier point ne peut être remplacé par le second, ou vice versa.
Un nouvel article a été publié dans Educational Psychology Review, rédigé par Lin Zhang, Paul Kirschner, William Cobern et John Sweller. Il mérite d'être lu dans son intégralité et vous pouvez accéder à une préimpression via researchgate. Voici toutefois mes commentaires.
Tout d'abord, les auteurs démontrent l'extraordinaire popularité de l'apprentissage par la recherche auprès de ceux qui cherchent à réformer les programmes scolaires de sciences. Zhang et al. font allusion au fait que la récente révision du “Australian Curriculum : Science”, a mis l'accent sur l'apprentissage par l'enquête - chaque volet du projet commençait par “explorer” ou “enquêter”.
L'apprentissage par l'enquête porte de nombreux noms et comprend des quantités variables de conseils. Cela signifie que lorsqu'une version est discréditée, une nouvelle version émerge avec un accent peut-être légèrement différent. Les défenseurs de l'apprentissage par l'enquête mettent alors au défi les critiques de prouver à nouveau son inefficacité. C'est pourquoi j'ai perdu patience avec ceux qui discutent sans fin des définitions de l'apprentissage par la recherche. Je ne crois plus à l'authenticité de leurs motivations. La charge de la preuve incombe à ceux qui mettent en avant une méthode d'enseignement particulière, pas à ceux qui en sont sceptiques.
Zhang et al. affirment que deux séries de normes du programme scientifique américain de 1996 et 2013, bien qu'utilisant une terminologie différente, impliquent une “approche pédagogique identique de l'enseignement des sciences”, qui met l'accent sur “l'enseignement des sciences par le biais d'enquêtes”. Tout à fait.
Les auteurs notent qu'un type de preuve prédomine dans les sources de ceux qui rédigent ces normes. Ces preuves sont basées sur des programmes d'enseignement entiers. En général, une organisation finance un programme d'études inspiré des enquêtes, intègre une série d'approches pédagogiques et consacre du temps à des ateliers intensifs de formation des enseignants. Ces programmes sont ensuite évalués soit avant/après, soit par rapport à un groupe de contrôle qui n'a reçu aucun des éléments de l'intervention. Cela signifie que nous ne pouvons pas être sûrs que tout effet provient des éléments d'enquête plutôt que, par exemple, des ateliers de développement des enseignants.
Les auteurs décrivent deux autres sources de preuves qui, en revanche, ne soutiennent pas l'apprentissage par la recherche. La première est constituée de preuves provenant d'essais expérimentaux soigneusement contrôlés dans lesquels un seul facteur est modifié à la fois, et la seconde provient d'études corrélationnelles à grande échelle basées sur des enquêtes telles que celles menées par l'OCDE et l'AIE.
Zhang et al. notent que les gens s'opposent souvent aux essais soigneusement contrôlés au motif qu'ils ne représentent pas la complexité de tout ce qui est inclus dans un programme d'enseignement. Or, c'est bien là le problème. Il semble étrange qu'il faille expliquer à ceux qui cherchent à enseigner les sciences aux écoliers la nécessité de ne faire varier qu'un seul facteur à la fois afin d'établir une relation de cause à effet.
Les preuves corrélationnelles, en revanche, ne peuvent pas établir de relations causales. Elles peuvent seulement démontrer qu'un apprentissage plus approfondi est associé à de moins bons résultats au test PISA, par exemple. Il est toujours possible qu'un troisième facteur soit à l'origine de l'utilisation de l'apprentissage par la recherche par les enseignants et des mauvais résultats des élèves au test PISA. Cependant, lorsque de telles preuves atteignent le volume décrit par les auteurs, et lorsqu'elles sont lues en parallèle avec des preuves issues d'essais contrôlés randomisés capables de démontrer des relations causales, il semble excentrique de les ignorer et de continuer à se référer uniquement à des études basées sur des programmes.
L'absence de scepticisme à l'égard des formes d'apprentissage par l'enquête et l'empressement de quiconque réfléchit cinq minutes à l'éducation à les prescrire comme solution à la stagnation des performances scientifiques semblent, à première vue, inexplicables.
En fait, cela démontre le pouvoir mnésique des mauvaises idées et l'ampleur du travail à accomplir pour reconstruire l'éducation sur des bases rationnelles. Même lorsque c'est la science et la raison que nous cherchons à enseigner.
Un nouvel article, intitulé Let's talk evidence - The case for combining inquiry-based and direct instruction, rédigé par M. de Jong et douze de ses collègues, a été publié dans Educational Research Review. Il s'agit ostensiblement d'une critique du document de 2022 intitulé “There is an Evidence Crisis in Science Educational Policy”, rédigé par Zhang, Kirschner, Cobern et Sweller, selon lequel les approches d'apprentissage basées sur l'investigation en vogue pour l'enseignement des sciences ne sont pas étayées par les preuves disponibles et que l'enseignement direct devrait être privilégié.
L'article de Jong et al. n'est pas très bon. Il est en libre accès, vous pouvez donc le lire vous-même et voir si vous êtes d'accord. Le fait que les auteurs aient déguisé un argument qui plaide clairement en faveur de l'apprentissage par la recherche en une sorte de position équilibrée entre deux extrêmes déplaisants nous donne une idée de la force de leur argumentation. Nous avons déjà vu cette manœuvre rhétorique, notamment dans le cas de l'alphabétisation prétendument “équilibrée”.
Plutôt que de tenter de critiquer l'ensemble de l'étude de Jong et al. - une tâche difficile, étant donné qu'elle repose sur une méta-analyse, comme je l'expliquerai plus loin - je soulignerai quelques problèmes spécifiques, ainsi que d'autres plus généraux.
Tout d'abord, en dépit de quelques éclaircissements sur la difficulté d'établir des définitions communes de l'enseignement direct et de l'enseignement basé sur l'investigation, de Jong et al. ont rapidement mal interprété l'argument de Zhang et al. Ils déclarent :
“Par exemple, Klahr, Zimmerman et Jirout (2011) ont constaté que “l'instruction directe” était meilleure que l'exploration pour le développement du SVC [étudiants apprenant à contrôler les variables dans une expérience]. Dans ce travail, cependant, l'instruction est allée au-delà de la définition de l'instruction directe proposée par Zhang et al. (2022), qui décrivent l'instruction directe comme “le simple fait de fournir aux élèves les informations souhaitées et de leur demander de les lire dans des textes ou d'assister à des démonstrations” (p. 1160). Klahr et al. (2011), en revanche, ont demandé aux élèves de s'engager dans une recherche active, en concevant et en évaluant des expériences, et ont donné un retour d'information sur les tentatives de recherche active des élèves”.
“Klahr et al. (2011)” est un article excentrique à référencer car il s'agit d'un article de synthèse relativement court de Science qui n'est pas vraiment axé sur ce point. Au lieu de cela, Zhang et al. ont fait référence à l'étude de Klahr et Nigam (2004) qui est à l'origine de cette affirmation sur l'enseignement des variables de contrôle aux étudiants. La caractéristique principale de la condition “instruction directe” était que le concept de contrôle des variables était entièrement expliqué aux élèves avant qu'ils ne soient invités à l'appliquer. Certes, ils se sont ensuite exercés à appliquer ce concept, mais qu'en est-il ? Nous sommes amenés à penser que Zhang et al. excluent cette possibilité dans leur définition entièrement passive de l'instruction directe.
C'est pourtant ce qu'ont écrit Zhang et al :
“Nous n'aurions jamais dû en arriver là, car les preuves accumulées dans les études contrôlées, sur lesquelles le domaine de la psychologie de l'éducation s'appuie fortement, n'ont apporté qu'un soutien minimal à l'enseignement des sciences par le biais d'enquêtes basées sur l'exploration. Par exemple, des études contrôlées ont comparé l'approche susmentionnée de l'enseignement des sciences fondée sur l'enquête ou l'exploration à diverses formes d'enseignement explicite, comme le simple fait de fournir aux élèves les informations souhaitées et de leur demander de les lire dans des textes ou d'assister à des démonstrations. Dans leur grande majorité, ces études soutiennent l'idée que les élèves apprennent mieux le contenu grâce aux différentes formes d'enseignement explicite (Ashman et al., 2020 ; Hsu et al., 2015 ; Klahr & Nigam, 2004 ; Matlen & Klahr, 2013 ; Renken & Nunez, 2010 ; Stull & Mayer, 2007 ; Zhang, 2018, 2019). Il convient de noter que nombre de ces études n'ont pas été menées dans un laboratoire de psychologie, mais dans de véritables salles de classe où des élèves étudient des documents pédagogiques pertinents.” [Je souligne]
S'agit-il d'une “définition” ? Je pense que le “tel que” est très important ici et je pense que de Jong et ses collègues bénéficieraient d'un court cours sur la théorie des ensembles et les diagrammes de Venn.
L'une des grandes différences entre de Jong et al. et Zhang et al. concerne les preuves qu'ils citent. Zhang et al. préfèrent citer des études spécifiques, tandis que de Jong et al. préfèrent les méta-analyses, ce qui implique qu'il s'agit de revues plus approfondies des preuves. Je ne suis pas convaincu que cela soit vrai. Le principal problème que pose l'analyse d'une allégation fondée sur des méta-analyses est que les conditions des études originales sur lesquelles elles s'appuient ne sont souvent pas claires. Nous devons donc soit accepter ce que les auteurs affirment à propos de ce que ces méta-analyses démontrent, soit creuser la question.
Pour donner une idée de ce que cela implique, Alfieri et al. (2011) sont cités en passant comme fournissant des preuves que “l'enquête assistée est plus efficace que l'enseignement explicite”. Cependant, l'évaluation d'une telle affirmation nécessite des recherches approfondies, comme je l'ai découvert dans ce billet. Dans de nombreux cas, les détails nécessaires à l'évaluation d'une telle affirmation ne sont même pas disponibles dans la méta-analyse, à supposer que l'on puisse en obtenir une copie, et il faut donc rechercher tous les articles cités dans cette méta-analyse, ou du moins un échantillon d'entre eux. Ayant effectué ce type de travail, je ne pense pas qu'Alfieri démontre ce que de Jong et al. affirment qu'il démontre et je suis donc enclin à un niveau de scepticisme plus général.
Mon scepticisme n'a été que renforcé par les trous de souris dans lesquels j'ai décidé de m'enfoncer. Par exemple, l'affirmation selon laquelle “l'apprentissage par enquête peut favoriser une compréhension conceptuelle approfondie” est étayée par une référence à un article de synthèse narratif rédigé par de Jong, l'auteur principal. Je ne suis pas opposé aux analyses narratives, mais en utiliser une de cette manière est opaque. Il n'est pas clair laquelle des nombreuses études citées dans ce document est censée fournir des preuves empiriques de l'affirmation selon laquelle l'apprentissage par l'enquête favorise la compréhension conceptuelle, et il faudrait déployer des efforts considérables pour essayer de le découvrir.
De même, l'affirmation selon laquelle “[l'enseignement direct] ne conduira pas nécessairement à une compréhension conceptuelle approfondie dans des domaines moins bien structurés” est étayée par un article de Fry, Fisher et Hattie qui décrit une étude de “validation de principe” dans laquelle les deux auteurs principaux ont travaillé avec huit enseignants pour développer des ressources pédagogiques. L'article de Fry et al. affirme que “si les connaissances superficielles requièrent un enseignement plus direct, à mesure que les élèves approfondissent leurs connaissances, l'enseignant facilite davantage les choses”. Toutefois, les preuves empiriques avancées pour étayer cette affirmation ne sont pas claires. Il semble s'agir d'une opinion, peut-être basée sur le minuscule essai non contrôlé mené par les auteurs.
Ces points pourraient peut-être être considérés comme mineurs si ce n'était l'affirmation clé du résumé de de Jong et al. selon laquelle “une interprétation plus complète et plus correcte de la littérature démontre que l'enseignement basé sur l'investigation produit de meilleurs résultats globaux pour l'acquisition de connaissances conceptuelles que l'enseignement direct”. S'il s'agit de l'une des principales affirmations, elle doit être étayée par des preuves importantes.
L'une des critiques formulées par Zhang et al. à l'encontre des décideurs politiques dans There is an Evidence Crisis in Science Educational Policy, est qu'ils s'appuient trop sur des preuves issues d'essais où une nouvelle intervention brillante, soutenue par des chercheurs et un développement professionnel approfondi, est comparée à une situation de contrôle habituelle. de Jong et al. semblent faire preuve d'une naïveté stupéfiante en ce qui concerne les conditions de contrôle habituelles :
“Un deuxième commentaire de Zhang et al. (2022) sur les études basées sur des programmes est que si des groupes de contrôle sont utilisés, il s'agit souvent de contrôles ” habituels “, ce qui revient à comparer injustement une condition bien conçue et plus englobante basée sur l'enquête avec une condition qui n'a pas été conçue avec soin par les chercheurs. Toutefois, si la condition de contrôle est une condition “habituelle”, il est possible que les enseignants soient très expérimentés dans cette approche traditionnelle et qu'ils puissent capitaliser sur leur expertise en dispensant une forme d'enseignement plus directe ; en outre, les élèves savent exactement comment agir dans cette forme d'enseignement traditionnelle. Par conséquent, nous continuons à penser que ces études à très grande échelle contribuent à renforcer les preuves concernant les approches d'enseignement axées sur la recherche”.
Les effets d'attente tels que l'effet placebo et l'effet Hawthorne sont réels. Dans ce cas, il n'est même pas nécessaire d'avoir une attente pour obtenir un effet. Une formation plus poussée pourrait être la clé, ou plus de temps et d'attention consacrés au sujet scolaire faisant l'objet de la recherche.
Lorsque vous variez plus d'une chose à la fois, vous ne pouvez pas savoir ce qui est à l'origine d'un résultat donné.
C'est pourquoi nous enseignons aux enfants la nécessité de contrôler les variables.
In 2022, Lin Zhang, Paul Kirschner, Bill Cobern and John Sweller had an article published in Educational Psychology Review titled, "There is an Evidence Crisis in Science Educational Policy."
The article argues that the evidence cited by many science curriculum and standards documents is flawed. These documents typically promote the advantages of inquiry learning, but they rely on a particular class of what Zhang et al. term, ‘program-based studies.’ These are studies where a new curriculum package is compared using a before-and-after model or against business-as-usual. The problem with these studies is they tend to vary more than one relevant factor at a time.
However, the same documents tend to ignore the evidence from two other types of studies — randomised controlled trials and correlational studies such as PISA. Funnily enough, these ignored studies do not tend to provide positive evidence for inquiry learning.
Earlier this year, the Zhang et al. paper drew a critical response from Ton de Jong and twelve of his colleagues. In a paper for Educational Research Review titled, "Let's talk evidence – The case for combining inquiry-based and direct instruction," de Jong et al. argued that the case against inquiry had not been substantiated by Zhang et al. and, instead, the evidence suggests a balance between inquiry and explicit teaching should be used by science teachers. They were less clear on what this balance should be or when to use each method.
I wrote about this paper back in May. (NDLR : cf. la section précédente)
The original authors of Zhang et al. decided they wanted to respond to this paper and they asked me to join them. That paper was accepted by Educational Research Review and published online today. It is imaginatively titled, "Response to De Jong et al.’s (2023) paper “Let's talk evidence – The case for combining inquiry-based and direct instruction.”"
Our new paper is open access so I recommend you read it all. It is not overly long. The de Jong paper is also open access. Unfortunately, the original Zhang paper is not open access.
I will highlight a few points you may be most interested in — a definition, an irony and a conclusion.
Firstly, we define explicit teaching:
To us, the defining feature of explicit instruction is that, for novice learners, concepts are fully explained, and procedures are fully modelled before learners are asked to apply those concepts or procedures. Significantly, this working definition does not preclude the possibility of learners completing open-ended problem-solving tasks. It simply suggests that if such tasks form part of a sequence of explicit instruction, they would follow explanation and modelling by the instructor.
We highlight an irony in the subject matter often taught to students during research studies on teaching methods:
To this point, it is worth noting the wealth of research on instructing learners in the key scientific principle of controlling variables. We cannot help but notice that many researchers, through the studies they design, acknowledge the importance of teaching young learners about the need to control variables and avoid confounds. It is ironic that other researchers in the same field then place value in poorly controlled, confounded program-based studies when discussing the validity of particular, individual instructional methods.
And we conclude with the following paragraph:
“Data without theory is likely to appear random. Cognitive load theory provides an overarching theory that can be used to both generate data and organise it. The theory indicates both how and when explicit instruction and inquiry should be used. One of the crowning glories of human evolution, our skill in rapidly communicating large amounts of information to each other, is a central principle of cognitive load theory: the borrowing and reorganising principle. Cognitive load theory is concerned with how to organise instruction to maximally make use of this principle. It is a primary skill universally used by all humans including the readers and writers in the current exchange but is considered inappropriate by De Jong et al. (2023), under some undefined conditions, for learners in educational settings. Even worse, at times and for reasons that remain unclear, that skill is to be replaced by an inefficient procedure that we otherwise only use when communication from others is unavailable. It remains a mystery to us why students, and only students, should, under unspecified conditions, be capriciously prevented from using what is arguably the most important evolved skill of our species, our unique ability to rapidly assimilate large amounts of novel information from other people.”
I hope you enjoy reading about this debate.
Traduction automatique :
En 2022, Lin Zhang, Paul Kirschner, Bill Cobern et John Sweller ont publié un article dans Educational Psychology Review intitulé "There is an Evidence Crisis in Science Educational Policy".
L'article affirme que les preuves citées dans de nombreux documents relatifs aux programmes et aux normes scientifiques sont erronées. Ces documents vantent généralement les avantages de l'apprentissage par la recherche, mais ils s'appuient sur une catégorie particulière de ce que Zhang et al. appellent des “études basées sur des programmes”. Il s'agit d'études dans lesquelles un nouveau programme d'études est comparé à un modèle avant-après ou au statu quo. Le problème de ces études est qu'elles ont tendance à faire varier plus d'un facteur pertinent à la fois.
Cependant, les mêmes documents ont tendance à ignorer les preuves issues de deux autres types d'études : les essais contrôlés randomisés et les études corrélationnelles telles que PISA. Il est amusant de constater que ces études ignorées n'ont pas tendance à fournir des preuves positives en faveur de l'apprentissage par la recherche.
Au début de l'année, l'article de Zhang et al. a suscité une réaction critique de la part de Ton de Jong et de douze de ses collègues. Dans un article intitulé “Let's talk evidence - The case for combining inquiry-based and direct instruction”, publié dans Educational Research Review, Ton de Jong et ses collègues ont affirmé que Zhang et ses collègues n'avaient pas prouvé qu'ils étaient contre l'apprentissage par enquête et que les données suggéraient plutôt que les professeurs de sciences devraient utiliser un équilibre entre l'apprentissage par enquête et l'enseignement explicite. Ils n'ont pas été très clairs sur la nature de cet équilibre ou sur le moment où il convient d'utiliser chaque méthode.
J'ai écrit à propos de cet article en mai dernier (NDLR : cf. la section précédente)
Les auteurs originaux de Zhang et al. ont décidé de répondre à cet article et m'ont demandé de me joindre à eux. Cet article a été accepté par Educational Research Review et publié en ligne aujourd'hui. Il est intitulé de manière imaginative “Réponse à l'article de De Jong et al. (2023) “Let's talk evidence - The case for combining inquiry-based and direct instruction” (Parlons de preuves - Le cas de la combinaison de l'instruction directe et de l'instruction basée sur la recherche).
Notre nouvel article est en libre accès et je vous recommande donc de le lire en entier. Il n'est pas trop long. L'article de Jong est également en libre accès. Malheureusement, l'article original de Zhang n'est pas en libre accès.
Je soulignerai quelques points susceptibles de vous intéresser le plus - une définition, une ironie et une conclusion.
Tout d'abord, nous définissons l'enseignement explicite :
Pour nous, la caractéristique déterminante de l'enseignement explicite est que, pour les apprenants novices, les concepts sont entièrement expliqués et les procédures entièrement modélisées avant que les apprenants ne soient invités à appliquer ces concepts ou procédures. Il est important de noter que cette définition de travail n'exclut pas la possibilité pour les apprenants de réaliser des tâches ouvertes de résolution de problèmes. Elle suggère simplement que si de telles tâches font partie d'une séquence d'enseignement explicite, elles suivront l'explication et la modélisation par l'instructeur.
Nous soulignons une ironie dans la matière souvent enseignée aux étudiants lors des études de recherche sur les méthodes d'enseignement :
À cet égard, il convient de noter l'abondance des recherches visant à enseigner aux apprenants le principe scientifique clé du contrôle des variables. Nous ne pouvons que constater que de nombreux chercheurs, à travers les études qu'ils conçoivent, reconnaissent l'importance d'enseigner aux jeunes apprenants la nécessité de contrôler les variables et d'éviter les confusions. Il est ironique que d'autres chercheurs dans le même domaine accordent ensuite de la valeur à des études basées sur des programmes mal contrôlés et confondus lorsqu'ils discutent de la validité de méthodes d'enseignement particulières et individuelles.
Et nous concluons par le paragraphe suivant :
Sans théorie, les données risquent de paraître aléatoires. La théorie de la charge cognitive fournit une théorie globale qui peut être utilisée pour générer des données et les organiser. La théorie indique comment et quand l'enseignement explicite et la recherche doivent être utilisés. L'un des fleurons de l'évolution humaine, notre capacité à communiquer rapidement de grandes quantités d'informations, est un principe central de la théorie de la charge cognitive : le principe d'emprunt et de réorganisation. La théorie de la charge cognitive s'intéresse à la manière d'organiser l'enseignement pour tirer le meilleur parti de ce principe. Il s'agit d'une compétence primaire universellement utilisée par tous les humains, y compris les lecteurs et les écrivains dans l'échange actuel, mais qui est considérée comme inappropriée par De Jong et al. (2023), dans certaines conditions non définies, pour les apprenants dans les environnements éducatifs. Pire encore, à certains moments et pour des raisons qui restent obscures, cette compétence doit être remplacée par une procédure inefficace que nous n'utilisons par ailleurs que lorsque la communication avec les autres n'est pas disponible. Nous ne comprenons toujours pas pourquoi les étudiants, et seulement les étudiants, devraient, dans des conditions non spécifiées, être capricieusement empêchés d'utiliser ce qui est sans doute la compétence évoluée la plus importante de notre espèce, notre capacité unique à assimiler rapidement de grandes quantités d'informations nouvelles provenant d'autres personnes
J'espère que vous apprécierez la lecture de ce débat.
Vous pensez que la démarche d’investigation est la meilleure méthode d’enseignement des sciences ? Ce n’est pourtant pas ce que montre la littérature scientifique.
Résumé de l'article “There is an Evidence Crisis in Science Education”.
Les auteurs constatent qu’un grand nombre de données issues de la recherche ont été négligées lors de l’élaboration des politiques éducatives pour l’enseignement des sciences, contribuant à une déconnexion entre la recherche et les préconisations faites en matière d’enseignement. En effet, une catégorie particulière de recherches favorables à la démarche d'investigation a joué un rôle prédominant dans les préconisations pédagogiques, tandis que d’autres recherches contrôlées et corrélationnelles en ont été exclues. Or, ces recherches ignorées montrent que la démarche d'investigation ne permet pas un développement optimal des connaissances conceptuelles en sciences et ne garantit pas l’émergence de compétences propres à la démarche scientifique.
Les études contrôlées et corrélationnelles ont mis en évidence que plus les élèves reçoivent un enseignement basé sur l'investigation, plus leur performance en sciences est faible. Au contraire, les élèves ont de meilleurs résultats grâce à un enseignement explicite. Les auteurs ne nient pas l’importance d’objectifs connexes (ex: l’attitude positive des élèves envers la science). Cependant, viser ces objectifs au cours d’activités d’investigation ne devrait pas se faire au détriment de l’apprentissage des concepts et méthodes scientifiques.
Détail des trois catégories d'études :
Les études destinées à évaluer les programmes d’enseignement basés sur la démarche d'investigation. Nombre de ces études (53%) utilisent une méthode de pré/post-test mais n’ont pas de groupe contrôle. Elles évaluent donc la capacité de la méthode à atteindre des objectifs souhaités mais ne permettent pas de comparer son efficacité à celle d’une autre méthode pédagogique. D’autres études (25%) comparent des groupes non-équivalents (démarche d'investigation vs. enseignement “habituel”). L’absence de contrôle des variables ne permet pas de tirer de conclusions car certains facteurs autres que le type d’enseignement peuvent avoir un effet. Ces études et leurs défauts méthodologiques sont la principale source de preuves en faveur de la démarche d’investigation. Elles ont contribué à fonder les politiques éducatives actuelles de l’enseignement des sciences. Les études contrôlées. Elles ont des groupes contrôles et s’assurent de leur équivalence. Un facteur cible est manipulé à la fois. Les interactions entre facteurs sont souvent testées. Les réplications permettent de fournir des recommandations avec un haut degré de confiance. Ces études contrôlées ont mis en évidence que les élèves qui reçoivent un enseignement explicite ou direct font preuve d’un meilleur apprentissage du contenu et des compétences que ceux qui apprennent par la démarche d’investigation. Elles ne trouvent pas de preuves en faveur de l’affirmation selon laquelle la démarche d’investigation mène à un meilleur apprentissage. Dans le cas de méthodes mêlant investigation et enseignement explicite, les études montrent le rôle indispensable de l’enseignement explicite. Malgré ce rôle crucial d’un enseignement direct, des chercheurs observent que certains enseignants “cachent” les concepts et méthodes aux élèves afin de donner la priorité à l’investigation. De même, la présentation de concepts aux élèves est souvent omise par certains enseignants car ils pensent que les concepts et les idées vont émerger de l’acte d’investigation lui-même. Les études corrélationnelles. La plupart de ces études reposent sur de larges jeux de données internationaux (PISA, TIMSS) et utilisent des méthodes statistiques pour analyser les corrélations entre les éléments d’enseignement et les résultats des élèves. Ces études ont montré que plus les élèves étaient engagés dans la démarche d’investigation, plus les résultats d’apprentissage chutaient. La démarche d’investigation menée par les élèves a été identifiée comme l’élément d’enseignement le moins efficace. En revanche, un haut niveau de réussite des élèves est associé aux stratégies d’enseignement direct et explicite de l’enseignant. Limite des études corrélationnelles : elles ne permettent pas d’établir des relations causales. En revanche, elles peuvent suggérer des facteurs d’intérêt à tester dans des études contrôlées.La suite de l’article rappelle que l’enseignement explicite, contrairement à l’apprentissage par la découverte, repose sur des bases théoriques solides en psychologie, notamment sur la théorie de la charge cognitive (Sweller et al., 2011). Cette théorie suggère qu’en tant qu’espèce nous avons évolué pour obtenir l’information par autrui et que nous sommes doués pour cela. C’est en effet plus efficace que de constamment réinventer la roue par la résolution de problèmes. La résolution de problèmes impose une charge importante à la mémoire de travail, qui est limitée. Il est donc plus simple d'obtenir l'information des autres et de réserver la résolution de problèmes aux situations où ce n'est pas possible. Lorsque l’information est stockée en mémoire à long terme, elle peut être transférée en mémoire de travail sans la surcharger. En conclusion, les auteurs insistent sur le fait qu’aucune des trois catégories de recherches ne devrait être rejetée ou utilisée de façon exclusive. Pourtant, seules les études de la première catégorie décrite semblent être utilisées à l’heure actuelle.