teaching:biblio-10.1007-s10648-021-09646-1

Ceci est une ancienne révision du document !


La politique de l'enseignement des sciences est confrontée à une crise des données probantes

Il existe un écart considérable entre de nombreux résultats de la recherche en psychologie de l'éducation et la pratique éducative. Cet écart est particulièrement notable dans le domaine de l'enseignement des sciences. Dans cet article, nous avons examiné les implications de trois catégories de recherches et de leurs résultats pour la politique d'enseignement des sciences aux États-Unis et dans d'autres pays. Nous indiquons qu'une catégorie particulière de recherches, que nous appelons “études basées sur des programmes”, a dominé la formulation des normes éducatives, tandis qu'un grand nombre de résultats critiques provenant d'études randomisées, contrôlées et corrélationnelles qui, dans leur grande majorité, montrent un soutien minimal à la politique suggérée, ont été considérés comme non pertinents et exclus. L'insistance générale actuelle sur les études fondées sur des programmes au détriment des autres types de recherche est déplacée.

Les normes éducatives devraient représenter une vision équilibrée des données disponibles, y compris les résultats des études contrôlées et corrélationnelles. Enfin, nous indiquons comment ces différentes formes de recherche pourraient s'informer mutuellement et fournir des implications cohérentes et constantes pour les procédures éducatives.

Il peut être difficile de combler le fossé entre les résultats de la recherche et la pratique éducative (Robinson et al., 2013 ; Wecker, 2013). Nous avons indiqué qu'un grand nombre d'ensembles de données critiques ont été négligés lors de la formulation de la politique d'enseignement des sciences, ce qui a conduit à une déconnexion entre les résultats de la recherche et la pratique éducative. Nous soulignons qu'aucune des trois catégories de recherche discutées ne doit être rejetée ou utilisée exclusivement lors de la détermination des procédures d'enseignement. Toutes peuvent apporter des informations utiles. Malheureusement, les études fondées sur des programmes semblent être la seule catégorie utilisée. Bien qu'importantes, ces études ne devraient jamais constituer les seuls ensembles de données utilisés pour déterminer les procédures d'enseignement. Il existe des dangers que cette approche ait conduit et continue de conduire à des résultats éducatifs moins qu'idéaux.

Bien que nous ayons axé notre discussion sur la compréhension par les élèves du contenu et des procédures scientifiques, nous reconnaissons l'importance de développer d'autres résultats d'apprentissage chez les élèves, tels que les intérêts et les attitudes à l'égard des sciences. Nous réaffirmons que nous n'avons aucune objection aux divers résultats d'apprentissage en sciences. Nous ne rejetons pas non plus les données indiquant que des activités d'investigation peuvent être incluses pour atteindre ces différents objectifs d'apprentissage. Nous souhaitons toutefois faire valoir que le développement efficace de la compréhension des concepts et procédures scientifiques par les élèves ne devrait pas être sacrifié en donnant la priorité à d'autres résultats d'apprentissage. Il est difficile de concevoir des intérêts et des attitudes valables à l'égard des sciences sans disposer des connaissances et de la compréhension conceptuelles nécessaires.

De nombreux facteurs sont importants pour la réussite de l'enseignement des sciences. Des éléments, tels que les contextes et ressources locaux, l'implication des praticiens dans les collaborations, ainsi que les nuances dans les interventions conçues, jouent un rôle important dans la réussite des mises en œuvre d'interventions (Renkl, 2013, 2015 ; Wecker, 2013). Cependant, nous soutenons deux points. Premièrement, les essais contrôlés aléatoires ont longtemps été considérés comme la seule procédure scientifiquement fiable pour établir une relation causale. Deuxièmement, nous devons vérifier si de telles relations peuvent être effectivement réalisées dans divers contextes et quels éléments contextuels et pratiques locales affectent la mise en œuvre. Nous pensons que le premier point ne peut être remplacé par le second, ou vice versa.

Article de blog de Greg Ashman : "L'apprentissage par l'enquête en classe de sciences - Un nouveau plaidoyer pour prendre en compte toutes les preuves pertinentes"

Un nouvel article a été publié dans Educational Psychology Review, rédigé par Lin Zhang, Paul Kirschner, William Cobern et John Sweller. Il mérite d'être lu dans son intégralité et vous pouvez accéder à une préimpression via researchgate. Voici toutefois mes commentaires.

Tout d'abord, les auteurs démontrent l'extraordinaire popularité de l'apprentissage par la recherche auprès de ceux qui cherchent à réformer les programmes scolaires de sciences. Zhang et al. font allusion au fait que la récente révision du “Australian Curriculum : Science”, a mis l'accent sur l'apprentissage par l'enquête - chaque volet du projet commençait par “explorer” ou “enquêter”.

L'apprentissage par l'enquête porte de nombreux noms et comprend des quantités variables de conseils. Cela signifie que lorsqu'une version est discréditée, une nouvelle version émerge avec un accent peut-être légèrement différent. Les défenseurs de l'apprentissage par l'enquête mettent alors au défi les critiques de prouver à nouveau son inefficacité. C'est pourquoi j'ai perdu patience avec ceux qui discutent sans fin des définitions de l'apprentissage par la recherche. Je ne crois plus à l'authenticité de leurs motivations. La charge de la preuve incombe à ceux qui mettent en avant une méthode d'enseignement particulière, pas à ceux qui en sont sceptiques.

Zhang et al. affirment que deux séries de normes du programme scientifique américain de 1996 et 2013, bien qu'utilisant une terminologie différente, impliquent une “approche pédagogique identique de l'enseignement des sciences”, qui met l'accent sur “l'enseignement des sciences par le biais d'enquêtes”. Tout à fait.

Les auteurs notent qu'un type de preuve prédomine dans les sources de ceux qui rédigent ces normes. Ces preuves sont basées sur des programmes d'enseignement entiers. En général, une organisation finance un programme d'études inspiré des enquêtes, intègre une série d'approches pédagogiques et consacre du temps à des ateliers intensifs de formation des enseignants. Ces programmes sont ensuite évalués soit avant/après, soit par rapport à un groupe de contrôle qui n'a reçu aucun des éléments de l'intervention. Cela signifie que nous ne pouvons pas être sûrs que tout effet provient des éléments d'enquête plutôt que, par exemple, des ateliers de développement des enseignants.

Les auteurs décrivent deux autres sources de preuves qui, en revanche, ne soutiennent pas l'apprentissage par la recherche. La première est constituée de preuves provenant d'essais expérimentaux soigneusement contrôlés dans lesquels un seul facteur est modifié à la fois, et la seconde provient d'études corrélationnelles à grande échelle basées sur des enquêtes telles que celles menées par l'OCDE et l'AIE.

Zhang et al. notent que les gens s'opposent souvent aux essais soigneusement contrôlés au motif qu'ils ne représentent pas la complexité de tout ce qui est inclus dans un programme d'enseignement. Or, c'est bien là le problème. Il semble étrange qu'il faille expliquer à ceux qui cherchent à enseigner les sciences aux écoliers la nécessité de ne faire varier qu'un seul facteur à la fois afin d'établir une relation de cause à effet.

Les preuves corrélationnelles, en revanche, ne peuvent pas établir de relations causales. Elles peuvent seulement démontrer qu'un apprentissage plus approfondi est associé à de moins bons résultats au test PISA, par exemple. Il est toujours possible qu'un troisième facteur soit à l'origine de l'utilisation de l'apprentissage par la recherche par les enseignants et des mauvais résultats des élèves au test PISA. Cependant, lorsque de telles preuves atteignent le volume décrit par les auteurs, et lorsqu'elles sont lues en parallèle avec des preuves issues d'essais contrôlés randomisés capables de démontrer des relations causales, il semble excentrique de les ignorer et de continuer à se référer uniquement à des études basées sur des programmes.

L'absence de scepticisme à l'égard des formes d'apprentissage par l'enquête et l'empressement de quiconque réfléchit cinq minutes à l'éducation à les prescrire comme solution à la stagnation des performances scientifiques semblent, à première vue, inexplicables.

En fait, cela démontre le pouvoir mnésique des mauvaises idées et l'ampleur du travail à accomplir pour reconstruire l'éducation sur des bases rationnelles. Même lorsque c'est la science et la raison que nous cherchons à enseigner.

Article de Ton de Jong (2023)

  • Let’s talk evidence – The case for combining inquiry-based and direct instruction - ScienceDirect Ton de Jong, Ard W. Lazonder, Clark A. Chinn, Frank Fischer, Janice Gobert, Cindy E. Hmelo-Silver, Ken R. Koedinger, Joseph S. Krajcik, Eleni A. Kyza, Marcia C. Linn, Margus Pedaste, Katharina Scheiter, Zacharias C. Zacharia, Educational Research Review, 08/05/2023, DOI: 10.1016/j.edurev.2023.100536
    • Abstract: Many studies investigating inquiry learning in science domains have appeared over the years. Throughout this period, inquiry learning has been regularly criticized by scholars who favor direct instruction over inquiry learning. In this vein, Zhang, Kirschner, Cobern, and Sweller (2022) recently asserted that direct instruction is overall superior to inquiry-based instruction and reproached policy makers for ignoring this fact. In the current article we reply to this assertion and the premises on which it is based. We review the evidence and argue that a more complete and correct interpretation of the literature demonstrates that inquiry-based instruction produces better overall results for acquiring conceptual knowledge than does direct instruction. We show that this conclusion holds for controlled, correlational, and program-based studies. We subsequently argue that inquiry-based and direct instruction each have their specific virtues and disadvantages and that the effectiveness of each approach depends on moderating factors such as the learning goal, the domain involved, and students' prior knowledge and other student characteristics. Furthermore, inquiry-based instruction is most effective when supplemented with guidance that can be personalized based on these moderating factors and can even involve providing direct instruction. Therefore, we posit that a combination of inquiry and direct instruction may often be the best approach to support student learning. We conclude that policy makers rightfully advocate inquiry-based instruction, particularly when students’ investigations are supplemented with direct instruction at appropriate junctures.
    • Résumé : De nombreuses études portant sur l'apprentissage par enquête dans les domaines scientifiques ont été publiées au fil des ans. Tout au long de cette période, l'apprentissage par enquête a été régulièrement critiqué par des chercheurs qui privilégient l'enseignement direct par rapport à l'apprentissage par enquête. Dans cette veine, Zhang, Kirschner, Cobern et Sweller (2022) ont récemment affirmé que l'enseignement direct est globalement supérieur à l'enseignement basé sur l'investigation et ont reproché aux décideurs politiques d'ignorer ce fait. Dans le présent article, nous répondons à cette affirmation et aux prémisses sur lesquelles elle repose. Nous passons en revue les preuves et soutenons qu'une interprétation plus complète et plus correcte de la littérature démontre que l'enseignement basé sur l'investigation produit de meilleurs résultats globaux pour l'acquisition de connaissances conceptuelles que l'enseignement direct. Nous montrons que cette conclusion est valable pour les études contrôlées, corrélationnelles et basées sur des programmes. Nous soutenons ensuite que l'instruction directe et l'instruction basée sur la recherche ont chacune leurs vertus et leurs inconvénients spécifiques et que l'efficacité de chaque approche dépend de facteurs modérateurs tels que l'objectif d'apprentissage, le domaine concerné, les connaissances préalables des élèves et d'autres caractéristiques de l'élève. En outre, l'enseignement fondé sur la recherche est plus efficace lorsqu'il est complété par des conseils qui peuvent être personnalisés en fonction de ces facteurs modérateurs et qui peuvent même impliquer un enseignement direct. Par conséquent, nous pensons qu'une combinaison d'instruction directe et d'enquête peut souvent être la meilleure approche pour soutenir l'apprentissage des élèves. Nous concluons que les décideurs politiques préconisent à juste titre un enseignement basé sur l'investigation, en particulier lorsque les investigations des élèves sont complétées par un enseignement direct à des moments appropriés.
    • Tweets :

Article de blog de Greg Ashman : "Les arguments en faveur de la combinaison de l'enseignement direct et de l'enseignement fondé sur l'investigation - Un nouvel article ouvre un vieux débat"

Un nouvel article, intitulé Let's talk evidence - The case for combining inquiry-based and direct instruction, rédigé par M. de Jong et douze de ses collègues, a été publié dans Educational Research Review. Il s'agit ostensiblement d'une critique du document de 2022 intitulé “There is an Evidence Crisis in Science Educational Policy”, rédigé par Zhang, Kirschner, Cobern et Sweller, selon lequel les approches d'apprentissage basées sur l'investigation en vogue pour l'enseignement des sciences ne sont pas étayées par les preuves disponibles et que l'enseignement direct devrait être privilégié.

L'article de Jong et al. n'est pas très bon. Il est en libre accès, vous pouvez donc le lire vous-même et voir si vous êtes d'accord. Le fait que les auteurs aient déguisé un argument qui plaide clairement en faveur de l'apprentissage par la recherche en une sorte de position équilibrée entre deux extrêmes déplaisants nous donne une idée de la force de leur argumentation. Nous avons déjà vu cette manœuvre rhétorique, notamment dans le cas de l'alphabétisation prétendument “équilibrée”.

Plutôt que de tenter de critiquer l'ensemble de l'étude de Jong et al. - une tâche difficile, étant donné qu'elle repose sur une méta-analyse, comme je l'expliquerai plus loin - je soulignerai quelques problèmes spécifiques, ainsi que d'autres plus généraux.

Tout d'abord, en dépit de quelques éclaircissements sur la difficulté d'établir des définitions communes de l'enseignement direct et de l'enseignement basé sur l'investigation, de Jong et al. ont rapidement mal interprété l'argument de Zhang et al. Ils déclarent :

“Par exemple, Klahr, Zimmerman et Jirout (2011) ont constaté que “l'instruction directe” était meilleure que l'exploration pour le développement du SVC [étudiants apprenant à contrôler les variables dans une expérience]. Dans ce travail, cependant, l'instruction est allée au-delà de la définition de l'instruction directe proposée par Zhang et al. (2022), qui décrivent l'instruction directe comme “le simple fait de fournir aux élèves les informations souhaitées et de leur demander de les lire dans des textes ou d'assister à des démonstrations” (p. 1160). Klahr et al. (2011), en revanche, ont demandé aux élèves de s'engager dans une recherche active, en concevant et en évaluant des expériences, et ont donné un retour d'information sur les tentatives de recherche active des élèves”.

“Klahr et al. (2011)” est un article excentrique à référencer car il s'agit d'un article de synthèse relativement court de Science qui n'est pas vraiment axé sur ce point. Au lieu de cela, Zhang et al. ont fait référence à l'étude de Klahr et Nigam (2004) qui est à l'origine de cette affirmation sur l'enseignement des variables de contrôle aux étudiants. La caractéristique principale de la condition “instruction directe” était que le concept de contrôle des variables était entièrement expliqué aux élèves avant qu'ils ne soient invités à l'appliquer. Certes, ils se sont ensuite exercés à appliquer ce concept, mais qu'en est-il ? Nous sommes amenés à penser que Zhang et al. excluent cette possibilité dans leur définition entièrement passive de l'instruction directe.

C'est pourtant ce qu'ont écrit Zhang et al :

“Nous n'aurions jamais dû en arriver là, car les preuves accumulées dans les études contrôlées, sur lesquelles le domaine de la psychologie de l'éducation s'appuie fortement, n'ont apporté qu'un soutien minimal à l'enseignement des sciences par le biais d'enquêtes basées sur l'exploration. Par exemple, des études contrôlées ont comparé l'approche susmentionnée de l'enseignement des sciences fondée sur l'enquête ou l'exploration à diverses formes d'enseignement explicite, comme le simple fait de fournir aux élèves les informations souhaitées et de leur demander de les lire dans des textes ou d'assister à des démonstrations. Dans leur grande majorité, ces études soutiennent l'idée que les élèves apprennent mieux le contenu grâce aux différentes formes d'enseignement explicite (Ashman et al., 2020 ; Hsu et al., 2015 ; Klahr & Nigam, 2004 ; Matlen & Klahr, 2013 ; Renken & Nunez, 2010 ; Stull & Mayer, 2007 ; Zhang, 2018, 2019). Il convient de noter que nombre de ces études n'ont pas été menées dans un laboratoire de psychologie, mais dans de véritables salles de classe où des élèves étudient des documents pédagogiques pertinents.” [Je souligne]

S'agit-il d'une “définition” ? Je pense que le “tel que” est très important ici et je pense que de Jong et ses collègues bénéficieraient d'un court cours sur la théorie des ensembles et les diagrammes de Venn.

L'une des grandes différences entre de Jong et al. et Zhang et al. concerne les preuves qu'ils citent. Zhang et al. préfèrent citer des études spécifiques, tandis que de Jong et al. préfèrent les méta-analyses, ce qui implique qu'il s'agit de revues plus approfondies des preuves. Je ne suis pas convaincu que cela soit vrai. Le principal problème que pose l'analyse d'une allégation fondée sur des méta-analyses est que les conditions des études originales sur lesquelles elles s'appuient ne sont souvent pas claires. Nous devons donc soit accepter ce que les auteurs affirment à propos de ce que ces méta-analyses démontrent, soit creuser la question.

Pour donner une idée de ce que cela implique, Alfieri et al. (2011) sont cités en passant comme fournissant des preuves que “l'enquête assistée est plus efficace que l'enseignement explicite”. Cependant, l'évaluation d'une telle affirmation nécessite des recherches approfondies, comme je l'ai découvert dans ce billet. Dans de nombreux cas, les détails nécessaires à l'évaluation d'une telle affirmation ne sont même pas disponibles dans la méta-analyse, à supposer que l'on puisse en obtenir une copie, et il faut donc rechercher tous les articles cités dans cette méta-analyse, ou du moins un échantillon d'entre eux. Ayant effectué ce type de travail, je ne pense pas qu'Alfieri démontre ce que de Jong et al. affirment qu'il démontre et je suis donc enclin à un niveau de scepticisme plus général.

Mon scepticisme n'a été que renforcé par les trous de souris dans lesquels j'ai décidé de m'enfoncer. Par exemple, l'affirmation selon laquelle “l'apprentissage par enquête peut favoriser une compréhension conceptuelle approfondie” est étayée par une référence à un article de synthèse narratif rédigé par de Jong, l'auteur principal. Je ne suis pas opposé aux analyses narratives, mais en utiliser une de cette manière est opaque. Il n'est pas clair laquelle des nombreuses études citées dans ce document est censée fournir des preuves empiriques de l'affirmation selon laquelle l'apprentissage par l'enquête favorise la compréhension conceptuelle, et il faudrait déployer des efforts considérables pour essayer de le découvrir.

De même, l'affirmation selon laquelle “[l'enseignement direct] ne conduira pas nécessairement à une compréhension conceptuelle approfondie dans des domaines moins bien structurés” est étayée par un article de Fry, Fisher et Hattie qui décrit une étude de “validation de principe” dans laquelle les deux auteurs principaux ont travaillé avec huit enseignants pour développer des ressources pédagogiques. L'article de Fry et al. affirme que “si les connaissances superficielles requièrent un enseignement plus direct, à mesure que les élèves approfondissent leurs connaissances, l'enseignant facilite davantage les choses”. Toutefois, les preuves empiriques avancées pour étayer cette affirmation ne sont pas claires. Il semble s'agir d'une opinion, peut-être basée sur le minuscule essai non contrôlé mené par les auteurs.

Ces points pourraient peut-être être considérés comme mineurs si ce n'était l'affirmation clé du résumé de de Jong et al. selon laquelle “une interprétation plus complète et plus correcte de la littérature démontre que l'enseignement basé sur l'investigation produit de meilleurs résultats globaux pour l'acquisition de connaissances conceptuelles que l'enseignement direct”. S'il s'agit de l'une des principales affirmations, elle doit être étayée par des preuves importantes.

L'une des critiques formulées par Zhang et al. à l'encontre des décideurs politiques dans There is an Evidence Crisis in Science Educational Policy, est qu'ils s'appuient trop sur des preuves issues d'essais où une nouvelle intervention brillante, soutenue par des chercheurs et un développement professionnel approfondi, est comparée à une situation de contrôle habituelle. de Jong et al. semblent faire preuve d'une naïveté stupéfiante en ce qui concerne les conditions de contrôle habituelles :

“Un deuxième commentaire de Zhang et al. (2022) sur les études basées sur des programmes est que si des groupes de contrôle sont utilisés, il s'agit souvent de contrôles ” habituels “, ce qui revient à comparer injustement une condition bien conçue et plus englobante basée sur l'enquête avec une condition qui n'a pas été conçue avec soin par les chercheurs. Toutefois, si la condition de contrôle est une condition “habituelle”, il est possible que les enseignants soient très expérimentés dans cette approche traditionnelle et qu'ils puissent capitaliser sur leur expertise en dispensant une forme d'enseignement plus directe ; en outre, les élèves savent exactement comment agir dans cette forme d'enseignement traditionnelle. Par conséquent, nous continuons à penser que ces études à très grande échelle contribuent à renforcer les preuves concernant les approches d'enseignement axées sur la recherche”.

Les effets d'attente tels que l'effet placebo et l'effet Hawthorne sont réels. Dans ce cas, il n'est même pas nécessaire d'avoir une attente pour obtenir un effet. Une formation plus poussée pourrait être la clé, ou plus de temps et d'attention consacrés au sujet scolaire faisant l'objet de la recherche.

Lorsque vous variez plus d'une chose à la fois, vous ne pouvez pas savoir ce qui est à l'origine d'un résultat donné.

C'est pourquoi nous enseignons aux enfants la nécessité de contrôler les variables.

Vous pensez que la démarche d’investigation est la meilleure méthode d’enseignement des sciences ? Ce n’est pourtant pas ce que montre la littérature scientifique.

Résumé de l'article “There is an Evidence Crisis in Science Education”.

Les auteurs constatent qu’un grand nombre de données issues de la recherche ont été négligées lors de l’élaboration des politiques éducatives pour l’enseignement des sciences, contribuant à une déconnexion entre la recherche et les préconisations faites en matière d’enseignement. En effet, une catégorie particulière de recherches favorables à la démarche d'investigation a joué un rôle prédominant dans les préconisations pédagogiques, tandis que d’autres recherches contrôlées et corrélationnelles en ont été exclues. Or, ces recherches ignorées montrent que la démarche d'investigation ne permet pas un développement optimal des connaissances conceptuelles en sciences et ne garantit pas l’émergence de compétences propres à la démarche scientifique.

Les études contrôlées et corrélationnelles ont mis en évidence que plus les élèves reçoivent un enseignement basé sur l'investigation, plus leur performance en sciences est faible. Au contraire, les élèves ont de meilleurs résultats grâce à un enseignement explicite. Les auteurs ne nient pas l’importance d’objectifs connexes (ex: l’attitude positive des élèves envers la science). Cependant, viser ces objectifs au cours d’activités d’investigation ne devrait pas se faire au détriment de l’apprentissage des concepts et méthodes scientifiques.

Détail des trois catégories d'études :

  1. Les études destinées à évaluer les programmes d’enseignement basés sur la démarche d'investigation. Nombre de ces études (53%) utilisent une méthode de pré/post-test mais n’ont pas de groupe contrôle. Elles évaluent donc la capacité de la méthode à atteindre des objectifs souhaités mais ne permettent pas de comparer son efficacité à celle d’une autre méthode pédagogique. D’autres études (25%) comparent des groupes non-équivalents (démarche d'investigation vs. enseignement “habituel”). L’absence de contrôle des variables ne permet pas de tirer de conclusions car certains facteurs autres que le type d’enseignement peuvent avoir un effet. Ces études et leurs défauts méthodologiques sont la principale source de preuves en faveur de la démarche d’investigation. Elles ont contribué à fonder les politiques éducatives actuelles de l’enseignement des sciences.
  2. Les études contrôlées. Elles ont des groupes contrôles et s’assurent de leur équivalence. Un facteur cible est manipulé à la fois. Les interactions entre facteurs sont souvent testées. Les réplications permettent de fournir des recommandations avec un haut degré de confiance. Ces études contrôlées ont mis en évidence que les élèves qui reçoivent un enseignement explicite ou direct font preuve d’un meilleur apprentissage du contenu et des compétences que ceux qui apprennent par la démarche d’investigation. Elles ne trouvent pas de preuves en faveur de l’affirmation selon laquelle la démarche d’investigation mène à un meilleur apprentissage. Dans le cas de méthodes mêlant investigation et enseignement explicite, les études montrent le rôle indispensable de l’enseignement explicite. Malgré ce rôle crucial d’un enseignement direct, des chercheurs observent que certains enseignants “cachent” les concepts et méthodes aux élèves afin de donner la priorité à l’investigation. De même, la présentation de concepts aux élèves est souvent omise par certains enseignants car ils pensent que les concepts et les idées vont émerger de l’acte d’investigation lui-même.
  3. Les études corrélationnelles. La plupart de ces études reposent sur de larges jeux de données internationaux (PISA, TIMSS) et utilisent des méthodes statistiques pour analyser les corrélations entre les éléments d’enseignement et les résultats des élèves. Ces études ont montré que plus les élèves étaient engagés dans la démarche d’investigation, plus les résultats d’apprentissage chutaient. La démarche d’investigation menée par les élèves a été identifiée comme l’élément d’enseignement le moins efficace. En revanche, un haut niveau de réussite des élèves est associé aux stratégies d’enseignement direct et explicite de l’enseignant. Limite des études corrélationnelles : elles ne permettent pas d’établir des relations causales. En revanche, elles peuvent suggérer des facteurs d’intérêt à tester dans des études contrôlées.

La suite de l’article rappelle que l’enseignement explicite, contrairement à l’apprentissage par la découverte, repose sur des bases théoriques solides en psychologie, notamment sur la théorie de la charge cognitive (Sweller et al., 2011). Cette théorie suggère qu’en tant qu’espèce nous avons évolué pour obtenir l’information par autrui et que nous sommes doués pour cela. C’est en effet plus efficace que de constamment réinventer la roue par la résolution de problèmes. La résolution de problèmes impose une charge importante à la mémoire de travail, qui est limitée. Il est donc plus simple d'obtenir l'information des autres et de réserver la résolution de problèmes aux situations où ce n'est pas possible. Lorsque l’information est stockée en mémoire à long terme, elle peut être transférée en mémoire de travail sans la surcharger. En conclusion, les auteurs insistent sur le fait qu’aucune des trois catégories de recherches ne devrait être rejetée ou utilisée de façon exclusive. Pourtant, seules les études de la première catégorie décrite semblent être utilisées à l’heure actuelle.

Ce site web utilise des cookies. En utilisant le site Web, vous acceptez le stockage de cookies sur votre ordinateur. Vous reconnaissez également que vous avez lu et compris notre politique de confidentialité. Si vous n'êtes pas d'accord, quittez le site.En savoir plus
  • teaching/biblio-10.1007-s10648-021-09646-1.1684162457.txt.gz
  • Dernière modification : 2023/05/15 16:54
  • de villersd