Td corrigé introduction - Fastef - Ucad pdf

introduction - Fastef - Ucad

(Tiré de la Collection Eurin Gié, Terminales C et E (1989), Hachette Ed., page 96) .... Les solutions proposées aux élèves, en classe ou dans les corrigés des ..... faire l'objet d'un examen ou d'un test pour vérifier la compréhension d'une leçon.




part of the document



ses propres conceptions débouche naturellement sur une réflexion sur les motivations et les buts de la recherche en éducation.

De Ketele (1984), repris par De Ketele et Roegiers (1993) a fait une synthèse de sept catégories de recherche, ainsi que leurs caractéristiques principales explicitées à partir de la satisfaction ou non de sept critères (pp. 104-105).
Ces critères ont été établis à partir des réponses apportées à un certain nombre de questions posées à propos de la recherche et que nous avons appelées des questions-critères (Sall, 1997).







Tableau 1. Les critères permettant de caractériser une recherche selon De Ketele (1984)
CritèresQuestions-critèresModalités de réponsesCritère 1La recherche doit prioritairement fonder la validité de quels énoncés ?Enoncés = lois scientifiques fonda-mentales ; lois scientifiques applicables, décisions généralisables, décisions scientifiques, action-formation, hypothèses, lois descriptives.Critère 2Est-il nécessaire de prévoir et de contrôler la mise en œuvre d’un dispositif de recherche aussi valide que possible ?Oui/nonCritère 3La recherche exige-t-elle de manière stricte des mesures quantitatives et/ou qualitatives valides et fiables (ou du moins dont on peut estimer le degré de fiabilité) ?Oui/nonCritère 4Les résultats de la recherche seront-ils généralisables ?Oui/nonCritère 5La recherche est-elle répétable ?Oui/nonCritère 6Quels sont les destinataires premiers des rapports de recherche ?Chercheurs, décideurs, acteurs, évaluateurs, public cultivé de haut niveauCritère 7Quelle est la valeur prioritaire de la recherche ?Connaissance, efficacité, adéquation, émancipation, créativité, objectivité, compréhension prospective.
Dans cette grille, un type de recherche est défini par les réponses fournies aux questions-critères.
Les exigences méthodologiques pour une recherche descriptive, selon De Ketele, sont prises en charge par les critères 2 et 3. Le critère 2 impose de prévoir et de contrôler la mise en œuvre d’un dispositif de recherche aussi valide que possible, ce qui nécessite de passer par une phase exploratoire. Le critère 3 met l’accent sur l’exigence de validité des mesures quantitatives et/ou qualitatives.


Par rapport aux sept critères de De Ketele (1984), nous pouvons définir notre travail comme ayant deux orientations prioritaires.
Nous poursuivons d’abord un objectif de production de caractéristiques descriptives pour cerner le contexte des activités scolaires de résolution de problème sous l’angle des conceptions des enseignants. Cet objectif est poursuivi dans la perspective d’une intervention ultérieure pour améliorer la situation.
La recherche revêt également une dimension relationnelle et une dimension processus. En effet il sera question de mettre en évidence l’influence de variables indépendantes sur les conceptions des enseignants en résolution de problème, mais aussi d’étudier la dynamique des conceptions dans le contexte spécifique d’une formation initiale d’ enseignants.
Les résultats devraient intéresser les chercheurs en éducation, les évaluateurs notamment, mais aussi les formateurs d’enseignants. Ces derniers, souvent confrontés à un déficit argumentaire pour fonder leurs pratiques, devraient disposer à partir de cette recherche de données empiriques récoltées dans des conditions explicites pour justifier la nécessité de donner une place plus importante à la problématique de la résolution de problème en formation initiale. Les acteurs de terrain engagés dans une perspective réflexive seuls ou en équipes pédagogiques pourraient également trouver dans les résultats de cette recherche une source de questionnement pouvant déboucher sur des innovations ou des amélioration des pratiques pédagogiques.

Toujours dans cette perspective de clarification des champs de la recherche, Van Der Maren (1996, p.5) définit trois buts pour la recherche en éducation :
la contestation des dogmes,
la transgression des savoirs,
une meilleure maîtrise de l'environnement physique et humain.
Le troisième énoncé de Van Der Maren nous semble très proche du but que nous poursuivons.
En résumé le travail que nous entreprenons ne se range pas de manière rigoureuse dans les catégories générales des recherche, qui ne sont en réalité que des cas limites. Notre recherche se veut une articulation entre une recherche descriptive prenant en compte une dimension relationnelle et une recherche expérimentale de type diachronique.


La finalité de notre recherche est de fournir une meilleure connaissance d’un aspect de l’environnement éducatif (Van Der Maren,1996), à travers les conceptions des enseignants en résolution de problème en physique et chimie.
L'environnement est ici constitué par l'éducation formelle mettant en jeu des professeurs, des élèves et deux disciplines, la physique et la chimie, dans une des principales activités enseignement/apprentissage : les activités de résolution de problème. Nous avons choisi cependant, dans le cadre de cette recherche, de nous limiter à la composante « enseignant », de cet environnement éducatif, pour des raisons de faisabilité, mais aussi pour notre intérêt pour le champ de recherche de la pensée des enseignants.
Enfin en termes de contenus, notre recherche se situe dans le champ de la recherche en didactique de la physique et de la chimie. Nous reviendrons sur ce concept de didactique en revisitant son contexte d’émergence et son évolution.
Mais au-delà de ce repérage dans le cadre général tel qu’il a été esquissé plus haut, ou la classification dans le champ de la didactique, notre recherche présente quelques particularités du fait de son processus de gestation, de son objet, des démarches mises en œuvre, mais aussi par la trajectoire professionnelle de l’auteur.
.
2. L’Objet de la recherche et SA particularité

2.1. L’objet de la recherche

Notre recherche a pour objet l'étude des conceptions des enseignants en rapport avec la résolution de problème en physique et chimie. La recherche sera limitée à un secteur de l’éducation formelle qui, dans le système éducatif sénégalais, recouvre l’enseignement moyen et l’enseignement secondaire. Il s’agit des secteurs qui prennent en charge des élèves de 15 à 21 ans. La physique et la chimie y constituent des matières scolaires aussi bien pour les séries dites scientifiques (série S), que pour les séries dites littéraires (série L).
Alors que l’enseignement de la physique et de la chimie dans les séries scientifiques est destiné à préparer les élèves à l’entrée dans les filières universitaires scientifiques, ou les formations techniques, dans la série L, il s’agit surtout de faire acquérir aux apprenants une culture scientifique et une meilleure connaissance de l’environnement technologique. Dans les séries scientifiques (S), une bonne partie du temps d’enseignement-apprentissage est consacrée à des activités de résolution de problème.

2.2. La résolution de problème, une activité au cœur du système d’évaluation dans l’enseignement des sciences

Les problèmes dont il s'agit ici couvrent tous les énoncés proposés aux élèves (exercices ou problèmes), comportant des questions relatives à des systèmes physiques ou chimiques. Les élèves sont amenés à répondre à ces questions qui sont ainsi utilisées comme des révélateurs des acquisitions de connaissances. L'essentiel du système d'évaluation repose sur ces activités qui occupent une bonne partie du temps de travail des élèves et des enseignants.
Les résultats obtenus par les élèves dans ces activités de résolution de problème déterminent pour l'essentiel les décisions de certification, de maintien ou de réorientation des apprenants dans le système d'enseignement des sciences. Autant dire que tout le système d’évaluation, dans l’enseignement des sciences repose sur des activités de résolution de problème.
Or, force est de constater que les performances des élèves telles que révélées par les différentes formes d'évaluation en vigueur ne sont pas satisfaisantes.
Les résultats obtenus par les élèves des séries scientifiques aux épreuves de physique et chimie, au baccalauréat, en constituent une illustration très significative. En effet, au Sénégal, le baccalauréat continue encore à jouer un rôle déterminant pour l’accès à l’enseignement supérieur. La classe de Terminale est sans doute celle où les élèves des séries scientifiques fournissent le plus d’efforts dans les études, particulièrement dans les disciplines scientifiques, dont la physique et la chimie.
Mais les résultats sont là ! Le tableau 2 suivant représente les résultats en physique et chimie, d’un échantillon de 1551 élèves, candidats au baccalauréat de la session 2001.
L’échantillon a été tiré de 11 jury, disséminés dans les dix régions administratives du Sénégal et les copies ont été corrigées par 22 correcteurs tous titulaires d’un diplôme professionnel et ayant au moins cinq ans d’ancienneté. Chaque correcteur avait en moyenne 63 copies.



Tableau 2. Quelques données sur les résultats des élèves à la session 2001 du baccalauréat. Sources : Office du Baccalauréat (UCAD), Session de juillet 2000-2001.

N° Corr .Diplôme professionEtablist /VilleMoyenne
/20Nbre de copiesTotaux PointsEcart
type1CAESLMS/Thiès 6,90 52 3602,732CAESLDZ/Ziguinchor5,0870 3563,243CAEMLMSa/Louga5,70673812,984CAEMLAS/Rufisque5,8775 4402,935CAESLSLL/Pikine5,42 764122,796CAEMLFK/Dakar4,09612502,717CAESLDT/Tivaouane5,11613122,408CAEMLDZ/Ziguinchor5,70613472,809CAEMLAF/Saint-Louis3,98642553,7410CAEMLASD/Oussouye5,60653612,7411CAEMLVDN/Kaolack5,00633152,5412CAESLLG/Dakar6,48905833,4813CAESLLG/Dakar6,40905733,7814CAEMLAMB/Kolda6,00653893,5215CAESLTID/Dakar7,10916533,6416CAESLBD/Dakar5,97915432,8017CAEMLMS/Thiès4,58622842,7118CAEMLMS/Thiès4,87572782,919CAESLMMD/Dakar6,411046691,7520CAESLTID/Dakar4,55632873,3921CAESLCG/St-Louis4,90592912,9122CAESLGD/Dakar5,51643313,25Totaux15518670Moyennes5,602,99

Sans entrer dans les considérations d’ordre docimologique ayant trait à la pertinence, à la validité et à la fiabilité du mode d’évaluation, on peut faire cependant quelques constatations. La moyenne de l’échantillon est de 5,60/20 ; la moyenne de correction la plus élevée est de 7,1 et la moyenne la plus faible étant égale à 4,00.

Mieux, la valeur des écarts types comparée aux incertitudes liées à la correction d’épreuves de sciences montre que les différences entre les notes obtenues par la majorité des élèves ne sont pas réellement significatives.
Cette situation préoccupante ne devrait pas laisser indifférents les responsables du système éducatif , les enseignants et les chercheurs en didactique de la physique et de la chimie, pour plusieurs raisons.
En effet les pouvoirs organisateurs mettent des moyens relativement énormes dans l’enseignement des sciences au niveau secondaire, particulièrement dans un pays comme le Sénégal, où les priorités ne manquent pas : problèmes de santé, d’accès à l’eau potable, d’environnement, d’infrastructures stratégiques. De même, les enseignants, les professeurs de sciences notamment, consacrent beaucoup de leur temps d’enseignement à des activités de résolution de problème. Il faut signaler qu’en plus des prestations officielles, de nombreux dispositifs informels de renforcement ont été créés pour prendre en charge les élèves engagés dans les séries scientifiques (cours à domiciles individualisés, cours de renforcement collectifs, cours d’excellence, cours de vacances de renforcement et d’anticipation…). Il y a donc là de l’énergie et des moyens qui sont investis sans résultats significatifs pour l’écrasante majorité des élèves.
Quant aux chercheurs, la société attend d’eux qu’ils répondent à une question cruciale : pourquoi les performances des élèves mesurées à partir d’activités de résolution de problème sont-elles si faibles ?

Ce constat étant fait, peut-on aller plus loin pour expliquer et comprendre l’origine de ces contre-performances ? C’est déjà le début des difficultés, les faits éducatifs n’étant jamais réductibles à un seul facteur explicatif, même si la littérature scientifique dans ce domaine fournit des repères.
Les faiblesses des élèves en résolution de problème en physique et chimie pourraient par exemple être imputées à une maîtrise insuffisante de la langue d’enseignement, ici le français, comme l’avancent beaucoup d’enseignants.

Même si on ne peut nier l’influence de la langue dans des disciplines aussi conceptualisée que la physique et la chimie, il nous semble que ce serait là une explication trop commode pour les didacticiens. A côté des recherches sur l’efficacité des méthodes d’enseignement (Crahay et Lafontaine, 1986 ), sur les difficultés


d’appropriation par les élèves des concepts scientifiques (Giordan, 1998), sur les pratiques de résolution de problème en classe (Caillot, 1988 ; Goffard, 1993 ; Dumas-Carré et Goffard, 1997), la pensée des enseignants (Tochon,1993) se présente comme un axe de recherche de plus en plus fécond. De manière plus spécifique, Hashweh (1996) met en évidence l’émergence de ce qui peut être considéré comme un sous-champ de ce domaine : les croyances et les conceptions des enseignants et leurs visions épistémologiques (Pajares, 1992).
Cette analyse conforte notre approche. Pour apporter notre contribution à la compréhension de cette situation d’inefficacité de l’enseignement de la physique et de la chimie, nous nous sommes intéressés à ce qui fonde effectivement le travail des enseignants : leurs conceptions des activités d’enseignement–apprentissage, en particulier leurs conceptions à propos de la résolution de problème.

L’approche par les conceptions : des concepts disciplinaires aux concepts transversaux

De nos jours c’est presque devenu une banalité, depuis les travaux de Giordan et De Vecchi (1987) sur les origines du savoir, d'insister sur le rôle des idées que les apprenants ont des concepts scientifiques dans le processus d'acquisition du savoir. Dans le prolongement de cette hypothèse maintenant éprouvée, nous posons comme principe, que les idées à propos des processus et des tâches intellectuels sont également déterminantes dans l’explicitation des performances scolaires. C'est le point de départ de notre recherche. Nous voulons aborder la faiblesse des performances des élèves en résolution de problème sous l'angle des conceptions des enseignants à propos de la résolution de problème. Nous reviendrons plus tard sur les raisons du choix du terme de "conception" à la place d'autres termes qu'on rencontre dans la littérature en didactique des sciences, notamment le terme de "représentation".
Mais de quelles conceptions s’agit-il ?
Il est naturel que les élèves soient au centre des préoccupations dès lors qu’on s’intéresse aux performances scolaires. En effet, la nécessité d’accorder à l’apprenant une place privilégiée dans le processus enseignement/apprentissage est de nos jours communément reconnue (De Vecchi, 1994 ; Giordan, 1994 ; Altet, 1998). Sans vouloir verser dans le « didactiquement correct » (Astolfi, 2001), nous nous situons dans une

perspective d’élargissement de cette approche. Il s’agit de prendre en compte les concepts généraux non disciplinaires dans l’explicitation des facteurs qui influent sur les performances des élèves.

Le faible impact des recherches en éducation sur les pratiques scolaires (Van Der Maren, 1996) n’est-il pas dû finalement, au-delà de l’exigence de transposition didactique (Toussaint, 1996), à une prise en compte insuffisante des conceptions des enseignants.
Nous ne sommes pas loin de le penser. Cette prise de position justifie notre intérêt pour une étude des conceptions des enseignants.

2.4. La particularité de notre recherche

Cette dernière option n’est certainement pas sans lien avec notre position sociale et professionnelle par rapport à l’objet de la recherche. Notre expérience professionnelle de professeur de physique et chimie de l'enseignement secondaire, puis de formateur d'enseignants, constitue ainsi une particularité de notre recherche. Nous avons en effet été placé, au cours de notre carrière professionnelle, dans des positions variées par rapport aux activités de résolution de problème.

D’abord étudiant, nous avons été confrontés à des tâches de résolution de problème, à travers les diverses formes d’évaluation. Professeur de lycée, nous avons cherché à entraîner des élèves à être performants dans la résolution de problème.

Enfin formateur de professeurs de physique et chimie, nous avons suscité des démarches systématiques de conduite des activités scolaires de résolution de problème en physique et chimie, auprès d’enseignants en formation initiale (Kane, Diouf et Sall, 1998).

L’intérêt pour notre objet de recherche est donc le résultat d'un long cheminement. Nous sommes passés d'une centration sur la discipline à la perception de la nécessité, pour comprendre les problèmes que pose l'enseignement d'une discipline, d'articuler l'expérience professionnelle avec les approches théoriques qui permettent de structurer

et de valider le savoir tiré de la pratique. C'est là le fondement de notre motivation pour la recherche. Il s’agit du passage d’une posture pédagogique à une approche didactique de la résolution de problème, par la recherche.

Cette particularité se répercute dans notre démarche méthodologique et nous amène à concevoir ce travail de recherche en plusieurs étapes, suivant en cela la position épistémologique de Bachelard (1938), pour qui un problème ne vient pas spontanément d'un ensemble de faits: il résulte d'un processus de construction ou, pour utiliser l’expression consacrée par le philosophe Français, d’une problématisation.
C’est ce qui fait la particularité de notre démarche articulée en plusieurs étapes.

Une démarche en plusieurs étapes

Notre recherche est subdivisée en quatre parties :
La première partie comprend trois chapitres. Le chapitre I décrit la recherche exploratoire qui nous a permis de confirmer l'intérêt que nous avions d'aborder le problème sous l'angle des conceptions. En effet, au-delà de l’intérêt personnel pour une question de recherche, il nous a semblé utile d’explorer le sujet pour en entrevoir les différentes facettes empiriques et méthodologiques.
Il s’est s’agit dans une première approche, d’aborder le sujet à partir d’une base théorique minimale, en s’appuyant sur une démarche méthodologique simple. Cela nous a permis d’obtenir des résultats qui nous ont encouragé à aller plus loin, à partir de repères explicites.

La recherche exploratoire a mis en évidence la nécessité d’une plus grande conceptualisation et d’un approfondissement théorique et méthodologique. C’est l’objet du chapitre II de la première partie qui permettra d’esquisser un cadre théorique général, puis spécifique à la physique et à la chimie. L’ancrage didactique de la recherche sera notamment mis en évidence.
Le cadre problématique général esquissé à partir du modèle d’enseignement des sciences de White et Tisher (1986) débouche sur un cadre problématique restreint.



Tirant profit des résultats de la recherche exploratoire et des acquis du cadre théorique, le cadre problématique restreint permettra d’esquisser un espace à sept dimensions, pour décrire les conceptions des enseignants en résolution de problème en physique et chimie. Des questions-problèmes et des hypothèses générales puis spécifiques liées à des hypothèses de recherche, terminent le chapitre III de la première partie.
La recherche exploratoire a montré, sur le plan méthodologique, la nécessité de disposer d’un outil valide de description des conceptions à propos de la résolution de problème. Nous avons pris connaissance des outils et méthodes disponibles dans la littérature à propos de la description des représentations sociales (Doise, Clemence et Lorenzi Cioldi, 1992 ; Abric, 1994 ; Flament, 1986). Une des recommandations des chercheurs était de privilégier une combinaison des différentes approches méthodologiques. Cependant la plupart de ces outils rencontrés étaient conçus pour décrire des conceptions à propos de concepts disciplinaires ou de phénomènes sociaux ((Doise, Clemence et Lorenzi Cioldi, 1992). Notre étude portant sur un concept transversal dans le cadre d’une discipline, nous avons opté pour la construction d’un outil spécifique à la description des conceptions à propos de la résolution de problème en physique et chimie.
Le chapitre I de la deuxième partie est donc consacré à la construction du questionnaire pour recueillir les conceptions des enseignants à propos de la résolution de problème. La construction de ce questionnaire tirera naturellement profit des résultats de la recherche exploratoire et de l’éclairage théorique précédent, dans un souci de cohérence.
Dans le chapitre II de la deuxième partie, le questionnaire sera testé sur de petits échantillons. L’exploitation de ces données a permis d’élaborer un modèle de traitement basé sur la construction d’indices barycentriques pour une description macroscopique de conceptions.
La structure du questionnaire de recherche permet en effet, dans un premier temps, de recueillir des informations globales exprimées dans le référentiel des sept dimensions, abstraction faite de leur contenu. C’est ce que nous avons appelé une description macroscopique. Le modèle barycentrique de traitement de données (MBTD), qui nous a permis de donner du sens à un ensemble d’informations recueillies de manière progressivement discriminatoire nous semble être une contribution significative à la recherche qualitative en sciences de l’éducation.

La description macroscopique débouche sur des typologies de conceptions d’enseignants en résolution de problème.
Cette première description sera ensuite affinée par une description dite microscopique. Il s’agit de faire une relecture des informations sur les conceptions des enseignants à partir d’une explicitation des réponses des sujets exprimées sur des items indicateurs qui leur ont été proposés pour chaque dimension. Les deux modes de description seront ensuite mis en relation, ce qui devrait fournir des informations plus significatives, tant au niveau épistémologique que didactique.
Les résultats obtenus à partir des échantillons expérimentaux vont faire apparaître des possibilités d’étudier l’impact de trois variables du profil professionnel : le diplôme professionnel, l’ancienneté dans la fonction enseignante et, de manière plus précise, l’expérience en classe de Terminale, la dernière étape de l’enseignement secondaire du système éducatif sénégalais.

Dans la troisième partie, l’outil validé dans la deuxième partie et les méthodes de traitement seront appliqués à l’étude des conceptions de professeurs de l'enseignement moyen et secondaire. Cette étude se fera en deux temps.
Dans le chapitre I, il s’agira de décrire les conceptions d’un échantillon de recherche de 179 professeurs de physique et chimie du Sénégal. Cette description revêtira deux dimensions. Au cours de la description macroscopique, les conceptions seront décrites à partir de mesures effectuées sur les sept dimensions de la résolution de problème qui ont été identifiées dans le cadre problématique restreint. La description microscopique permettra de décrire la structure interne de ces conceptions. Toujours dans ce chapitre, l’influence des trois variables caractéristiques du profil des enseignants, telles qu’elles ont été définies plus haut, sera étudiée.

Le chapitre II de la troisième partie sera consacrée à une recherche expérimentale destinée à étudier l’évolution des conceptions de trois cohortes d’enseignants en formation au département de physique et chimie de l’Ecole Normale Supérieure de Dakar. Ces différentes étapes seront articulées les unes aux autres, aussi bien du point de vue théorique que méthodologique.

Enfin, une quatrième partie permettra de résumer les résultats de la recherche dans ses différentes phases. Ce résumé se fera sur la base d’une grille de lecture à quatre niveaux : épistémique, empirique, méthodologique et didactique.
Une conclusion générale permettra d’esquisser des perspectives ouvertes par les résultats obtenus dans le cadre de cette thèse, aussi bien sur le plan de la recherche que sur celui de la formation des professeurs de physique et chimie.















PREMIERE PARTIE

De la recherche exploratoire au cadre Problematique

















PREMIERE PARTIE

CHAPITRE I : LA RECHERCHE EXPLORATOIRE


I.1. Le CONTEXTE ET Les objectifs de la recherche exploratoire

Un aspect très instructif dans la formation à la recherche, est sans doute le processus d’émergence des questions de recherche, et les fondements de la motivation pour une recherche. A ce propos, la genèse de notre projet est un exemple qui permet de montrer comment des préoccupations utilitaires d'un formateur ont fini par induire un intérêt de recherche qui s'est traduit ensuite par des questions de recherche prenant du sens sous l'éclairage théorique. Nous allons en faire l'économie dans le paragraphe qui va suivre.

Après avoir exercé pendant trois ans la fonction de professeur de physique et chimie dans un lycée, et après une formation pédagogique post-universitaire, nous avons été amené à intégrer l’équipe de formation du Département de physique et chimie de l’école Normale Supérieure de Dakar, un institut universitaire de formation de professeurs pour l'enseignement secondaire.

C’est dans ce contexte de formation initiale de professeurs, que nous avons introduit, un module intitulé : " Résolution de problèmes et méthodologie des travaux dirigés en physique et chimie."
Nous allons présenter brièvement l’activité de formation en résolution de problème et les observations qui ont été formulées à leur propos.

I.1.1. Description sommaire d’une pratique de formation en résolution de problème en physique et chimie.

L'activité consistait essentiellement à réfléchir sur la forme des énoncés proposés aux élèves et à analyser des algorithmes de résolution de problèmes de physique et chimie proposés dans les manuels scolaires, afin de mettre en évidence leurs limites. Les analyses ainsi faites permettaient de fonder l’argumentation des recommandations pour la préparation et la gestion pédagogique des séances de travaux dirigés, en rapport avec les stratégies d'apprentissage des élèves.



Exemple d’analyse d’un énoncé de chimie

On réalise la combustion d’un litre de benzène. Le volume total d’air disponible est de 4m3. Quels sont les produits restants après réaction et retour aux conditions normales ?
On admettra que si la quantité d’air est suffisante pour assurer la combustion complète, il se forme du dioxyde de carbone et de l’eau ; lorsque la quantité d’air est insuffisante, il se forme du carbone et de l’eau (densité du benzène liquide : 0,88) ; on rappelle que l’air contient 1/5 en volume d’oxygène).

Les élèves-professeurs étaient amenés à se prononcer sur la clarté de l’énoncé :
quels sont les termes les plus importants de l’énoncé (les termes clés sont soulignés);
la tâche demandée est-elle suffisamment explicitée ?
quelles sont les données du problème : données qualitatives et données quantitatives.

C’est à la suite de cette analyse seulement que l’on passait à la recherche de la solution.
La séance était également l’occasion d’analyser des algorithmes de résolution de problème proposés dans des manuels scolaires ou des annales.
L’objectif était de faire prendre conscience aux élèves-professeurs des lacunes que recèlent certains schémas, souvent proposés de bonne foi aux apprenants dans divers documents pédagogiques, même parmi ceux qui se situent dans une perspective d’innovation.
Exemple d’algorithme analysé : la résolution d’un problème de mécanique
(Tiré de la Collection Eurin Gié, Terminales C et E (1989), Hachette Ed., page 96)










Tableau 3 : L’algorithme suivant constitue pour les auteurs de ce manuel une démarche générale qui permet de résoudre un problème de mécanique classique.

1) Définir le référentiel galiléen associé au solide (le référentiel terrestre peut être considéré comme galiléen).
2) Préciser le système étudié.
3) Faire le bilan des forces extérieures appliquées au système.
4) Ecrire le théorème du centre d’inertie et/ou le théorème de l’énergie cinétique qui permettent d’exprimer le vecteur accélération et/ou la vitesse du centre d’inertie du système.
5) Projeter le théorème du centre d’inertie sous forme vectorielle, dans un repère orthonormé adapté. Dans le cas des mouvements circulaires, choisir le repère de Frenet de base (u, n).
Dans certains problèmes, l’opération de projection n’est pas nécessaire, et on peut raisonner directement sur les vecteurs sans faire apparaître les coordonnées.
6) Procéder à l’étude cinématique du mouvement du centre d’inertie du système.
Pour un mouvement plan , dans un repère(o, i, j) : a = xi +yj .
En prenant les primitives successives de x et y et en tenant compte des conditions initiales, on établit les équations horaires x(t) et y(t) du mouvement.
L’élimination du temps entre ces deux équations permet de connaître l’équation y(x) de la trajectoire.
Pour un mouvement circulaire, dans le repère de Freinet l’accélération est donnée par :
a = (dv/dt) u + (v2/R) n.
Dans ce tableau les lettres en gras représentent des vecteurs

La séance était ici destinée à faire émerger au niveau des élèves-professeurs une attitude critique vis à vis de tels algorithmes. A la suite des échanges entre stagiaires avec la participation du formateur, des observations étaient formulées et notées dans les cahiers de stage. En voici quelques unes :
la logique interne des algorithmes proposés n’est pas explicitée : les élèves peuvent avoir tendance à les considérer comme des recettes à appliquer de manière infaillible;
la dimension fondamentale de la représentation du problème n’apparaît pas de manière explicite;
on ne donne pas aux élèves les moyens de construire une solution en se posant des questions appropriées et opportunes, et en répondant à celles-ci;


il n’y a aucune indication sur les procédures de sortie d’impasses, d ‘évaluation de la démarche et des résultats obtenus;
certaines étapes de l’algorithme font allusion à une catégorie limitée de problèmes et risquent d’embrouiller le raisonnement de l’élève;
de manière plus spécifique on parle de repère galiléen avant de définir le système à étudier.

Une dernière étape de cette activité de formation consistait à faire travailler les stagiaires en groupe de manière à élaborer un canevas susceptible d’aider les élèves à réaliser de meilleures performances en résolution de problème.
Exemple de canevas proposé par un groupe d’élèves professeurs pendant cette activité. Pour une résolution efficace des problèmes de physique et chimie, ce groupe propose l’algorithme suivant :

Lire attentivement tout l’énoncé pour se situer dans le cours
Relire la première question
Rechercher dans l’énoncé ce qu’on demande de calculer
Faire l’inventaire des lois et des formules du cours
En fonction des données, choisir les formules qui permettent de résoudre l’exercice ou le problème
Faire d’abord un calcul littéral jusqu’à la solution finale
Faire les applications numériques
Faire la même chose pour chaque question

Les efforts de rationalisation de la démarche de résolution de problème ainsi faits par les futurs enseignants révèlent des lacunes méthodologiques. En effet, dans ce canevas la référence est constituée par le cours et les questions posées dans l’énoncé. La lecture de l’énoncé n’a ici qu’une fonction de repérage dans le cours. Aucune allusion n’est faite de manière explicite sur les phénomènes physico-chimiques qui sont au cœur des exercices et problèmes posés aux élèves.



L’item 3 est très significatif: “Rechercher dans l’énoncé ce qu’on demande de calculer".
Les élèves sont ainsi “ dirigés ” vers des problèmes purement quantitatifs. C’est là une vision déformée de la réalité de la résolution de problème où les aspects qualitatifs sont déterminants.
Les solutions proposées aux élèves, en classe ou dans les corrigés des manuels scolaires et les annales d’exercices, sont souvent truffées de non-dits. Des approximations et des hypothèses non explicitées sont souvent nécessaires à l’élaboration d’une solution à partir d’un énoncé (Sall et al., 1998).

De manière générale, les activités pédagogiques de formation nous ont permis de faire un certain nombre d'observations qui allaient déclencher le processus de problématisation (Bachelard, 1938) de notre recherche.

I.1.2. Observations générales sur la pratique de formation décrite

La mise en œuvre de cette pratique de formation en résolution de problème a conduit aux observations suivantes :
- les algorithmes à l’image de celui analysé plus haut, du point de vue même des enseignants en formation, ne rendaient pas compte du processus de résolution lui-même. La préoccupation était surtout de donner des recettes à priori au lieu de développer des compétences à poser le problème et développer un raisonnement non linéaire pour trouver la solution.

- les élèves-professeurs, bien que titulaires d'une licence, d'une maîtrise et parfois d'un DEA (Diplôme d'Études Approfondies) en physique ou en chimie avaient tendance à manifester des comportements similaires à ceux des élèves du second cycle secondaire, face à la résolution de problème. Ainsi, les données particulières, notamment les données quantitatives et les résultats numériques attendus, inhibaient les capacités de l’apprenant à s’engager dans un processus de construction de solution, à partir des données qualitatives et des connaissances réactivées de manière pertinente.



- le rôle des phénomènes physico-chimiques dans l'élaboration des raisonnements pour résoudre les "problèmes ou exercices" ne semblait pas bien perçu par les stagiaires, malgré tout leur cursus scolaire où cette activité a toujours occupé une partie importante du temps d'enseignement/apprentissage. Quand on donne des consignes à l’élève pour l’amener à lire attentivement l’énoncé, on n’insiste pas sur la nécessité d’identifier les phénomènes en jeu. Les formules et les lois évoquées sont surtout celles du cours précédent et non celles qui interviennent effectivement dans l’étude des phénomènes identifiés.

- les élèves-professeurs arrivaient difficilement à émettre un discours structuré sur leurs activités connues en contexte scolaire comme étant "la résolution de problème".

- enfin la perception du concept de problème semblait surtout se référer à une des pratiques de référence qui caractérise le système d'enseignement des sciences : celle de l'enseignant évaluateur.

La première conclusion que nous avons tirée de ces observations empiriques était que les enseignants en formation ne percevaient pas la finalité des activités de résolution de problème. Mieux, les idées qu'ils avaient du problème et de la résolution de problème ne semblaient pas liées à la maîtrise des concepts scientifiques qui structurent la physique et la chimie.
Des discussions étaient organisées autour de ces observations avec les enseignants en formation et des recommandations étaient formulées sur la manière dont ce travail devait être organisé en classe pour permettre aux élèves d'en tirer le meilleur bénéfice, et à l'enseignant d'être efficace dans ses tâches d'encadrement.

Mais cette approche pédagogique de la résolution de problème a fini par montrer ses limites. Il nous apparaissait en effet, de plus en plus que, pour répondre avec pertinence à certaines questions des élèves-professeurs, et justifier les recommandations formulées, il fallait mettre en avant des concepts et des outils d'analyse plus élaborés, moins généraux et donc plus spécifiques à la discipline et plus particulièrement aux concepts de problème et de résolution de problème en physique et chimie.


Ce questionnement interne qui habitait le formateur praticien allait bientôt créer un besoin d’aller plus loin. L’idée de faire de la recherche en résolution de problème était née.

I.1.3. Des préoccupations du formateur à la motivation pour la recherche

Le cadre pédagogique se révélait ainsi trop étroit pour l'analyse des différentes observations permettant de fonder nos pratiques de formateur. La nécessité de faire prendre conscience aux futurs professeurs du fait que les idées qu’ils ont du problème et de la résolution de problème, pourraient constituer un obstacle épistémologique à un encadrement efficace de leurs élèves commençait à s’imposer comme une tâche urgente. Mais un préalable à cette action de remédiation était de bien connaître les structures de ces idées, de les décrire avec des outils étalonnés, de voir l’influence de certaines variables indépendantes, et dans des cas spécifiques, par exemple au cours d’une formation initiale d’enseignants, d’étudier les conditions de leur évolution .

C'est dans cette posture de questionnement et de recherche d'outils conceptuels que nous avons "rencontré" la littérature sur la didactique des sciences. Ce courant de recherche et d'action s'est particulièrement développé depuis bientôt une trentaine d'années, en Belgique (FUNDP, Namur; UCL, Louvain-La-Neuve), au Québec (Université de Montréal, et particulièrement en France (INRP-CNRS, LIRESPT, INRP-UNESCO) et en Suisse (LDES) (Gil-Perez, 1996; Giordan, 1998). Les Journées Internationales sur l'éducation scientifique dites " de Chamonix" de 1979 sont considérées par Giordan (1998) comme ayant eu un impact fondateur dans le développement du courant de la didactique des sciences. Nous reviendrons dans le cadre théorique spécifique sur l’émergence et le développement de ce courant de recherche.

Les premières données fournies par cette littérature mettaient l’accent sur l’importance des idées premières de l’élève sur le processus enseignement/apprentissage. Mieux, ces idées étaient dotées d’une grande capacité de résistance même au niveau de personnes très qualifiées sur le plan scientifique, même lorsqu’elles exercent le métier d’enseignant. Pour les élèves ces idées pouvaient devenir de véritables obstacles à

l’apprentissage (Viennot, 1978, 1988 ; Giordan et de Vecchi, 1987 ; Weil-Barais, 1993).

Une première question surgit à ce niveau de réflexion. Ces obstacles, avant de concerner les concepts disciplinaires déclaratifs, n’interviennent-ils pas aussi à propos de concepts plus généraux, tels que l'apprentissage, la science en tant que concept, l'évaluation ou la résolution de problème.

C'est cette dernière considération qui nous a inspiré l'idée d'adopter une approche constructiviste dans la manière d'aborder la résolution de problème avec les enseignants en formation. Les idées que les enseignants ont du processus de résolution de problème, qui se sont formées tout le long de leur cursus scolaire et universitaire, méritaient d’être étudiées. La construction d’un édifice, ici la didactique de la résolution de problème, nécessite la connaissance de “  l’état du terrain ” pour éviter de s’engager dans un travail de Sisyphe. La première étape dans la mise en oeuvre de cette approche consisterait donc à recueillir les conceptions des élèves-professeurs sur le problème et la résolution de problème: conception, problème et résolution de problème constituent ainsi les concepts centraux de cette recherche exploratoire.
Deux idées de base ont sous-tendu ce travail exploratoire :
Les conceptions des élèves-professeurs à propos de la résolution de problème sont centrées sur la situation de départ décrite par l’énoncé et les résultats attendus.
Le processus de résolution n’est pas suffisamment pris en compte dans les conceptions des élèves-professeurs.
C’est sur cette base que notre recherche exploratoire s’est engagée.
I.2. La méthodologie de la recherche exploratoire

I.2.1. L’outil de recueil de données de la recherche exploratoire

Au moment de passer à la phase de recueil de données, des questions ont surgi, à propos de la méthodologie à adopter. Fallait-il construire un questionnaire et sur quelles bases ? Comment faire pour recueillir les conceptions des enseignants en formation de la manière la plus spontanée possible ? Comment formuler la question de manière accessible pour ces étudiants qui ne possèdent pas encore les concepts de base des sciences de l'éducation ?
Nous avons finalement opté pour un questionnaire réduit à une seule question ouverte pour recueillir les idées des enseignants à propos du problème et de la résolution de problème de manière aussi spontanée que possible.
La question était libellée comme suit :

"Au cours de votre cursus scolaire (enseignements reçus, contrôle continu, compositions, examens, concours) ou dans la vie de tous les jours, vous avez souvent utilisé ou entendu utiliser le mot "problème" . Donnez une définition d’un problème.

I.2.2. L’échantillonnage et le dispositif de recueil de données

Pendant quatre années (1991-1992 --> 1994-1995) cette question était posée aux élèves-professeurs du Département de Physique et Chimie et du Département de Mathématiques, dès le début de la formation.

Il faut signaler que pour la première année seuls les élèves-professeurs de physique et chimie avaient été interrogés. Les réponses étaient recueillies et classées. Pour les étudiants de physique et chimie, la question était posée juste avant le début du module "Résolution de problème et méthodologie des travaux dirigés".

Pour les étudiants de mathématique, l'administration du questionnaire était faite dans une plage horaire quelconque suivant les disponibilités offertes par les formateurs.


Nous avons ainsi recueilli sur les quatre années, 157 définitions du concept de problème. La répartition des réponses suivant les strates définies par deux critères (discipline : deux modalités ; année universitaire : quatre modalités) est résumée dans le tableau suivant :

Tableau 4 : Echantillon des sujets interrogés

Discipline ------>Physique et chimieMathématiquesTotalAnnées1991-1992200201992-19932138591993-19942531561994-199514822Total8077157
On voit ainsi que l'échantillon est pratiquement constitué à parts égales de stagiaires de mathématiques et de physique et chimie. L'essentiel de l'échantillon de mathématiques a été constitué en deux ans (1992-1993 et 1993-1994). Nous avons ainsi constitué une base de données susceptible d’être enrichie d’année en année.

I.2.3. Traitement des données recueillies

La nature des données recueillies ( des définitions fournies par des enseignants en formation) impose un traitement à plusieurs niveaux : un traitement qualitatif fait à partir d’une grille d’analyse établie sur la base d’indicateurs, et un traitement quantitatif sur des variables numériques créées à partir de ces indicateurs.

I.2.3.1. Elaboration d’une grille d’analyse

Pour faire une analyse de contenu de ces données, deux méthodes étaient à notre disposition : analyser les contenus des discours libres des enseignants à partir d'une grille établie à priori, ou induire une grille à partir des contenus manifestes (Bardin,

1977 ; L'Ecuyer : 1987 ; Jonnaert : 1996). Nous avons combiné ces deux approches.
Nous avons d'abord fait une lecture libre de l'ensemble des réponses avec prise de notes sur les aspects saillants se dégageant du discours des enseignants.
Cette phase nous a permis de constater de manière empirique que les définitions proposées répondaient au moins à une question sous-jacente. Nous avons explicité ces questions. Les résultats de cette explicitation sont donnés par le schéma 1 suivant :

Schéma 1 : Identification et classification des indicateurs

 Chacune de ces questions sous-jacentes sera illustrée par un exemple de définition tiré de la banque de données des 157 définitions. Nous préciserons à chaque fois la spécialité du sujet (Physique et Chimie, PC ou Mathématiques , Math) et l’année de recueil de la définition. Naturellement, une même définition peut contenir des réponses à plusieurs questions.

Question sous-jacente 1
* un problème, c'est quoi ? (ce qui renvoie à la situation de départ)

Exemple 1:
“ situation nouvelle à laquelle on est confronté et que l’on cherche à résoudre ”
(PC, 1992)

Pour ce sujet, un problème c’est d’abord une situation nouvelle. Cet exemple est assez intéressant, puisqu’il introduit déjà le concept de nouveauté que l’on retrouvera comme critère principal dans la typologie de D’Hainaut développée par Roegiers(1993).

Question sous-jacente 2
*un problème, pour quoi ? (ce qui renvoie à la finalité du problème)

Exemple 2:
“ un problème est un moyen de contrôle ou d’évaluation des connaissances acquises en classe ” (Math, 1995)
Cette définition renvoie à une finalité d’évaluation. C’est une vision purement scolaire ce qui correspond à l’usage le plus courant du problème dans l’enseignement des sciences.

Question sous-jacente 3
*un problème, qu’est-ce que je dois faire ? (ce qui renvoie à la tâche attendue)
Exemple 3:
“ une situation obscure, ambiguë, à laquelle il faut apporter clarté, lumière, autrement dit, c’est un ensemble de questions auxquelles il faudra apporter des solutions précises, des réponses exactes. ” (PC, 1995)

Cette définition (Exemple 3 indique la nature de la tâche qui attend le sujet qui est confronté à un problème : il doit clarifier une situation, “ obscure ”, apporter une solution.

Question sous-jacente 4
un problème, comment le résoudre ? (ce qui renvoie au processus de résolution)
Exemple 4
“ une situation qui fait appel à une compilation de connaissances pour construire ou déduire des inconnues ou d’autres connaissances ” (PC, 1993)
Cette définition met l’accent sur le rôle des connaissances et sur un processus de traitement des connaissances tel que la déduction.

Question sous-jacente 5
un problème, qu'est-ce que je ressens, comment je dois être, quelle attitude ? (aspects affectifs et conatifs)
Exemple 5
“ un problème c’est un phénomène ou une situation ou un procédé qui n’est pas familier et dont la présence devant moi perturbe tous mes sens ” (PC, 1995)

Cette définition est très originale. Elle met l’accent sur un état d’esprit qui est souvent passé sous silence. Les problèmes donnés aux élèves, du fait de leur utilisation comme outil d’évaluation et de sélection sont chargés négativement et créent des perturbations psychologiques qui souvent inhibent les capacités des élèves à élaborer une démarche scientifique.

Cette démarche d’analyse des définitions proposées par les enseignants va nous permettre de sélectionner des termes et expressions susceptibles de rendre compte de chacun des cinq aspects cités.

I.2.3.2. Identification et classification d'indicateurs

Nous avons ensuite fait une deuxième lecture orientée de l'ensemble des réponses. Nous avons ainsi constaté qu’on pouvait associer aux questions sous-jacentes des

termes ou des expressions qui pouvaient servir d'indicateurs. Cette opération est résumée dans le tableau suivant :

Tableau 5 : Association d’indicateurs aux questions sous-jacentes
Questions sous-jacentes /DimensionsINDICATEURS
un problème c'est quoi ?- situation - informations - énoncé- libellé – questions - hypothèse- un besoin- faits – données – texte - sujet- contraintes – équation – obstacle.


un problème, pour quoi ?- tester des connaissances - évaluer les élèves - permettre de comprendre - permettre aux élèves d'apprendre -développer des capacités d'apprentissage - mesurer le volume de connaissances - classer - critère d'insertion sociale.
- sanctionner - s'auto-évaluer - passer le temps - solliciter ses cellules grises - développer le sens du raisonnement - se préparer à faire face aux besoins de la vie pratique - développer le sens du raisonnement.



un problème, qu'est-ce que je dois faire ?- trouver une valeur numérique - répondre à une question - trouver
un lien, des connexions logiques entre des faits - expliquer un phénomène - élucider un énigme - surmonter une difficulté, un obstacle - créer un nouveau modèle théorique- satisfaire un besoin- trouver des moyens pour réaliser une action - donner un avis argumenté - appliquer un(des) critères, une(des) règles à une situation - apporter des issues heureuses à une situation - résoudre une équation - découvrir de nouvelles structures.

un problème, comment le résoudre ?
- utiliser des connaissances - utiliser des méthodes - raisonner, raisonnement - réfléchir, réflexion - effort intellectuel - ordonner - traiter, traitement- mettre en relation - utiliser des règles, des conventions - critiquer – analyser – élaborer – simplifier – comparer.
un problème, qu'est-ce que je ressens, quelle doit être mon attitude ?- difficile, difficulté - rude épreuve- ennui – malaise - refus d'acceptation - obscur – ambiguïté – confus - conscience humaine - cas de conscience - fatigue l'esprit
- embarras, embarrassant - se débattre - se tirer d'affaire – bloqué – incapacité - perturbe les sens - contraintes, s'oppose au désir.

Le tableau 5 précédent montre le processus d’analyse des définitions. Un énoncé est reconnu par le biais des indicateurs comme contenant la réponse à l’une des questions sous-jacentes. Les indicateurs jouent donc le rôle de filtre. Comme indiqué plus haut, une même définition peut contenir la réponse à plusieurs questions sous-jacentes.

I.2.3.3 Création de variables

Les définitions fournies par les enseignants ne pouvaient pas servir de modalités de la variable « conception ». Les dimensions ainsi identifiées à partir d'indicateurs choisis sur les productions des élèves-professeurs vont nous permettre de concevoir la conception comme une macrovariable. A chacune de ces dimensions, nous associons une variable permettant d'indiquer si une définition proposée par un répondant, possède ou non un des indicateurs de la dimension. On obtient ainsi cinq variables V1, V2, V3, V4, V5, définies comme suit :
la situation de départ (Sd) : Elle contient l'ensemble des données de base, qualitatives et quantitatives contenues dans l'énoncé du problème. (Variable V1)
la finalité ou fonction du problème (Fi) : Cette variable rend compte de la prise en compte de la finalité sociale du problème dans les conceptions des enseignants et des apprenants. (Variable V2)
la représentation de la tâche (Rt) : Cette dimension rend compte de la place accordée à la nature de la tâche attendue de l'apprenant. Par exemple, le but à atteindre dans un problème classique de physique dans l'enseignement secondaire est de trouver une valeur numérique, établir des relations. En mathématique il est souvent question de résoudre une équation, c'est-à-dire trouver une ou plusieurs inconnues ou d'établir des relations. (Variable V3)
le processus de résolution (Pr) : Cette variable rend compte de la mesure dans laquelle les conditions, les compétences et les formes de traitement des connaissances mises en jeu dans la résolution de problème sont invoquées dans les conceptions.(Variable V4)
la composante affective (Ca) : La composante affective est une variable destinée à mesurer la part des attitudes et des sentiments associés à la situation de résolution de problème. (Variable V5).


Les tableaux suivants donnent les correspondances respectives entre d’une part les questions sous-jacentes et les variables, et d’autres parts entre les variables et les indicateurs qui leur sont associés.

Tableau 6 : Association questions sous-jacentes /variables créées 
Questions sous-jacentesVariables crééesun problème, c’est quoi ?situation de départ (Sd) V1un problème, pourquoi ?finalité (Fi) V2un problème, qu’est-ce que je dois faire ?représentation de la tâche (Rt) V3un problème, comment le résoudre ?Processus de résolution (Pr) V4un problème, qu’est-ce que je ressens, quelle doit -être mon attitudeComposante affective (Ca) V5

En associant les variables et les indicateurs on obtient à la page suivante le tableau 7, qui permet de décrire chaque variable.
Tableau 7 : description des variables à l’aide des indicateurs
Questions sous-jacentes / DimensionsINDICATEURSSituation de départ
(Sd) V1- situation - informations - énoncé- libellé – questions - hypothèse- un besoin- faits – données – texte - sujet- contraintes – équation - obstacleFinalité

(Fi) V2- tester des connaissances - évaluer les élèves - permettre de comprendre - permettre aux élèves d'apprendre -développer des capacités d'apprentissage - mesurer le volume de connaissances - classer - critère d'insertion sociale- sanctionner - s'auto-évaluer - passer le temps - solliciter ses cellules grises - développer le sens du raisonnement - se préparer à faire face aux besoins de la vie pratique - développer le sens du raisonnementReprésentation de la tâche

(Rt) V3- trouver une valeur numérique- répondre à une question - trouver un lien, des connexions logiques entre des faits - expliquer un phénomène - élucider un énigme - surmonter une difficulté, un obstacle - créer un nouveau modèle théorique
- satisfaire un besoin- trouver des moyens pour réaliser une action - donner un avis argumenté - appliquer un(des) critères, une(des) règles à une situation - apporter des issues heureuses à une situation - résoudre une équation - découvrir de nouvelles structuresProcessus de résolution

(Pr) V4- utiliser des connaissances - utiliser des méthodes - raisonner, raisonnement - réfléchir, réflexion - effort intellectuel - ordonner - traiter, traitement
- mettre en relation - utiliser des règles, des conventions - critiquer – analyser – élaborer – simplifier - comparerComposante affective

(Ca) V5- difficile, difficulté - rude épreuve- ennui – malaise - refus d'acceptation - obscur – ambiguïté – confus - conscience humaine - cas de conscience - fatigue l'esprit
- embarras, embarrassant - se débattre - se tirer d'affaire – bloqué – incapacité - perturbe les sens - contraintes, s'oppose au désir
Les définitions fournies par les enseignants en formation ont été analysées sur la base de cette grille. Certains aspects ont été exprimés par des termes légèrement différents, et il a fallu donc procéder à certains correctifs. Mais certaines tournures françaises bien qu'incorrectes ont été maintenues.
A la fin de cette étape, nous disposions ainsi d'une grille d'analyse des définitions s'appuyant sur des indicateurs qui sont des termes et expressions tirés du discours des enseignants.


I.2.3.4 Mesure des variables

Pour être mesurable une variable doit être opérationnalisée , c’est-à-dire définie par l'opération qui permet de lui faire correspondre des modalités .
Celles-ci dépendent de la nature de la variable (Howell, 1998). Ces modalités constituent les résultats de l'opération de mesure.
Les variables que nous avons créées étant associées à des indicateurs, nous avons choisi d'en faire des variables dichotomiques. Dans chaque production fournie par un sujet, il y a deux possibilités :
- la définition fournie par le répondant contient un indicateur lié à une variable Vi; celle-ci prend alors la modalité 1(chiffre 1) ;
- la définition fournie par le répondant ne contient pas un indicateur associé à la variable Vi; alors celle-ci prend la modalité 0 (Chiffre Zéro).

Exemples d’illustration de la mesure des variables :
A chaque définition on a associé un petit tableau à une ligne et cinq colonnes correspondant aux cinq variables V1,V2, V3, V4, V5.
Dans chacune des cases correspondant à une variable, il s’agira d’inscrire respectivement le chiffre 1 ou zéro (0) selon que la définition contient ou non un indicateur associé à la variable.
Nous allons illustrer cette démarche sur des définitions du concept de problème que nous avons tirées de notre banque de données.

Définition 1 : On l'utilise dans le langage courant pour signifier une difficulté ou un obstacle auquel l'individu est confronté. En pédagogie : Énoncé d'un exercice (long ou court ) pouvant faire l'objet d'un examen ou d'un test pour vérifier la compréhension d'une leçon.

Les termes ou expressions soulignés dans la définition correspondent à des indicateurs des variables :
difficulté : V5 (Ca) ; obstacle, énoncé : V1 (Sd) vérifier la compréhension : V2 (Fi)

La définition comporte des indicateurs correspondant aux variables V1, V2, V5 qui auront chacune, dans cette définition, la modalité 1.
La définition ne comporte pas d’indicateurs correspondant aux variables V3 et V4. Ces variables auront, dans cette définition, la valeur zéro (0).
Ces résultats donnent le tableau de codage de cette définition comme suit :
V1 V2 V3 V4 V5
11001

Définition 2 : Une situation dans laquelle se trouve un individu ou bien une situation qu'on lui présente et à laquelle il propose une résolution.

Cette définition ne renferme que deux indicateurs : situation (V1) et propose une solution (V3). D’où le tableau de codage.
V1 V2 V3 V4 V5
10100

Définition  3 : Un agencement de données plus ou moins désordonné qui nécessite un traitement, un réarrangement pour le comprendre.

Les indicateurs repérés dans cette définition sont : données (V1) , nécessite un traitement (V3), pour comprendre (V2), ce qui donne le tableau de codage :
V1 V2 V3 V4 V5
11100

Pour tester la fiabilité de notre méthode de mesure, nous avons fourni à cinq (5) formateurs-chercheurs de l’Ecole Normale Supérieure de Dakar un échantillon de 20 définitions choisies au hasard sur la banque de données, le tableau associant les variables et leurs indicateurs respectifs, et l’explication du mode de codage.

Il s’agissait d’appliquer la méthode de l’accord inter-juges aux définitions du concept de problème sur la base des indicateurs présentés en appliquant le mode de codage utilisé.


Le test a donné un accord inter-juges de 80%, ce qui est largement supérieur au taux de 75% souvent admis dans ce mode de validation.. Les écarts semblaient surtout liés à la manipulation des indicateurs de la variables V5. De plus il y a eu quelques hésitations entre les indicateurs des variables V3 et V4.
Mais les résultats du test nous ont semblé acceptables et le mode de codage a été par la suite appliqué par nos soins à l’ensemble des 157 définitions.
Le tableau de codage obtenu est un tableau à 5 colonnes et 157 lignes.

1.2.3.5. Traitements appliqués

Les valeurs prises par chacune des cinq variables pour chaque définition ont été ensuite cumulées. La somme obtenue est considérée comme « le poids » de chaque variable dans les conceptions des sujets interrogés à propos de résolution de problème.
Deux traitements ont été opérés sur les données transformées :

- on donnera le cumul des variables pour l’ensemble de l’échantillon, puis le cumul de ces mêmes variables pour les deux sous-groupes distincts : les élèves-professeurs de physique et chimie et les élèves-professeurs de mathématiques. La représentation graphique des points cumulés en fonction de la variable permet de mettre en évidence la position relative des cinq dimensions les unes par rapport aux autres ;

le test CHI2 permettant de comparer les conceptions des élèves-professeurs de Mathématiques et ceux de physique et chimie.










I.3 Les résultats de la recherche exploratoire

Dans cette partie, après avoir présenté les résultats de la mesure des variables, nous les discuterons pour en tirer des enseignements.

I.3.1 Présentation des résultats

Notre échantillon étant constitué de 157 élèves-professeurs avec deux spécialités disciplinaires : physique et chimie (PC) et mathématiques (MATHS). Nous présenterons successivement les résultats d’ensemble de l’échantillon, les résultats du sous-groupe (PC) et les résultats du sous-groupe (MATHS)

1.3.1.1. Résultats d’ensemble de l’échantillon

Le tableau 8 suivant présente le cumul des points obtenus par chaque dimension :

Tableau 8 : Résultat du codage des données à partir des variables créées
DimensionsV1V2V3V4V5Cumul des points15234883244
On voit nettement que la dimension V1 (situation de départ, Sd) est la plus présente (152) dans les conceptions des élèves-professeurs, suivi de très loin par la dimension V3 (représentation de la tâche, Rt) avec 88 points. La dimension processus (Pr) est en dernière position avec 32 points suivie il est vrai de très près par la dimension V2 (Finalité, Fi). La dimension V5 (composante affective, Ca) vient en troisième position avec 44 points.
Ces résultats sont mis en évidence dans le graphe 1 suivant :






Graphe 1 : Positions relatives des dimensions extraites des définitions fournies par les 157 sujets.
 EMBED Excel.Chart.8 \s 
Légende : V1 = situation de départ (Sd) ; V2 = Finalité (Fi) V3 = Représentation de la tâche (Rt) ;
V4 = Processus de résolution (Pr) ; V5 = composante affective (Ca)


I.3.1.2. Résultats des sous-groupes « Physique et chimie » (PC) et « Mathématiques » (MATHS)

Tableau 9 : description des résultats par sous-groupes
DimensionsV1V2V3V4V5Cumul PC7720421621Cumul Maths7514461623
Les résultats des sous-groupes (PC) et (MATHS) reconduisent la hiérarchie établie entre les dimensions par les résultats d’ensemble. La dimension V1 est toujours largement en tête et la dimension processus est toujours en dernière position. Les graphes 2 et 3 suivants mettent bien en évidence ces résultats.






Graphe 2 et Graphe 3 : résultats des sous groupe PC et Maths
 EMBED Excel.Chart.8 \s 


 EMBED Excel.Chart.8 \s 
On voit bien que les deux sous-groupes PC et MATHS ont une structure analogue, ce qui sera confirmé par le test du CHI2

1.3.1.3. Confirmation de la similitude des sous groupes (PC) et (MATHS) par le test du CHI2

La méthode du CHI2 a été appliquée aux résultats obtenus à partir d' effectifs cumulés d' étudiants en Mathématiques (effectif : 77) et en physique et chimie (effectif: 80). Elle

montre (degré de liberté dl = 4 ; CHI2 = 1, 32 ) , qu' il n' y a pas de différence significative entre les conceptions des deux types d'étudiants, même avec une probabilité d'erreur inférieure ou égale à 0, 005.

I.3.2. Discussion des résultats

Les résultats montrent que les conceptions des élèves professeurs sont marquées par un accent mis sur la situation de départ (Sd, V1) et la représentation de la tâche
(Rt, V3). La référence au processus de résolution (Pr, V4) est rangée à la dernière place ainsi que la finalité ou fonction du problème (Fi, V2). Les aspects affectifs (Ca, V5) viennent à chaque fois en troisième position. En réalité la différence entre les variables V2,V4,V5 n'est guère significative.
Ces résultats suggèrent l'hypothèse selon laquelle les conceptions des professeurs en formation se concentrent sur les données du problème au détriment de la perception du rôle de l'activité de résolution de problème et surtout du processus lui-même.
La faiblesse de la fréquence obtenue par la variable V2 (Fi) indique clairement le manque de sensibilité des élèves-professeurs à la finalité des activités de résolution de problème.
Les résultats graphiques obtenus révèlent également de manière nette une structure pratiquement identique des conceptions des élèves-professeurs de Mathématiques et de Physique et Chimie, quelque soit l'année d'investigation considérée, ce qui confirme les résultats du test du CHI2.

Le fait que ce résultat soit le même pour élèves-professeurs de Maths et de physique et chimie nous semble également intéressant. La structure de ces conceptions pourrait ne pas dépendre de la discipline scientifique et être une donnée des systèmes scolaires. Les mêmes pratiques de résolution de problème conduiraient à des résultats analogues d’une discipline à une autre. Mais pour pouvoir faire des comparaisons de manière valide d’une discipline à une autre, il faut être en mesure de décrire avec plus de précision ces conceptions.



Cependant, il est possible de considérer comme une hypothèse plausible que les conceptions des élèves-professeurs à propos de la résolution de problème sont centrées sur la situation de départ (Sd) et la représentation de la tâche (Rt). Il n’est peut-être pas inutile de remarquer à ce niveau que l’échantillon est constitué d’élèves-professeurs qui viennent de finir leurs études universitaires et sont encore très marqués par leurs pratiques d’étudiants.

Les situations de résolution de problème seraient pour eux des situations dans lesquelles ils sont astreints à des tâches dont ils ne se soucieraient pas de la finalité. Celle-ci est évidente pour eux : il s’agit d’avoir la note qui permet d’avoir le certificat recherché ou le passage en année supérieure. La troisième place occupée par la dimension composante affective (Ca) complète ce « tableau universitaire » connue pour l’importance du stress au moment des évaluations. De nombreuses recherches sur l’enseignement universitaire (Sall, 1983), ont montré l’importance du stress et de l’estime de soi dans les performances des étudiants dans le système universitaire.
Cette prudence dans l’interprétation des résultats de la recherche exploratoire est liée aux limites des outils et méthodes utilisés dans le cadre de cette phase exploratoire. Nous allons à présent mettre en évidence ces limites.

I.4. Les limites de la recherche exploratoire

Les limites de notre recherche exploratoire sont à la fois d’ordre théorique et méthodologique.

I.4.1 Sur le plan théorique

Les concepts de problème et de résolution de problème ne sont pas de simples outils pédagogiques, malgré leur usage courant dans le discours scolaire. Ils sont au centre de la théorie de la connaissance. La recherche exploratoire avait des ambitions limitées sur le plan théorique. Ces limites restreignent ainsi l’interprétation des résultats obtenus.
On peut par exemple se demander ce que recouvre le concept de situation de départ. Se limite-t-elle simplement à l’énoncé, ou ne faudrait-il pas inclure l’état des connaissances de l’apprenant et le contexte de résolution de problème ? Ce sont là des

questions qui ne trouveront réponse que dans un cadre conceptuel plus approfondi. Un axe central de l’approfondissement théorique serait de présenter les différents concepts dans les paradigmes qui ont tenté de modéliser les processus éducatifs. Cet approfondissement théorique devra cependant être renforcé du point de vue empirique par des exemples d’illustration, par des situations-problèmes dans le cadre de la physique et de la chimie.
Plusieurs questions surgissent à cette étape :
- qu’est-ce qu’un problème ?
- quels types de problèmes sont généralement posés, en contexte scolaire ou au-delà ?
- les réponses aux questions précédentes sont-elles les mêmes selon que l’approche est d’ordre philosophique, psychologique, ou didactique (recherche), ou pédagogique (un enseignant dans sa classe) ?
- quelles sont les théories qui sous-tendent la formulation de ces réponses ?
- quelle est la nature du processus de résolution de problème selon les différentes approches théoriques ?
C’est là autant de questions qui ne trouvent pas de réponse dans le cadre de la recherche exploratoire. Ces limites théoriques rejaillissent naturellement sur les aspects méthodologiques.

1.4.2. Sur le plan méthodologique

L’outil de recherche constitué d’un questionnaire réduit à une question ouverte constitue à lui seul une limitation dans le recueil de données.
La forme de l’unique question ouverte peut fonctionner comme un piège pour les sujets. Etant habitués à des définitions de type essentiel basées sur des substantifs, ils ont pu avoir tendance à utiliser à chaque fois les termes comme « situation » ou « état » dans leurs productions, ce qui a pu favoriser par exemple « la situation de départ ». Il n’est donc pas prudent de considérer qu'une dimension telle que le « processus de résolution » soit aussi marginale dans les conceptions des élèves-professeurs.
Sur le plan du traitement, malgré l’accord inter-juge obtenu, la manipulation des indicateurs lors de la mesure des variables ne s’est pas faite sans quelques dilemmes. Par exemple le terme « difficulté » qui est souvent revenu dans les définitions est assez ambigu. Il peut revêtir un aspect cognitif, mais il contient également une charge

affective.
La méthode de traitement, malgré son originalité et son caractère pratique ne fournit pas des informations fines sur les idées des enseignants à propos du problème et de la résolution de problème.
La méthodologie de la recherche devra donc être mieux articulée avec la partie théorique. Par exemple une option purement constructiviste aura des conséquences sur la démarche et les outils de la recherche. On pourrait par exemple placer le sujet dans une situation qui lui permet de faire des discriminations entre plusieurs idées, ce qui permettrait de reconstituer plus fidèlement sa pensée.

C’est ainsi qu’il nous semble qu’un mode d'échantillonnage permettant de prendre en charge certaines caractéristiques des populations-cibles doit être mis en œuvre, et cela en vue éventuellement de pouvoir étudier d’éventuelles variables pertinentes par rapport aux conceptions de la résolution de problème.
Ainsi, un questionnaire plus fouillé, mettant le répondant en situation de construction de sa conception de la résolution de problème, devra être élaboré.
Enfin les traitements appliqués aux données devront être affinés pour tirer profit de la masse d’informations qui seront recueillies.

Malgré ses limites théoriques et méthodologiques, la recherche exploratoire nous a fourni une banque de données pour construire une problématique pertinente sur les conceptions des enseignants à propos de la résolution de problème. Elle nous a également permis de nous situer par rapport aux exigences du processus de recherche en éducation.

I.4.3 La nécessité d'une plus grande conceptualisation

Dans la perspective d'une recherche plus approfondie, la nécessité d'aller vers une conceptualisation plus poussée s'impose à nous, à cette étape de notre recherche. En effet il apparaît clairement que la résolution de problème articulée avec les conceptions mobilisent plusieurs champs théoriques qu'il faudra visiter avec plus de précision.

C'est d'ailleurs là une des caractéristiques de la recherche en didactique, une discipline

“ emprunteuse ” par nature (Giordan, 1998). La nécessité de se situer par rapport à plusieurs champs théoriques ne doit cependant pas faire perdre de vue notre encrage dans la didactique de deux disciplines scolaires en interaction, la physique et la chimie.

Si la confection d’un outil de recueil de données plus élaboré s’avère nécessaire, l’identification ou l’élaboration d’une méthode de traitement de ces données est également une autre exigence, surtout dans une perspective heuristique visant à établir des liens entre les conceptions à propos de la résolution de problème et certaines variables indépendantes telles que les caractéristiques professionnelles des enseignants.
Il nous faut redéfinir un nouveau cadre théorique qui permettra ensuite de reposer la problématique des conceptions des enseignants de manière plus explicite. C’est l’objet des deux prochains chapitres.













PREMIERE PARTIE

CHAPITRE II : CADRE THEORIQUE







II.1. Introduction au cadre theorique

Toute recherche qui ambitionne de se hisser à un niveau scientifique doit être menée dans un cadre théorique explicite. Ce cadre théorique permet en effet de préciser le sens donné aux concepts manipulés. Il assure une lisibilité du texte tout en permettant une articulation entre les différentes parties, de manière à faire du travail un ensemble cohérent, permettant ainsi une interprétation pertinente des données recueillies. C’est une des conditions à remplir pour partager les résultats avec la communauté scientifique. Popper (1973) parlerait de la condition de falsifiabilité.
Ainsi, après avoir justifié notre démarche, nous passerons en revue les champs théoriques qui ont analysé les processus, les phénomènes et les concepts en jeu dans notre recherche.
Dans cette perspective, la revue de la littérature nous a montré que la résolution de problème, dans le cadre de l’enseignement et l’apprentissage de la physique et de la chimie, convoque au moins deux champs théoriques qui interfèrent dans l’analyse des processus éducatifs : la psychologie, et l’épistémologie des sciences. Ces deux domaines de connaissance seront donc revisités en rapport avec la résolution de problème en général, en physique et chimie en particulier.

Mais de manière plus spécifique, notre recherche s’inscrit dans le champ de la didactique de la physique et de la chimie. Ainsi, aussi bien au niveau théorique qu’au niveau de la recherche, le point sera fait, dans le but de préciser l’objet de notre recherche, et de justifier notre démarche méthodologique. Le cadre théorique, notamment son volet spécifique, permettra de bien camper la recherche dans le champ de la didactique de la physique et de la chimie, et plus particulièrement sous l’angle de la résolution de problème.








II.2. CADRE THÉORIQUE GÉNÉRAL

II.2.1. Justification du cadre théorique général

La résolution de problème peut être décrite comme une activité cognitive finalisée, c’est-à-dire au service d’une tâche à effectuer dans une situation donnée (Richard, 1990). Elle fait appel à une activité psychique et à des processus intellectuels mettant en jeu des connaissances. Celles-ci sont également acquises ou construites par le biais de processus intellectuels antérieurs. Notre recherche s’intéressera donc à l’analyse de ces processus à travers les différents courants psychologiques les plus pertinents qui se sont intéressés aux phénomènes éducatifs en général.

La résolution de problème  peut ainsi être abordée sous l’angle psychologique, en relation avec les processus d’acquisition ou mieux, de construction du savoir scientifique. C’est pour cette raison que les activités de résolution de problème sont très valorisées dans les activités scolaires destinées à guider l’apprentissage ou à évaluer les acquisitions des élèves. Ceci est particulièrement vrai pour les disciplines scientifiques telles que les mathématiques, la physique et la chimie.
Cet angle d’attaque met ainsi en avant un ensemble de concepts qu'il nous faudra passer en revue: enseignement, apprentissage, connaissances, problème, résolution de problème. Certains concepts sont naturellement articulés avec d’autres concepts pour en structurer le champ sémantique ou en préciser le contexte pragmatique.
L’enseignement étant indissociable de l’apprentissage, le cadre théorique devra expliciter l’interaction entre ces deux concepts dans leur rapport avec la résolution de problème.
Ces interactions mettant en jeu des connaissances en amont comme en aval, le cadre théorique devra également prendre en charge la question des connaissances, de leurs modes d'acquisition, de stockage et de transformation, et de leur utilisation dans le processus de résolution de problème.
Il apparaît ainsi indispensable, pour fonder notre recherche, tant du point de vue théorique que méthodologique, de revisiter les concepts-clés ainsi identifiés à la lumière des théories de la connaissance et du comportement humain, c’est-à-dire des théories psychologiques, mais en y adjoignant au besoin un éclairage épistémologique.

Cependant, compte tenu des interactions complexes entre ces courants, notre démarche ne sera pas linéaire. La revue des concepts dépendra des cadres théoriques revisités et de la place accordée dans ces courants aux concepts clés de notre recherche.

En cela, nous tiendrons compte de la réalité éducative. Celle-là nous révèle que les activités éducatives sont au carrefour de fondements multiples. Ceux-ci, explicités ou non, déterminent des choix, des prises de décision, des stratégies, des méthodes et des innovations. La psychologie occupe une place privilégiée parmi les nombreux fondements du champ éducatif.
Depuis l’émergence au 15ème siècle du néologisme « psychologie » attribué à l’Allemand Mélanchton pour désigner l’étude de l’âme et de l’activité mentale, jusqu’à l’accès au statut de science, la psychologie a eu pour objet une question centrale : pourquoi l’être humain agit-il comme il le fait ? (Raynal et Rieunier, 1997).
Pour répondre à cette question-clé, divers points de vue et approches se sont succédés, ou ont cohabité. Une analyse chronologique des différentes approches psychologiques s’avère donc difficile, surtout si on prend en compte le point de vue de Popper (1973) sur la logique de la découverte scientifique: la présentation à posteriori des « découvertes » scientifiques correspond rarement à la chronologie de leur avènement.
Il est donc indispensable, dans le cadre de cette recherche, de disposer d’une grille de lecture explicite de ces différentes approches psychologiques.

Dans cette perspective,.Gagné (1985) décrit le champ de la psychologie dans un espace à deux dimensions croisant des niveaux d’analyse et des types de comportement. Les comportements selon Gagné, ont trois modalités : le comportement social, le comportement intellectuel, le comportement psychomoteur. Ces comportements sont croisés avec deux niveaux d’analyse : le niveau cognitif et le niveau affectif.
Nous proposons d’ajouter comme troisième niveau d’analyse, le niveau psychomoteur. On obtient ainsi un tableau à double entrée symétrique. Le croisement de chaque niveau d’analyse avec un type de comportement permet de délimiter un objet du champ de la psychologie. Le tableau suivant permet de décrire l’espace psychologique selon Gagné(1985) , élargi au troisième niveau d’analyse que nous avons introduit.



Tableau 10 : description de l’espace psychologique (adapté de Gagné, 1985)

Comportement socialComportement intellectuelComportement psychomoteurNiveau affectif123Niveau cognitif456Niveau psychomoteur789

La première colonne du tableau donne différents niveaux d’analyse, alors que la première ligne spécifie les types de comportement. Ainsi chaque case correspondant à un numéro permet de définir une approche psychologique.
Par exemple, la case 1 croise le niveau affectif et le comportement social. Cette case définit ainsi la partie de la psychologie qui s’intéresse aux interactions entre les comportements au sein d’un groupe et l’affectivité. Elle constitue en elle-même un cadre problématique implicite. Elle permet par exemple de poser un certain nombre de questions :
- Comment l’affectivité des individus peut-elle influer sur le fonctionnement d’un groupe ?
- Les groupes peuvent-ils être caractérisés par des comportements affectifs spécifiques ?
La case 5 quant à elle met en relation le niveau d’analyse cognitif et le comportement intellectuel. Comme nous le verrons plus loin, cette case permet de définir le champ de la psychologie cognitive.
Il faut souligner tout de suite que du fait de la globalité du comportement humain, cette décomposition ne met en évidence que des cas limites. L’analyse la plus complète du comportement humain devra certainement faire appel à plusieurs niveaux.
De manière plus opérationnelle Tardif (1992) définit trois courants psychologiques : la psychologie béhavioriste, la psychologie humaniste et la psychologie cognitive. Ces différents courants psychologiques identifiés par Tardif (1992) s’intègrent parfaitement dans l’espace proposé par Gagné(1985). C’est ainsi que la psychologie béhavioriste est au croisement du niveau d’analyse psychomoteur et du comportement intellectuel. La psychologie humaniste s’intéresse au comportement intellectuel analysé sous l’angle affectif. Quand à la psychologie cognitive, elle croise le comportement intellectuel et le niveau d’analyse cognitif.

Cependant, malgré leur caractère opérationnel, les grilles de lecture du champ psychologique ne rendent compte que de manière partielle, de la diversité et de l’imbrication des différents démembrements de la psychologie telle qu’elle nous apparaît aujourd’hui.

La revue de la littérature nous a permis, malgré la complexité soulignée plus haut, d’identifier une constante dans les méta-analyses du champ de la psychologie en relation avec l’éducation : la dichotomie entre le béhaviorisme et le cognitivisme. Entre ces deux pôles constituant des cas limites, plusieurs courants transitoires se sont naturellement développés.
Si le béhaviorisme se caractérise par une relative homogénéité, par contre le cognitivisme s’est rapidement partagé entre le constructivisme et le modèle du traitement de l’information. Cette partie du cognitivisme est souvent désignée par l’expression « psychologie cognitive », ce qui ne facilite pas une bonne lisibilité du champ de la psychologie chez le lecteur non averti.

Puis la cognition, après avoir été confinée dans une perspective individuelle se voulant purement objective, s’est enrichie progressivement des dimensions affective et sociale ouvrant la voie à de nombreux courants. Le modèle de base restait cependant essentiellement « computationniste », s’appuyant sur l’architecture informatique « de type Von Neumann » mettant en avant la représentation symbolique (Tisseau, 1996).
Mais de nos jours, la question de la cognition est abordée de plus en plus dans une perspective connexionniste associée à une intégration de plusieurs angles d’analyse dans une sorte de « galaxie » cognitiviste appelée sciences cognitives.

Après avoir passé en revue l’évolution de ces courants psychologiques dans leurs rapports avec l’éducation en général, nous mettrons en évidence le fait qu’au-delà des diversités d’approche, le cadre théorique peut être ramené à une dichotomie entre le béhaviorisme et le constructivisme sous l’angle psychologique ou d’un point de vue épistémologique (Astolfi, 2001).




II.2.2. Le béhaviorisme

Dans cette partie seront présentées successivement, les bases théoriques du béhaviorisme, ses applications à l’éducation de manière générale et ses limites dans le contexte de l’enseignement de la physique et de la chimie.

II.2.2.1. Les bases théoriques du béhaviorisme

Le béhaviorisme est une théorie psychologique héritière d’une vieille doctrine philosophique axée sur la vie mentale : l’associationnisme. Fondé par Aristote, l’associationnisme a été ensuite réactualisé par John Locke et David Hume au 17ème siècle, puis par Stuart Mill au 19ème siècle (Raynal et Rieuner, 1997). Pour ces philosophes, la vie mentale est constituée de deux éléments premiers issus des sensations : les idées et les images. La doctrine de l’associationnisme considère que la vie mentale est régie par les lois de l’association de ces deux éléments, d’où son nom.
L’étude des rapports de ressemblance, de contiguïté ou d’opposition entre les idées et les images constitue l’objet de l’associationnisme, que l’on désigne aussi sous le nom d’atomisme. Le principal moyen d’investigation de la psychologie conçue comme l’étude de la vie mentale est l’introspection.

Mais au début du 20ème siècle, un nouveau courant a repris la notion d’association, en la séparant de celle d’idée, élément non observable, pour établir le schéma S/R (association stimulus/réponse) : c’est le béhaviorisme.
Le courant béhavioriste doit beaucoup aux travaux de Fechner (1860), physicien et philosophe allemand, qui entreprit dans les années 1860-1880, des expériences de psychophysique pour étudier les sensations.

Pour contourner les difficultés liées à la mesure des sensations, Fechner se contente de fixer l’intensité de l’excitant et de noter le moment d’apparition de la sensation. Fechner venait ainsi de mettre au point une démarche expérimentale permettant d’étudier des comportements sans faire appel à l’introspection. Il s’est contenté de proposer différents stimuli et d’observer les réponses.

Fechner considère alors l’individu comme une boîte noire, dont il ignore le fonctionnement. Mais constatant qu’en proposant des stimuli particuliers à l’entrée, il obtient toujours les mêmes résultats à la sortie, il conclue qu’il peut parfaitement prévoir certains comportements.
Les expériences de Fechner sont connues et bientôt des psychologues (Thorndike et Watson ) proposent de faire du comportement observable l’objet unique de la psychologie.
Watson ( 1924) est généralement présenté comme le « père » du béhaviorisme. Son article publié en 1913 est en effet considéré comme le manifeste de cette nouvelle école psychologique.

Watson s’insurge contre les pratiques de l’introspection et affirme que la psychologie ne doit pas être la science de la vie mentale, mais la science du comportement. (« behaviour » en anglais). L’objet de la psychologie devient alors le comportement observable des individus et non l’étude des idées, des motivations, des états de conscience, des sensations et éléments internes que le psychologue devrait, selon Watson s’interdire, désormais, d’étudier.

 Par ailleurs, le béhaviorisme n’étudie pas le comportement comme une entité isolée. Par essence associationniste, le béhaviorisme s’intéresse au comportement dans sa relation avec l’environnement, c’est-à-dire un ensemble de faits qui peuvent influencer ou déterminer la conduite du sujet observé. L’environnement étant comme le comportement, une réalité complexe, l’observateur s’attachera à y discerner certaines composantes. Les composantes de l’environnement que le psychologue s’efforce d’isoler pour en déterminer les effets sont appelés stimuli (Houziaux, 1972).

Du point de vue méthodologique et afin de quantifier les données de l’observation expérimentale, on choisira des stimuli mesurables (en intensité, en fréquence), donnant lieu eux-mêmes à des réponses mesurables (par leur intensité, leur latence ou temps de réponse, leur fréquence, leur durée, leur résistance à l’extinction (persistance du comportement après la disparition du stimulus).

La psychologie conquiert enfin un statut de discipline « scientifique ». Malheureusement elle allait ignorer, pendant un quart de siècle, deux caractéristiques importantes du comportement humain : l’orientation vers un but, et l’intentionnalité.
Dans ce courant du béhaviorisme radical de Watson, l’individu n’est qu’une boîte noire et les concepts de stimulus, réponse, renforcement deviennent les éléments clés de l’explication du comportement humain.
Watson (1924) argumente sur un ton sarcastique en faveur du béhaviorisme en s’attaquant avec vigueur aux tenants de la psychanalyse :
« La conscience, oui,  tout le monde doit savoir ce qu’est la conscience !…Quand nous voulons faire quelque chose, quand nous avons l’intention de faire quelque chose, ou quand nous désirons faire quelque chose, nous sommes conscients. Tous les chercheurs en psychologie introspective sont illogiques. En d’autres termes, ils ne disent pas ce qu’est la conscience, mais commencent par mettre des choses dedans à l’aide de suppositions ; ensuite, lorsqu’ils entreprennent d’analyser la conscience, ils y trouvent naturellement ce qu’ils y ont mis » ( p.191).

Cependant, même si Watson est considéré comme le « père  » du béhaviorisme, Thorndike avant lui, avait déjà préconisé que la psychologie se limitât à l’étude du comportement observable, faisant abstraction de toute hypothèse sur le comportement mental, considéré comme inaccessible.
Les travaux de Thorndike entamés en 1898 sur l’intelligence animale (travaux sur les chats), lui ont permis de formuler en 1908 la loi qui le rendit célèbre : la loi de l’effet. La première version de cette loi s’énonce ainsi (Lutrin, 1971) :
« Tout comportement qui conduit à un état satisfaisant de l’organisme à tendance à se reproduire ; tout comportement qui conduit à un état insatisfaisant de l’organisme a tendance à s’éteindre » (pp.242-239).

Mais sous l’épreuve des faits, dans certains cas, des comportements renforcés négativement peuvent réapparaître, Thorndike se voit obligé de reformuler cette loi. La loi de l’effet s’énonce alors comme suit (Lutrin, 1971): « tout comportement qui conduit à un état satisfaisant de l’organisme a tendance à se reproduire »(pp.242-239).

Malgré l’importance des contributions de Thorndike et Watson, Skinner ( 1938) fut le représentant le plus célèbre et le plus important du courant béhavioriste aux Etats Unis et dans le monde, par son influence sur l’éducation.

S’inspirant des travaux de Thorndike sur les chats, Skinner conduit dans la période 1930-1940 plusieurs séries d’expériences sur les rats. Utilisant comme tout béhavioriste la chaîne « stimulus/réponse/renforcement », il met au point expérimentalement le concept de conditionnement opérant, qui se distingue ainsi du conditionnement répondant de Pavlov (ou conditionnement pavlovien). Conditionner au sens psychologique, c’est établir un comportement nouveau chez l’homme ou chez l’animal. Skinner conditionne un comportement volontaire (appuyer sur un levier pour obtenir de la nourriture) alors que Pavlov conditionne un réflexe (la salivation).

L’utilisation du conditionnement opérant, a permis à Skinner d’obtenir des animaux des comportements étonnants, comme par exemple les pigeons qui jouent au ping-pong…
Skinner retrouve avec le conditionnement opérant les mêmes phénomènes qu’avec le conditionnement répondant de Pavlov : discrimination, extinction, généralisation.

Fort de ce succès avec les animaux, Skinner passe ensuite à l’expérimentation sur l’homme. Il postule que les lois valables pour l’animal sont également valables pour l’homme. Skinner imagine alors pour l’être humain, une méthode d’enseignement qui appliquerait les mêmes principes : c’est la création de l’enseignement programmé (Houziaux, 1972).
Le béhaviorisme allait par la suite exercer une grande influence sur les systèmes éducatifs.

II.2.2.2. Béhaviorisme et éducation

Le paradigme béhavioriste a eu et continue d’avoir une grande influence dans le domaine de l’éducation et de la formation. Cette influence s’est manifestée dans la conception de l’enseignement et de l’apprentissage (modèles pédagogique de type algorithmique, enseignement programmé), dans les stratégies de conception et de mise en œuvre des projets éducatifs (structuration des contenus, définition d’objectifs, élaboration de taxonomies, évaluation ), dans la formation des enseignants par le micro-enseignement (Wagner, 1988; Altet et Britten, 1983).

II.2.2.2.1. Béhaviorisme, enseignement , apprentissage

L'apprentissage, au sens béhavioriste consiste à s’exercer à associer la réponse adéquate (R) à un stimulus (S) donné. A partir d'expériences menées dans des conditions contrôlées, des lois de l'apprentissage ont été établies : les lois du renforcement et du conditionnement.
L’apprentissage au sens béhavioriste met en évidence la nature associationniste de cette approche. En effet les comportements souhaités sont, pour les besoins de leur acquisition par l’apprenant, associés à des contextes spécifiques destinés à favoriser leur manifestation.

Les connaissances au sens béhavioriste sont constituées par l'ensemble des réponses adéquates dont dispose un sujet face à des stimuli spécifiques. Le renforcement et le conditionnement sont destinés à permettre au sujet l’acquisition d’une batterie de réponses appropriées à des stimuli. Cela explique les deux caractéristiques des connaissances au sens béhavioriste: elles sont cumulatives et même quand elles sont complexes on peut les décomposer en éléments simples.
Ainsi un problème au sens béhavioriste est posé à un individu lorsqu'il doit trouver la réponse (R) adaptée à un stimulus (S) donné. Dès lors la résolution de problème consiste en la sélection par le sujet, parmi les réponses dont il dispose, d'une réponse adaptée au stimulus présenté. La résolution de problème dans ce courant n'est que le prolongement de l'apprentissage (Shepard, 1966; Joshua et Dupin, 1993).
Mais cette vision peut-elle prendre en charge les tâches complexes ?

Dans l’étude de ces tâches complexes, les béhavioristes ont été obligés d'envisager un enchaînement de séquences S-------( R. On retrouve là le principe de décomposition du complexe en éléments simples. Mais lorsqu’on cherche à justifier leur enchaînement et leur régulation on est obligé de s'intéresser aux processus mentaux, et même d’introduire une hiérarchie. C’est là une des limites du béhaviorisme (Kleinmuntz, 1965).

Malgré le caractère simpliste de cette approche telle qu'elle peut nous apparaître aujourd'hui, le béhaviorisme a dominé la psychologie sur une période d’un demi-siècle (1920-1970). Il a eu cependant et continue d'avoir une influence réelle sur les systèmes éducatifs, parfois à l’insu des utilisateurs de méthodes ou techniques dans la conception et la mise en œuvre de projets éducatifs. (Baars, 1986).

En effet, de nombreux systèmes taxonomiques élaborés à la suite de celui de Bloom (1969), et des modèles variés d'inspiration béhavioriste, ont été à l'origine de techniques et d'approches pédagogiques encore en vigueur dans de nombreux pays, dans l'élaboration des curricula, dans l'enseignement (renforcement, feedback, enseignement programmé, enseignement modulaire, décomposition de certains titres universitaires en unités de valeurs cumulables), dans la formation des enseignants (pédagogie par objectifs : Hameline, 1979) ; dans la recherche en éducation encore dominée par le paradigme processus/produit renforcé par le développement de méthodes de traitements statistiques parfois très complexes.
Ainsi la taxonomie de Bloom d’inspiration fortement béhavioriste (Bloom et al., 1956), et ses développements et adaptations ultérieurs ont particulièrement marqué la rénovation des programmes scolaires et les méthodes d’enseignement préconisées.
Dans sa taxonomie des objectifs cognitifs Bloom distingue trois(3) grandes catégories : la connaissance d’informations isolées, la connaissance des manières de traiter l’information et la connaissance de généralisations et de théories.
Chacune de ces grandes catégories de connaissances est subdivisée respectivement en deux, cinq et deux sous catégories. La classification de Bloom va ainsi de la connaissance des terminologies à celle des synthèses et des théories.

La nécessité de faire des observations et des mesures rigoureuses sur des comportements définis de manière à découvrir les principes et les lois s’est traduite au niveau de la conception des curricula et dans l’enseignement par un morcellement des tâches d’apprentissage proposées aux apprenants.
L’enseignement programmé est peut-être la forme la plus achevée de cette approche de l'apprentissage (Houziaux, 1972).



II.2.2.2.2. L’enseignement programmé

Il existe deux grands types d’enseignement programmé : l’enseignement programmé linéaire (Skinner) et l’enseignement programmé ramifié (Crowder).
Skinner, après ses études sur l’apprentissage animal, propose dans les années 50-60, de construire un cours qui respecte la plupart des lois de l’apprentissage (plutôt des principes généraux) connues à cette époque :
la loi de l’activité de l’apprenant
la loi de l’effet (Thorndike)
la loi de la connaissance immédiate des résultats (renforcement)
la loi des petites étapes…

Persuadé que si l’on conçoit un cours de cette façon, les élèves apprendront presque sans s’en apercevoir Skinner propose :
de diviser la difficulté en difficultés élémentaires (petites étapes),
de proposer peu d’informations à la fois (limiter le contenu)
de poser des questions visant à rendre l’apprenant actif
de faire produire la bonne réponse afin que l’apprenant soit en permanence renforcé positivement.

Skinner applique ainsi un principe central de ses positions théoriques : ne jamais provoquer d’erreurs chez l’apprenant, car l’erreur, pense-t-il est néfaste pour l’apprentissage. Le statut de l’erreur apparaîtra comme une différence fondamentale entre le béhaviorisme et le constructivisme.
En conséquence, un cours programmé au sens de Skinner n’est jugé valable que si 90% des élèves auxquels il est destiné, répondent juste à 90% des questions. Tant que ce résultat n’est pas atteint, il faut reprendre la conception du cours programmé, le tester, le modifier, le tester à nouveau, etc. Ce module de cours programmé est linéaire car on ne peut passer à la question suivante (à l’item suivant) sans avoir répondu à celle qui la précède. L’erreur pour Skinner étant néfaste, le cours programmé doit être construit en conséquence. Avec le cours programmé linéaire nous sommes bien sûr dans le droit fil de la philosophie béhavioriste.


Crowder (1958) fut une autre figure de proue de l’enseignement programmé (Stones, 1973). Mais, à l’inverse de Skinner, il pense que l’erreur peut être bénéfique si l’élève est immédiatement informé de celle-ci, s’il en connaît les causes, et s’il a les moyens de la corriger. Crowder propose donc que les éléments d’information soient suivis d’une question et d’une série de trois ou quatre réponses possibles dont une seule est bonne en général. C’est la technique du QCM (questionnaire à choix multiples), doublée généralement de la technique du livre brouillé.

L’enseignement organisé sur ces principes est appelé enseignement programmé ramifié par opposition à l’enseignement programmé linéaire de Skinner.
On le verra plus tard, ce type d’enseignement programmé est beaucoup plus proche des thèses cognitivistes que l’enseignement programmé linéaire.
Une variante de l’enseignement programmé ramifié a été mise au point par Kay (Kay et al. 1968), qui s’est inspiré des idées de Crowder : c’est l’enseignement programmé ramifié avec skip jumping
Dans ce type de programmes, certains items sont des items orienteurs. Si l’apprenant répond juste à ces items, il saute certaines parties du programme car sa réponse prouve qu’il connaît déjà la partie qui va suivre.
Les principes appliqués dans l’enseignement programmé ont sans aucun doute contribué positivement à l’évolution de l’enseignement. Selon Monique Linard (1990), « on retiendra en particulier :
l’individualisation du rythme d’apprentissage ;  
l’importance de l’analyse préalable en termes d’objectifs comportementaux explicites, des contenus et des buts pédagogiques poursuivis, ce qui a été à l’origine du courant pédagogique connu sous le nom de pédagogie par objectif (PPO) ;
le recours exclusif, contre le principe aversif de la sanction par l’échec, au renforcement positif et aux dispositifs induisant un maximum de chances de réussite pour l’élève ;
la vérification immédiate de la correction des réponses ;
et surtout, ce déplacement remarquable de responsabilité qui pose que l’erreur chez l’apprenant est autant l’indicateur d’un défaut du programme ( et du maître et du programmeur) que celui d’un défaut de l’élève » (Linard, 1990, p. 105).


Cependant le béhaviorisme s’est heurté à la compréhension des comportements cognitifs complexes. Il s’est montré inefficace dans l’apprentissage des concepts, des principes et des règles et de la résolution de problème ou encore l’apprentissage par problème. Ainsi, il a été incapable d'expliquer le phénomène du langage, un phénomène important dans les sociétés humaines (Skinner, 1957 ; Chomsky, 1957, 1959, 1965 ; Miller, 1965).
Mais le béhaviorisme montre davantage ses limites si on cherche à l’utiliser pour analyser et interpréter le système enseignement / apprentissage de disciplines aussi conceptualisées que la physique et la chimie. Ces limites peuvent être illustrées à travers les conceptions de l’apprentissage, des connaissances, de la résolution de problème. Nous allons illustrer ces limites par des exemples.

II.2.2.2.3. Béhaviorisme et enseignement/apprentissage de la physique et de la chimie

Les limites du béhaviorisme dans le cadre de la physique et de la chimie seront illustrées dans l’apprentissage des concepts, de démarches et techniques spécifiques et dans la résolution de problème. Nous tirerons ensuite des conclusions générales sur la pertinence de cette approche par rapport à notre recherche.

Exemple 1 : le concept de champ électrostatique en physique
Comment interpréter par le schéma stimulus-réponse l’apprentissage du concept de champ électrostatique  en physique ?
Le schéma S-R peut apparemment marcher. Le champ électrostatique peut être défini de manière opérationnelle comme suit :

“ On dit qu’une région de l’espace est le siège d’un champ électrostatique si une charge électrique y subit une action appelée force électrostatique. ” 

L’existence du champ se traduit donc par un comportement observable du système constitué par la charge électrique. L’observation est facilitée ici par un dispositif tel qu’une petite boule chargée suspendue à une potence par le biais d’un fil isolant.


Mais en physique la non-observation d’un effet ne signifie pas absence d’action. Dans l’exemple précité, l’existence d’un champ antagoniste non identifié peut “ masquer ” l’existence du champ. C’est peut-être là une explication plausible de la longévité de la mécanique d’Aristote qui, du fait de la non prise en compte des forces de frottements associait l’existence d’un mouvement à l’application d’une force. C’est d’ailleurs là un exemple historique d’obstacle épistémologique (Bachelard, 1938).

Exemple 2 : le concept « équilibrer une équation chimique »

L’illustration peut se faire également en chimie. Par exemple comment apprendre aux élèves à équilibrer une équation chimique ?
Ce concept traduit la loi de la conservation de la matière. Il met en jeu plusieurs concepts tels que : corps purs, réaction chimique, formule chimique, transformation chimique, équation chimique.

Réaction 1 :  Combustion complète du méthane dans le dioxygène :
CH4 + 2O2 -------( CO2 + 2H2O

Réaction 2 : Oxydation en milieu acide de l’eau oxygénée H2O2 par les ions permanganate MnO4-
Suivant le pH du milieu les ions MnO4- sont réduits soit en ion Mn2+ ou en dioxyde de manganèse MnO2
2MnO4- + 5H2O2 + 6H+ ------( 5O2 + 2Mn2+ + 6H2O

Les éléments observables ici, (les lettres : les symboles et formules chimiques) ; les chiffres : (indices des éléments dans les formules chimiques et coefficients stœchiométriques), ne suffisent manifestement pas à faire comprendre le principe de l’équilibration des équations chimiques, une compétence de base de l’ étudiant en chimie. Si les symboles sont relativement faciles à mémoriser par le biais de techniques consacrées, l’observation de deux types de chiffres qui ont des significations totalement différentes ne suffit pas pour accéder à toutes les informations qui sont à la base de l’équilibration. Le problème se complexifie quand on passe de la réaction 1 à la réaction 2, faisant intervenir des ions en solution aqueuse.

La maîtrise des techniques d’équilibration des équations chimiques fait appel à des processus intellectuels plus complexes. Les difficultés observées chez les élèves en chimie ne sont certainement pas étrangères à une approche béhavioriste de l’équilibre des équations chimiques adoptée par les enseignants.
On voit ainsi qu’en physique ou en chimie l’observable est insuffisant pour développer un apprentissage ou fonder une connaissance.

Exemple 3 : Résolution de problème en physique
Considérons l’énoncé suivant :
“ On se propose de communiquer à une particule de masse m, une vitesse v1 au bout d’un temps to. Etudier les conditions de réalisation de cette tâche. ”

Peut-on ramener la résolution de ce problème à une sélection de réponse adaptée ?
Même si l’étudiant peut à la suite d’un apprentissage antérieur procéder, sur la base de critères qui lui sont propres ou qui lui ont été suggérés, à une classification des types de problèmes, il ne pourra jamais faire l’économie d’une analyse fine de la situation de départ et des conditions d’application des outils théoriques disponibles( par exemple la deuxième loi de Newton) dont il dispose.
La question reste cependant de savoir si tous les énoncés renferment les exigences ci-dessus énumérées. Les pratiques scolaires de résolution de problème ne sont-elles pas basées de manière implicite sur un arrière-plan béhavioriste ? Des modes d’évaluation tels que les QCM ne favorisent-ils pas le maintien d’un modèle béhavioriste de l’apprentissage, mais aussi hélas, de l’enseignement.

II.2.2.3. Conclusion sur les limites du béhaviorisme

Le béhaviorisme continue encore d’influencer l’enseignement et l’apprentissage et par conséquent les activités de résolution de problème, qui sont une composante importante des pratiques scolaires. La persistance de cette influence s’explique sans doute par la simplicité et l’efficacité relative de certaines méthodes dérivées du béhaviorisme.
La simplicité est née de la décomposition en éléments simples des activités complexes. On pourrait sans doute faire l’hypothèse que la simplicité à un effet attractif sur les activités sociales.

L’efficacité relative, quant à elle, est liée aux succès de certaines méthodes simples qui assurent la sécurité psychologique de l’utilisateur par les possibilités de contrôle et de mesure, des effets produits.
Un exemple typique des pièges d’une approche béhavioriste dans l’enseignement de la physique et de la chimie est l’utilisation de « la règle de trois » dans la détermination des quantités de matière en jeu dans une réaction chimique.

La «  règle de trois » n’est opérationnelle dans le calcul des masses de composés en jeu que lorsque les substances sont mélangées dans des proportions dites stœchiométriques, c’est -à-dire si on a mis en présence les quantités tout juste nécessaires à la réaction de l’ensemble des réactifs.
Si l’un des réactifs est en excès, l’application de la « règle de trois » donne des résultats dénués de sens, parce que ne respectant pas l’une des premières lois de la chimie, la fameuse loi de la conservation de la matière attribuée à Lavoisier (Massain, 1976).
Il s’y ajoute l’accent mis sur le rôle de la rétroaction ou renforcement dans l’enchaînement stimulus-réponse. De nombreuses recherches ont mis l’accent sur le rôle de la rétroaction dans l’apprentissage. Ici le béhaviorisme assume une continuité avec l’idée de sanction et de récompense qui régule déjà les interactions sociales connues (exemple : relation entre l’enfant et ses parents).

Le béhaviorisme est allé plus loin en prenant en compte les aspects affectifs du comportement : ceux-ci résulteraient uniquement de facteurs présents dans l’environnement considérés comme déterminants. C’est là le principe qui fonde les méthodes de conditionnement.

Ainsi comme nous l’avons montré avec des exemples précis, le béhaviorisme ne constitue pas un cadre pertinent pour rendre compte de la mise en scène des concepts de base de notre recherche dans le contexte disciplinaire de la physique et de la chimie. Il n’est pas possible de s’intéresser à la résolution de problème sans se référer aux processus intellectuels en jeu, mais aussi aux éléments motivants qui animent les sujets en action, ce qui revient à prendre en compte la dimension humaine.


A partir des années 60, le mouvement béhavioriste, qui dominait la psychologie aux Etats Unis depuis le début du siècle commence à s’essouffler. On assiste alors à l’affirmation progressive du paradigme  cognitiviste. Ce renouveau de la psychologie est également dû à l’apparition des ordinateurs, aux travaux relatifs à l’intelligence artificielle, et à la formalisation des théories du traitement de l’information chez l’homme, qui prennent en compte ce que le schéma stimulus/réponse/renforcement n’a pu intégrer : le caractère intentionnel et finalisé des conduites humaines.
Mais le changement de paradigme ne s’est pas produit de manière brutale. En effet le béhaviorisme, expression contemporaine de l’associationnisme, a cohabité avec le point de vue psychanalyste, une approche d’essence mentaliste du comportement humain.
Pour les psychanalystes, dont Sigmund Freud (1856-1939) est une des figures de proue, le comportement s’explique essentiellement à partir de processus conflictuels inconscients qui se sont construits progressivement dans la petite enfance, lors de l’éveil de la sexualité, dans la relation parents/enfants, ou avec le monde extérieur.
Mais plus que la psychanalyse, le passage du béhaviorisme au cognitivisme s’est fait par le biais d’autres courants psychologiques transitoires.

II.2.3. Du béhaviorisme au cognitivisme : les courants transitoires

Le passage du béhaviorisme au cognitivisme s’est fait par une succession de courants qu’on pourrait qualifier de «pré-cognitivistes », au cours d’un processus que certains ont qualifié de révolution tranquille. Nous avons retenu principalement deux courants transitoires : la psychologie de la Forme (Gestalt-théorie) et les théories médiationnelles de Tolman.

II.2.3.1. La psychologie de la Forme ou « Gestalt-théorie » 

Ce courant découle des travaux de l’Ecole de Berlin et se développe dans les années 30-40. Elle s’oppose à l’associationnisme. Les figures de proue de ce courant psychologique sont les Allemands Wertheimer, Koffka, Köhler, Lewin et le Français Guillaume (Raynal et Rieunier, 1997 ).
Pour les gestaltistes, les formes complexes ne se constituent pas à partir d’éléments plus simples comme le pensent les associationnistes, mais sont perçues d’emblée comme entités signifiantes. Pour la Gestalt-théorie, il y a prééminence du principe de totalité.
Exemple : un carré est d’abord perçu comme un carré, et non comme quatre segments de droite assemblés.
La perception est globale, et les éléments sont perçus « ensemble ». Il y a de bonnes formes , celles qui s’imposent d’emblée, et de mauvaises formes, qui ont tendance à ne pas être perçues en tant qu’unité. Pour la psychologie de la forme, le tout est autre chose que l’ensemble des parties, quelque chose de plus riche que l’ensemble des éléments et qui oriente la perception.
Le concept de « insight » (en allemand, einsicht), introduit par Wolfgang reste attaché à la psychologie de la forme : il désigne le phénomène de « compréhension soudaine » qui se produit lorsqu’il y a changement dans la perception d’une situation.
Köhler est connu pour ses travaux sur les singes. Pour lui l’insight est une forme particulière de l’apprentissage.

L’interprétation du phénomène d’insight par Köhler est que l’intelligence fonctionne par sauts successifs, par restructuration d’éléments qui, après réflexion, se réorganisent brutalement comme des éléments d’un puzzle dont on apercevrait tout à coup la signification. En ce sens, la Gestalt-théorie défend une approche structuraliste de la perception. On voit que ce type d’apprentissage par insight s’opposait nettement aux apprentissages par essais et erreurs des béhavioristes.
Cependant, la puissance idéologique de ces derniers et leur domination sur la psychologie de la première moitié du XXème devaient en partie occulter la justesse des propositions des gestaltistes, jusqu’à ce que la dynamique du cognitivisme triomphant les réhabilite, à partir des années 70. Weil-Barais, (1993) écrit à ce propos :

« L’idée la plus intéressante des gestaltistes est sans doute celle qui suppose, qu’au cours de cette phase réflexive, le sujet opère un traitement global de la situation, de type holistique, et non pas un traitement des parties de type analytique.
Ceci permet de comprendre que beaucoup de découvertes, notamment des découvertes scientifiques, ont été faites par des gens qui ont repris autrement, avec d’autres cadres


de pensée, des problèmes qui, à l’intérieur d’un cadre conceptuel donné, ne trouvaient pas de solutions satisfaisantes. » ( p.543).

Cette vision précognitiviste allait se renforcer avec les travaux de Tolman et les théories médiationnelles.

II.2.3.2 : Les théories médiationnelles de Tolman

Tolman Edwards Chace (1886 –1959) fut le parfait représentant d’une position intermédiaire entre le béhaviorisme radical de Watson et le mentalisme. Il est à l’origine de ce qu‘on appellera plus tard les théories de l’intentionnalité, ou théories « médiationnelles ».

Tolman adopte d’abord les positions béhavioristes relatives au comportement , puis , sous l’influence de la gestalt-théorie (psychologie de la Forme), il s’en détache sensiblement pour défendre une position plus cognitiviste des conduites. Comme la plupart de ses collègues , il étudie les problèmes d’apprentissage en faisant des expériences sur les rats. Ses expériences sur l’apprentissage latent le rendent particulièrement célèbre (Raynal et Rieuner, 1997).

L’apprentissage latent selon Tolman est un apprentissage qui se produit pendant une phase exploratoire, alors qu’on ne cherche pas particulièrement à apprendre. La mise en évidence de ce type d’apprentissage ouvrait la voie à une position théorique en contradiction avec les fondements du béhaviorisme radical de Watson pour déboucher sur le concept de « cognitive map » ou carte cognitive. Celle-ci apparaissait en effet comme une hypothèse sur la structure mentale. Boutinet(1990) rend compte de la psychologie de Tolman mettant en évidence l’existence, même chez le rat , d’une variable « intermédiaire » qui semble orienter l’animal vers un but.

« Le projet comme variable intermédiaire est « sign-gestalten », c’est-à-dire un ensemble organisé doué de signification. Le projet est à la fois ce qui donne du sens au comportement et qui motive l’individu qui agit toujours » dans l’attente de quelque chose. La psychologie de Tolman de ce point de vue s’identifie à une psychologie de

l’attente, de l’expectation (expectancy psychology), c’est-à-dire de l’anticipation. Le comportement n’est pas la résultante d’une adaptation mécanique à l’environnement en réponse à une stimulation. Il exprime au contraire une adaptation dynamique en anticipant toujours une nouvelle stimulation » (Boutinet, 1990, p. 130).

Les positions théoriques de Tolman découlant de ses recherches expérimentales peuvent être considérées comme l’une des transitions les plus explicites entre les points de vue béhavioriste et cognitiviste.

II.2.4. Le cognitivisme

Contrairement au béhaviorisme, le cognitivisme émet des hypothèses, propose des modèles à propos de la structure de la pensée et des processus intellectuels, et s'intéresse aux mécanismes permettant d’acquérir, d’intégrer et de réutiliser les connaissances.
Le paradigme cognitiviste sera revisité suivant les rubriques suivantes :
le constructivisme (Piaget, Wallon, Vygotsky, Bruner)
le modèle du traitement de l’information souvent désigné par le concept de psychologie cognitive (Newell et Simon, 1972 ; Gagné, 1984 ; Glover et al., 1990)
les théories connexionnistes qui à la suite des données empiriques obtenues en neurosciences, tendent à supplanter le modèle computo-symbolique.
Ces différents courants seront présentés dans leurs fondements théoriques et en rapport avec les concepts de notre recherche.
Enfin quelques éléments des débats actuels seront présentés pour mettre en évidence le rôle croissant dévolue au contexte, aux interactions sociales et à la culture dans la cognition humaine.

II.2.4.1. Le constructivisme

Les deux grandes figures du constructivisme psychologique sont sans nul doute Piaget et Vygotski. Si le psychologue suisse Piaget est sans conteste le plus connu et le plus prolixe par ses nombreux travaux et ceux de ses disciples, l’œuvre de Vygotski,
longtemps méconnue, suscite depuis une vingtaine d’années un intérêt sans cesse

croissant au près des chercheurs en éducation en général et en didactique en particulier.
A côté de ces deux grandes figures, il nous a semblé pertinent de signaler les contributions de Wallon et de Bruner (Bruner et al., 1956, 1957 ; Bruner,1963).

II.2.4.1.1. Le constructivisme de Piaget

Piaget a poursuivi une bonne partie de sa vie le même but, celui de construire une théorie de la genèse des connaissances. Il a cherché à répondre à la question centrale : « Comment les connaissances viennent-elles aux individus ? ». Piaget adopte un point de vue structuraliste (O’Loughlin, 1992). La réponse que Piaget donne à sa question, c’est le constructivisme: les connaissances ne sont pas transmises par quelqu’un qui sait vers un autre qui ne sait pas, mais elles ne viennent pas non plus des sensations comme le prétendent les associationnistes. Elles sont construites par l’individu par l’intermédiaire des actions qu’il accomplit sur les objets. Ces actions sont intériorisées et constituent des schèmes. Ceux-ci s’inscrivent dans le cerveau, s’organisent en structures opératoires, et permettent à l’individu de répondre de façon satisfaisante à une situation (adaptation).
Sur cette base Piaget et ses collaborateurs ont formulé des hypothèses sur la genèse des conceptions du temps, de l'espace, du réel, du nombre, du mouvement, de la vitesse…, la genèse du langage, du symbole, de la logique, de la morale, du jugement, du raisonnement…
Les concepts d’assimilation, d’accommodation et d’équilibration qui expliquent le processus de l’adaptation, donnent un ancrage biologique à la théorie piagétienne : l’équilibration y est conçue comme une homéostasie des structures cognitives.

L’accommodation est le processus par lequel un organisme se modifie sous la pression de l’environnement. Pour Piaget, la connaissance s’acquiert par l’intermédiaire du contact avec les objets et par l’intégration de ces objets à la structure mentale. Chaque individu possède dans le cerveau des schèmes d’action, c’est-à-dire des schémas d’activité qu’il utilise dans une situation déterminée. Ces schèmes d’action permettent à l’individu d’être efficace s’il est confronté à un objet ou à une situation qu’il connaît.


Si l’individu est confronté à une situation nouvelle (situation qu’il n’a jamais rencontrée, où qu’il ne reconnaisse pas), ses schèmes d’action sont inadaptés: il se trouve alors en déséquilibre. Pour retrouver son équilibre, il cherche une solution au problème qui lui est posé.

L’assimilation est le processus complémentaire du processus d’accommodation. C’est par l’intermédiaire de l’assimilation qu’un individu intègre un objet ou une situation nouvelle à sa structure mentale. Piaget définit l’assimilation en ses termes : « d’un point de vue biologique, l’assimilation est l’intégration d’éléments externes dans les structures en évolution, ou complètes d’un organisme » (Piaget, 1970, p. 707).
Quant à l’accommodation, elle intervient lorsque le nouvel objet de savoir résiste à la cassure ou à l’absorption : le sujet « accommode, c’est-à-dire que ses structures s’adaptent autant que possible pour que l’expérience soit assimilable, pour qu’on la rende plus facile à comprendre (Piaget, 1981a). L’assimilation et l’accommodation sont les deux processus fondamentaux qui caractérisent l’adaptation.

Dans le langage pédagogique, « assimiler » est synonyme de « comprendre » : il a bien « assimilé » sa leçon. On assimile des connaissances »…, ce qui signifie que lorsqu’un apprenant a assimilé un concept, il est capable de l’utiliser dans une nouvelle situation et de s’en servir comme un nouvel outil de pensée. Cette nouvelle réponse est bien le signe extérieur d’un processus complexe que Piaget nomme adaptation, et qu’il considère comme l’une des formes de l’intelligence.

Lorsque par accommodation et assimilation l’individu a modifié ses schèmes d’action ou a créé de nouveaux schèmes lui permettant de résoudre le problème auquel il était confronté, il dispose alors d’une nouvelle structure mentale, il retrouve son équilibre. Piaget dit qu’il est en équilibration.

Piaget est donc un psychologue cognitiviste parce qu’il s’est intéressé aux processus mentaux. Il a émis des hypothèses sur l’intelligence et sur les connaissances. En cela il se démarque de la psychologie béhavioriste.

Au cours du Colloque International sur le constructivisme (tenu à Genève ; 4-8 septembre 2000, et auquel nous avons eu l’honneur de participer), le Comité scientifique a résumé dans un document inédit, les idées de Piaget. La portée de cette synthèse nous amène à la reproduire entièrement :

« La psychologie de Piaget recouvre un ensemble de thèses issues de ses nombreuses recherches sur le développement de l’intelligence et des connaissances les plus générales chez l’enfant et sur l’histoire des sciences (Piaget, 1927, 1946). Pour cette raison, ce courant est appelé psychologie génétique ou développemental).
Piaget met d’abord en évidence dans le développement de l’enfant une succession de structures ou de formes de conduites et de connaissances qualitativement différentes appelées stades.
Piaget et Inhelder (1970) se sont ensuite intéressés aux mécanismes par lesquels le sujet construit de nouvelles connaissances générales (logiques, numériques, spatiales…), ainsi que les savoir-faire opératoires (opérations logico-mathématiques de différents niveaux de complexité) qui leur sont associés.
La caractéristique principale de l’évolution de l’intelligence et des connaissances se résume par la formule de “ l’intégration constructive du dépassé dans le dépassant ”. Ainsi, chaque étape de développement se caractérisant par certaines propriétés de structure, l’étape qui lui succèdera dans le développement verra l’apparition de connaissances et de savoir-faire manifestant certaines propriétés structurales à la fois plus riches et plus puissantes (logiquement et mathématiquement parlant).
L’intégration du dépassé dans le dépassant sera complétée par deux autres thèses. La première met l’accent sur le rôle fondamental dévolu à l’activité pratique et réflexive des sujets agissant sur le monde extérieur dans la construction des connaissances : c’est la psychogenèse des connaissances.
La deuxième thèse affirme que la construction des normes rationnelles (ayant trait à l’espace, au temps, au nombre , mais aussi aux normes morales et sociales) relève également de déterminants à la fois biologiques (phylogenèse), psychologiques (psychogenèse), et sociaux (sociogenèse).
Au-delà de ces facteurs cette construction se fait par deux mécanismes permettant de rendre compte de l’intégration du dépassé dans le dépassant : l’équilibration et l’abstraction réfléchissante. Ce sont là les caractéristiques du constructivisme génétique de Piaget, dont l’objet est l’interprétation de la genèse des connaissances les plus générales (le temps, l’espace, le nombre, les conservations physiques…)
Piaget et ses collaborateurs se sont ensuite penchés sur les mécanismes par lesquels les connaissances se construisent progressivement. Ainsi, le constructivisme de Piaget apparaît avec deux composantes : un constructivisme psychogénétique qui prolonge l’explication piagètienne générale de l’origine des connaissances rationnelles, et un constructivisme psychologique qui porte son attention aux activités constructives concrètes de sujets engagés dans des tâches de résolution de problèmes pratiques.
Le constructivisme psychogénétique étudie l’évolution des processus constructifs (l’abstraction réfléchissante, la généralisation constructive, la dialectique du possible et du nécessaire…). Quant au constructivisme psychologique, l’objet d’étude est la façon dont le sujet, au cours d’une tâche, réorganise ses conceptions d’un problème, ses moyens de résolution et les notions qu’il lui associe ( ses stratégies de résolution…).
Dans ce dédoublement du constructivisme génétique les notions épistémiques sont mises à l'arrière-plan. L’activité des sujets individuels confrontés à des questions ou des problèmes pratiques ou théoriques est au centre des préoccupations. Mais en même temps on s’intéresse également à la manière dont les processus étudiés dépassent les frontières de l’individualité psychologique et intègrent les dimensions biologiques, interpsychologiques et épistémiques (Colloque International « Constructivismes : perspectives et usages en éducation, document de synthèse, inédit. Génève, 4-8 septembre, 2000 ).

Piaget a ainsi exercé une influence déterminante sur le courant de la psychologie cognitiviste. Sa théorie repose sur une approche constructiviste de la pensée. Cette construction du savoir est perçue comme un processus non linéaire, mais qui comporte des étapes d'équilibre appelées stades.

Malgré le succès important réservé aux conceptions piagétiennes du développement de la pensée et de l'apprentissage, les tentatives de réinvestissement dans un champ disciplinaire ont révélé des limites certaines. Il n’ y a rien de surprenant à cela : Piaget a surtout étudié les problèmes généraux de la pensée et de l’intelligence.


Vergnaud (1981) résume ainsi certaines critiques émises à propos de l’œuvre de Piaget :
- l'intérêt porté sur les instruments généraux de la pensée au détriment des instruments d'acquisition des connaissances scolaires.
- la prédominance de la structure des stades de développement sur l'évolution adaptative des connaissances
- la séparation nette entre la connaissance mathématique et la connaissance de la réalité physique
- la marginalisation des contenus de connaissances (mathématiques ou physiques) au profit des opérations et des structures logiques.

De manière générale, tout en reconnaissant la valeur de la théorie de Piaget en tant que cadre interprétatif pertinent de la genèse et du développement des connaissances et des processus intellectuels, les critiques formulées mettent l'accent sur son manque de sensibilité par rapport aux différences de situations et/ou de contenus. Cela semble logique à O’Loughlin (1992) selon lequel Piaget ne s’est intéressé principalement qu’aux principes généraux du raisonnement humain à l’exclusion des considérations particulières telles que le contexte historique et social du raisonnement et les histoires personnelles des sujets qu’il a étudiés.
Ainsi le paradigme piagétien n'a pas eu d'influence directe sur la problématique de la résolution de problème, dans une perspective didactique au sens de science qui étudie les difficultés d’appropriation des savoirs et des démarches intellectuelles en jeu dans un champ disciplinaire spécifique tel que la physique ou la chimie.

II.2.4.1.2. Le constructivisme de Wallon

Philosophe, médecin, psychologue et homme politique français, Wallon (1945) est surtout connu pour ses travaux sur le développement psychologique de l’enfant et sa contribution au projet de réforme de l’enseignement public français, le « Plan Langevin-Wallon », élaboré au lendemain de la Libération (Raynal et Rieunier 1997).
Agrégé de philosophie en 1902, docteur en médecine en 1908, Wallon rédige sa thèse d’Etat sur « l’Enfant turbulent », première approche du concept d’émotion. Ce concept

occupera d’ailleurs une place centrale dans ses thèses ultérieures sur le développement de l’enfant.
Wallon développe une approche originale de la psychologie enfantine ordonnée autour de deux axes : un axe biologique, substrat nécessaire des comportements, et un axe social-culturel, en référence « au milieu des vivants » dont fait partie, fondamentalement, dès sa naissance, l’enfant.
Pour Wallon en effet, comme pour Vygotski, contrairement à Piaget, le développement de l’enfant est d’abord social.
Les premières manifestations du psychisme de l’enfant prennent, selon Wallon, la forme d’émotions, car celles-ci sont l’expression des premiers échanges entre le bébé et son entourage. Ainsi « l’affectif », en inaugurant les premiers systèmes de communication de l’enfant avec le monde extérieur, précède le « cognitif ». Du même coup, Wallon peut poser comme principe directeur de la psychogenèse, l’action, qui, dans un mouvement de réaction circulaire, génère des représentations : l’action produit des effets, qui produisent de nouvelles actions, dont les nouveaux effets font jaillir des représentations, base de l’activité mentale. Ces représentations vont à nouveau diriger l’action, et ces remaniements successifs vont contribuer à « construire » progressivement une architecture de plus en plus complexes des processus psychologiques. L’approche de Wallon est donc une approche constructiviste : c’est le fonctionnement psychologique qui permet le développement psychologique. Celui-ci ressemble donc à un système ouvert, constamment régulé par les transformations successives des structures de représentations, elles-mêmes modifiées par les interactions permanentes entre le biologique et le social, l’individuel et le collectif, l’affectif et le cognitif, les maturations physiologiques successives et les schèmes organisateurs correspondants.

Cette vision « totale » du développement de l’enfant (non focalisé sur quelques variables), différencie Wallon de Vygotski (dont il ignorait probablement les travaux) malgré un ancrage social commun. En revanche, Piaget n’ignorait pas Wallon, dont il partageait l’hypothèse de paliers successifs. Leur point de polémique (mise à part l’approche logico-mathématique de Piaget), tenait plutôt à l’influence du milieu (social, physique ou symbolique) sur le développement, à la prééminence des états émotionnels


dans les premiers mois de la vie, et à l’importance accordée à l’affectivité dans l’élaboration des processus mentaux.
Sur ces derniers points, Nadel (1992) a souligné avec force la place que Wallon a accordée à l'émotion dans l'établissement d'une communication interindividuelle en dehors de toute relation intellectuelle. L'hypothèse de signaux émotionnels en tant que système d'expression précoce a été confortée par la découverte, cinquante années plus tard des compétences sociales précoces du bébé, notamment ses capacités d'expression et de discrimination des émotions.

II.2.4.1.3. Le constructivisme de Vygotski

Vygotski (1896-1934), est un contemporain de Piaget. Il était passionné par les problèmes du développement de l’enfant et la construction de « la pensée ». Ses travaux et ses idées, longtemps ignorés pour des raisons idéologiques, ne parviennent en Occident par le biais des Etats Unis que dans les années 1950, soit trente ans après sa mort.
Il revint à Jérôme Bruner, psychologue Américain, d’en avoir apprécié le premier toute l’importance, en préfaçant la traduction de son ouvrage principal « Pensée et Langage », aux presses du MIT (Massachussets Institute of Technology). Parce que la traduction en français de cet ouvrage devenu une référence en psychologie fut vraiment tardive, le grand public des chercheurs francophones ne le découvre que très récemment (Vygotski,1985).

Lorsque Vygotski commence ses recherches autour des années 1920-1930, le paysage de la psychologie occidentale était traversé par plusieurs courants: le mentalisme de Freud (la psychanalyse), le réductionnisme associationniste du russe Pavlov et de l’Américain Watson (béhaviorisme), ainsi que les différents structuralismes européens : psychologie de l’enfant de Wallon et Piaget, psychologie de la Forme des gestaltistes allemands (Köhler, Koffka).
Dans une démarche d’ouverture et de synthèse, le psychologue russe emprunte à tous les courants de pensée quelques éléments d’inspiration et de réflexion. Mais en marxiste convaincu, largement pénétré des courants intellectuels pré-révolutionnaires


de la Russie de 1910, il compose sa théorie du développement de l’enfant sur une base radicale différente, celle de l’interactionnisme social.

Pour Vygotski l’enfant est d’abord un être social. Le développement de sa pensée, de son langage, de toutes ses fonctions psychiques supérieures, est le fruit d’une interaction permanente avec le monde des adultes, qui maîtrise déjà ces « systèmes de signes » que sont le langage et les codes sociaux.

Par l’intériorisation progressive, en alternant des phases de maturation physiologique avec des phases d’apprentissage, un système « intra psychique » autonome et individuel s’élabore progressivement à partir d’un système « inter psychique » collectif.
Vygotski affirme donc la genèse sociale du développement de l’enfant : la famille, l’école, sont pour lui, les lieux privilégiés de cette évolution.

Astolfi (2001) confirme cette analyse des positions de Vygotski par opposition à Piaget en ces termes :

« Pour Vygotski au contraire, ce sont les interactions sociales entre sujets qui sont d’emblée décisives, le mouvement réel de la pensée va de l’inter-psychique vers l’intra-psychique. La polémique théorique avec Piaget porta précisément sur le statut second et dérivé que celui-ci accordait au social quand lui considérait que c’est le moteur des progrès de la pensée. L’apprentissage représente alors plutôt les « fleurs », ou même les « bourgeons » du développement, plutôt que ses fruits.
On peut donc parler d’une théorie centrifuge (ou « inside out »), pour le premier, le mouvement essentiel allant du sujet à son environnement, et d’une théorie centripète (ou « outside »), pour le second, qui accorde une place au processus d’intériorisation .» (Astolfi, 2001, pp. 115-116).

Les deux approches psychologiques sont résumées par Astolfi (2001, p. 115) dans le schéma suivant :





Tableau 11 : Comparaison entre Piaget et Vygotski selon Astolfi (2001)
PIAGETVYGOTSKIApprentissages déterminés par l’état de maturation des structures cognitives
ExternalisationDéveloppement stimulé par les apprentissages intentionnels
Internalisation
Les hypothèses de Vygotski sont extrêmement importantes pour la réflexion éducative. Quoi que d’accord avec Piaget sur une conception du développement par stades successifs et hiérarchisés, il estime que le développement cognitif peut subir, dans certaines circonstances favorables, une véritable accélération, grâce à l’intervention de l’adulte. Le développement de l’enfant, dans ce cas s’appuie non seulement sur une base de maturité intellectuelle, mais également sur l’intervention de l’adulte (la famille, l’école) qui par sa médiation, lui donne accès à des formes de représentations plus élaborées, et donc à des processus de pensée plus raffinés.

On peut résumer cela par la formule : l’apprentissage accélère le développement. Par apprentissage il faut entendre surtout la médiation d’un adulte que Bruner appelle l’interaction de tutelle qui prévaut dans tous les systèmes à visée éducative : famille et école principalement, lieu de socialisation par excellence.
Pour expliquer l’effet d’une bonne médiation, Vygotski (1985) avance le concept de zone de proche développement (ZPD).

« Le psychologue doit nécessairement, pour déterminer l’état du développement, prendre en considération non seulement les fonctions venues à maturité, mais aussi celles qui sont au stade de la maturation, non seulement le niveau présent mais aussi la zone de proche développement.
Comment procéder ? Pour déterminer le niveau présent du développement, on utilise des problèmes que l’enfant doit résoudre tout seul et qui ne sont indicatifs que par rapport aux fonctions déjà formées et venues à maturité.
Admettons que nous ayons déterminé chez deux enfants un âge mental équivalent à 8 ans. Si l’on va plus loin et qu’on essaie de voir comment les deux enfants résolvent les problèmes destinés aux âges suivants lorsqu’on leur vient en aide en leur montrant, en leur posant une question qui les met sur la voie, en leur donnant un début de solution, etc., il apparaîtra qu ‘avec l’aide, en collaboration avec un adulte, l’un d’eux résout des problèmes

correspondant à l’âge de 12 ans et l’autre des problèmes correspondant à l’âge de 9 ans. Cette disparité … détermine précisément la zone de proche développement. Dans notre exemple, pour le premier enfant cette zone est exprimée par le chiffre 4, pour l’autre le chiffre 1. (…)
La recherche montre que la zone de proche développement a une signification plus directe pour la dynamique du développement intellectuel et la réussite de l’apprentissage que le niveau présent de leur développement »(Vygotski, 1985, p.387).

Contrairement à Piaget et Wallon, les recherches de Vygotski ont surtout porté sur l’acquisition du langage, considéré comme instrument privilégié du développement de la pensée. Mais l’étude de cette variable a donné lieu à de très larges explorations : formation du mot et du concept, langage, conceptualisation, structuration psychologique, pensée formelle, socialisation, implications éducatives, etc.
Vygotski est mort prématurément à l’âge de 38 ans. Ses écrits ont été censurés dans son pays, et « négligés » à l’Ouest jusqu'au moment où, par l’intermédiaire de Bruner, certaines orientations de la recherche occidentale en permettent une relecture attentive et un intérêt toujours croissant.

II.2.4.1.4 : Les contributions de Bruner et Ausubel

Le psychologue américain Bruner appartient à la lignée des chercheurs américains qui ont délibérément opté, dès les années 50, pour une approche cognitiviste de la psychologie. Professeur à Havard à partir de 1952, il y fonde, avec Miller, le fameux Centre d’études cognitives.
Ses premiers travaux sur la perception ont eu une portée heuristique considérable. Bruner(1956) a été à l’origine de la théorie des constructs de Kelly sur la perception (constructs = structures conceptuelles internes orientant la perception), et de quelques notions centrales qui fondent la psychologie cognitive elle-même, comme les variables intermédiaires (empruntées à la Gestalt-théorie et à Tolman), ou encore les patterns d’activité automatisée (concept voisin de script). En 1954, ses recherches avec Taguiri sur la perception d’autrui et la « théorie implicite de la personnalité » apporteront à la psychologie sociale une contribution non négligeable (Levy, 1975).
C’est en 1956, dans un livre qui fera autorité, "A study of thinking », que Bruner développe ses théories sur l’acquisition des catégories conceptuelles : son approche

inductive (exploration ou ajustement), qui n’a pas manqué d’éveiller l’intérêt des pédagogues, est toujours d’actualité et est considérée comme à l’origine du concept de style cognitif.

Psychologue cognitiviste et surtout constructiviste, Bruner s’inspire du modèle d’acquisition des connaissances « en spirale ». Il faut que dès la petite enfance, les notions enseignées soient vraies, verbalisées correctement, et adaptées à la structure cognitive de l’enfant. Par accommodations successives et sous l’influence directe du langage (facteur structurant de la pensée), l’enfant parviendra à élaborer des systèmes conceptuels performants, et à accéder aux modes de représentations symboliques.

En éducation, Bruner préconise une pédagogie de la découverte (privilégiant la démarche inductive). Bruner préconise des situations d’auto-apprentissage dans lesquelles l’élève découvre les règles, les concepts et les lois d’une discipline, mais accorde cependant un rôle capital au maître en tant que médiateur des apprentissages. Il prend quelque distance vis à vis de Piaget et rejoint les thèses du psychologue russe Vygotski qu’il présente aux chercheurs anglophones dès 1962, en préfaçant la traduction américaine de son ouvrage « Pensée et Langage » qui ne paraîtra en français qu’en 1985.
La contribution de Bruner à la psychologie et aux sciences de l’éducation est considérable. Ses travaux sur les processus de développement cognitif de l’enfant, de la construction de l’abstraction, la structuration de la pensée et du langage, ses diverses propositions quant à l’apprentissage et l’enseignement (médiation, tutorat, interaction de tutelle, étayage) en font un théoricien de premier plan.
Promoteur d’une pédagogie « culturelle », qui souligne l’influence de l’environnement symbolique sur le développement psychique, Bruner restera le psychologue cognitiviste qui a le plus tenté d’humaniser les « sciences de la cognition ».
Dans le passage suivant Bruner (1991), cité par Raynal et Rieunier (1997), résume sa vision en matière de psychologie :
« Que signifiait pour nous cette révolution des années 50 ? C’était un effort acharné pour mettre la signification au centre de la psychologie. Ni le couple stimulus/réponse, ni les comportements observables, ni les déterminants biologiques et leurs transformations : la signification.
Il ne s’agissait donc pas d’une révolte anti-béhavioriste, qui se serait limitée à transformer le béhaviorisme en lui adjoignant une dose de mentalisme. Edmond Tolman s’y était essayé sans grand succès.
Notre ambition était plus radicale : nous voulions découvrir et décrire formellement les significations que l’être humain crée au contact du monde, et émettre des hypothèses sur les processus à l’œuvre dans cette création. Nous voulions étudier les activités symboliques que l’homme utilise pour construire et donner du sens au monde qui l’entoure et à sa propre existence. Il s’agissait par conséquent de pousser la psychologie à s’unir avec les disciplines interprétatives voisines dans les sciences humaines(…). L’objectif d’une psychologie culturelle n’est pas de rejeter la biologie ou l’économie, mais de montrer que l’esprit et l’existence sont des reflets de la culture et de l’histoire tout autant que de la biologie et des capacités physiques(…). à terme, les explications causales les mieux affûtées ne peuvent donner un sens plausible à la condition humaine sans être interprétées à la lumière du monde symbolique que constitue la culture humaine" (Bruner, 1991, p.61).

Ausubel (1960, 1968) est également un psychologue cognitiviste. Son option apparaît nettement dans sa théorie de l’apprentissage intelligent ou apprentissage verbal signifiant qui met l’accent sur les structures cognitives de l’apprenant. Partant de son analyse de la structure des disciplines académiques en termes de concepts et de principes organisés verticalement du général au particulier, il élabore sa théorie de l’apprentissage verbal signifiant (Ausubel, 1960). L’apprentissage doit s’appuyer sur les structures cognitives de l’apprenant tout en tenant compte de la structure des contenus d’enseignement. Ausubel, cité par Meirieu (1988) exprime la place des structures cognitives de l’apprenant comme suit : « Le facteur le plus important influençant l’apprentissage est la quantité, la clarté et l’organisation des connaissances dont l’élève dispose déjà » (p. 129).
Sous ce rapport, on voit bien que Ausubel peut être considéré comme un des inspirateurs de la didactique des disciplines, telle qu’elle se développera plus tard chez les chercheurs francophones, notamment.
Ainsi, à la place de la méthode inductive s’appuyant sur la redécouverte, Ausubel préconise la méthode expositive, mais qui met la signification au cœur de l’apprentissage. Pour lui, il n’y a pas de relation mécanique implicite entre la méthode

expositive et l’apprentissage signifiant. Ausubel propose que tout exposé s’appuie sur « des idées générales organisatrices » ou « advance organizer », qui servent d’ancrage pour les autres idées énoncées ultérieurement.

Les structures conceptuelles hiérarchisées et assimilatrices, dont il postule l’existence, sont bien dans le sillage de l’organisation des connaissances telle que l’envisageront plus tard les psychologues cognitivistes, aussi bien les constructivistes à l’image de Piaget, que les tenants du modèle du traitement de l’information, que nous allons aborder à présent.

II.2.4.2. Le modèle du traitement de l'information

Le deuxième grand courant de l’approche cognitive est le modèle du traitement de l’information. Il est plus connu sous l’appellation de psychologie cognitive.
La psychologie cognitive a pour but la compréhension des processus de traitement de l’information chez l’être humain.
La psychologie cognitive s’appuie sur des concepts qui permettent de structurer un champ de connaissances susceptibles de fonder les activités de planification, de mise en œuvre, de gestion et d’évaluation de démarches intellectuelles, et de résolution de problème.
Les recherches en psychologie cognitive cherchent alors à vérifier la pertinence de ces connaissances et des modèles dans lesquels elles sont mises en scène, et leur efficacité dans l’analyse de situations précises, par exemple, celles relatives aux apprentissages scolaires.
Glover, Bruning et Ronning (1990) adoptent une démarche pragmatique pour caractériser la psychologie cognitive. Ils présentent ce courant comme une construction théorique qui cherche à répondre à quatre questions fondamentales répertoriées dans le tableau suivant :





Tableau 12 : Quatre questions pour circonscrire la psychologie cognitive, selon Glover et al. (1990, p. 8)
1. Qu’est-ce que la connaissance et quel rôle joue-t-elle dans la réussite de comportements cognitifs complexes ?
2. Comment les apprenants focalisent-ils leur attention sur certains éléments de leur contexte pendant qu’ils ignorent d’autres et quelles sont les capacités de l’apprenant à faire preuve d’attention ?
3. Comment les apprenants acquièrent-ils de l’information, lui donnent du sens, la gardent en mémoire, et la rappellent pour les utiliser ? Ensuite comment une fois l’information enregistrée, elle est stockée et qu’est-ce qui la rend ultérieurement plus ou moins accessible quand l’apprenant en a besoin ? En d’autres termes, comment se souvenir de quelque chose et comment se fait-il que quelque fois qu’on oublie ?
4. Comment le système de traitement de l’information est-il utilisé pour résoudre des problèmes et quelle est la perspective cognitive en matière de résolution de problème ?

Le modèle de traitement de l’information considère l’humain comme un système de traitement de l’information. Pour répondre à cette question, la psychologie cognitive s’appuie sur un modèle de base. Celui-ci subira plusieurs modifications, de Newell et Simon (1960) à Anderson(1983), en passant par Atkinson et Shiffrin (1968), puis Gagné(1974). Le modèle met en avant un ensemble de concepts et de méthodes d’investigation permettant d’en établir la pertinence.

II.2.4.2.1 Les fondements du modèle du traitement de l’information.

Les limites du béhaviorisme établies plus haut, le contexte scientifique marqué par des critiques d'ordre épistémologique (Popper, 1973 ; Lakatos, 1970) et des contributions théoriques pertinentes (Kuhn, 1983), modifiant les idées sur la nature de la science et la validité de ses méthodes, ont favorisé l'émergence de la psychologie cognitive (Eysenck et Keane, 1990).

Le développement de l'informatique, permettant enfin de modéliser et de simuler des comportements intelligents a constitué une autre condition favorable au développement de cette théorie. (Broadbent, 1958 ; Newell et Simon, 1972 ; Gagné, R.M., 1970; Rumelhart et Olton : 1977; Anderson, 1983, 1985 ; Glover et al., 1990).

A partir des années (50-60), le mouvement béhavioriste qui dominait la psychologie aux Etats Unis depuis le début du siècle s’essouffle : les mécanismes S/R sont apparus comme inadaptés pour comprendre les « variables intermédiaires » : motivation, intention, but, pensée…La psychologie, sous l’influence de multiples courants de recherche (psychologie de la Forme, théories médiationnelles, invention de l’ordinateur, cybernétique, intelligence artificielle, travaux sur la résolution de problème, perception, mémoire, raisonnement, langage…), s’oriente alors vers un nouveau modèle général, un nouveau paradigme (Kuhn, 1983), qui rend compte plus efficacement du fonctionnement des activités cognitives : l’homme est vu pour la première fois comme une centrale de traitement de l’information, un superordinateur. Bastien (1987) met en évidence le rôle de l’ordinateur dans le développement de la psychologie cognitive en ces termes :
« C’est le recours à l’ordinateur, pour simuler les processus cognitifs des sujets en situation de résolution de problème qui a donné lieu, nous semble-t-il, aux développements théoriques et aux travaux expérimentaux les plus importants et les plus spectaculaires donnant naissance à la théorie du traitement de l’information. »( p.49).

Quant à Atkinson et al. (1987), ils soulignent la fécondité du modèle de traitement de l’information.
« A partir de ces travaux, beaucoup de vieilles questions psychologiques furent reformulées en termes de systèmes de traitement de l’information. On pouvait maintenant concevoir l’être humain comme un organisme qui traite de l’information. Les sens fournissent une voie d’entrée pour l’information ; des opérations mentales agissent sur ces données ; les données transformées créent une structure mentale qui est entreposée en mémoire : cette structure entre en interaction dans la mémoire avec d’autres structures pour engendrer une réponse» (p. 682).

Le concept de système de traitement de l’information (STI) a été développé par Newell et Simon à partir des années 60. Leur schéma de base sera ultérieurement repris par Atkinson et Shiffrin en 1968, et encore par Anderson (1983).




Tableau 13 : modèle initial proposé par Newell et Simon (1960)







Pour expliquer le trajet de l’information au travers des structures hypothétiques du cerveau humain, et supposées en totale analogie avec celles de l’ordinateur, prenons l’exemple d’un formateur qui pose une question à un élève : « combien font (4x3) ? Nous pouvons imaginer le parcours de cette information jusqu’à la production de la réponse. Nous nous référons ici au schéma du fonctionnement représenté par le tableau 14, qui est une variante du modèle d’Atkinson et Shiffrin, proposée par Gagné (1974).

Tableau 14 : Modèle du traitement de l’information proposé par Atkinson R.C. et Shiffrin R.M. (1968), modifié par Gagné R.M. (1974)














Parmi toutes les informations disponibles (la barbe hirsute de l’animateur, la façon dont il est habillé…), seule une partie sera perçue et codée par le registre sensoriel de l’élève (perception sélective), grâce à l’intervention du processus exécutif de contrôle (que certains auteurs assimilent aux stratégies cognitives), et du registre des attentes. L’information sélectionnée transite ensuite par la mémoire à court terme. Le processus exécutif de contrôle (qui correspond au microprocesseur) active les systèmes qui vont chercher l’information souhaitée dans la mémoire à long terme, c’est-à-dire le résultat de l’opération (4x3). La réponse passe dans le générateur de réponses qui lui donne la forme adéquate (ici une réponse verbale). Celle-ci est alors réalisée par l’intermédiaire des effecteurs. Ces structures sont bien sûr, complètement hypothétiques et ne présentent, excepté les récepteurs et les effecteurs, aucune réalité.

Un tel modèle suppose un traitement séquentiel de l’information. Rien d’étonnant à cela, puisque la métaphore qui sert de base à cette formalisation de la pensée, c’est l’ordinateur.
Or dès son avènement, et jusqu’à une date très récente (la fin des années 80), l’ordinateur (du plus élémentaire au plus sophistiqué) est construit selon une architecture « de type Von Neumann », c’est-à-dire précisément un traitement en séquences des informations symboliques.
Tisseau (1996) décrit ce type d’ordinateur en ces termes :
« L’ordinateur de type Von Neumann est constitué d’une mémoire dans laquelle sont entreposées des données, et d’un processeur chargé de gérer des calculs et de contrôler le fonctionnement général. La dissociation « données/procédures de calcul » caractérise donc ce type d’ordinateur.
Du fait de cette architecture, les calculs sont gérés de manière séquentielle, à partir d’algorithmes de traitement, donc toujours l’un après l’autre.
La machine est une machine à « états discrets », ce qui signifie qu’entre les calculs il n’y a rien. En conséquence, quelle que soit la vitesse à laquelle s’exécutent ces calculs, des limitations à ces capacités de traitement interviennent.
Cette machine est, en outre, conçue selon un principe représentationnel, ce qui signifie que les données sont stockées à une adresse déterminée sous forme de symboles, et que la signification des données est tirée de ces symboles.» ( p.235).



Les informations sont reçues par des récepteurs et transformées en symboles véhiculant du sens. Ces symboles représentent ce à quoi ils correspondent, c’est-à-dire leurs référents ; par exemple les mots ampèremètre, balance, sont les « étiquettes » des objets AMPEREMETRE, BALANCE. Ils sont décodés par le cerveau qui va chercher en mémoire les significations véhiculées par ces symboles. Selon ces théories du modèle du traitement de l’information, le monde préexiste à l’individu, ce dernier n’étant qu’une machine à traiter l’information objective qui lui parvient de l’extérieur. Le monde tel que nous le percevons est indépendant de celui qui le perçoit.
Nous reviendrons ultérieurement et de manière plus précise sur le fonctionnement de ce modèle dans les parties réservées aux concepts de base du paradigme du traitement de l’information.

II.2.4.2.2. Les concepts de base du modèle du traitement de l’information.

Nous mettrons essentiellement l'accent sur les concepts de connaissance, de mémoire, de représentation et de résolution de problème qui permettent d'éclairer le thème central de notre recherche : la résolution de problème en contexte scolaire dans le champ disciplinaire de la physique et de la chimie. Mais au passage, la perception et l'attention seront également explicités à la lumière de la recherche en psychologie cognitive.

II.2.4.2.2.1. Les connaissances

En psychologie cognitive une connaissance est constituée par la signification, le sens qu’un sujet attribue à une expérience vécue. Ce sont ces mêmes significations qui vont guider les activités présentes et futures. On assiste ainsi à une réhabilitation des connaissances longtemps négligées dans les recherches psychologiques au profit de processus jugés plus valorisants tels que l’insight, la créativité, l’intelligence ou la résolution de problème. Grâce à la psychologie cognitive,  les connaissances sont revenues au cœur de la problématique de la cognition.
Ce rôle des connaissances antérieures dans l’action présente a été déjà identifié par Ausubel (1960, 1968) dans sa théorie de l’apprentissage signifiant. Les connaissances d’un individu sont donc constituées par un faisceau de sens qui représentent sa structure cognitive.
La diversité des significations tirées de nos expériences implique l’existence d’une gamme variée de connaissances indispensables à la réalisation de tâches complexes.
Les recherches récentes sur la cognition (Geary et Wideman, 1987) ont montré la nécessité de disposer de plusieurs types de connaissances face aux tâches complexes. Mieux, le rôle des connaissances se situe à la fois en aval et en amont des processus cognitifs tels que la perception, l’attention, la conservation des nouvelles connaissances dans la mémoire et la résolution de problème. En particulier, le rôle des connaissances et stratégies spécifiques constituent une donnée fondamentale des acquis de la recherche sur l’apprentissage et la résolution de problème (Tardif, 1992).
Toutes les connaissances ne sont donc pas du même type? Comment alors les classer compte tenu de la diversité des expériences et de la spécificité des tâches ?

Une première catégorisation des connaissances découle de la théorie de l’acquisition des connaissances de Neves et Anderson (1981).
Ces deux chercheurs partent de l’hypothèse que l’acquisition des connaissances se fait selon un processus comportant trois étapes distinctes : l’encodage, la procéduralisation et la composition ou l’organisation. Cette démarche d’analyse se démarque ainsi de l’hypothèse traditionnelle de la recherche en psychologie consistant, à ramener l’étude de tout phénomène, à une tâche aussi simple que possible.
Selon le modèle de Neves et Anderson (1981), les connaissances sont d’abord enregistrées (encodées) sous forme d’un ensemble de faits relatifs à un domaine. Cette forme de connaissance définit une catégorie constituant les connaissances déclaratives. Ce sont des informations dites passives que l’on peut restituer ou déclarer sans aucune modification, sans aucun traitement(voir tableau 15 suivant illustrant le concept de connaissances déclaratives).
Tableau 15 : Exemples de connaissances déclaratives
- Le chlore appartient à la famille des halogènes
- L'eau est constituée des éléments oxygène et hydrogène.
- Des volumes égaux de gaz pris dans les mêmes conditions de température et de pression renferment le même nombre de molécules. (Loi d'Avogadro)
- L'intensité de l'induction magnétique créée par une spire circulaire parcourue par courant électrique est proportionnelle à l'intensité de ce courant.

Mais les connaissances déclaratives bien qu’utiles, ne permettent pas à l’individu d’aller directement vers l’action. Face à une tâche, le sujet doit d’abord procéder à des traitements sous forme d’interprétations pour aller à l’action. En termes ergonomiques le travail à effectuer sera lent et les performances sont souvent limitées. On perçoit déjà les conséquences didactiques d’un apprentissage basé uniquement sur l’enregistrement d’informations si fidèle soit-il, particulièrement en situation de résolution de problème.

Dans la deuxième phase d’acquisition de connaissances selon Neves et Anderson, les faits déclaratifs sont transformés en procédures articulées entre elles. C’est un niveau d’acquisition où le sujet acquiert des connaissances dites procédurales. Celles-ci peuvent être appliquées directement sans interprétation. Les connaissances procédurales sont constituées par des habiletés à traiter les connaissances déclaratives pour atteindre un but fixé.
La conséquence ou l’intérêt de la procéduralisation est que lorsque les informations sont articulées en procédures (on retrouve avec une nouvelle formulation le concept de schème cher à Piaget), il s’opère au niveau de l’individu un désencombrement de la mémoire, ce qui se traduit par une plus grande rapidité d’action et de meilleures performances.

Tableau 16 : Exemples de connaissances procédurales
- appliquer des critères
- projeter les forces appliquées à un solide sur un système d'axes.
- utiliser une méthode d'approximation lors de la résolution d'un problème de physique
- appliquer un algorithme
- équilibrer une équation chimique
- représenter un système de forces appliquées à un solide
Dans la troisième étape du modèle de Neves et Anderson (1981), la composition les procédures sont intégrées et combinées. Ce sont des connaissances d’intégration. Du fait de leur efficacité face à une tâche à effectuer, les connaissances d’intégration sont parfois désignées par le terme de connaissances stratégiques. La poursuite de

l’acquisition de ce type de connaissance dans le cadre d’une formation est appelée objectif terminal d’intégration (De Ketele, 1985). Ce terme a l’avantage d’être plus explicite que le concept d’objectif général généralement utilisé dans les plans de formation.
La phase de composition est une suite dans le processus d’acquisition de connaissances. L’apprenant continue son apprentissage avec plus d’efficacité et de meilleures performances. La théorie d’acquisition de connaissances de Neves et Anderson est en fait un modèle d’apprentissage.

La classification en termes de connaissances déclaratives, connaissances procédurales et d’intégration a été ensuite affinée par l’introduction des connaissances contextuelles plus souvent appelées connaissances conditionnelles (Anderson, 1983, 1985 ; Glover et al. 1990). En réalité, les connaissances d'intégration et les connaissances conditionnelles se recoupent.
En effet toute connaissance s’acquiert dans un contexte spécifique : un lieu, un moment un environnement, en même temps, à la suite ou après un événement. Le sens donné à un événement et sa structuration ne peuvent se faire en dehors d’un contexte. Les effets des contextes sur l’éducation ont d’ailleurs été mis en évidence depuis longtemps par le courant gestaltiste, un des précurseurs de la psychologie cognitive.

L’émergence du concept de connaissances conditionnelles découle de l’étude des facteurs qui influent sur l’apprentissage. Wang, Haertel et Walberg (1990), dans le cadre d’une méta-analyse sur l’apprentissage, ont montré que par rapport à l’élève, les facteurs liés à la gestion de la compréhension, au contrôle affectif du niveau d’attention et de perception au cours de la réalisation d’une tâche sont déterminants. Cette prise de conscience apparaît d’ailleurs comme une caractéristique de l’expert, ce qui lui permet d’utiliser des stratégies efficaces et économes.

Anderson (1983, 1988) a beaucoup contribué à la construction du concept de connaissances conditionnelles. Celles-ci permettent de répondre, face à une tâche, aux deux questions suivantes : pourquoi et quand utiliser des connaissances déclaratives ou procédurales ?

Ce sont donc ces connaissances conditionnelles qui permettent le transfert de connaissances par une lecture appropriées du contexte et des conditions. Ce sont effectivement des connaissances stratégiques (Glover et al.,1990). L’importance des connaissances conditionnelles dans les performances des apprenants dans la résolution des problèmes de mécanique a été récemment confirmée par Bugéreré (1998).
Le tableau 17 suivant permet d’illustrer le concept de connaissances conditionnelles dans le cadre de l’enseignement de la physique et de la chimie.

Tableau 17 : Exemples de connaissances conditionnelles
- les critères d’identification de la nature d’un problème de mécanique ;
- les indicateurs permettant de sélectionner une méthode de résolution (application de la 2ème loi de Newton, du théorème de l’énergie cinétique ou de la loi de conservation de l’énergie) ;
- les critères de choix d’un système de coordonnées appropriées pour traduire les lois de la mécanique ;
- le mode de gestion du temps imparti à une épreuve de physique comportant plusieurs exercices à partir d’un barème et des niveaux de difficultés variables ;
- la connaissance de ses points forts et des ses points faibles par rapport aux différentes parties d’une épreuve.
Les connaissances conditionnelles, contextuelles ou stratégiques peuvent être mises en relation, sous certains aspects, avec le concept de métacognition (Noël, 1991).
En effet, la métacognition met l'accent sur l'importance des procédures de contrôle et de régulation du fonctionnement de l'être humain et des conditions d'utilisation de ses connaissances déclaratives et procédurales. Elle se réfère aux connaissances dont dispose un individu à propos de son propre fonctionnement intellectuel. Ainsi, le sujet impliqué dans des processus intellectuels est lui-même un élément du contexte de la cognition. Les connaissances métacognitives s’appuient sur au moins trois dimensions :
la prise de conscience de la nature du processus dans lequel le sujet est engagé ;
le diagnostic situationnel qui permet d’établir les difficultés et les exigences de la tâche ;
le contrôle qui permet d’avoir une idée précise sur l’évolution du processus.

Glover et al. (1990) adoptent une autre approche pour classer les connaissances, avec des critères différents. Ils distinguent trois catégories de connaissances : les connaissances spécifiques, les connaissances générales et les connaissances stratégiques. Chacun de ces types de connaissances détermine les performances dans les tâches complexes.
La description des connaissances suivant l’axe général/spécifique n’introduit pas de nouvelles catégories transversales. Il s’agit d’une distinction entre les connaissances propres à un domaine et les connaissances qui transcendent les barrières disciplinaires.
Les connaissances spécifiques sont des connaissances propres à un domaine particulier tel que la chimie et la physique. Le niveau de spécificité peut toujours être affiné. On peut parler de degré de spécificité. Par exemple au sein de la discipline « chimie » on peut distinguer des connaissances relatives à la chimie générale, à la chimie organique, à la cinétique chimique, à la biochimie…

Le tableau suivant illustre cette relativité à partir de connaissances choisies dans le domaine de la physique et de la chimie.

Tableau 18 : Illustration du degré de spécificité des connaissances : spécifique/très spécifique
DomaineNiveau spécifiqueTrès spécifiquechimieStructure de la matièreStructure moléculairechimieEquilibrer une équation chimiqueEquilibrer une réaction d’oxydoréductionphysiqueVisualiser un signal électrique Visualiser une tension continue à l’oscilloscopephysiqueAdapter une source de tensionRéaliser un montage potentiométrique
Les connaissances générales sont des connaissances qui ne sont pas spécifiques à la réalisation d'une tâche. Elles interviennent dans une gamme très variée de tâches. Leur étendue varie suivant la culture et le niveau de développement de la société.
Ce sont des connaissances liées au vocabulaire, à la connaissance des affaires courantes, à des informations historiques, à certaines compétences utilitaires de base. Ici également on peut distinguer un niveau général et un niveau très général comme le montre le tableau suivant :


Tableau 19 : Illustration du degré de généralité des connaissances :
général/très général
DomaineTrès généralGénéralphysique ou chimieLes concepts généraux de la démarche scientifiqueLes concepts généraux de la démarche expérimentalephysique La loi de modérationLa loi de Lenz (physique)chimieLa loi de modérationLes lois de déplacement de l’équilibrePhysique Le principe de superpositionL’additivité de champs électriques
En plus de ces connaissances relatives à des disciplines scientifiques très conceptualisées comme la physique et la chimie, il existe un ensemble de connaissances générales particulièrement utiles dans une société moderne. Il s’agit parfois de connaissances d’abord spécifiques à une discipline (sciences, économie, droit, technique), mais qui, du fait de leur nécessité pratique dans les sociétés actuelles tendent à constituer un corps de connaissances qu’on pourrait appeler “ connaissances du citoyen moderne ”.
Ces connaissances “ citoyennes ” se renouvellent et s’enrichissent sans cesse au rythme de l’évolution technologique et de l’émergence de nouveaux problèmes de société.

Tableau 20 : Exemples de connaissances générales

- la maîtrise de l’anglais, la langue la plus utilisée dans les relations internationales, particulièrement dans le monde des affaires ;
- les connaissances relatives à l’établissement d’un contrat entre deux parties ;
- les connaissances relatives aux conditions d’accès à un pays étranger ;
- le glossaire des termes techniques liés aux nouvelles technologies de l’information et de la communication ;
- les techniques d’évaluation des limites et des contraintes d'une situation de prise de décision ;
- les méthodes et techniques relatives aux opérations bancaires et postales de manipulation de fonds ;
- les connaissances relatives au fonctionnement et à la conduite d’une voiture ;
- les techniques et méthodes de secours en cas d’accident ou sinistre ;
- l’utilisation d’un courrier électronique ;
- la navigation sur le réseau INTERNET.



Les distinctions faites par Glover et al. (1990) ne font que compléter la trilogie connaissances déclaratives/connaissances procédurales/connaissances conditionnelles. Leurs relations peuvent être mises en évidence dans le tableau croisé suivant, en se limitant à la dichotomie "général/spécifique".

Tableau 21 : Tableau croisé des deux approches du concept de connaissances

GénéralSpécifiqueConnaissances déclarativesL’eau est indispensable à la vieLa femelle du mouton est appelée brebis (biologie)Connaissances procéduralesAccomplir les formalités de voyage par avion d’un pays à un autreModéliser un phénomène à partir d’un tableau de nombres (physique et chimie)Connaissances conditionnellesLes critères de validité de documents de voyageLes critères permettant d’appliquer le théorème de l’énergie cinétique dans la résolution d’un problème de mécanique (physique)

Ainsi, on peut envisager, comme l’illustre le tableau ci-dessus, des connaissances déclaratives générales/spécifiques, des connaissances conditionnelles générales/spécifiques ou des connaissances procédurales générales/spécifiques.
Cependant les tâches académiques ou scolaires, de même que la plupart des tâches de la vie courante font appel à toutes les catégories de connaissances qui viennent d'être décrites.
On perçoit nettement à travers ces exemples les limites de ces classifications. Les différentes catégories identifiées sont loin d'être disjointes. Elles permettent cependant d'avoir des repères pour prendre en compte la complexité de nos connaissances actuelles.
Le schéma suivant se propose d’articuler les différentes catégories de connaissances autour d’une tâche entendue au sens d’une ou de plusieurs actions à accomplir en vue d’un résultat souhaité.






Schéma 2 :
Synthèse de l’analyse du
Concept de connaissance.














Ce schéma montre nettement les rapports dynamiques entre les différents types de connaissances face à une tâche : les connaissances stratégiques organisent la conception, la mise en œuvre, la régulation et l’évaluation des actions à combiner pour aboutir à un résultat, à partir des connaissances générales et des connaissances spécifiques, chacune de ces dernières catégories pouvant être déclarative ou procédurale.
Une question reste cependant en suspend. Le modèle d’acquisition des connaissances de Neves et Anderson (1981), est plutôt comme on l’a souligné plus haut, une théorie de l’apprentissage. Il n’explicite pas cependant au niveau des processus comment s’acquièrent les connaissances. Le modèle du traitement de l’information (MTI) propose des réponses.
En effet, dans le cadre de ce courant psychologique, les expériences humaines sont d’abord perçues par des registres sensoriels correspondant à nos différents sens, avant d’être transformées en structures de connaissances : cela met en jeu le phénomène de perception.


II.2.4.2.2. 2. La perception

La perception est le phénomène de la sensibilité par rapport à un stimulus. Les recherches ont surtout mis l'accent sur la vision et l'ouïe, soit pour en établir l'existence en tant que registre sensoriel, soit pour en étudier les caractéristiques.
C'est ainsi que Sperling (1960) a particulièrement étudié la vision. En appliquant sa méthode du rappel partiel, il a établi trois résultats importants sur la perception visuelle :
- l'être humain est capable de conserver une information visuelle qui lui est présentée même après la disparition du stimulus.
- le temps de rétention d'une information visuelle ne peut dépasser la moitié d'une seconde
- ces deux résultats semblent indépendants du sens donné à l'information.

Darwin, Turvey et Crowder (1972), ont, quant à eux, axé leurs travaux sur la perception des stimulus sonores, à l'image des travaux de Sperling sur la vision. Darwin et ses collègues ont abouti à des résultats qui présentent quelques analogies avec ceux de Sperling (1960), même si des différences nettes ont été observées.
C'est ainsi que le temps de rétention est plus long pour les informations sonores (3 secondes au lieu de 0.5 s). Schwab & Nusbaum (1986), attribuent cette différence au processus du langage.
De même, l'effet de la modalité établi par Pisoni & Luce a montré que les sujets en général, retenaient mieux les informations présentées verbalement que celles exposées sous forme visuelle : "l'écho sonore" semble plus large que l'écho visuel. Le phénomène d'écho apparaît ainsi comme une composante importante de notre système cognitif. Ce dernier aspect a cependant été relativisé dans des recherches ultérieures (Deutsch, 1987), notamment avec les différences notées entre les voyelles et les consonnes.
Ces différentes recherches tendent à montrer que le phénomène de perception constitue le début du processus de traitement de l'information. Les registres sensoriels auditifs et visuels ne constituent cependant que la phase primaire de la perception. La phase supérieure de la perception consiste en effet à donner du sens au stimuli. C'est un phénomène qui passe très souvent inaperçu à moins que le sujet ne soit soumis à des


stimulus inhabituels. La perception fait appel à nos connaissances et apparaît comme le résultat d'un ensemble de sous-processus (Brown & Carr, 1988).

La façon de percevoir d'un individu dépend grandement de ses connaissances. Le jeu d'échecs constitue un exemple classique d'illustration. La même phase de jeu est perçue différemment du débutant au grand maître. Quant à celui qui n'a jamais joué à ce jeu, les déplacements des différentes pièces lui semblent relever de la pure fantaisie des joueurs.
Mais qu’est-ce qui guide notre perception ?
Selon Mandler (1988) nos connaissances, mais aussi la façon dont nous les enregistrons, nos sentiments et le contexte dans lequel le stimulus intervient, guident toute notre perception, avec des effets de discrimination, et/ou d'accentuation.

Ces considérations sur la perception sont naturellement lourdes de conséquences pour l'enseignement, particulièrement dans la structuration du cours, dans l'identification des pré-requis et le choix du matériel didactique. En effet, les situations de résolution de problème auxquelles les apprenants sont soumis, mettent en jeu des énoncés contenant des schémas, des données à la fois qualitatives et quantitatives. Les élèves sont donc d’abord confrontés à des problèmes de perception, avant de se lancer dans des tâches intellectuelles.
Le rôle du contexte dans le phénomène de perception a été particulièrement étudié par la Gestalt-théorie psychologie, ce courant de pensée fondée par Wertheimer, Koffka et Köhler et qui a joué un rôle fondamental dans le développement de la psychologie cognitive (Koffka, 1933).
Piaget (1969) a également mené des recherches sur la perception dans le cadre des principes de la Gestalt-théorie psychologie. Pour Piaget, la cognition et la perception sont deux processus très liés. L'un de ces arguments est la diminution de l'égocentrisme de l'enfant au fur et à mesure de son développement mental. Piaget fait une analogie entre la centration cognitive (tendance à ne considérer qu'une dimension du problème), et la centration perceptuelle (tendance à ne considérer qu'un aspect d'un stimulus).

Les deux premiers concepts abordés, dans le cadre théorique de la psychologie cognitive, la connaissance et la perception apparaissent ainsi comme intimement liés :

la perception est déterminée par nos connaissances antérieures, qui elles-mêmes sont les résultats de nos expériences auxquelles nous avons donné un sens. Cette remarque montre que la psychologie cognitive se démarque de toute approche linéaire des processus psychologiques.
Mais l’individu est rarement soumis à un seul stimulus. Il se pose alors un problème de sélection. Celle-ci est liée à un autre concept de la psychologie de la connaissance : le phénomène d’attention.

II.2.4.2.2.3. L'attention

Un autre concept important de la psychologie cognitive est constitué par l'attention, qui interfère avec la perception. L'attention est perçue selon Glover et al. (1990), comme l'ensemble des ressources cognitives qu'une personne peut mobiliser face à une tâche ou une situation données.
Cette approche considère l’attention comme un processus de mobilisation de ressources cognitives en vue de la réalisation d’une tâche. Cette tâche peut se ramener à une simple prise d’information qui, comme on le sait requiert de l’attention. Mais l’attention, c’est aussi l’effet produit par cette mobilisation de ressources cognitives. On retrouve là un dualisme processus/résultat caractéristique de la plupart des concepts psychologiques qui désignent souvent à la fois un processus et le résultat de ce processus.
La littérature sur le phénomène d'attention notamment Glover et al (1990), Gagné (1985), met l'accent sur l'existence de trois grands modèles, qui ont été l'objet d'expérimentations :
- le modèle de la sélection précoce de Broadbent (1958, 1975)
- le modèle du traitement atténué de Triesman (1964)
le modèle du traitement entier de Shiffrin (1976, 1977)

Le modèle de Broadbent repose sur l'hypothèse que l'attention portée à un stimulus intervient très tôt dans le processus d'analyse d'une information. L'attention sélective serait due à la faible capacité de traitement de l'information de nos registres sensoriels par lesquels se fait la perception. On explique ainsi la perte de la plupart des informations de l'environnement qui n'auront pas été l'objet d'un traitement.
Sur le plan didactique, l’attention sélective pose le problème du volume et du débit d’informations à livrer dans le cadre d’un enseignement. Les techniques de prise de note dans un cours ne devraient pas ignorer ces résultats de recherche. De même, dans un contexte plus statique, certains énoncés dans le cadre des activités de résolution de problème sont parfois surchargés d’informations qui ne sont pas toujours liées aux objectifs à évaluer. Il faut noter cependant, que cette surcharge d’informations peut correspondre à des intentions précises, dans le cadre de l’évaluation des capacités de l’apprenant à faire une discrimination entre les informations utiles et les données non pertinentes, face à une tâche donnée.

Les nombreuses expériences menées autour du modèle de Broadbent, par l'utilisation de la méthode des tâches d'écoute dichotomiques, notamment par Triesman ont fini par en déceler des limites certaines, ce qui devait conduire à la recherche d'un modèle plus performant.
Dans le modèle du traitement atténué, Triesman reconduit le principe des capacités limitées des registres sensoriels, mais leur associe l'existence de plusieurs canaux d'information utilisés simultanément. Les limites des capacités de traitement feraient alors que suivant les canaux empruntés, certaines informations sont entièrement traitées, alors que d'autres ne le sont que partiellement (Triesman et Geffen, 1967).

Enfin le modèle du traitement entier dit modèle de Shiffrin (1976, 1977) considère que l'attention sélective sur un stimulus se fait après le processus de reconnaissance de l'information, c'est-à-dire après son traitement. Les limites des capacités d'attention seraient dues plutôt aux limites de la capacité de rétention de la mémoire de travail, concept qui sera explicité ultérieurement.
Les modèles concurrents à propos du phénomène de l'attention, ont été appuyés, chacun en ce qui les concerne, par des résultats de recherche. Les différences entre les résultats obtenus seraient dues aux différences entre les ressources cognitives à mobiliser dans les tâches auxquelles les différents sujets étaient confrontés ( Nusbaum et Schab, 1986). Les ressources cognitives concernent la capacité de la mémoire, le nombre de canaux offerts aux intrants, l'effort cognitif etc.



Ainsi, le modèle de la sélection précoce de Broadbent se justifierait par la présence au niveau d'un sujet de procédures automatiques nécessitant très peu de ressources cognitives. La conduite d'une voiture constitue une belle illustration.
Le modèle du traitement atténué de Triesman a été testé sur des tâches à ressources limitatives (plus les ressources sont mobilisées, plus la performance est grande), alors que Shiffrin à surtout mené des expériences à partir de tâches à données limitatives (la performance est limitée par la qualité des données disponibles).

Ces résultats de recherche sur la perception et l'attention, particulièrement les limites établies des capacités de l'attention portée sur un stimulus et la relation de celle-ci avec la nature de la tâche constituent des données fondamentales pour les enseignants, particulièrement pour les disciplines scientifiques, où la résolution de problème est une activité centrale.
Mais les connaissances, qu'elles soient déclaratives, procédurales, conditionnelles ou stratégiques sont stockées dans la mémoire. Après les connaissances, la mémoire constitue l'un des concepts de base de la psychologie cognitive.

II.2.4.2.2.4. Mémoire et représentations

L'étude scientifique de la mémoire a débuté avec Hermann Ebbinghaus (1850-1909) utilisant la méthode expérimentale. Mais sa première publication n’intervint qu’en 1885. Selon Glover et al. (1990), ce n'est qu'au début des années 1970 que des constructions théoriques valides ont été élaborées, qui ont fait faire d'énormes progrès à la description de la nature des phénomènes d'apprentissage, de la mémoire, le traitement et l' utilisation d'une information dotée de sens.

L’approche de Ebbinghaus (1913) consiste à explorer la mémoire de manière expérimentale à partir de la mémorisation d’informations simples telles qu’une liste de syllabes sans signification particulière. Ebbinghaus cherchait à mesurer le pouvoir de rétention de la mémoire. Mais en même temps il jetait les bases d’un paradigme de recherche qui allait durer près d’un siècle.


Le paradigme de recherche sur la mémoire fondé par Ebbinghaus reposait sur les hypothèses suivantes :
1. Les mots sont les unités mentales de base du langage.
2. Lorsqu’on utilise les unités ensemble, elles se lient et forment des unités plus grandes.
3. Les comportements complexes et les séquences de pensée sont constitués à partir des unités simples.
4. Les mécanismes qui produisent l’apprentissage et la mémorisation sont considérés comme automatiques.

Les théories sur la mémoire basées sur l’apprentissage par cœur et l’extension de principes de base des comportements simples aux comportements complexes ne s’intéressaient pas directement aux processus cognitifs complexes doués de sens, tout à l’opposé de la psychologie cognitive.
En prenant la mémoire comme objet, les psychologues cognitivistes se sont posés un ensemble de questions :
- quelle est la nature des connaissances ?
- comment les connaissances sont-elles stockées ?
- y’a-t-il une différence fondamentale entre un savoir et un savoir-faire ?
- notre expérience personnelle conduit-elle à un stockage spécifique dans les différents domaines de savoir ?
- la mémoire langagière est-elle différente de la mémoire imagée ?
- la mémorisation d’événements récents est-elle la même que celle d’événements plus lointains ?
Pour répondre à ces questions, des modèles ont été proposés et des théories élaborées.
C’est ainsi que Tulving (1972,1983, 1985) propose d’abord de faire la distinction entre la mémoire épisodique et la mémoire sémantique.
La mémoire épisode est constituée par les traces de l’expérience personnelle : vécu, date, circonstances, contexte…Quant à la mémoire sémantique, elle renvoie à l’enregistrement et au rappel des concepts et principes généraux. La mémoire sémantique n’est pas associée à un lieu ou à un moment : elle contient l’organisation des connaissances que nous avons des mots, des concepts et comment ceux-ci sont associés.
La catégorisation de Tulving ne correspond pas à une distinction physique au niveau du cerveau. Il s’agit plutôt d’une séparation conceptuelle fonctionnelle, indispensable au chercheur. Bien que critiquée dans le fond, le dualisme mémoire épisodique/mémoire sémantique continue encore d’alimenter la réflexion à propos de la nature des informations destinées au stockage et au rappel.
La distinction entre connaissances déclaratives et connaissances procédurales (Nevers et Anderson,1981 ; Anderson, 1983,1985), constitue un autre résultat sur l’étude de la mémoire. En effet elle est très fonctionnelle dans la description des connaissances que les apprenants doivent maîtriser. En réalité l’approche "déclaratif / procédural" est sous-jacente à de nombreux travaux sur les théories de l’apprentissage ou les modèles de la connaissance (Gagné, 1977 ; Bloom et al., 1969).

Une question essentielle est cependant restée encore sans réponse: Comment les informations sont-elles stockées en mémoire ?
Alan Paivio (1971, 1986b) propose dans sa théorie du codage dual ou double codage, que l’information puisse être repérée en mémoire par deux composantes principales : l’information verbale et l’information visuelle.
Ainsi le système de codage verbal est adapté aux informations basées sur le langage et met l’accent sur les associations verbales : mots, phrases, contenu des conversations, histoires, événements… Les informations non verbales sont stockées par un système de codage visuel.
Paivio et ses collègues ont mis en évidence l’importance des référents concrets : les informations verbales associées à des images facilitent l’apprentissage et la mémorisation.

La recherche sur la mémoire humaine s’est enrichie ensuite d’un courant qui a mis l’accent sur la conservation de l’information en fonction du temps. C’est ainsi que les concepts de mémoire à court terme (MCT) et de mémoire à long terme (MLT) ont été avancés. (Broadbent, 1958 ; Brown, 1958 ; Melton, 1963). Plusieurs distinctions ont été faites entre la MCT et la MLT.
La mémoire à court terme mettrait en jeu les informations liées à des activités alors que la MLT constituerait les traces des structures d’information. En d’autres termes la MCT serait dépendante des activités électrochimiques du cerveau, alors que la MLT

concernerait les changements relativement stables dans la structure des cellules du cerveau. Cependant, alors que la mémoire à court terme déclinerait de manière autonome en fonction de l’attention du sujet, la MLT repose quant à elle sur des traces irréversibles et stables.
Enfin, en matière de capacité de rétention, la mémoire à court terme est limitée alors que la mémoire à long terme a des capacités pratiquement illimitées.
Cette distinction a été un principe de base des premiers modèles de la mémoire. (Atkinson et Shiffrin, 1968). Mais des modèles plus récents privilégient les processus et les structures cognitives à la place du stockage de l’information (Anderson, 1983a ; Collins et Laftus, 1975 ; Jenkins , 1974).

Les unités cognitives de base ou « chunks » :
La mémoire humaine articulée avec la nécessité du sens apparaît comme constituée de structures cognitives. Cinq concepts ont été proposés dans ce nouveau paradigme de l’étude de la mémoire : les unités de base ou « chunks », les concepts, les propositions, les productions et les schèmes.
Le « chunk » est constitué de tout stimulus (lettre, nombres, symboles, mots, phrase) que notre expérience passée conçoit comme une unité. (Simon, 1986) Mais l’unité des structures cognitives n’est pas figée. L’apprentissage permet d’enrichir les « chunks » de la mémoire d’un sujet par la construction de nouveaux « chunk » dans un processus de recodage. La capacité de la mémoire se mesure donc en « chunks », unités d’information dont le contenu de symboles élémentaires est variable. Ce concept permet de mettre l’accent sur l’importance des connaissances initiales dans le processus de mémorisation.

Les concepts
Le concept est une structure mentale permettant de représenter une catégorie. Les éléments d’une catégorie sont des exemples ou des instances : c’est le processus d’instanciation du concept.
Les caractères similaires aux éléments d’une catégorie sont appelés attributs. Les attributs essentiels qui permettent de définir un concept sont appelés attributs de définition. L’apprentissage d’un concept requiert la découverte des attributs de définition et la règle ou les règles qui relient les uns aux autres.

Le tableau 22 suivant illustre la relation entre concept, attributs et instanciation.

Tableau 22 : Exemple d'illustration de la relation entre concept, attributs et instanciation.
 EMBED Word.Picture.8 

L’étude du concept en psychologie cognitive a mobilisé les chercheurs dans l’élaboration de théories. Le problème posé était de savoir comment identifier et acquérir des concepts.
La théorie de la structure conceptuelle basée sur des règles est due à Bruner(1956) et son équipe. Ces chercheurs ont montré que la plupart des individus résolvent le problème de l’identification des concepts en formulant des hypothèses sur les attributs pertinents, et choisissent leurs stimuli en fonction de cela. Mieux Bruner et ses collègues mettent en évidence un deuxième niveau d’identification qui consiste à mettre l’accent sur les règles qui lient les attributs spécifiques à un concept.

Les règles les plus simples incluent une affirmation (exemple: tout circuit électrique qui comporte un nœud est un circuit dérivé), une négation (exemple: tout circuit électrique qui ne comporte pas de nœud est un circuit série). Ici il n’y a qu’un seul attribut, le nœud.



La plupart des concepts étudiés mettent cependant en jeu plus d’un attribut, et donc leur identification s’appuie sur des règles plus complexes. Parmi celles-ci on note :
- des règles conjonctives: le concept se définit par deux attributs ou plus. Exemple : une substance chimique appartient à la famille des alcanes si elle contient exclusivement les éléments carbone (C) et hydrogène (H) et que sa formule chimique est du type CxH2x+2, (trois attributs obligatoires).
- des règles disjonctives: un objet est instance d’un concept s’il a l’un ou l’autre attribut. Exemple: un composé organique oxygéné contient l’une des fonctions suivantes : la fonction acide carboxylique, la fonction alcool, la fonction aldéhyde, la fonction cétone…(un attribut suffit).

La théorie conceptuelle de l’identification des règles s’est appuyée sur des travaux de laboratoire sur la formation des concepts. Mais ce contexte artificiel ajouté aux difficultés à classer rigoureusement les concepts suivant des règles de base a fini par révéler les limites de la théorie de Bruner et ses collègues.
C’est ainsi que des théories basées sur les prototypes furent élaborées (Rosch et Mervis, 1975 ; Rosch, 1978). Selon cette théorie, l’appartenance à une classe conceptuelle est déterminée par le degré de similitude avec un exemple constituant un prototype.

Ces deux premières théories sur les concepts ont permis de classer plusieurs phénomènes naturels simples. Elles ont été donc relativement efficaces pour les sciences expérimentales comme la physique et la chimie. Cependant, elles ont rencontré des difficultés réelles à développer des catégories claires pour des concepts abstraits. C’est pourquoi, des chercheurs ont suggéré une théorie intégrant à la fois les règles et les prototypes, mais par une approche probabiliste (Wattenmaker, 1986). L’approche probabiliste ou statistique consiste à faire la somme des attributs d’appartenance et à faire la comparaison avec un critère implicite enregistré dans la mémoire du sujet. Si un objet atteint un seuil critique de propriétés caractéristiques du concept, il est considéré comme un exemple ou instance du concept.

Cependant, l’identification et l’apprentissage des concepts ou leur utilisation dans des tâches ne sont pas des démarches cognitives neutres. C’est pourquoi, les différentes théories que nous venons de présenter à propos des concepts mettent toutes en évidence

des différences culturelles très marquées, même pour des sphères géographiques relativement voisines telles que les pays de l’Europe de l’Ouest (Schwanefluged et Rey, 1986). Ces différences sont naturellement plus marquées pour les concepts abstraits tels que « juste », « honnête », « sage »… Cependant quelle que soit la culture, il est souhaitable que l’apprentissage conduise à une cohérence conceptuelle. Murphy et Medleu (1986).

Les propositions
Le troisième niveau des structures cognitives est constitué par les propositions. Une proposition est la plus petite unité de connaissance énoncée sous-forme d’assertion isolée et à propos de laquelle on peut émettre un jugement du type vrai ou faux (Anderson, 1976). C’est le moyen le plus courant par lequel les psychologues cognitivistes représentent les connaissances déclaratives, spécialement, les informations de type linguistique (Anderson, 1976 ; Rumelhart et Norman, 1978).
Certaines propositions ont des éléments en commun. Elles peuvent alors être articulées par des chaînes propositionnelles pour déboucher sur une production : c’est le quatrième niveau des structures cognitives. Une production peut être définie comme un ensemble de conditions et de règles d’action qui déterminent la réalisation d’une action et les conditions dans lesquelles cette action devrait être réalisée. (Glover et al., 1990)

Les productions
A l'image des propositions considérées comme les unités de base des connaissances déclaratives, les productions permettent d'exprimer des connaissances procédurales. Selon Anderson (1983) les productions peuvent être envisagées en termes de conditions, et de règles d'action permettant qui édictent les conditions dans lesquelles une action peut avoir lieu.
Exemple : En travaux pratiques d'électricité : si vous voulez limiter le courant qui traverse votre circuit, utilisez un rhéostat en montage potentiométrique.

Les productions ont un caractère mécanique : si les conditions sont réunies, l'action a lieu ou l'effet est observé. Mais l'idée de production présente plusieurs avantages.



D'abord, le concept de production rend bien compte de la nature automatique de la plupart des activités cognitives, mais également, il joue un rôle important dans la modélisation des processus cognitifs simulés par l'ordinateur.
Les productions sont, comme les propositions, organisées en réseaux appelés systèmes de productions. A partir de ces réseaux, plusieurs productions peuvent être activées à un moment donné. Les résultats sont testés à partir des connaissances courantes. Les résultats de l'application de ces productions permettent de modifier le contenu de la mémoire, d'actionner de nouvelles connaissances qui, à leur tour sollicitent de nouvelles productions. Les productions sont donc à la base de la dynamique des processus cognitifs.

Les schèmes
Enfin, le cinquième et dernier niveau de structure cognitive est constitué par les schèmes. La théorie des schèmes remonte très loin (Bartlett, 1932). Sa prégnance en psychologie s’installe dans les années 1970 (Piaget, 1970), mais surtout dans l’étude de la mémoire humaine.
Les « chunk » et les « concepts », en tant que structures cognitives ont été utiles aux théoriciens de la mémoire intéressés par la question de savoir comment des unités spécifiques de connaissances sont stockées dans la mémoire humaine et comment elles sont rappelées.
Les concepts de « proposition » et de « production »se sont révélés pertinents pour la recherche s’intéressant à une échelle d’organisation plus grande de la mémoire et à la question de savoir comment le savoir est utilisé pour interpréter notre expérience. La théorie des schèmes s’inscrit également dans cette problématique.

Le schème est un savoir organisé sous formes de représentations complexes, qui contrôlent l’encodage de la nouvelle information, son stockage en mémoire et son rappel en vue de son utilisation ( Rumelhart, 1980a, 1981, 1984).
Selon Rumelhart (1981), les schèmes sont les structures fondamentales sur lesquelles repose tout le système de traitement de l’information. Ce sont des structures hypothétiques de données dans lesquelles les connaissances stockées en mémoire sont représentées, une sorte de réceptacles organisateurs de l’encodage. C’est un réseau de productions permettant d’utiliser nos connaissances et d’interpréter notre expérience.

La théorie des schèmes s’est révélée plus attrayante pour les éducateurs parce qu’elle aborde des problèmes quotidiens des apprenants et des enseignants. Même critiquée pour sa généralité, elle occupe cependant dans les recherches en psychologie une place plus importante que les théories des concepts. Initialement développé pour expliquer les phénomènes de perception et de mémoire, le concept de schème est devenu récemment un élément-clé dans la théorie de la résolution de problème (Gick et Holyoak,1983 ; Holyoak,1985 ; Rumelhart, 1984). La résolution de problème se révèle être l’activité intellectuelle supérieure qui nécessite une représentation initiale de la tâche en termes de schèmes et la construction d’un espace-problème. Ces aspects sur la résolution de problème seront repris et précisés ultérieurement.

Retour à la mémoire :
Les structures cognitives que nous venons de passer en revue dans le modèle de traitement de l’information constituent des hypothèses sur la forme que peuvent prendre les informations et les connaissances. Mais il reste encore à faire une sorte de topographie de la mémoire. Qu’est-ce donc la mémoire ?

De nombreux modèles ont été proposés pour répondre à cette question. Dans les années 1970, les modèles de mémoire les plus dominants étaient des modèles basés sur le stockage de l’information tels que ceux de Waugh et Norman (1965) et de Atkinson et Shiffrin (1968). Ces modèles décrivaient la cognition humaine comme le fonctionnement d’un ordinateur, un système de traitement de l’information, avec des étapes séquentielles au cours du passage des récepteurs et registres sensoriels, à la mémoire à court terme (MCT), puis à la mémoire à long terme (MLT).

Cette approche séquentielle de la cognition a cependant rapidement montré ses limites. La cognition n’est pas un processus divisible de manière mécanique. Par exemple, on a mis en évidence l’influence exercée sur la perception par les connaissances initiales contenues dans la mémoire à long terme. Cette réalité peut difficilement se décliner dans un schéma linéaire, comme le suggère le modèle computationniste.




Ces modèles computationnistes apparaissent statiques et incapables de prendre en charge la plupart des structures cognitives de nature essentiellement dynamique, qui permettent d’interpréter et de restructurer les nouvelles informations pour les insérer dans les anciennes connaissances.
La remise en cause de ces modèles rigides a conduit à des modèles de mémoire s’appuyant sur une structure de réseau. Dans ces modèles, les connaissances sont représentées par une toile ou des réseaux. Les réseaux sont conçus comme étant constitués de nœuds (unités cognitives = « chunks », concepts, propositions, productions, schèmes) et des liaisons qui unissent les unités cognitives. C’est dans ces réseaux que se déroule le processus de mémorisation.

Deux modèles en réseaux ont particulièrement retenu l’attention des chercheurs en psychologie cognitive.
Le modèle de Collins et Quillian (1969) ou « Teachable Langage Comprehender (TLC) » amélioré par Collins et Loftus (1975), a été spécialement élaboré pour la mémoire sémantique. Dans ce modèle, la mémoire pourrait être représentée par un réseau sémantique organisé en structure hiérarchique: les nœuds sont des concepts hiérarchisés, les liaisons sont les attributs des concepts. Quand la mémoire est sollicitée, l’activation se propage à partir du nœud stimulé par l’intermédiaire des liaisons. L’activation s’élargit aux nœuds directement liés au nœud stimulé.
Mais le modèle TLC est limité par l’objet qu’il s’est choisi: la mémoire sémantique. Le modèle le plus explicite de la mémoire et de la cognition est peut-être le « ACT  Model » de Anderson. (Anderson, 1976, 1983a, 1983b). Anderson avait pour ambition d’élaborer un cadre théorique simple capable de prendre en charge tous les aspects de la cognition : principe d’encodage initial de l’information, du stockage, du rappel, que ce soit des connaissances déclaratives ou procédurales.

Anderson propose des unités cognitives de base ou unités modales à dimension variable (mots à signification nominale, images, propositions mots), ensemble d’éléments
(relations entre les unités et arguments des propositions). Les concepts d’activation et de propagation sont reconduits comme dans le modèle de Collins et Quillian (1969) et tous les modèle en réseaux. Le point de départ de l’activation est appelé point focal.
Le modèle de Anderson a été à l’origine de nombreuses recherches. Du fait de son étendue, il a été adapté à la fois à l’étude de la mémoire mais aussi aux investigations sur d’autres processus cognitifs tels que la résolution de problème.
Malgré le progrès que constituent les modèles de la mémoire et de la cognition conçue en termes de réseaux (Collins et Quillian, 1969 ; Collins et Loftus, 1975 ; Anderson, 1976, 1983a, 1983b) la base reste encore computationniste (Atkinson et Shiffrin, 1968). Les ordinateurs, en plus d’avoir fourni des modèles cohérents qui ont servi de base à l’explicitation de nombreux aspects de la cognition humaine, y compris la résolution de problème, ont également permis de simuler certains processus mentaux et tester des hypothèses sur le fonctionnement intellectuel de l’être humain.
Mais ces modèles sont du même coup dépendant de l’architecture des ordinateurs qui, pour l’essentiel sont encore du type Von Neumann. Ils fonctionnent sur la base d’un enchaînement de traitements en série : les programmes informatiques consistent alors en une série d’instructions que l’ordinateur exécute très rapidement les unes après les autres.

Les recherches en neurosciences ne semblent cependant pas confirmer ce modèle par rapport aux connaissances disponibles sur le cerveau humain.
Les neurosciences sont constituées par un ensemble de disciplines scientifiques qui se consacrent à l’étude du système nerveux, tant du point de vue anatomique que fonctionnel : neurologie, neurophysiologie, neurochimie, neurobiologie, neuropsychiatrie, neuro-endocrinologie, neuroembryologie…Chacune de ces parties des neurosciences cherche à répondre à une question spécifique liée à l’anatomie et au fonctionnement du cerveau. Par exemple, la neurobiologie cherche à répondre à la question centrale de la psychologie en essayant d’identifier les constituants du cerveau qui provoquent tel ou tel comportement s’ils sont excités électriquement. Il s’agit ici de faire une sorte de carte de localisation cérébrale et une théorie électrochimique du comportement.

Une partie des neurosciences actuelles se préoccupe spécialement de comprendre la nature des relations entre le cerveau (brain) et l’esprit (mind)., entre structures neuronales et activités mentales. En d’autres termes, l’esprit peut-il se confondre avec le cerveau ? Le fonctionnement neuronal peut-il rendre compte des activités cognitives ? Ou encore, l’apprentissage peut-il s’expliquer par l’activation de certains réseaux neuronaux ?
Ces préoccupations ne sont pas nouvelles mais la recherche, les modes exploratoires, les données expérimentales, les observations systématiques de certaines pathologies, ouvrent des voies nouvelles dans la compréhension de phénomènes « classiques » tels que la perception, les émotions, l’apprentissage, la mémoire, le langage…
A ce propos deux résultats importants sont mis en évidence :

- les ordinateurs sont plus rapides que le cerveau humain : exemple l’ordinateur Gray-2 Super computer des années 1990 peut effectuer 4,5 billions d’opérations par seconde
- le cerveau humain est plus puissant que l’ordinateur le plus sophistiqué  dans beaucoup de tâches, et peut travailler sous plusieurs contraintes, contrairement aux programmes informatiques.
Or, même s’il y a plusieurs processus cognitifs qui se font en série, dans la plupart des tâches naturelles de cognition, l’être humain est obligé de prendre en charge plusieurs contraintes tout en explorant en même temps plusieurs possibilités. Sa démarche cognitive n’est pas linéaire, mais connexionniste.
En opposition aux théories du traitement de l’information, les théories connexionnistes estiment que le monde que connaît l’individu est un monde construit par lui, par l’intermédiaire de ses expériences. Ces expériences provoquent « l’émergence d’états globaux parmi des ensembles neuronaux résonnants » (Varela, 1989, p. 76), et le sens serait lié à des états particuliers de ces réseaux neuronaux (relations particulières entre neurones), états qui se retrouveraient identiques à chaque fois que l’individu est confronté au même ensemble de stimuli.
En neurophysiologie, un réseau neuronal est un système extrêmement dense de neurones interconnectés entre eux par des synapses, et susceptibles d’être excités pour remplir certaines fonctions. Un neurone peut être connecté avec 5000 autres neurones (Bonnet, 1993 p.647).
Dans le contexte des sciences cognitives (informatique, intelligence artificielle, psychologie cognitive…), un réseau neuronal artificiel est un modèle d’automate formel conçu sur l’analogie des réseaux neuronaux du système nerveux, pour « modéliser » le fonctionnement du cerveau humain, et notamment des processus d’apprentissage.
Un « réseau neuronal formel » a été ainsi imaginé en 1943 par « le logicien-neuropsychiatre-philosophe-cybernéticien Warren S. McCulloch et le mathématicien Walter Pitts. Ce modèle connu sous le nom de « neurone de McCulloch et Pitts », « servira de référence pendant plus de quarante ans à bien des chercheurs en sciences cognitives» (Tête et Pelissier, 1995).
En 1948, dans un article célèbre, le psychologue Donald Hebb, suggéra pour la première fois «  que l’apprentissage pouvait être basé sur les modifications du cerveau émanant du degré d’activité corrélé entre les neurones (Varela, 1989, p. 76).
A la suite Rosenblatt crée en 1958 le « Perceptron », machine construite sur le modèle des réseaux neuronaux, et conçue pour percevoir et reconnaître des formes. Initialement ces modèles artificiels utilisèrent, pour remplacer les neurones,  des « tubes à vide » fonctionnant sur un modèle binaire (0, 1). Par la suite, ces tubes furent remplacés par les transistors, puis les puces électroniques.
Aujourd’hui, les modèles de McCulloch et Hebb sont développés en intelligence artificielle par le courant connexionniste à partir de «  réseaux neuronaux » qui ont la particularité de secréter de l’ordre et s’ils sont correctement conçus, et d’être dotés de la capacité d’apprendre.

Selon le point de vue connexionniste, la signification émerge ainsi progressivement d’un état particulier du réseau (les poids synaptiques des différentes connexions, entre neurones). Ce processus est à mettre en relation avec le concept d’énaction introduit par le biologiste Francisco Valera, concernant le fonctionnement du cerveau humain.
L’énaction est selon Valera, la capacité du cerveau humain à faire émerger du sens à partir de stimuli multiples non organisés. Valera appelle énaction, la caractéristique « la plus importante de notre cognition vivante, la faculté de poser les questions pertinentes qui surgissent à chaque moment de notre vie. Elles ne sont pas prédéfinies mais énactées, on les fait émerger sur un arrière plan. » (p.91).
Pour Valera (1989), « l’intelligence la plus profonde et la plus fondamentale n’est pas l’intelligence de l’expert mais l’intelligence du bébé qui acquiert le langage à partir d’un flot quotidien de bribes dispersées ou encore qui reconstitue des objets signifiants à partir d’un flux informe de lumière. » (p.56). 
Cette faculté qu’a le cerveau humain de faire émerger des significations, de créer du sens, à partir d’un ensemble chaotique de stimuli, c’est l’énaction.

Le connexionisme fait bien entendu disparaître le niveau symbolique, le concept de représentation, le traitement séquentiel des données, et postule que le monde que nous connaissons n’est pas prédéfini, mais un monde que nous créons par l’intermédiaire de nos connaissances. Le monde tel que nous le percevons dépend de celui qui le perçoit. Alors que dans le modèle du traitement de l’information l’esprit humain fonctionne sur la base d’une computation symbolique, le connexionisme quant à lui repose sur une émergence sub-symbolique.

Valera admet cependant que « les deux approches sont complémentaires, l’une ascendante, l’autre descendante. » page 80. De son point de vue «… la relation la plus intéressante entre l ‘émergence subsymbolique et la computation symbolique est une relation d’inclusion. » (p. 80)
Le concept d’énaction permet de donner un nom à une activité de l’esprit que l’être humain a souvent expérimentée : la capacité de faire émerger du sens à partir d’un ensemble de stimuli qui n’en contient à priori aucun, la capacité à poser les questions pertinentes, le fameux « bon sens » dont les ordinateurs sont, pour le moment, dépourvus. Pour Valera, si l’homme est un ordinateur, il est évident que ce n’est pas un ordinateur de type Von Neumann.
L’énaction est un concept central du connexionisme, théorie qui affirme que la perception ne fonctionne pas uniquement à partir de symboles, mais également à partir du traitement distribué de l’information, effectué par les réseaux neuronaux qui se sont constitués par l’intermédiaire de l’expérience de l’individu.

C’est compte tenu des caractéristiques du cerveau humain et de ses performances qu’un groupe de chercheurs cognitivistes (Mc Clelland, Rumelhart et Hinton, 1986) ont proposé de remplacer le modèle computo-symbolique par des modèles connexionnistes plus proches du modèle du cerveau humain. Parmi eux, le «  Parallel Distributed Processing (PDP) » ou Modèle du Traitement Parallèle.
Dans le PDP, ce ne sont pas les unités d’information qui sont stockées dans la mémoire à long terme, mais les lignes de connexion entre les unités simples de traitement.




Les connaissances sont ici logées sur les lignes de connexion qui relient des unités de traitement. Les connaissances relatives à un domaine spécifique ne sont pas logées dans une unité particulière, mais distribuée dans le réseau à travers un très grand nombre d’unités simples de traitement. On parle alors de représentation distribuée. Les unités de traitement ressemblent beaucoup aux neurones ou à un assemblage de neurones et les unités de traitement à des synapses.
Mais les concepteurs du PDP ne considèrent pas ce modèle comme une alternative aux modèles basés sur les hiérarchies sémantiques ou les représentation par réseaux. Selon eux, il s’agit plutôt d’une voie pour comprendre davantage comment les entités abstraites sont conservées et comment elles interagissent les une sur les autres. De plus des recherches s’appuyant sur le PDP dans des domaines variés, (Rumelhart, Mc Clelland et le PDP Groupe, 1986 ; Clelland, 1988), montrent que les modèles connexionnistes sont sans doute appelés à influencer davantage les recherches en psychologie cognitive. Ils ont l’avantage de leur pouvoir attractif, aussi bien pour les spécialistes de l’informatique que pour les psychologues cognitivistes. De nos jours de plus en plus d’ordinateurs fonctionnent avec plusieurs processeurs capables de fonctionner indépendamment ou en même temps.

Comme le montre cette revue de la littérature, le concept de mémoire est bien au cœur de la cognition humaine. Les investigations parties du modèle computationniste ont à leur tour engendré un autre type d’ordinateur capable de se rapprocher du fonctionnement du cerveau et de la cognition humains.
Parmi les processus pris en charge par les modèles cognitivistes, la résolution de problème a été l’objet d’une attention particulière.

II.2.4.2.2.5. Problème et résolution de problème.

Du point de vue psychologique, « il y a problème chaque fois qu’un but ayant été fixé, on n’a pas encore identifié les moyens de l’atteindre» (Gagné, 1985, p. 138) ou encore « il y a problème lorsqu’un obstacle sépare notre état actuel d’un autre désiré. » (Glover et al., 1990, page 49). Ces deux définitions mettent en évidence deux pôles fondamentaux du problème : la situation de départ et le but à atteindre.
Il est remarquable déjà de constater que l’importance de la situation de départ dans les conceptions des enseignants face à la résolution de problème. C’était un des résultats de notre recherche exploratoire.
Résoudre un problème revient donc à trouver les moyens et leurs combinaisons efficaces pour aller de la situation de départ au but à atteindre.

Newell et Simon (1972) affinent cette vision bipolaire et développent une vision spatiale par le biais du concept d’espace-problème. L’espace–problème comprend les dimensions suivantes :

Tableau 23 : L’espace-problème de Newell et Simon (1972)


1. un ensemble d’éléments, chacun représentant une unité de connaissance à propos de la tâche à faire dans le cadre du problème posé ;
2. un ensemble d’opérateurs qui sont des procédures pour combiner les unités d’information et produire de nouvelles connaissances à partir des connaissances antérieures ;
3. un état initial des connaissances à propos du problème spécifique ;
4. le problème lui-même décrivant le but à atteindre par l’application de procédures ;
5. l’ensemble des connaissances du sujet à propos du problème spécifique, mais aussi à propos de méthodes de résolution, de validation d’une démarche, de l’évaluation d’une solution obtenue.

(Glover et al. , 1990, p. 158).

L’espace-problème inclut donc le processus de résolution, les procédures et les contraintes. On peut cependant noter dors et déjà le manque de sensibilité par rapport à la dimension affective et /ou conative : résoudre un problème, c’est certainement d’abord reconnaître qu’il y a problème et s’engager de manière affective, cognitive tout en évaluant la somme d’efforts à fournir. Ces trois niveaux d’engagement sont naturellement interactifs au lieu d’être disjoints.
Les approches de Newell et Simon (1972), Gagné (1985) Glover et al. (1990) induisent également une autre typologie de problème.
C'est ainsi qu’en prenant comme critère le but recherché, on aboutit à une typologie dichotomique permettant de distinguer les problèmes à but défini (well defined problems) et les problèmes à but indéfini (ill defined problems). Du point de vue des connaissances en jeu (le contenu sur lequel portent les questions posées), on peut définir des problèmes à contenu général (exemple: le puzzle, Tour de Hanoï), et des problèmes à contenus disciplinaires spécifiques (physique et chimie, mathématiques), (Chi et al. 1993).
Greeno(1978), cité par Richard(1990) propose une typologie avec comme critère le résultat attendu associé au type de traitement de l'information initiale, à la tâche à réaliser. Il distingue ainsi :
- des problèmes d'induction de structures
- des problèmes de transformation
- des problèmes d'arrangement

Dans les problèmes d'induction de structures, la tâche la plus importante consiste à identifier la structure de relations entre un ensemble d'éléments. Les réponses sont proposées ou à produire.
Dans les problèmes de transformation, la tâche consiste à produire un enchaînement d'opérateurs permettant d'aller de la situation de départ au but recherché. Le problème de la Tour de Hanoï constitue un exemple typique.
Les problèmes d'arrangement posent comme tâche de trouver un ou plusieurs arrangements à partir d'un ensemble d'éléments et sur la base de critères fixés. La littérature sur la psychologie cognitive fournit à ce propos de nombreux exemples d’arrangements sous forme de cryptogrammes et d'anagrammes.
Certains problèmes sont en réalité des combinaisons de ces différents types.
Exemple : le jeu d'échec est un problème de "transformation/arrangement".

La résolution de problème dans ses aspects généraux, a été l’objet de nombreuses recherches. Une des questions qui a d’abord mobilisé les chercheurs était d’identifier des stratégies de résolution applicables dans n’importe quel contexte.
Les travaux de Newell et Simon (Human Problem Solving, 1972) ont constitué une étape marquante de la recherche sur la résolution de problème, dans le contexte de la psychologie cognitive. Ces deux chercheurs ont développé pendant une quinzaine d’années un programme de recherche dont les résultats ont été publiés en 1972, jetant les bases de l’intelligence artificielle (IA).
L’histoire de l’intelligence artificielle a été en effet fortement marquée par Alan Newell et Herbert Simon, deux chercheurs américains de l’Université Carnegie-Mellon. Gardner (1992) rend compte de la genèse de leur contribution sur l’intelligence artificielle dans le passage suivant :
« Pendant l’été 1956, une dizaine de jeunes universitaires spécialisés en mathématiques et en logique se sont réunis sur le campus de Dartmouth College à Hanover (New Hampshire). Leur but : une discussion sur les possibilités de réaliser des programmes informatiques qui puissent « se comporter » ou « penser «  intelligemment. Comme ils l’ont annoncé dans leur projet remis à la Fondation Rockefeller: « L’étude proposée s’appuiera sur l’hypothèse que chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence artificielle peuvent en principe être décrits d’une façon suffisamment précise pour qu’une machine puisse les simuler. » (p. 163).

Parmi eux se trouvaient Marvin Minsky, de Harvard, Mac Carthy (auteur présumé du terme intelligence artificielle), Alan Newell, et Herbert Simon (futur Prix Nobel d’économie) tous quatre considérés comme les pères fondateurs de l’intelligence artificielle.
Travaillant depuis 1952 sur la réalisation de programmes informatiques de haut niveau, Newell et Simon présentent en 1956, à Dartmouth, un programme capable de démontrer un théorème de logique propositionnelle. « Logic Theorist », le premier programme d’intelligence artificielle (IA) digne de ce nom apporte la preuve que l’IA peut simuler des modes de résolution de problèmes identiques à ceux des humains.
Simon, qui a soutenu sa thèse en 1943 sur les processus de décision dans les organisations est un spécialiste du « raisonnement humain en situation. »
Inspirés par la cybernétique de Wiener (1961), et persuadé qu’une machine peut simuler le comportement humain. Newell et Simon s’appuient sur l’observation des modes de résolution utilisés par des hommes réels face à une tâche précise, pour créer les protocoles de résolution de problème du programme (les premiers de l’IA) : formation d’un but, mesure de l’écart, planification, optimisation…


Ils utilisent également des formalismes logico-mathématiques, comme par exemple les syllogismes du type [si a implique b est vrai], [si b implique C est vrai], [ alors a implique C est vrai]. Ils résolvent aussi quelques problèmes techniques de structuration de l’information soutenue dans les programmes (couches, structures, listes…). Toutes ces approches auront par la suite, une importance capitale pour l’IA et la psychologie cognitive.
 
Tandis que Newell poursuit ses travaux en IA, Simon poursuit ses observations du comportement humain en situation de décision. Il sait que les individus ne sont pas aussi «rationnels » qu’on l’a cru jusqu’à présent : leurs processus de décision s’apparentent plus à des heuristiques adaptées aux contraintes de la situation qu’à des algorithmes. Les algorithmes sont des stratégies qui produisent à coup sûr des solutions (par exemple les règles de multiplication), tandis que les heuristiques sont des stratégies plus incertaines, dont on se sert quand le problème est mal défini ou quand les règles ne sont pas connues.
Ensemble, Newell et Simon rédigent en 1972, une œuvre majeure dont l’influence sur les programmes ultérieurs de recherche fut décisive : Human Problem Solving.
Newell et Simon y présentent un programme très ambitieux, le GPS (General Problem Solver). Selon Richard J-F (1990) : « C’est un modèle général de résolution de problème basé sur une heuristique puissante de construction de sous-buts. Cette méthode consiste à faire une liste des différences entre la situation initiale et la situation-but, à ordonner ces différences, à rechercher un opérateur dont l’effet permet de faire disparaître la différence .» (p. 260).

Le GPS est capable de résoudre n’importe quel problème de logique ou de mathématique : jeu d’échecs, théorèmes, « Tour de Hanoï », "missionnaires et cannibales », ou encore des cryptogrammes comme celui rapporté par Glover et al. (1990, p. 154) :
« Pouvez-vous résoudre l’addition ci-dessous, sachant que D = 5 ? Il y a dix lettres en tout et chaque lettre représente un chiffre. »



Le GPS, selon les auteurs, permettrait de modéliser la pensée humaine dans la résolution de problème, et l’ordinateur, correctement programmé simulerait ainsi le traitement humain de l’information.
Si par exemple, vous tentez de résoudre l’addition « Donald + Gerald », toutes les opérations mentales que vous conduirez jusqu’à la solution correcte (y compris les hypothèses, les échecs, les impasses, les fixations, les retours en arrière) peuvent être réalisées par un ordinateur.
Une des critiques adressées à Newell et Simon a été que l’ordinateur ne faisait finalement que ce pour quoi il était programmé, et ne résolvait en fait que des problèmes logico-mathématiques.
Cependant le GSP resta longtemps une grande source d’inspiration pour de nombreux chercheurs. Par leur manière d’appréhender le problème de symbolisation informatique, Newell et Simon jetèrent les bases de la différenciation des informations en base de données et règles de production (des connaissances et des opérations sur les connaissances), ce qui allait ouvrir la voie aux systèmes experts.

La méthode utilisée dans les recherches sur le GPS consistait à demander à des sujets généralement adultes de verbaliser leur démarche pendant qu’ils tentaient de résoudre des problèmes portant sur des contenus généraux non disciplinaires. Ces problèmes reposaient sur des situations artificielles, qui faisaient appel à beaucoup de connaissances générales et peu de connaissances spécifiques. C’est ainsi que selon Glover et al. (1990), le GPS a permis d’identifier trois grandes stratégies générales de résolution de problème :
le «Hill Climbing» que nous traduisons par « gravir la colline», ou démarche ascendante : cette stratégie repose sur l’hypothèse que tout ce qui fait avancer, c’est-à-dire qui rapproche du but est « bon à prendre.» Pour cela on la qualifie de stratégie de proximité.
Cependant le « Hill Climbing » s’est révélé inefficace pour des problèmes nécessitant d’abord une distanciation pour accéder à la solution.

le « Means-Ends Analysis » ou stratégie des étapes intermédiaires. C’est également une stratégie de proximité. Mais elle s’appuie sur la définition d’étapes intermédiaires entre la situation de départ et le but à atteindre.

la stratégie du fractionnement consiste à subdiviser un problème en sous-problèmes.
La résolution des sous-problèmes devait correspondre à la solution du problème initial.

Ces stratégies générales qui constituent le Général Problem Solving (GPS), se sont révélées efficaces dans les contextes où elles ont été mises en œuvre : problèmes artificiels nécessitant peu de connaissances spécifiques.
Selon Glover et al. (1990), les faiblesses du (GPS) se révèlent face aux problèmes réels de la vie, et pour des situations qui nécessitent des connaissances spécifiques. Néanmoins les stratégies générales peuvent servir de base à des stratégies plus spécifiques.

A la suite des travaux de Newell et Simon, de nombreuses tentatives pour mettre au point des heuristiques de résolution de problème ont été élaborées. Glover et al. (1990), ont fait le bilan de plusieurs programmes de développement d’heuristiques de résolution de problème. Mais à l’image du General Problem Solving (GPS), tous ces programmes (de Bono, 1973 : « The CoRT Thinking Materials », (Covington, Crutchfield, Davies & Olton, 1974 ; The Productive Thinking Program »), (Feuerstein, Rand, Hoffman and Miller, 1980 : Feuerstein’s Instrumental Enrichment), (Brandsford et Stein, 1984 : The IDEAL probem Solver), n’ont pas donné de résultats concluants.

Cependant le GPS a été à la base du développement de systèmes experts en intelligence artificielle (IA).
Un système expert est un programme informatique qui se propose de simuler le comportement d’un expert dans un domaine de connaissance particulier : médecine, comptabilité, recherche pétrolière… Un système-expert est constitué de trois éléments : une base de données, des règles de production et un moteur d’inférences. La base de données doit être organisée selon les règles de production.
Delahaye J-P (1987), présente ainsi un système-expert :
«  Au début des années soixante-dix, une nouvelle sorte de programmes informatiques a été élaborée : les systèmes-experts.
De manière simplifiée, on peut les définir en disant que ce sont des logiciels qui prétendent pouvoir se substituer aux experts d’un domaine particulier (médical, financier, géologique, etc. ), et dont la structure fondamentale comporte les éléments suivants :
1. Une base de connaissances, le plus souvent divisée en assertion (appelées faits) et en règles (appelées aussi règles de production) qui, par exemple, sont de la forme :
SI (condition) / Alors (conclusion)
Cette base de connaissances est codifiée dans un langage de représentation des connaissances qui, bien sûr est symbolique, mais qui, malgré tout, peut être proche du langage naturel.
2. Un ensemble d’algorithmes de manipulation de la base de connaissances appelé moteur d’inférences, qui rend le système apte à « raisonner » à partir de faits et règles, pour inférer de nouveaux faits.
3. Un certain nombre d’interfaces, plus ou moins sophistiqués, permettant aux experts (en général assistés d’informaticiens spécialisés) de constituer, de modifier, de compléter, les bases de connaissances et aux utilisateurs de les interroger. Le plus souvent la possibilité d’obtenir l’explication des raisonnements du moteur d’inférence est prévue. » ( p. 3-4).
« Après une période où chaque système-expert possédait son propre langage de représentation des connaissances, son propre système d’interfaces, sont apparus des systèmes-experts généraux (appelés aussi : systèmes-experts nus / systèmes essentiels / Schell) comportant tout ce qui définit un système expert sauf la base de connaissance, c’est-à-dire sauf l’expertise particulière d’un domaine donné.
Ces systèmes généraux permettent de développer rapidement de nouveaux systèmes-experts, puisque pour cela il suffit de créer de nouvelles bases de connaissances (opération appelée instanciation du système essentiel). » ( pp. 3-4).

Le fonctionnement d’un système expert génère de nouvelles informations. La machine devient de plus en plus efficace, l’expertise s’élargit jusqu’au moment où les règles fournies au départ entrent en conflit de manière trop sérieuse avec des inférences non prévues effectuées par le système, c’est-à-dire jusqu’à ce que celui-ci devienne «  fou » ou refuse de fonctionner.
La psychologie cognitive a donc permis d’explorer à fond le processus de résolution de problème dans le cadre général. Le GPS, malgré ses limites a permis de rationaliser l’analyse de ce processus cognitif complexe. Mieux, le manque de consistance des

résultats des recherches portant sur les stratégies générales de résolution de problème peut être interprété comme une indication sur le rôle des connaissances spécifiques. Le cadre théorique restreint donnera l’occasion de faire le point sur les recherches sur la résolution de problème dans des contextes disciplinaires comme la physique et la chimie.

Synthèse sur le cognitivisme

Le cognitivisme se révèle ainsi comme un cadre théorique riche de possibilités d’expliciter les bases des comportements cognitifs. Son impact sur l’éducation s’élargit de plus en plus malgré la résistance implicite des bases béhavioristes traditionnelles.
Cependant, malgré ou à cause de cette vitalité, le cognitivisme est traversé par un débat continu, parfois passionné, mais surtout destiné à affiner les concepts et les méthodes, pour une plus grande efficacité dans la compréhension de la cognition humaine. On peut considérer, pour reprendre l’analyse de Kuhn (1983) sur la structure des révolutions scientifiques, que le paradigme cognitiviste est encore dans sa phase de consolidation. Il est actuellement l’objet de nombreux débats.
Le paragraphe suivant sera consacré à une brève revue des termes du débat actuel autour du cognitivisme.

II.2.4.3. Débats actuels sur le cadre cognitiviste

Les résultats de la recherche exploratoire avaient mis en évidence la nécessité d’élaborer un cadre théorique plus large et plus approfondi pour fonder les bases de notre recherche axée sur la résolution de problème en physique et chimie. La revue de la littérature nous a permis d’expliciter les concepts en jeu dans un processus d’abord psychologique, correspondant à un comportement spécifique.

Le béhaviorisme, le courant associationniste le plus élaboré, parce qu’ayant défini des méthodes explicites qui lui sont propres, a longtemps marqué et continue encore d’influencer le champ de l’éducation et de la formation.
Les limites théoriques du béhaviorisme et son infirmation par des données empiriques, notamment les données linguistiques ont été cependant sans appel. Le béhaviorisme a eu cependant des succès réels dans le champ éducatif. Il a inspiré de nombreux programmes éducatifs et engendré des modèles d’apprentissage hélas marqués par les principes sous-jacents du conditionnement humain.

Le cognitivisme, à la suite du déclin programmé du béhaviorisme, s’est progressivement imposé, du moins au niveau théorique, et dans le discours des praticiens de l’éducation et de la formation.
Le constructivisme, chronologiquement, le premier courant cognitiviste, principalement les contributions de Piaget et de Vygotski, ont apporté des éclairages décisifs sur le développement cognitif, malgré leurs itinéraires croisés. En effet, alors que le développement intellectuel chez Piaget s’appuie sur des stades qui déterminent l’apprentissage dans une dynamique qui va de l’intra-psychique vers l’inter-psychique, Vygotski postule le mouvement inverse. Même si le psychologue russe concède l’existence d’étapes, c’est pour relativiser leur caractère décisif en s’intéressant surtout à la zone proche de développement (ZPD).

La psychologie cognitive en partant de bases théoriques sur la structure des connaissances et sur les processus de traitement de l’information a fourni des concepts et des démarches permettant de mieux analyser et de comprendre les processus en jeu dans le système enseignement/apprentissage.
Si l’analogie initiale de la cognition humaine avec le fonctionnement de l’ordinateur de Von Newman s’est révélée très féconde en permettant l’explicitation de nombreux concepts et processus cognitifs (connaissances, perception, attention, résolution de problème) et en stimulant de nombreuses recherches, les neurosciences ont cependant mis en évidence les limites de cette analogie. La cognition humaine s’est révélée plus complexe que le fonctionnement de l’ordinateur.
Les théories connexionnistes devaient donc naturellement proposer une solution à l’impasse, créée par un conflit entre un modèle attractif parce que doté d’un grand pouvoir d’interprétation, et des données fournies par des expériences très minutieuses des neurosciences. La conséquence inattendue c’est qu’il y a eu une sorte de « renvoi de l’ascenseur », puisque de nouveaux ordinateurs de type « connexionniste »ont été construits permettant de substituer le traitement computo-symbolique séquentiel à un traitement distribué dans le cadre de réseaux.


La résolution de problème qui nous intéresse dans le cadre de cette recherche se fait dans un système d’enseignement-apprentissage. Le constructivisme ou les constructivismes, nous permettent de clarifier le processus d’apprentissage et, simultanément le processus d’enseignement qui lui est inséparable.
Le modèle du traitement de l’information permet de nous éclairer de manière fine par rapport au processus de résolution de problème.
Mais l’activité de résolution de problème n’implique pas uniquement des processus cognitifs. De manière générale il est difficile d’imaginer une activité purement cognitive. C’est là un des débats actuels sur le constructivisme et le modèle du traitement de l’information.
Pour donner son avis sur le courant dominant de la psychologie cognitive, Gillepsie (1992) part de la grille de lecture des théories scientifiques de Pepper (1942). Ce dernier identifie en effet quatre visions du monde :
le formalisme qui s’appuie sur le respect des règles d’usage et des symboles conventionnels
l’organicisme qui privilégie l’image de l’organisme en évolution,
le mécanicisme (ou mécanisme) qui s’appuie sur la relation de cause à effet
le contextualisme pour qui tout est inscrit dans un processus de changement avec trois étapes essentielles: le début, le milieu, la fin.
C’est ainsi que Gillepsie (1992) dans un ouvrage intitulé "The mind’ We", s’insurge contre la vision mécaniste qui, selon elle détermine encore la psychologie cognitive, ce qui pourrait contribuer à une résurgence du béhaviorisme. Selon Gillepsie, les interactions sociales ne sont pas suffisamment prises en charge : « le mécanisme peut être une vision féconde du monde, mais ignore souvent les nouvelles perspectives et musèle les voix discordantes comme si la diversité était incompatible avec la rationalité. » p. xv.
Gillepsie (1992) préconise le recentrage de la psychologie cognitive sur le contextualisme : « Le contextualisme ouvre la cognition à l’expérience vécue et aux relations avec les autres, à travers le monde. » (p. 25).
Proctor et Capaldi (1992) ont cependant émis de sérieuses réserves sur les critiques de Gillepsie. Selon eux, le mécanisme (ou mécanicisme) ne s’oppose pas au contextualisme. Ce sont plutôt des visions qui doivent être complémentaires dans le cadre de la psychologie cognitive.
Shanon (1992) qui a également procédé à une lecture critique de l’ouvrage de Gillepsie, s’est montré plus sévère. Le caractère mécaniste dénoncé est lié à l’objet même de la psychologie cognitive qui propose des modèles à propos des processus cognitifs, conçus comme des séquences d’opérations de traitement appliquées sur les représentations symboliques des structures mentales. Bien que favorable au contexte, Shanon réfute l’opposition entre le contextualisme et le mécanisme.

De son coté, O’Loughlin (1992) critique le constructivisme piagétien. Selon lui, le constructivisme de Piaget ignore la subjectivité de l’apprenant et la nature historique et sociale des connaissances. Ces éléments interviennent dans les processus cognitifs dans lesquels l’apprenant est engagé, y compris la résolution de problème.
Les deux critiques présentées se recoupent. Le contexte tel que l’envisage Gillepsie (1992), ne diffère pas des aspects historiques et sociaux soulignés par O’Loughlin (1992). Selon O’Loughlin, le constructivisme de Piaget est inapte à prendre en charge les données essentielles de la culture, du pouvoir et du discours au sein de la classe.
Ces différentes critiques sont cependant à relativiser.
En effet, la place du contexte a été bien abordée dans le cadre de la psychologie cognitive, particulièrement dans le domaine des connaissances. Les connaissances contextuelles ou conditionnelles (Anderson, 1983) indiquent bien que la cognition ne peut être réduite à une mécanique. L’utilisation des connaissances dans la réalisation d’une tâche se fait toujours en aval d’un processus de prises de décision en fonction du contexte.

Mieux le constructivisme de Piaget pose de manière claire la construction des connaissances : elles ne sont pas transmises de manière mécanique du maître vers l’élève; elles sont construites par l’individu à partir d’actions sur des objets. Ce sont ces actions qui sont intériorisées en schèmes qui vont s’organiser dans le cerveau en structures opératoires. L’ouverture au milieu se fait ici parle biais de l’assimilation ou de l’accommodation. Il est vrai qu’un éducateur centré sur une discipline donnée peut rester sur sa fin devant l’approche de Piaget. Mais ce dernier s’intéressait au développement général de la pensée, et non à une discipline.
Quant à Vygotski, il place les interactions sociales au cœur de son constructivisme. Selon lui, ce sont les interactions avec le contexte qui favorisent le développement

cognitif. L’apprentissage en situation par le biais des interactions détermine le développement de l’enfant. Les critiques du constructivisme de Piaget semblent révéler chez certains auteurs une perception insuffisante des objectifs du psychologue suisse ou une découverte trop récente de l’œuvre de Vygotski.

Toujours est-il que l’ensemble de ces critiques a fini par induire plusieurs approches psychologiques qui se veulent un approfondissement de Piaget et/ou de Vygotski.
C’est dans ce contexte que s’est développé le courant du socio-constructivisme.
Perret-Clermont (1979), Doise et Mugny (1981) étudient le rôle des interactions sociales entre pairs dans le développement de l’intelligence selon une perspective piagétienne. Ces auteurs reconnaissent un rôle important au conflit cognitif, mais dans une perspective sociale, ils avancent le concept de conflit socio-cognitif : les confrontations entre individus sont à la source du développement cognitif. Le modèle mis au point est un modèle en spirales avec une succession de phases alternées : confrontations interindividuelles et construction de schèmes cognitifs, nouvelles compétences acquises et activité autonome du sujet permettant de nouvelles constructions qui seront à leur tour confrontées à la pratique.

Plus récemment encore, Perret-Clermont (2001) envisage un niveau plus élevé du socio-constructivisme : une psychologie sociale de la construction d’un espace de pensée. Toute entreprise de cognition, (dont les situations pédagogiques) se déroulerait dans un contexte comprenant des rôles interdépendants, des procédures admises, des modes de régulation, des normes de pensée. La situation pédagogique, selon Perret-Clermont constitue le cadre et le contexte « le cadre du cadre. » Le tout se déroule dans une enveloppe constituée par le champ socio-cultuel avec sa division du travail, une répartition des biens, des langues et des cultures.

Perret-Clermont (2001) résume le concept d’espace de pensée en ses termes :
« ce terme n’évoque plus les limites, mais la surface, les contenus multiples, les champs sémantiques, les éléments de savoir, etc. Il est à la fois interne et externe au cadre et au contexte. Introduire un cadre dans l’espace permet une concentration du regard, de l’attention. C’est un cadre pour mieux voir. Le cadre qui fait la frontière entre l’espace thérapeutique et le


monde, ou l’espace didactique et la réalité sociale externe, permet la distinction. Distinguer l’ici et l’ailleurs, le maintenant de l’avant et l’après, le soi du non soi, l’interne de l’externe. »
( p. 75).

D’autres psychologues néo-constructivistes, à partir de l’approche socio-historique de Vygotski et en s’inspirant de Bruner, développent une psychologie culturelle (Bruner, 1991, 1996). Ce courant psychologique envisage le développement humain à partir des thématiques suivantes :

le développement humain en contexte: dans cette optique le savoir est un produit culturel. Il est né de l’échange et fait l’objet d’un partage. C’est une interprétation culturelle, historique et sociale. La culture est alors conçue comme un filtre qui permet de donner sens à la réalité par divers moyens : intellectuels ( modes d’analyse, technologies) et moyens symboliques (systèmes symboliques);
les savoirs initiaux : ils font souvent obstacle à l’élaboration des savoirs, obstacles avec lesquels il faut composer. On retrouve ici un des éléments clés du constructivisme épistémologique de Bachelard. Bien qu’on en parle en termes de conflit socio-cognitif, on privilégie les modèles coopératifs et la médiation comme moyen visant la régulation;
l’attention conjointe: cette disposition (centration et langage partagé) permet aux individus de travailler à atteindre une signification commune. La rencontre des idées facilite cette visée;
la participation: elle est un élément central car l’individu est vu comme un acteur en quête d’adaptation à la culture. Bien qu’« enculturé » par l’action commune, le dialogue lui permettra d’en construire et d’en réorganiser la signification. On reconnaît donc l’intentionnalité du sujet;
la métacognition: elle renvoie à la compréhension de sa propre pensée ainsi que celle d’autrui. La réflexivité permet à l’individu d’exercer un contrôle partiel sur son activité cognitive et sur son agir en général;
Le narratif : dans cette perspective, c’est un moyen pour l’individu de « penser sa propre pensée » (Bruner, 1996). Le narratif est une manière de structurer notre vécu, de le comprendre et de s’en souvenir.


Un autre aspect du débat autour du cognitivisme concerne l’usage du constructivisme en éducation. Ce n’est pas un hasard si le thème du colloque international organisé en septembre 2000 à l’Université de Genève soit intitulé : Constructivismes : usages et perspectives en éducation.
Par rapport à notre recherche, la contribution de Astolfi intitulé « Qui n’est pas constructiviste ? » nous semble bien camper le débat. Astolfi (2001) met ainsi en évidence la généralisation en éducation de la référence au constructivisme, avec des risques que cela ne soit qu’une manière de montrer «  qu’on est dans le l’air du temps » ou, comme le dit Astolfi, d’en faire simplement « des emplois didactiquement corrects » (Astolfi, 2001, p.113).

Cette référence généralisée conduit, selon Astolfi, à de nombreux amalgames. En effet, les référents au constructivisme sont divers et pas nécessairement convergents. En ne considérant que les trois figures de proue du constructivisme, Piaget, Bachelard, Vygotski, on identifie des discours et des cadres problématiques qui ne se recoupent pas harmonieusement, dans une perspective didactique.
C’est pourquoi, les usages du constructivisme en didactique se font souvent par des oppositions bipolaires variables suivant qu’on est dans les domaines de la psychologie (constructivisme / béhaviorisme), de l’épistémologie (constructivisme / positivisme) ou de la pédagogie (constructivisme / dogmatisme).
Astolfi propose pour une référence au constructivisme, « sans amalgames », de bien distinguer ce que les trois figures de proue ont en commun et ce qui les différencie.

En comparant Piaget et Bachelard, Astolfi constate que ces deux auteurs s’inscrivent dans deux épistémologies nettement distinctes. L’épistémologie de Piaget est selon Astolfi « une épistémologie logique et structurale, qui cherche à mettre à jour des opérations logico-mathématiques impliquées par l’activité ou que celle-ci requiert, et à dégager des situations les plus diverses des invariants opératoires dans les conduites cognitives. » (Astolfi, 2001, p. 115).
Toujours, selon Astolfi, cette approche est opposée à celle de Bachelard qui, « à contrario considère la connaissance générale comme le premier des obstacles à surmonter et appelle à une épistémologie critique et régionale…»(Astolfi, 2001, p. 115).

En résumé selon Astolfi, Piaget s’intéresse aux opérations logiques impliquées ou requises par l’activité, et donc à la cognition, à lors que Bachelard cible le processus de conquête des concepts scientifiques contre le sens commun, c’est-à-dire à la conceptualisation.
La comparaison de Piaget et Vygotski laisse apparaître du point de vue de Astolfi, deux psychologies opposées : alors que selon Piaget, les apprentissages sont déterminés par l’état de maturation des structures cognitives, Vygotski fait des apprentissages le stimulant du développement cognitif.
Enfin, Astolfi oppose Bachelard et Vygotski du point de vue culturel. Les deux références constructivistes se situeraient sur deux anthropologies distinctes. Les processus d’acculturation chez Bachelard passe par un renoncement aux facilités du sens commun, « grâce à une ascèse intellectuelle produite par une philosophie du non. » (Astolfi, 2001, p. 116). Quant à Vygotski, il considère que « l’acculturation est la fille de médiations portées par des institutions (dont l’école, émanation de la société), la maîtrise du langage étant l’un des vecteurs principaux de cette domestication de l’esprit » (Astolfi, 2001, p. 116).

Astolfi résume son exploration éclairante de la galaxie constructiviste par un schéma synthétique sous forme de triangle dont chacun des sommets est occupé par l’un des trois référents classiques du constructivisme et qu’il appelle « la trinité didactique». Nous sommes plutôt tentés de l’appeler « le triangle constructiviste ». Chacun de trois auteurs (Piaget, Bachelard, Vygotski), y joue sa partition.
Dans ce schéma d’Astolfi, Piaget est considéré comme « le réaliste » qui explique les mécanismes de la cognition, dont le « possible évolutif », alors que Bachelard apparaît comme le pôle « pessimiste », par son appel à la « vigilance critique » face au bon sens, considéré comme un obstacle majeur dans l’acquisition des connaissances scientifiques. Quant à Vygotski, c’est le pôle optimiste, par son ambition dynamique symbolisée par sa notion de zone proche de développement.
Cet éclatement de la galaxie constructiviste permet selon nous, de comprendre les couleurs différenciées de ces usages, mais aussi sa richesse en tant que cadre théorique englobant. Il s‘agit simplement de veiller à ce que la référence soit consciente de ces différentes facettes, de leurs rôles et de leur pertinence, par rapport aux usages multiples en éducation.

II.2.5. Conclusion sur le cadre théorique général

Ce passage en revue des débats actuels sur les différents courants cognitivistes montre la pertinence et l’actualité de ce cadre théorique. Cette pertinence et cette actualité peuvent être affirmées dans le domaine de l’éducation en général où des processus cognitifs sont développés par des sujets en situation. La résolution de problème en physique et chimie nous semble une des situations privilégiées où ces processus complexes sont impliqués.
Le constructivisme et le modèle du traitement de l’information sont deux composantes essentielles qui ont permis d’éclairer les questions liées à l’apprentissage et à la résolution de problème.
Le modèle du traitement de l’information permet d’opérationnaliser l’analyse des processus cognitifs complexes en rapport avec les connaissances et la mémoire, deux éléments essentiels pour le sujet en situation de résolution de problème. L’analyse des concepts de connaissances et de résolution de problème, au travers de la psychologie cognitive fournit une base importante à la compréhension même du concept de problème.

L’espace-problème de Newell et Simon (1972) constitue un cadre fécond pour l’investigation sur le concept de problème et de résolution de problème. Il restera à compléter l’éclairage théorique par une spécification par rapport au contexte disciplinaire de la physique et de la chimie, au niveau théorique, mais aussi et surtout sur la base des recherches en didactique de la résolution de problème.

Le constructivisme (ou les constructivismes) constitue l’autre facette du cognitivisme que nous avons revisitée. L’analyse pertinente faite par Astolfi, et qui a abouti à ce que nous avons proposé d’appeler le triangle constructiviste, nous indique simplement que les trois références principales interfèrent dans le processus de résolution de problème en contexte scolaire. En effet, les composantes psychologiques, épistémologiques et anthropologiques nous semblent indissociables au cours des activités de résolution de problème auxquelles les élèves sont souvent soumis.



Enfin, que ce soit pour le constructivisme ou la psychologie cognitive, les réserves ou les critiques appellent avec force à la prise en compte, dans les approches cognitivistes, du contexte, de la motivation et des interactions sociales (Vygotski 1985 ; Bruner, 1996). Le socio-constructivisme et la psychologie culturelle nous y invitent vivement.
Dans la suite de ce travail ces considérations devront être prises en compte, en particulier, dans le cadre théorique restreint, dans le cadre problématique et plus tard dans l’analyse des données de la recherche.
II.3. Cadre théorique spécifique

La présente recherche porte sur les conceptions en résolution de problème en physique et chimie. Elle s’inscrit donc dans le cadre de disciplines d’enseignement et nous référons donc à une didactique, celle de la physique et chimie. Ainsi, pour marquer cet ancrage disciplinaire, le cadre théorique esquissé plus haut doit être contextualisé. C’est le but du cadre théorique spécifique.

II.3.1. Articulations entre les différents concepts théoriques de la recherche :
Mémoire, représentations, connaissances, conceptions et tâches

La description du contenu de la mémoire comme un ensemble d'unités cognitives reliées les unes aux autres, dont l’organisation supérieure est constituée par les schèmes, a des implications didactiques, particulièrement dans le cadre de l'enseignement des sciences.
Ainsi "il est utile de songer au schéma comme à une sorte de théorie générale informelle, privée, inarticulée, concernant la nature des événements, des objets, des situations que nous rencontrons" (Rumelhart, cité par Joshua et Dupin, 1993, p. 101).
Les performances des élèves seraient donc liées à des schémas prototypes que ceux-ci réactivent, en situation de résolution de problème.

Dans cette approche l'apprentissage a une fonction de modification des schèmes des apprenants. L'enseignement aurait alors pour but, de permettre à l’élève, la construction de schémas qui puissent rendre compte de manière rigoureuse des faits scientifiques et des interprétations qui leur sont associées.
Sur cette base, certains chercheurs se sont évertués à trouver, mais en vain, des schèmes prototypes dont l'instanciation rendrait compte de l'ensemble des connaissances scientifiques, passant ainsi d'une "microgénèse des connaissances à une macrogénèse des connaissances"(Joshua et Dupin, 1993, page104).

Le problème de la généralisation inter-domaine des connaissances n'a pas été éclairci par la psychologie cognitive. Mais elle a permis de mettre en évidence un problème de fond : l'appropriation des connaissances scientifiques se heurte aux schèmes acquis par

l'apprenant tels que les décrit Rumelhart (1980), et qui ne correspondent pas aux schèmes scientifiques. Cela a donné naissance à la notion de conception, parfois appelée "conception naïve" ou "misconception".

Dans la littérature, les termes de représentation et de conception sont parfois confondus. Des controverses existent même à leur propos. Selon Astolfi et Develay (1989), " le concept utilisé en didactique des sciences dont le succès a été le plus spectaculaire au cours des dix dernières années est assurément celui de représentation." (p. 31)
Des auteurs comme Giordan (1987) proposent qu'on fasse une distinction nette entre représentation et conception. De nombreuses recherches ont mis en évidence une particularité des conceptions : elles peuvent être opérationnelles dans certains contextes et constituer ailleurs des obstacles à l'apprentissage. Bachelard (1938) avait, bien avant le développement du modèle de traitement de l'information perçu, cette difficulté qui ne l'était pas encore par les professeurs de sciences notamment, dans le cadre de son constructivisme épistémologique. Goffard (1994) cite cette réflexion profonde de Bachelard :
" J'ai toujours été frappé du fait que les professeurs de sciences, plus encore que les autres si c'est possible, ne comprennent pas que l'on ne comprenne pas. Ils n'ont pas réfléchi au fait que l'élève arrive en classe avec des connaissances empiriques déjà constituées ; il ne s'agit pas d'acquérir une culture expérimentale, mais bien de changer de culture, de renverser les obstacles amoncelés par la vie quotidienne." (Goffard, 1994, p.12).

Ridao (1993) défend l'usage du concept de représentation, en montrant son utilité dans le cadre de la biologie. Mais dans le même article, Ridao (1993) met en évidence le marquage historique et pluridisciplinaire du concept de représentation :
- philosophie (Bachelard, 1938)
psychologie génétique (Piaget, 1923)
- modèle du traitement de l’information (Newell et Simon, 1972) : représentation des connaissances, représentation du problème
- psychologie sociale : Moscovici, (1961, 1976), Doise (1989): représentations sociales
didactique du problème : Kuhn (1983) ; Popper (1973) .

Les arguments avancés par Ridao (1993) sont certes pertinents, en particulier l'aptitude du concept de représentation à jouer un rôle de carrefour de plusieurs disciplines.
Le Ny (1989) considère cependant que les représentations sont essentiellement des interprétations. Il les oppose ainsi aux " représentations-types " que Ehrlich (1985) appelle des " structures permanentes ", qui seraient des constructions stables stockées dans la mémoire à long terme. Les représentations-types doivent être réactivées en cas de besoin.

Richard (1990), dans son ouvrage consacré aux activités cognitives finalisées, permet de faire la différence entre représentations et conceptions.
Les représentations constituent véritablement les clés qui permettent à l’individu de décoder quantité de situations, de comprendre le monde et d’y agir. Lorsqu’une situation se présente à l’individu (par exemple s’inscrire à l’université, acheter un nouvel ordinateur, souscrire à une police d’assurance…), celui-ci peut la comparer à une situation déjà connue (vécue) antérieurement et dont les enchaînements caractéristiques sont codés sous forme de schèmes ou de scripts. Donner du sens à la situation, répondre, agir, conceptualiser, consiste alors à activer ces réseaux ou ces schèmes en les particularisant selon les variables situationnelles. Pour Richard (1990), construire une représentation, c’est comprendre :

«  Nous distinguons plusieurs processus de construction des représentations, qui sont autant de sens du mot « comprendre »  :
1. la construction d’une représentation par particularisation d’un schéma (remplir les cases vides d’un scénario stéréotypé disponible en mémoire, par des informations venues de la situation);
2. la construction d’une structure conceptuelle (l’individu construit un réseau de significations construites pour la circonstance (inférences); 
3. la construction d’un modèle particularisé de situation (un graphique, une forme algébrique, une image…);
4. la construction d’une interprétation par analogie avec une situation connue (recours à des modèles préexistants). (p.97).


En même temps, Richard (1990) met en évidence l’essentiel des concepts en relation avec la résolution de problème. Ainsi selon lui, les représentations et les conceptions sont toutes des structures mentales. On distingue deux grands types de structures mentales: les structures mentales stabilisées et les structures mentales circonstancielles.
Les structures mentales circonstancielles sont celles qui sont construites en vue de la réalisation d’une tâche. Richard désigne celles-ci par le terme de « représentation ». Les représentations sont stockées dans la mémoire de travail.

Les structures mentales stabilisées sont de deux ordres. Les structures mentales individuelles sont appelées « conceptions ». Les structures stabilisées construites de manière scientifique, par des démarches validées, sont appelées « connaissances ». Les conceptions et les connaissances sont stockées dans la mémoire à long terme (MLT).
Nous interprétons l’analyse conceptuelle de Richard (1990) des connaissances, des représentations et des conceptions par le schéma suivant.

Schéma 3 : Schéma interprétatif des relations entre représentation, conception, connaissance, tâches, mémoire. (adapté de Richard, 1990)



Ce schéma montre que la réalisation d’une tâche, par exemple dans le cadre d’une résolution de problème, s’appuie essentiellement sur les constructions circonstancielles que sont les représentations au sens de Richard. Celles-ci qui sont dans la mémoire de travail sont influencées par les connaissances antérieures dont certaines sont déjà stockées sous formes de schèmes, mais aussi par les conceptions du sujet. Le schéma met en relief le caractère stratégique des conceptions, qui influencent l’apprentissage, mais aussi le processus de construction d’une représentation face à une tâche et la tâche elle-même. Dans la perspective constructiviste, le processus d’enseignement-apprentissage doit s’appuyer sur les conceptions pour faire évoluer celles-ci.
Ainsi, au plan cognitif, le concept de « représentation » revêt deux significations : il désigne le mode de stockage des connaissances dans la mémoire à long terme (MLT), mais aussi les réorganisations circonstancielles de ces connaissances en vue de l’exécution d’une tâche spécifique.
Mais ces deux formes de représentations sont en fait liées. En effet, dans certains cas, l’organisation circonstancielle n’est que le fruit d’une réactivation orientée de schèmes déjà structurés dans la mémoire à long terme (MLT, Rummelhart, 1980). Dans le cadre de la résolution de problème, l’expert pourrait être celui qui dispose d’une gamme très variée de schèmes spécifiques ou des modèles de schèmes susceptibles d’être l’objet d’une instanciation pertinente dans une situation donnée.

Les conceptions au sens de Richard (1990) sont alors des organisations personnalisées de ces connaissances qui intègrent des dimensions extracognitives : histoire personnelle, expérience, jugements de valeur, affectivité.

Il y a donc toujours un écart entre les connaissances scientifiques et les conceptions. Les connaissances scientifiques sont de l’ordre de l’idéal puisque le processus d’appropriation d’une connaissance comporte toujours une marque personnelle qui est un des éléments constitutifs des conceptions.
L’apprentissage a donc une première fonction qui est de permettre au sujet d’acquérir ou de construire des connaissances. Cette construction de connaissances comporte naturellement plusieurs paliers. Neves et Anderson (1981) en ont proposé trois : l’encodage, la procéduralisation, et la composition ou organisation. La deuxième

fonction consiste à permettre à l’apprenant de faire évoluer ses conceptions. La troisième fonction est de développer la capacité de construire des représentations efficaces face à une tâche spécifique.
Ces trois fonctions de l’apprentissage ne sont pas indépendantes. Elles sont même en interaction. En effet, l’acquisition des connaissances dans une perspective constructiviste se fait en s’appuyant sur les conceptions des apprenants en vue de les faire évoluer. De même, la capacité de construire des représentations pertinentes se développe déjà dans le processus d’acquisition du nouveau savoir, par la médiation de l’enseignement.

Les conceptions, quant à elles, sont constituées par l’ensemble des significations personnelles associées à un phénomène, à une activité, à un savoir scientifique, à une démarche, à une tâche.
Nous avons déjà justifié notre préférence pour le terme de "conception", à la place de du terme de "représentation", que nous avons estimé trop polysémique. Mais, comme nous venons de le voir, avec Richard (1990), le contenu que nous donnons au terme de conception recouvre ce que les chercheurs en psychologie sociale appellent "représentations sociales" (Moscovici, 1961).
La théorie des représentations sociales nous permet ainsi de préciser ce que nous entendons par conception. Cette théorie, dont Moscovici est le pionnier, a eu pour point de départ la comparaison entre la pensée de l'enfant et la pensée de l'adolescent. L'interprétation des résultats par Moscovici (1976) est que ces pensées sont le siège d'une interaction entre deux systèmes cognitifs : un système opératoire et un système de régulation.
"…nous voyons à l'œuvre deux systèmes cognitifs, l'un qui procède à des associations, inclusions, discriminations, déductions, c'est-à-dire le système opératoire, et l'autre qui contrôle, vérifie, sélectionne à l'aide de règles, logiques ou non; il s'agit d'une sorte de méta-système qui retravaille la matière produite par le premier" (Moscovici, 1976, p. 254).
Selon Abric (1994), la théorie des représentations sociales constitue une remise en cause de la distinction si chère aux béhavioristes entre le sujet et l'objet, entre le stimulus et la réponse : un objet n'existe pas en lui-même, il existe pour un individu ou un groupe et par rapport à eux" (p.12).
La théorie des représentations sociales, on le voit, remet en cause le concept de réalité objective. Abric (1994) précise cette idée: "…toute réalité est représentée, c'est-à-dire appropriée par l'individu ou le groupe, reconstruite dans son système cognitif, intégrée dans son système de valeurs dépendant de son histoire et du contexte social, idéologique qui l'environne" (p. 12).

Moscovici (1961) identifie les deux processus en jeu dans les représentations sociales: les processus d'objectivation et d'ancrage.
L'objectivation est un processus qui transforme l'abstrait en concret, le relationnel du savoir scientifique en une image de quelque chose (Doise et al. , 1992). Par exemple le concept physique de générateur électrique est identifié à l'objet "pile électrique".
L'objectivation tend donc à dissocier un concept ou un énoncé, d'avec le cadre conceptuel scientifique ou idéologique.
Quant au processus d'ancrage il consiste en l'incorporation de nouveaux éléments de savoir dans un réseau de catégories plus familières. Il semble donc s'opposer à l'objectivation. Alors que celle-ci vise à créer des vérités évidentes pour tous et indépendantes de tout déterminisme social ou psychologique, l'ancrage met l'accent sur l'intervention de tels déterminismes dans la genèse et les transformations des représentations sociales (Doise et al., 1992).
Abric (1994) a fait faire une avancée significative à la théorie des représentations sociales par la modélisation de leur structure reposant sur l'hypothèse dite du "noyau central": "…l'organisation d'une représentation présente une modalité particulière spécifique: non seulement les éléments de la représentation sont hiérarchisés mais, par ailleurs, toute représentation est organisée autour d'un noyau central, constitué d'un ou de plusieurs éléments qui donnent à la représentation sa signification" (p. 19).

L'hypothèse du noyau central a par la suite été complétée par la théorie des schèmes périphériques (Flament, 1986). On aboutit alors à un modèle heuristique construit sur une idée simple : "les représentations sociales sont des ensembles sociocognitifs organisés de manière spécifique et régis par des règles de fonctionnement qui leur sont propres" (Doise et al., 1992, p. 8).
Cet éclairage sur les conceptions, par le détour des représentations sociales, ne manquera pas d'avoir des incidences sur la partie méthodologique de notre travail. En

effet, l'objectif d'identifier le noyau central des conceptions et d'hiérarchiser les éléments constitutifs fournit déjà des repères, aussi bien pour le processus de construction de l'outil de recueil de données, que pour les modèles de traitement de données.

Mais les conceptions ne portent pas seulement sur des connaissances disciplinaires déclaratives ou procédurales. Elles portent également sur des processus intellectuels et des concepts transversaux. On peut par exemple s’intéresser aux conceptions d’élèves-professeurs à propos de l’enseignement, de l’apprentissage, de l’évaluation, de la recherche, de la démonstration…
Ainsi, dans le cadre de cette recherche, nous nous intéressons aux conceptions des professeurs de physique et chimie de l’enseignement secondaire à propos de la résolution de problème dans le contexte de leur discipline, dans une perspective didactique.

II.3.2. La didactique de la physique et de la chimie.

La didactique de la physique et de la chimie appartient au courant de recherche de la didactique des sciences. Après un bref passage en revue de quelques définitions de référence, nous mettrons l’accent sur les spécificités de la physique et de la chimie, sur la didactique de la résolution de problème et les différents courants de recherche.
La revue des données empiriques et méthodologiques servira ensuite de point de départ à un questionnement servant de transition vers un cadre problématique.

II.3.2.1. La didactique des sciences

La première littérature en didactique que nous avons parcourue indiquait que la fin des années 1980 marquait le passage de la didactique des sciences, de l'étape pré-paradigmatique (Berger, 1979 ; Klopfer, 1983) à l'étape paradigmatique, correspondant à une rupture épistémologique (Kuhn, 1983 ; Bachelard, 1938). La didactique des sciences s'est progressivement constituée en un corps de connaissances de plus en plus cohérent, affinant ses concepts et ses méthodes de recherche (Astolfi et Develay,1989 ; Gil-Pérez, 1996).

Après avoir précisé le contexte d’émergence et de développement de la didactique des disciplines, nous présenterons quelques définitions qui posent avec clarté l’objet de la didactique.

Toussaint (1996) décrit de manière pertinente le contexte d’émergence de la didactique des disciplines en ces termes : “  La didactique est née, dans ces années 1970, d’un besoin d’actualiser les sciences de l’éducation et la pédagogie par la nécessaire prise en compte des contenus disciplinaires qui sont véhiculés par l’enseignement. Pédagogie et sciences de l’éducation avaient apporté et construit des notions intéressantes (…), mais dans lesquelles la référence aux contenus de savoir et à leur mode d’élaboration (leur épistémologie) était trop souvent éloignée, voire absente. Il devenait impératif, dans un souci d’efficacité (en direction de la réussite des élèves, bien sûr) des faits d’enseignement, de prendre en compte ces divers savoirs sur lesquels l’enseignement de toute discipline s’appuie » (p. 60).

De même Astolfi (1989) définit la didactique à partir de ce qu’il appelle “ l’approche didactique: “ …l'approche didactique travaille d'une part, en amont de la réflexion pédagogique, en prenant en compte les contenus d'enseignement comme objet d'étude. La didactique permet alors le repérage des principaux concepts qui fonctionnent dans la discipline et l'analyse de leurs relations. Elle s'intéresse à leur histoire, leurs rectifications respectives, les modalités de leur introduction dans l'enseignement. Elle examine le fonctionnement social des concepts, les pratiques sociales auxquelles ils renvoient » (p. 9).

Cette vision de la didactique comme une approche centrée sur une discipline spécifique est encore soulignée par Joshua et Dupin (1993). Selon ces deux auteurs la didactique est «  la science qui étudie, pour un domaine particulier, les phénomènes d'enseignement, les conditions de la transmission de la « culture » propre à une institution (singulièrement ici les institutions scientifiques) et les conditions de l'acquisition de connaissances par un apprenant »( p. 2).




Ces définitions posent la question des rapports entre didactique et pédagogie, parfois objet de débats passionnés . La Revue Française de Pédagogie (1997, N° 20) a consacré un débat très riche à ce sujet. Plusieurs chercheurs, y compris parmi les précurseurs du courant de la didactique des disciplines, se sont exprimés dans cette publication. Certaines positions adoptées, s’appuyant sur la genèse du courant de la didactique des disciplines, sont apparues moins tranchées (Meirieu, 1997 ; Soëtard, 1997).
Le débat entre pédagogie et didactique n’est pas l’objet de ce travail. Les différentes définitions et prises de position montrent cependant que, dans ce nouveau courant de recherche, la didactique renvoie toujours à une discipline. L'hypothèse de base est ici qu'il existe des difficultés d'appropriation, intrinsèques à un savoir disciplinaire ; il faut alors les diagnostiquer et les analyser avec une grande précision pour faire réussir les élèves. L'intérêt porte à la fois sur les savoirs, les démarches d’élaboration et de validation et les stratégies de son enseignement et de son apprentissage.

Cette rencontre avec la littérature sur la didactique des sciences allait modifier notre perception du processus enseignement/apprentissage de la physique et amplifier notre désir d'approfondir notre réflexion par l'investigation. Une revue bibliographique sommaire nous permettait déjà d'avoir quelques repères théoriques en didactique.
Deux aspects ont retenu notre attention lors de ces premiers contacts avec le champ de la didactique des sciences.

D'abord, le paradigme de l'apprentissage des sciences par la méthode de la redécouverte (Bruner, 1956), qui avait comme arrière-plan psychologique le conditionnement, montrait ses limites.
Ensuite on note que la didactique des sciences convoque plutôt le constructivisme comme cadre théorique. Ce courant psychologique, comme nous l’avons déjà vu dans le cadre théorique général, met l’apprenant au cœur du processus de construction du savoir procédural ou déclaratif. Cette centration n’est pas seulement affective. Si c’était le cas, le constructivisme n’aurait pas été un système original. En effet beaucoup de courants pédagogiques ont antérieurement mis l’accent sur les besoins de l’apprenant. Le constructivisme met d’abord l’accent sur les activités cognitives de construction du savoir. Piaget, un des pionniers du constructivisme, dit en substance que l’apprenant est l’architecte de son savoir.
Cette activité de construction est rythmée par les processus d’assimilation et d’accommodation. L’assimilation est le processus de construction d’une notion, de reconnaissance du rôle d’un facteur qui mène à une réponse appropriée par rapport à un problème posé. L’accommodation est le processus d’application pertinente de la notion construite ou du facteur reconnu à des situations nouvelles.
C’est ici le lieu de préciser ici en quoi la présente recherche adopte une perspective constructiviste, comme nous l’avons proclamé dès le début de ce travail.
Dans une perspective constructiviste, nous l’avons déjà souligné, le rôle du sujet apprenant est central. Par rapport à l’élève, plusieurs axes de recherche en didactique se sont développés : les modes d’appréhension des contenus par l’apprenant, la nature des idées premières (conceptions dans notre option terminologique) et leur évolution, les niveaux de formulation des contenus, les éléments de transposition didactique...
Notre recherche s’intéresse à une activité d’enseignement/apprentissage à partir du pôle enseignant. De la même façon que le constructivisme considère que les idées premières des élèves sont déterminantes pour l’apprentissage, nous faisons l’hypothèse que dans la préparation et dans la conduite des activités scolaires de résolution de problème, les conceptions des enseignants et leur évolution sont déterminantes. En cela nous rejoignons les positions de Hashew (1996) qui a mis en évidence le rôle des conceptions épistémologiques dans les pratiques pédagogiques des professeurs de sciences.
Les conceptions des enseignants méritent d’être étudiées pour une amélioration de la formation des enseignants. Notre travail s’inscrit donc dans un projet constructiviste global au service de la formation des enseignants. Les conceptions des professeurs en matière de résolution de problème font partie intégrante de la pensée des enseignants (Tochon, 1995).
Notre option pour une approche didactique nous amène à nous intéresser, à présent, aux spécificités de la physique et de la chimie, sciences expérimentales par excellence.

II.3.2.2. Les spécificités de la physique et de la chimie

La physique et le chimie sont des sciences de modélisation et de mesurage. La modélisation permet de se distancer par rapport à un monde réel par essence complexe et de générer des connaissances scientifiques. Celles-ci sont toujours approchées,

partielles et provisoires. Il y a une sorte de relation circulaire entre les caractéristiques des connaissances et les processus de modélisation.

Ces considérations ont naturellement un impact sur le processus d’apprentissage des sciences. En effet, pour être pertinent, l’enseignement doit impliquer l’apprenant dans l’entreprise de construction des sciences. Les connaissances englobent donc, de manière spécifique, à la fois le processus de construction , les règles de fonctionnement et les résultats du processus. Nous entrons au cœur de la perspective de la didactique des sciences.
Pour accompagner cette construction progressive des connaissances par l’apprenant, l’enseignant assure une fonction de médiateur.
L’enseignement de la physique et de la chimie doit prendre en compte toutes ces données tout en étant sensible à un processus latent qui se dévoile au grand jour: la physique et la chimie tendent à se rapprocher des mathématiques comme discipline de sélection dans l’enseignement secondaire, même si leur caractère prédictif dans la réussite scolaire n’est pas établi.
Les données que nous avons fournies dans l’introduction de ce travail (les résultats à l’examen du baccalauréat, session 2000-2001) dans le contexte du Sénégal constituent une illustration. La didactique de la physique et de la chimie est donc plus que jamais interpellée.

Le courant de recherche de la didactique des disciplines a été amorcé par les mathématiciens dans les années 1970, qui ont construit des concepts de didactique, progressivement adoptés par les autre disciplines, ce qui ne pouvait pas manquer d’engendrer des ambiguïtés et parfois des controverses (Astolfi et Develay, 1989).
Mais un consensus s’est fait autour d’un ensemble de concepts devenus les éléments identitaires de la didactique des sciences (Toussaint, 1996). Ainsi toute situation d’enseignement met en présence l’enseignant, l’élève et le savoir à enseigner qui constituent respectivement, le pôle sociologique, le pôle psychologique et le pôle épistémologique. La didactique prend en charge à la fois les trois pôles et leurs interactions.
La didactique de la physique et de la chimie s’est singularisée par l’accent mis sur la relation entre l’élève et le savoir. Cela s’est traduit par de nombreuses recherches sur

les conceptions des apprenants (les auteurs ont souvent préféré le terme de représentation). Nous avons déjà expliqué pourquoi nous avons choisi le terme de conception.
L’enseignant est considéré comme le pôle sociologique de cette approche didactique. On peut cependant s’interroger sur la pertinence de cette qualification. L’enseignant de physique et/ou de chimie est également en interaction avec le savoir par essence en mouvement. Il est lui-même constamment confronté en sa qualité de médiateur au processus de construction, avec ses "va et vient".
Il nous semble donc que les recherches en didactique devraient également s’intéresser à l’enseignant, non pas seulement en tant que pôle sociologique participant de l’environnement social, mais aussi en tant qu’acteur cognitif. Ses conceptions du savoir scientifique, de l’apprentissage, des démarches intellectuelles, de la résolution de problème pourraient faciliter ou entraver l’entreprise de construction des connaissances par l’élève.
Nous verrons dans la suite comment la recherche en didactique de la résolution de problème en physique et chimie n’a pas suffisamment pris en compte cet aspect de l’analyse.

II.3.3. La didactique de la résolution de problème

La résolution de problème au niveau didactique est prise en charge à travers trois perspectives : l’évaluation, l’apprentissage, la recherche.

II.3.3.1. La résolution de problème comme outil d’évaluation

Dans le système d’enseignement des sciences, la résolution de problème est considérée comme l’activité intellectuelle à travers laquelle on évalue les compétences de l’élève. Dans l’enseignement secondaire, cette évaluation se fait à travers une liste d’énoncés qui portent les noms d’« exercices » ou de « problèmes », sans qu’on puisse en déterminer avec précision les limites. Où s’arrête l’exercice et où commence le problème ?
Les récentes recherches en didactique ont commencé à produire quelques résultats timides dans la formulation des exercices et problèmes, avec un accent mis sur les

phénomènes physico-chimiques et le développement des exercices « qualitatifs ». Mais le résultat numérique continue encore à « faire la loi » et à déterminer le sort de milliers d’élèves.
Il y a encore une sorte de tension entre les recommandations s’appuyant sur les recherches en didactique, notamment sur les processus d’acquisition du savoir scientifique et les modes d’évaluation qui se caractérisent par une grande inertie (Ratziu, 2000).

Les énoncés décrivent en effet des situations souvent très artificielles construites sur mesure pour « balayer tout le programme », et qui ne sont donc pas assez signifiantes par rapport aux élèves et parfois même pour les enseignants. Une caractéristique de ces problèmes d’évaluation est leur caractère fermé : il y a un résultat unique à trouver et parfois certains énoncés vont jusqu’à limiter le type de solution à élaborer.
De plus, dans la plupart des examens nationaux où la physique et la chimie interviennent, les épreuves orales ne sont considérées que comme des situation de rattrapage et non des occasions de s’assurer des efforts faits par l’élève pour s’approprier de manière contextuelle les savoirs scientifiques. La résolution de problème est rarement mis au service de l’apprentissage.

II.3.3.2. La résolution de problème comme activité d’apprentissage des concepts scientifiques

En plus de la finalité évaluative, dans le système enseignement/apprentissage de la physique et de la chimie, les activités de résolution de problème sont organisées soit à l’intérieur du cours , soit dans des séances particulières appelées séances de travaux dirigés.
A l’intérieur du cours, il s’agit souvent de ce qu’on appelle des exercices d’application. Le professeur après avoir établi une relation de manière théorique ou expérimentale, propose une situation qui permet de mettre en scène les nouveaux concepts par une application de la nouvelle relation. Il s’agit d’un renforcement de l’apprentissage.
L’expérience montre que très souvent les exercices d’application sont traités de manière mécanique, sans exploiter le potentiel d’apprentissage qu’ils recèlent (Sall et al., 1998).

Même si cela n’arrive pas souvent, certains concepts de la physique et de la chimie peuvent être approchés par résolution de problème.
En physique par exemple, le théorème des moments peut être appris à partir d’une situation-problème consistant à demander à rétablir l’équilibre d’un solide mobile autour d’un axe fixe, par la détermination expérimentale de la force à appliquer et avec un bras de levier déterminé. L’égalité des moments des deux catégories antagonistes de forces permettra ensuite d’énoncer le théorème des moments.

La chimie fournit également de nombreux exemples. Le concept d’acide faible peut être construit à partir d’un exercice consistant à déterminer la concentration des différentes espèces chimiques en présence lorsqu’on met en solution un acide, le PH de la solution finale étant donné.
Ainsi, en comparant la concentration initiale de l’acide à la concentration des ions hydronium, on découvre une nouvelle catégorie d’acides qui se dissocient partiellement, et qui, pour cela , sont appelés acides faibles.
L’apprentissage par situation-problème, est une nouvelle approche de l’apprentissage qui est appelée à se développer, compte tenu des modifications de l’environnement éducatif, notamment avec le développement des nouvelles technologies de la communication. Ce courant s’inscrit parfaitement dans le courant constructiviste, l’apprenant étant ici véritablement au centre de la construction du savoir.

Au Sénégal, des activités de recherche-action sur l’approche par situation-problème (Projet ENS de Dakar/ Université de Montpellier II / Université de Fez au Maroc , 1998-1999) ont été initiées avec des professeurs de physique et chimie. Les résultats obtenus ont été d’après le rapport de recherche tout à fait concluant.
En application de ces résultats, une équipe constituée de participants au séminaire a illustré cette démarche par un film portant sur le concept de masse volumique (Ratziu, Sall et Sow, 2000). La démarche consiste, à partir d’une situation-problème (Le bijou acheté par la maman d’un élève à très bon marché est-il vraiment en or ?), à mener les élèves, à partir d’interactions au sein de petits groupes et avec la médiation du professeur, à reconstruire le concept de masse volumique.



Lorsque l’apprentissage par situation-problème est érigé en principe de base d’un système de formation, on aboutit à l’apprentissage par problème (APP) comme cela se pratique à Maastricht. Dans un environnement très riche en ressources documentaires, l’étudiant, dans un cadre interactif, apprend en faisant directement face à des problèmes réels de la vie professionnelle. Il s’agit là d’une démarche socioconstructiviste. L’espace de pensée (Perret-Clermont, 2001) s’articule ainsi avec un espace d’action pour forger des compétences in situ.

II.3.3. 3. La résolution de problème comme support à la recherche

L’apprentissage par résolution de problème débouche naturellement sur l’activité de recherche. Celle-ci est peut être sous certains aspects, une activité de résolution de problème. Faire de la recherche, c’est résoudre un problème. Mais ici le problème est construit par le chercheur qui donne du sens à des faits. Bachelard (1938) parle de « problématisation ». Il en va de même souvent, pour les concepts et les démarches elles-mêmes . Il faut signaler que cette activité est très peu utilisée en contexte scolaire. Le concept de recherche dans le domaine de l’éducation reste encore marqué par des connotations généralement académiques, particulièrement dans le système universitaire sénégalais.

II.3.4. Vers des typologies spécifiques du problème en physique et chimie

Les typologies spécifiques du problème de physique et chimie s'inspireront des différents niveaux d'analyse : psychologique, épistémologique, pédagogique et didactique, tel que cela ressort de la littérature (Richard, 1990 ; Roegiers, 1993 ; Fabre, 1993 ; Ridao, 1993). Dans le cadre théorique général nous avons traité le niveau psychologique.

II.3.4.1. Approches épistémologiques

Du point de vue épistémologique ( entendu comme signification des problèmes par rapport aux connaissances), trois auteurs ont retenu notre attention.
Une autre approche consiste à adopter une typologie dichotomique qui distingue les problèmes empiriques (ou d'ordre premier) et les problèmes conceptuels (Hempel, 1972).
Le problème empirique est défini alors comme ce qui pose problème dans un contexte spécifique et par rapport aux idées en vigueur (souvent préconçues), et qui demande une explication (des faits, des données).
Le problème conceptuel est relatif à la plausibilité ou à la cohérence d'une théorie. Les problèmes conceptuels se subdivisent en problèmes conceptuels internes (au sein d'une même théorie), et problèmes conceptuels externes (conflit entre deux théories, qui nécessitent de mettre au point une ou des expériences dites cruciales (Hempel, 1972).
Le problème résulte alors d'un processus d'élaboration théorique. En cela cette approche du problème rejoint d'une certaine manière celle de Bachelard (1938) pour qui, tout passe par un processus d’élaboration, qu’il désigne par le concept de problématisation.

Thomas Kuhn (1983) fait la distinction entre les problèmes normaux (définis au sein d'un même paradigme) et les problèmes de rupture (qui préfigurent l'émergence d'un nouveau paradigme. La typologie de Kuhn semble incluse dans la catégorie des problèmes conceptuels, dont les problèmes empiriques ressemblent fort aux problèmes normaux.
Bachelard(1938) s'intéresse surtout à la nature du problème. Selon lui le problème n'est pas un simple constat, c'est une construction. Maîtriser un problème, c'est être capable de le formuler et de le résoudre. En cela il se distingue de Popper(1972) qui parle de "ce qui fait problème" alors que Bachelard aborde le concept de problème sous l'angle de la problématisation (Ridao, 1993).
Les cadres épistémologiques et psychologiques des typologies de problème vont alimenter la réflexion au niveau didactique.

II.3.4.2. Approches pédagogiques et didactiques

Roegiers (1993), s'appuyant à la fois sur Goguelin(1967) et D'Hainaut (1983) élabore une typologie sur la base du critère de nouveauté croisé avec les caractéristiques des trois éléments de base de l'espace-problème de Newell et Simon : le produit (but), la démarche(processus) et la situation de départ.



Roegiers établit d’abord une typologie simple basée sur la nouveauté d’une dimension :
- le produit est nouveau :« problèmes inducteurs d’apprentissages notionnels »
- la démarche est nouvelle : « problèmes inducteurs de démarches de résolution »
- la situation est nouvelle : « problèmes de mise en œuvre de notions et de démarches.

La dimension « nouveauté» est ensuite affinée pour dépasser la dichotomie nouveau/familier. Le tableau 24 suivant que nous avons conçu tente de rendre compte de cet éclatement opéré par Roegiers (1993).

Tableau 24 : Résumé synthétique de la typologie de problème de Roegiers (1993)


Dans ce schéma chaque variante est définie en associant les chiffres correspondant à la caractéristique de chacune des dimensions. Nous donnons ci-dessous quelques exemples de types de problème définis par :
Problème de type 1 (produit nouveau) :
Variante ( 14 ; 21 ; 31) – variante ( 14 ; 22 ; 31 ) – variante ( 14 ; 22 : 34 ) – variante (14 ; 24 ; 34).
Problème de type 2 (démarche nouvelle) :
Variante ( 24 ; 11 ; 31) – variante (24 ; 12 ; 31) – variante (24 ; 34 ; 11 )
Problème de type 3 (situation nouvelle) :
Variante (34 ; 22 ; 11) – variante (34 ; 22 ; 14) – variante (34 ; 24 ; 11)

Dans cette schématisation, on peut définir un problème en regroupant les nombres qui définissent une position dans le tableau, sous forme triplets.
Par exemple la première variante du problème de type 1 (le produit est nouveau), le triplet (14, 21, 31) définit un problème dont le produit est nouveau, la démarche de résolution évidente et la situation familière. De même, le triplet (34, 22,11) définit un problème dans une situation nouvelle, la démarche devant être sélectionnée parmi des démarches connues, le produit étant familier.
Les critères de Roegiers sont faciles à définir. Il se pose cependant un problème pratique à cause du caractère relatif de la notion de nouveauté, particulièrement dans des contextes de classes hétérogènes : on ne peut connaître à priori, face à une situation, quels sont les élèves qui sont réellement devant un problème.
Cette question de la relativité du problème est importante. En effet, suivant que la situation est un problème ou non, les démarches de résolution ne sont pas les mêmes. La position par rapport à un « problème » influe sur les démarches cognitives à mettre en œuvre.
Par exemple, lorsqu’on présente à quelqu'un un sujet qui lui est familier, dont il connaît la solution , son effort intellectuel se limitera à une restitution. Lorsqu’il ne connaît que la règle qui permet de résoudre son « problème » il fera au plus une application. le sujet pour lequel la situation et/ou les procédures à utiliser sont nouvelles, sera confronté à un véritable problème dont la solution devra être construite.
Nous pensons qu’il est possible de rendre le tableau synthétique de Roegiers plus homogène en affinant davantage l’échelle de nouveauté. Toutes les cases du tableau seraient alors occupées, comme l’indique le tableau 26.
Tableau 25 : Version affinée du tableau 24
Produit
1Familier
11Assez familier
12Peu familier
13Nouveau
14Démarche

2Evidente

21Démarche familière à sélectionner
22Ensemble de démarches familières 23
Nouvelle
24Situation



3
Familière


31Assez familière
(beaucoup de similitudes avec des situations familières 32Situation peu familière (quelques similitudes avec des situations vécues)

33Nouvelle

(aucune similitude avec un vécu)

34

Même si le tableau 25 ne résout pas entièrement les questions aux difficultés inhérentes au concept de nouveauté, il a l'avantage, à notre avis, d’enrichir l’analyse des types de problèmes.

Enfin, toujours au niveau didactique, Dumas-Carré et Goffard (1997) font la distinction entre les problèmes de la vie quotidienne ou professionnelle et les problèmes scolaires ou académiques. En effet le terme « problème » s’emploie pour désigner des situations de la vie courante ou professionnelle ou des activités scolaires spécifiques. Ces deux auteurs résument cette distinction par le tableau suivant :

Tableau 26 : Typologie dichotomique de Dumas-Carré et Goffard (1997, p. 9).
Problèmes de la vie quotidienne ou professionnelleProblèmes scolaires ou académiquesSouvent plusieurs solutions sont possiblesUn seul résultat est « juste »La situation est floue, mal définie ; il y a du travail pour « définir » le problème avant de chercher à le résoudre
La situation est totalement définieUne solution est jugée en termes de pertinence ou de cohérence ou d’avantagesLa solution est jugée en termes de « juste » ou « faux » La résolution est à construire complètementLa résolution est guidée par les données C’est le résultat obtenu qui compteLe résultat importe peu, c’est la façon dont il a été obtenu qui importe
Ce tableau a l’avantage d’avoir bien contrasté les deux types de problèmes identifiés. Cependant, comme cela arrive souvent, la nécessité d’une modélisation aboutit à des affirmations qui contredisent la réalité.
En effet, sur la deuxième ligne des items caractérisant les deux catégories, il est surprenant de considérer que les situations présentées aux élèves sont totalement définies. A notre avis , c’est une simple impression de l’enseignant. Dans un travail antérieur, nous avons montré, sur la base d’un exemple de problème de chimie, que pour élaborer une solution en toute rigueur, il y a toujours des hypothèses auxiliaires à faire intervenir par rapport aux systèmes physico-chimiques en jeu (Sall et al. 1998). Même si les énoncés contiennent en eux-mêmes des modélisations à priori ( il n’y a pas de frottements, le système est thermiquement isolé, le gaz est considéré comme parfait,


la dissolution de la substance ne modifie pas le volume initial…), il y a toujours des choix à faire, ne serait-ce qu’en termes d’interprétation du texte.

De même, à l’avant-dernière ligne du tableau, on a opposé « la solution est à construire entièrement » et « la résolution est guidée par les données ». En réalité, même pour les problèmes de la vie quotidienne, ce sont les données qui guident la résolution, particulièrement les données qualitatives.
De même, dans les faits (dernière ligne du tableau 26), pour les problèmes scolaires ou académiques, les résultats comptent souvent plus que la démarche utilisée, malgré quelques innovations en matière d’évaluation.
Ainsi, toute approche du concept de problème s’accompagne de manière explicite ou non d’une conception de la résolution de problème. Mais celle-ci fait toujours appel à des activités cognitives d’un sujet. C’est le processus qui consiste à atteindre le but à partir d’une situation de départ.
Cependant, un sujet aborde un problème avec ses connaissances, ses conceptions, tout en demeurant sensible aux stimulus de l’environnement.
Jonnaert (1988), cité par Roegiers (1993) exprime de manière originale le rôle des connaissances dans cette étape ; « Avant même d’être confronté à tout autre savoir, l’élève est donc d’abord confronté à son propre savoir » (p.219)

En résumé sur le processus de résolution de problème, à travers la littérature que nous avons parcourue (D’Hainaut, 1977, 1983  ; Gagné, 1985 ; Newell et Simon, 1972 ; Glover et al., 1990 ; Roegiers, 1993 ; Goffard, 1994), une convergence apparaît sur l’existence de quatre étapes générales :1. l’analyse de la situation ; 2. la résolution ; 3.la validation ; 4 la communication de la démarche.

La plupart des analyses portant sur la résolution sont axées sur une explicitation de ces quatre étapes fondamentales.
L’analyse de la situation met l’accent sur la représentation du problème. Le terme de représentation a ici une signification situationnelle : il est relatif à un problème donné. La représentation est une construction : c’est le produit de la compréhension du problème.


Le concept de compréhension renvoie à deux perspectives qui sont en fait liées : la perspective épistémique renvoie à une intégration de la nouvelle information dans les structures cognitives du sujet : la deuxième perspective dite pragmatique a pour finalité l’identification du résultat à atteindre.
La compréhension prise au sens pragmatique renvoie à la notion de tâche. La situation à analyser comprend deux pôles : le sujet et la tâche, c’est-à-dire ce que le sujet a à faire.
La tâche est au cœur de la résolution de problème. Dumas-Carré et Goffard (1997) mettent en garde contre la confusion entre problème et tâche. Une même tâche peut être une simple exécution de procédures déjà maîtrisées et donc qui « ne pose pas problème »au sujet, alors qu’elle peut constituer un véritable problème pour un autre.

Richard (1990) quant à lui conçoit la tâche comme  l’unité qui permet de découper et d’analyser le travail cognitif en composantes qui ont une certaine autonomie. Elle est caractérisée par un résultat à atteindre, par des contraintes dans l’obtention de ce résultat, et par un domaine de connaissances spécifiques.
En réalité, il nous semble que cette notion de tâche comporte également une dimension épistémique: c'est la représentation du problème qui renvoie à une interprétation de l’ensemble des données de la situation initiale.

L’étape de résolution est prise en charge par l’espace-problème de Newell et Simon (1972). Il s’agit de construire un chemin entre la situation de départ et le but à atteindre. La résolution est donc un processus, une construction, une dynamique. Elle appelle à une mobilisation de connaissances générales et spécifiques, à des opérateurs ou une combinaison d’opérateurs. Les processus suivis face à un même problème peuvent donc varier d’un sujet à un autre tout en étant efficaces.
La validation justement consiste à s’assurer que la solution proposée permet bien d’aboutir au but à atteindre, mais avec une dimension économique : une solution peut être valide sans être économique. La solution élaborée et validée est appliquée. La dernière phase de communication des résultats est particulièrement importante dans le contexte scolaire. Elle permet en même temps de contrôler une dernière fois la valeur de la solution.
En partant de ces différentes typologies, il est possible d'élaborer une typologie souple et adapté à la physique et à la chimique. Les problèmes utilisés dans l'enseignement secondaire sont essentiellement des problèmes normaux au sens de Kuhn (1983), dans les contextes d'évaluation sommative ou certificative. Mais des problèmes de rupture sont parfois utilisés dans une perspective de sélection ou de construction de nouveaux concepts, de nouveaux savoirs.
La typologie de Levy-Leblond (1980) nous semble être une bonne transition entre les typologies générales et les typologies plus spécifiques. Il distingue trois types de questions comme outil pédagogique en physique :

- la question de contrôle qui permet de vérifier la compréhension des concepts et des lois enseignées avec des choix dichotomiques ou multichotomiques;
- la question d'application qui permet de mettre en jeu les lois fondamentales de la physique dans des situations concrètes simples, proches de la situation quotidienne;
la question de critique conceptuelle dont la tâche consiste à examiner la logique interne et/ ou la validité des concepts utilisés.

La typologie que nous proposons contient essentiellement des problèmes normaux associés à quelques problèmes de rupture. Le critère utilisé est l'objectif de l'énoncé par rapport à l'apprenant .
















Tableau 27 : Typologie de problème simplifiée réalisée à la suite de la revue de la littérature sur les typologies de problème.
Problèmes normauxProblèmes de rupture1. Problème d'instanciation des concepts :
objectif : maîtriser les concepts-clés du cours par leur utilisation qualitative dans des contextes variés.6. Problème de domaine de validité
objectif : découvrir les limites du domaine de validité d'une loi, d'une méthode ou d'un principe.2. Problème d'application :
objectif : comprendre comment on applique une loi, une convention, une méthode, un principe dans une situation familière.7. Problème de "problématisation"
objectif : identifier l'existence d'une nouvelle problématique liée aux limites des outils théoriques et méthodologiques disponibles face à des faits nouveaux.3. Problème d'illustration
objectif : faire un lien entre les situations-problèmes abordées en classe et des situations de l'environnement familier.4. Problème de comparaison
objectif : comparer des démarches théoriques et/ou expérimentales et faire un choix argumenté.
5. Problème d'extrapolation
objectif : en partant d'une question résolue portant sur une situation connue ou étudiée en classe, imaginer les possibilités de transfert à des situations ou à des données empiriques non familières.
Nous nous proposons dans un travail ultérieur d’expérimenter cette typologie pour en faire un outil didactique au service de la résolution de problème. Cependant, dans le cadre de nos activités au département de physique et chimie de l'Ecole Normale Supérieure de Dakar, nous avons encadré un travail de fin d’études sur une adaptation de cette grille (Cissé, 2000).
Après une brève analyse de la typologie, l’auteur, compte tenu du temps dont il disposait pour faire le travail, a extrait une typologie simple de quatre catégories : problème de restitution, problème d’application , problème d’identification, problème d’extension.
En s’inspirant des objectifs définis dans la typologie que nous avons proposée, Cissé (2000) a sélectionné des indicateurs pour chaque catégorie.

Après avoir testé les indicateurs sur 8 problèmes classiques (3 problèmes de chimie et 5 problèmes de physique), l’auteur a procédé à une validation de sa nouvelle typologie

par les enseignants. Il a demandé à un échantillon de 15 enseignants en exercice de ranger, à partir d’un questionnaire, une liste de problèmes dans les quatre catégories.
Les résultats ont montré que seule la catégorie « problème de restitution » avait fait l’unanimité des enseignants. Par contre certains « problèmes  d’application » ont été classés dans la catégorie « restitution » (six enseignants sur 15). Les catégories « identification » et « extension» n’ont fait l’objet que d’une confusion.

Ces résultats, obtenus dans le cadre d’un petit exercice à la recherche en éducation, montrent que pour arriver à faire de cette typologie un outil didactique, surtout dans la formation des enseignants, un travail ultérieur devra être mené. La recherche en résolution de problème en contexte scolaire doit faire l’objet d’une attention particulière.

II.3.5. Les recherches en résolution de problème en physique et chimie

Nous présenterons des illustrations de trois courants de recherche :
les recherche centrées sur le paradigme expert/novice ;
les recherches destinées à développer les compétences des élèves en résolution de problème;
les recherches qui veulent transformer la résolution de problème en stratégie d’apprentissage de la physique et de la chimie par la construction de concepts.

II.3.5.1. Les recherches axées sur le paradigme expert/novice

Parmi les courants de recherche en didactique de la résolution de problème, il faut signaler le paradigme expert/novice dans lequel se sont particulièrement investis (Chi, Feltovitch et Glaser, 1981).
Le paradigme expert/novice est une approche de la résolution de problème basée sur une catégorisation des sujets en face d’un problème. Cette catégorisation s’appuie sur l’observation de différences significatives de comportement entre les sujets qui réussissent le plus à résoudre les problèmes et les sujets qui ne réussissent pas. Le premier groupe qui est marqué par une connaissances approfondie de la matière est appelé « groupe des experts ». Le second groupe est composé de sujets n’ayant pas une

grande connaissance de la matière : pour cela ils sont appelés « novices », d’où le nom du paradigme.
Chi et al. (1981) ont fait leurs recherches dans le contexte des sciences, particulièrement en physique. Des différences manifestes ont été observées entre les experts et les novices. La reconnaissance des stratégies des « experts » et des « novices » a reposé sur le protocole suivant :
on identifie les domaines de connaissances spécifiques ;
on identifie les experts dans les domaines de connaissances spécifiques par un test ;
on demande aux « experts » et aux « novices » de résoudre un ensemble de problème tout en verbalisant le protocole suivi, y compris les aspects affectifs ;
- les chercheurs procèdent ensuite à une analyse des protocoles verbalisés.
C’est ainsi qu’on a identifié les différences suivantes entre l’expert et le novice comme l’indique le tableau 28.

Tableau 28 : Comparaison entre l’expert et le novice dans un domaine de connaissances face à la résolution de problème selon Chi et al. (1981).
Observations faites sur l’ « expert »Observations faites sur le « novice »1. Il a beaucoup de connaissances1.Il n’a pas assez de connaissances2. Il possède assez de connaissances procédurales2. Il possède plutôt des connaissances déclaratives3. Il est plus efficace dans la mobilisation de ses connaissances3. Il mobilise difficilement ses connaissances4. Il réactive ses connaissances sous forme de réseaux cohérents4. Il réactive ses connaissances sous forme de contenus disjoints5. Il reformule le problème initial en mettant en évidence les phénomènes, les concepts, les lois et principes de base5. Il se limite à l’énoncé dans sa forme initiale ou en fait une lecture superficielle6. Il utilise une stratégie de résolution progressive : identifie les variables, génère des équations et les résout6. Il utilise une stratégie régressive : il part d’une équation contenant la grandeur à mesurer et cherche les données manquantes.7. Il résout plus rapidement les problèmes (4 fois plus rapide que le novice)7. Il est lent dans la résolution8. Il réussit le plus souvent à résoudre le problème8. Il échoue le plus souvent dans ses tentatives de résolution9. Il évalue les résultats obtenus9. Il n’évalue pas les résultats

On retrouve chez « l’expert » une démarche qui intègre deux étapes importantes du processus de résolution de problème esquissé dans la littérature : la construction d’une représentation personnalisée du problème qui se traduit par une reformulation originale et l’évaluation de la solution élaborée.
L’importance des connaissances de manière générale et des connaissances procédurales en particulier, dans la réalisation d’une tâche induite par le problème à résoudre est également un autre résultat important de cette recherche.
Les connaissances n’interviennent pas seulement par leur volume, mais aussi par la qualité de leur stockage qui détermine l’efficacité de leur réactivation au service d’une tâche à réaliser.
L’opposition entre l’expert et le novice en résolution de problème est illustré par Chi et al.(1981) dans un schéma devenu classique reproduit par Gagné (1985 ; p.273-274) : la comparaison entre les démarches de l’expert et du novice dans le cadre d’un problème portant sur le plan incliné dans les problèmes de mécanique.
On observe une différence nette entre les deux structures conceptuelles qui traduisent bien les démarches progressive et régressive qui caractérisent respectivement l’expert et le novice. Alors que l’expert part des principes généraux de la mécanique et identifie les lois et leurs conditions d’application, le novice se caractérise par une structure conceptuelle désorganisée.
On peut ici émettre l’hypothèse que les connaissances conditionnelles ont joué un rôle déterminant dans la structuration du champ conceptuel des sujets. Plusieurs travaux dont certains ont été déjà signalés viennent à l’appui de cette hypothèse, dont Bugerere (1998).

Cependant, cette dichotomisation des sujets en experts et novice nous semble trop manichéenne.
Sur le plan pédagogique cette description nous semble trop figée, même si ce paradigme donne une base d’analyse et des données empiriques sur la résolution de problème en science. La question du passage du novice à l’expert, ou plus précisément le développement des compétences en résolution de problème, nous semble être cruciale pour faire face à la faiblesse des élèves en résolution de problème.



II.3.5.2. Les recherches de développement des compétences en résolution de problème

Dans ce type de recherche, l’apprentissage porte sur la résolution de problème et non sur les concepts disciplinaires. Les situations expérimentales sont constituées par des problèmes classiques donnés dans l’enseignement secondaire ou dans les premiers cycles universitaires. Il s’agissait d’analyser le processus de résolution en mettant l’accent sur l’importance de phases qui structurent la démarche de l’expert. Les activités cognitives de l’élève sont également prises en compte dans l’expérimentation.
Dans ce courant de recherche il faut signaler Rief (1981), Heller et Rief (1984) qui ont insisté sur l’importance de la représentation du problème que ces auteurs considèrent également comme une phase critique.
La méthode utilisée est un entraînement systématique et une explicitation du produit attendu. Les rapports de recherche de Rief et al. ne renseignement cependant pas assez selon Goffard (1993) sur le mode de travail pédagogique et le traitement des données recueillies lors de l’évaluation.
Une équipe de recherche des Pays-Bas (Mettes et al. 1980) appartient également à ce courant. A partir de problèmes de niveau premier cycle universitaire, ils ont axé leurs activités sur une résolution modèle qui cependant se démarque de celle de l’expert. Le processus de résolution est décomposé en phases décrites en termes d’activités cognitives. L’action menée par ce groupe de recherche consistait surtout à apprendre aux étudiants à reconnaître des problèmes dits « standards » et à leur appliquer des routines qui ont été développées. Mais Mettes et ses collègues n’ont pas fourni assez d’informations sur les stratégies pédagogiques mises en œuvre, qui apparaissent ainsi comme le contenu d’une boîte noire. On voit là que dans le cadre scolaire les tâches d'application sont également désignées par le terme de problème.

Une autre équipe de recherche du LIREST (Université de Paris 7) a mené de nombreuses recherches qu’on peut ranger dans ce courant (Dumas-Carré, 1987 ; Caillot, Dumas-Carré et al., 1988 ; Caillot et al., 1990 ; Goffard, 1993 ; Dumas-Carré et Goffard, 1997).
C’est ainsi que cette équipe a développé une méthode pour résoudre des problèmes de physique appelée méthode PROPHY (PROblèmes de PHYsique).

L’élaboration de cette méthode a été précédée d’enquêtes auprès d’enseignants en formation et d’élèves en situation de résolution de problème.
Aux enseignants en formation il était demandé de donner des explications de la faiblesse des élèves en résolution de problème. Ils ont ainsi identifié trois éléments : les difficultés pour lire l’énoncé, une connaissance insuffisante de la matière et des difficultés d’ordre mathématique.
L’enquête auprès des élèves reposaient sur des entretiens réalisés en situation de résolution de problème et une analyse de contenu faite sur des copies d’évaluation. Les difficultés identifiées auprès des élèves étaient observées à deux niveaux .
Selon l’enquête, les élèves éprouvaient d’abord des difficultés pour comprendre les concepts de physique au-delà de la connaissance de la définition. Même lorsque la signification des concepts était acceptable, le champ d’application n’était pas délimité et les conditions d’utilisation peu maîtrisées (connaissances conditionnelles).
La deuxième difficulté était liée à la construction d’une représentation du problème au sens de Newell et Simon (1972). Cette enquête confirme des données déjà révélées par plusieurs études antérieures, notamment dans le paradigme expert/novice.
L’apprentissage de la résolution de problème développé par cette équipe de recherche, dans le cadre de la méthode PROPHY se faisait surtout par la mise au point d’aides cognitives spécifiques pour guider le processus d’élaboration de la représentation du problème, dans le sillage des travaux de Rief (1983) et de Mettes (1980).
L’impact de telles aides a été testé dans de nombreuses recherches par les membres de l’équipe de recherche. Les conclusions tirées de cette recherches sont les suivantes :
- lorsque les aides cognitives sont fournies à la suite d’un cours classique, les résultats ont été peu significatifs.
- par contre, lorsque les aides sont intégrées dans l’enseignement, les résultats obtenus ont été nettement concluants.
L’interprétation que nous pouvons donner des expérimentations de la méthode PROPHY est que la résolution de problème, pour qu’elle puisse être développée doit être intégrée dans un projet pédagogique cohérent. On ne peut pas la développer en dehors du cours lui-même, c’est -à - dire en dehors du travail de l’enseignant. Quand on pense que l’enseignant agit en fonction de ses conceptions de cette activité, on perçoit déjà l’intérêt à s’intéresser à ces conceptions.

II.3.5.3. Les recherches axées sur la résolution de problème comme contexte d’apprentissage

Ce courant de recherche en didactique de la résolution de problème n’a pas pour objectif exclusif d’apprendre aux élèves à résoudre des problèmes. L’intérêt est porté sur l’apprentissage des concepts, des modèles et de la modélisation.
Le point de départ est la construction du savoir de l’élève à partir de leurs conceptions. En plus des problèmes scolaires, il y avait également des tâches d’ordre expérimental. Mais certains aspects de la résolution de problème, notamment la représentation, étaient pris en compte.

L’équipe de Gil Perez (Gil et Martinez-Terregosa, 1983 ; Dumas-Carréet al. 1990), a travaillé sur des problèmes ouverts, sans données. L’activité de résolution de problème est ici considérée comme une activité du chercheur dont les pratiques sont prises comme référence. L’expérimentation a lieu dans l’enseignement secondaire. Le processus de résolution est ici découpé en six phases dont la première est la problématisation, et la dernière, l’ouverture, un prolongement du problème. Les élèves travaillent par petits groupes pour élaborer le produit de chaque phase. La stratégie pédagogique utilisée inclue des échanges élèves-élèves et élèves-professeurs. Cependant cette recherche ne nous renseigne pas sur les résultats obtenus.

Weil-Barais et Lemeignan (1990) ont effectué des recherches sur l’apprentissage des modèles et des concepts. L’étude de ces concepts implique des analyses épistémologiques et psychologiques. La suite de la résolution de problème est destinée à la construction des concepts. Mais nous n’avons pas d’indications sur les résultats obtenus par Weil-Barais et Lemeignan (1990).
Robardet (1989) a également mené des recherches en résolution de problème avec pour finalité le développement de compétences en modélisation, à partir des idées initiales des élèves en physique. Des interventions didactiques appropriées sont fournies aux élèves face à des situations-problèmes emboîtées permettant, en passant par des modèles intermédiaires, de construire le concept.



Cette trajectoire de modélisation est guidée par des hypothèses émises lors de la première phase du schéma suivant : action – formulation – validation. Mais dans cette recherche également on ne fournit pas d’informations sur les résultats obtenus par Robardet.
Dans la suite de leurs travaux antérieurs, et sous l’influence de la perspective ouverte par l’équipe de Gil Perez, Dumas-Carré et Goffard (1997) ont développé des recherches tendant à mettre au point des outils pour « apprendre de la physique en résolvant des problèmes » et promouvoir des « activités de résolution de problème semblables à des activités de recherche pour apprendre la physique ».
Dumas-Carré et Goffard (1997) , pour mettre la résolution de problème au service de l’apprentissage de la mécanique, ont mis au point des outils : le diagramme objets-interactions (DOI) et le découpage spatio-temporel. Les auteurs désigne l’ensemble par le terme de « bande dessinée ».
En réalité la démarche de Dumas-Carré et Goffard, qui se veut novatrice, reste toujours marquée par les préoccupations antérieures, particulièrement le développement de la phase de représentation du problème.
Le diagramme objets-interactions (DOI), selon les auteurs, est une schématisation qui se veut une représentation des objets et des interactions entre les objets. Il a pour fonction de servir d’interface entre :
- une représentation figurative des objets et leur symbolisation par le physicien. En mécanique du point, les objets sont représentés par des points auxquels sont associés des grandeurs physiques;
- une description phénoménologique des situations (l’objet A agit sur l’objet B) et une description faisant intervenir le concept de force (l’objet C est soumis à une force).

Le DOI est selon les auteurs une mise en forme symbolique des constructions conceptuelles d’objets, de manière à aider l’élève à comprendre et à appliquer les notions de physique. Ainsi la construction de la représentation d’un problème trouve en amont un support dans l’enseignement dispensé. Cela nous ramène encore une fois au rôle de l’enseignant.




Quand au découpage temporel, il avait principalement deux objectifs :
- faire la distinction entre le concept d’instant (durée nulle) et celui de phase (durée non nulle);
relier les phases d’un mouvement à l’analyse des forces s’exerçant sur le système étudié.

L’apprentissage de ces deux outils a été mis en œuvre dans des conditions ordinaires, sous forme de travaux pratiques, avec des groupes de discussion impliquant les élèves et le professeur.
Après l’expérimentation, les auteurs ont évalué deux aspects de leur innovation : l’impact sur les acquisitions conceptuelles des élèves et la pertinence de l’utilisation des aides. Il s’agissait de comparer les performances d’un groupe expérimental de 36 élèves (qui a bénéficié d’une formation sur le DOI) et celles de 112 élèves constituant un échantillon-témoin.
L’évaluation a révélé une amélioration nette du concept d’interaction chez les élèves ayant bénéficié de cette formation, même si les différences ne sont pas du même ordre de grandeur suivant les items du test d’évaluation. Un autre résultat, obtenu à partir de l’analyse des copies des sujets faite par les auteurs, est une modification de l’approche que les élèves avaient de la résolution de problème.
C’est pour approfondir ces premiers résultats que Dumas-Carré et Goffard (1997) ont mis ensuite au point des « activités de résolution de problème semblables à des activités de recherche pour apprendre la physique ».
Les auteurs placent ce deuxième volet de leur recherche dans une perspective de changement conceptuel, c’est-à-dire de modification des conceptions sur les connaissances scientifiques que véhicule de manière implicite ou explicite l’enseignement traditionnel des sciences. La physique apparaît dans l’enseignement comme un corpus de connaissances définitivement établies et reconnues. Les problèmes à résoudre ne peuvent être dans ce cadre que des questions fermées, qui ont des solutions connues par les experts que l’élève doit simplement reconstruire, pou ne pas dire, rappeler.
A cette vision statique de la physique, les activités nouvelles de résolution de problème devraient substituer une vision dynamique, ouverte, donnant des occasions de questionnements divergents, d’impasses et de remises en cause.

Les activités nouvelles ont été construites par les chercheurs à partir d’une explicitation de la démarche scientifique en sept étapes :
élaborer une problématique ;
choisir un cadre théorique et/ou un niveau de modélisation;
émettre des hypothèses;
définir les données qu’il faudra recueillir pour tester les hypothèses;
établir un plan d’expériences, l’exécuter en contrôlant la méthodologie;
interpréter les résultats et conclure à propos des hypothèses;
déterminer de nouvelles questions, maintenant abordables, et susceptibles de conduire à de nouvelles recherches.

La mise en œuvre de ces activités implique naturellement une préparation spécifique, le mode de gestion de la classe étant radicalement modifié, en particulier le rôle du professeur, qui devient alternativement un guide et une personne-ressources (travaux de groupe des élèves), professeur animateur ( au cours des discussion en séance plénière) et un professeur « institutionnalisateur » (quand devant le groupe-classe élèves il rappelle cadre, recentre les activités, et les met en perspective).
L’évaluation de l’expérimentation de cette approche a été faite sur deux axes : les modifications des comportements des élèves face aux activités de résolution de problème et les performances des élèves en résolution.

Le comportement a été décomposé en six (6) dimensions :

les activités des élèves au début de la résolution (les élèves consacrent-ils du temps à l’analyse qualitative, l’identification du contexte et des conditions ?)
les activités d’émission d’hypothèses ( les élèves émettent-ils de manière explicite des hypothèses avec prise en compte de cas limites ?).
les stratégies (les élèves explorent-ils plusieurs pistes avant de choisir une stratégie conduite qualitativement jusqu’au bout avant le traitement mathématique ?)
l’explicitation du raisonnement (les élèves donnent-ils clairement des explications d’ordre physique au lieu d’aligner des calculs mathématiques ?)
les résultats obtenus (sont-ils analysés par les élèves ? sont-ils mis en relation avec les hypothèses ?)

l’attitude en face de la résolution de problème (les élèves sont –ils devenus plus persévérants ? Y a-t-il moins d’abandons en cours de résolution ?)

Les chercheurs ont opté pour une évaluation globale des performances. En plus de la dichotomie réussite/échec, on a adopté par le biais de consignes claires données aux élèves une méthodologie permettant de recueillir le maximum d’informations sur le déroulement de la résolution : « verbaliser le raisonnement, ne rien effacer ou barrer même lorsque il y a eu erreur ou abandon d’un chemin… »
Les révélateurs des comportements et des performances des élèves ont été constitués de problèmes classiques de difficulté moyenne, des problèmes comportant une ou des données inutiles, et des problèmes classiques de difficulté supérieure à la moyenne.
Le groupe expérimental était constitué d’une classe de 40 élèves de 1ère ayant travaillé avec la méthode pendant une année scolaire. Deux groupes témoins étaient constitués de 38 élèves de la classe de 1ère) et de 68 élèves de Terminale.
Sur les six dimensions du comportement des élèves, les résultats ont une différence significative (p< 0,1), entre les élèves de la classe expérimentale et les élèves des groupes témoins, particulièrement au niveau du comportement de départ (précipitation sur les données numériques) et sur l’utilisation de données superflues (très nette chez les élèves-témoins).
Les élèves expérimentaux réussissent mieux en performance globale, particulièrement lorsque le problème est de difficulté au-dessus de la moyenne. De même le pourcentage d’abandon est de loin plus faible chez les élèves du groupe expérimental.
Les recherches menées par Dumas-Carré et Goffard ont permis de mettre en évidence la place de la résolution de problème dans l’enseignement de la physique et de la chimie. Il ne s’agit pas d’activités destinées uniquement à évaluer les élèves. Elles participent de la construction du savoir scientifique. La résolution de problème est au cœur du système enseignement/apprentissage des sciences.

II.3.5.4. Conclusion sur les recherches en didactique de la résolution de problème en physique et chimie

La revue précédente a montré que la résolution de problème est l’objet de beaucoup d’attention de la part des chercheurs en didactique. Les recherches que nous avons

répertoriées se distribuent comme nous l’avons montré, en différents courants allant du paradigme expert/novice (Chi et al.1981) aux recherches axées sur le développement des capacités en résolution de problème dans une perspective d’augmenter les performances des élèves mesurées par les évaluations de type classique (Caillot, Dumas-Carré et al., 1988 ; Rief, 1983 ; Mettes, 1984).

Mais très vite, la résolution de problème s’est révélée être une stratégie de modélisation (Robardet, 1989 ; Weil-Barais et Lemeignan , 1990).
Les récents travaux de Dumas-Carré et Goffard, dans leurs tentatives de mettre la résolution de problème au service de la construction des concepts de physique, ont abouti à des résultats qui montrent qu’il est possible de dépasser la situation actuelle des apprenants face aux problèmes de physique et de chimie.
Sur le plan méthodologique, les recherches se sont appuyées sur l’observation des apprenants en situation de résolution de problème et/ou l’analyse de productions d’élèves. Certaines recherches n’ont pu aboutir à des conclusions sans que les auteurs aient apporté des justifications.
Dans de nombreuses recherches (Chi et Feltovich, 1981, ; Caillot, 1988 ; Dumas-Carré et Goffard, 1997), le rôle des connaissances, notamment les connaissances procédurales qui permettent de faire une bonne représentation du problème, est apparu comme une donnée incontournable( le paradigme expert/novice).

Le cadre problématique implicite de toutes ces recherches place les élèves au centre des préoccupations, ce qui est parfaitement en adéquation avec les positions les plus novatrices en psychologie de l’apprentissage. Cependant le rôle de l’enseignant est souvent passé sous silence même si Dumas-Carré et Goffard admettent que les outils qu’elles proposent impliquent une modification du mode de gestion de la classe et du rôle du professeur.

Il apparaît que quelque soit le contexte d’innovation, l’enseignant est appelé à jouer un rôle important pour transformer les activités scolaires de résolution de problème, à la fois dans le sens d’une plus grande efficacité interne (performances par rapport aux critères institutionnels de réussite), mais aussi dans le sens d’un changement de


perspective de l’enseignement de la physique et de la chimie, à la lumière des apports de la didactique.
Malgré ou à cause de la prégnance de plus en plus marquée du constructivisme dans la didactique des sciences, la pensée des enseignants (Tochon,1995), leurs croyances pédagogiques ou didactiques, leurs perceptions des activités d’enseignement-apprentissage, bref leurs conceptions, constituent, à notre avis, des variables dignes d’intérêt pour la recherche en didactique des sciences. Les situations de classe sont le lieu d’interférence de plusieurs épistémologies : celles des élèves loin d’être homogènes, et celle de l’enseignant détenant encore une position de pouvoir lié au crédit que lui accorde l’institution scolaire.

Il nous faudra voir comment replacer l’enseignant dans ces nouvelles perspectives. Pourquoi ne pas s’intéresser par exemple à ses conceptions celles-là même qui guident leurs actions et surtout qui déterminent leur engagement dans toute entreprise d’innovation en milieu scolaire ?
Cette dernière question nous sert de transition vers notre cadre problématique, l’objet du prochain chapitre.






























PREMIERE PARTIE

CHAPITRE III. CADRE PROBLEMATIQUE


Introduction

Les résultats de la recherche exploratoire (Chapitre 1) ont fait ressortir la nécessité d’approfondir le cadre théorique de la résolution de problème. Le cognitivisme est apparu comme le cadre théorique général le plus pertinent pour clarifier les concepts de connaissance, de conception, de problème et de résolution de problème. Le cadre théorique restreint s’inscrivant dans une perspective didactique a ouvert la voie à l’élaboration d’un cadre problématique qui a pour fonction de donner du sens à la recherche.
Mais compte tenu du rôle des connaissances dans la résolution de problème et de ses rapports avec l’apprentissage, il nous a semblé utile de nous situer par rapport à la psychologie de l’apprentissage. Dans cette perspective nous avons opté pour une approche constructiviste des connaissances et de l’apprentissage.
La revue des recherches en résolution de problème, particulièrement les recherches en didactique de la physique et de la chimie a permis de mettre en évidence les tendances actuelles. Une constante apparaît : les activités de résolution de problème dans l’enseignement secondaire souffrent d’un manque d’efficacité. Compte tenu de leur place dans les activités enseignement/apprentissage, il est urgent pour la recherche de renouveler les angles d’attaque si on veut fournir des bases décisionnelles pertinentes à l’amélioration des pratiques pédagogiques.
Le cadre problématique donne l’occasion de reposer les problèmes, d’abord de manière générale, puis de manière spécifique pour déboucher sur des questions précises de recherche.

III.1. Cadre problématique général

La résolution de problème est une activité individuelle d’un apprenant face à une situation donnée. Son importance dans la vie de tous les jours et les compétences cognitives qu’elle permet de mobiliser et de développer font qu’elle constitue une activité au cœur du système enseignement/apprentissage, particulièrement dans l’enseignement de la physique et de la chimie.
C’est pourquoi notre entrée dans la problématique de la recherche se fera à partir d’un modèle enseignement/apprentissage des sciences: le modèle de White et Tisher (1986). L’analyse critique de ce modèle nous permettra de l’articuler avec la problématique de la résolution de problème.

III.1.1. Entrée par le modèle de White et Tisher

Dans la littérature sur l'enseignement en général de nombreux modèles ont été proposés mettant l'accent sur les contenus, sur le travail de l'enseignant, sur les activités d'apprentissage ou sur les relations entre ces différents éléments ( De Corte et al., 1990).
Pour l'enseignement des sciences nous avons choisi de nous appuyer sur le modèle proposé par White et Tisher (1986) qui met en jeu des variables externes, les caractéristiques individuelles de l'apprenant et ses performances. Le schéma suivant est une adaptation de ce modèle.

Schéma 4 : Modèle adapté de White et Tisher (1986 ).
Handbook of Research on Teaching, Wittrock ( p. 875)




Le modèle de White et Tisher met bien en évidence le rôle des facteurs externes dans la détermination des caractéristiques de l'apprenant, lesquelles déterminent à leur tour les performances réalisées. Les influences externes sont, selon White et Tisher, de trois ordres: le contexte, les expériences de l'apprenant et l'enseignement qu'il reçoit.
Les caractéristiques de l'apprenant sont décrites en termes de perception du contexte, d'attitudes et de traits de personnalité, de contenu initial de la mémoire et de ses aptitudes de départ. Les effets de l'interaction entre les influences externes et les caractéristiques de l'apprenant sont des performances qui comportent une dimension d'attitude ou de savoir-être.

Plusieurs hypothèses peuvent être induites à partir de ce modèle. Par exemple, la perception du contexte serait influencée par les expériences personnelles de l'apprenant et par le contexte lui-même. De même, les modifications du contenu initial de la mémoire se feraient sous l'action conjuguée des aptitudes de l'apprenant et de l'enseignement qu'il reçoit. Quant aux performances, elles résulteraient du contenu de la mémoire, de l'enseignement reçu et de la nouvelle attitude de l'apprenant.
La place réservée au contexte comme facteur externe, l'inclusion de la perception du contexte par l'apprenant dans ses caractéristiques fondamentales, et l'accent mis sur les expériences antérieures nous semblent être parmi les aspects les plus marquants de ce modèle.
L’enseignement se présente comme un facteur externe à l’apprenant et n’influe qu’indirectement sur les performances. Se pose alors la question suivante. Par rapport à notre objectif de contribuer à l’amélioration des performances manifestement insuffisantes en résolution de problème, comment envisager notre problématique de recherche ?
Une critique du modèle de White et Tisher va nous permettre de clarifier cette problématique.





III. 1 2. Critique du modèle de White et Tisher : vers un cadre problématique général

Comme tout modèle, le schéma proposé par White et Tisher est une simplification de relations complexes. Il suggère une linéarité qui masque certains aspects déterminants du processus. C'est ainsi que le modèle n'explicite pas le type d'interactions entre les facteurs externes et les caractéristiques de l'apprenant pour aboutir à des performances. Cette remarque peut être mise en relation avec le paradigme processus-produit (Lafontaine et Crahay, 1986).

Il semblerait alors que la nouvelle attitude et le contenu de la mémoire de l'étudiant et ses aptitudes suffiraient à produire la performance attendue. Cette dernière est cependant le résultat d'un processus contextualisé. Nous rejoignons ici Fenstermacher (1986) pour dire que la relation entre d'une part, les aptitudes, le contenu de la mémoire et les attitudes, et, d'autre part, la performance, ne saurait être une relation de cause à effet. Il s'agirait plutôt d'une relation de type "ontologique" (Fenstermacher, 1986).

On note également une certaine dissymétrie dans le modèle. En effet bien que le contexte, les expériences de l'apprenant et l'enseignement soient placés au même niveau d'analyse (les influences externes), la notion de perception n'est appliquée qu'au contexte. En d'autres termes, le modèle reste muet sur les relations éventuelles entre les perceptions par l'apprenant de ses expériences personnelles et de l'enseignement qu'il reçoit dans la réalisation des performances. Finalement, face à une tâche à réaliser, l'apprenant n'est-il pas tributaire de toutes ses perceptions du contexte, de ses expériences et de l'enseignement?
Le modèle de White et Tisher peut être résumé comme suit: l'apprenant réalise des performances à partir de ses caractéristiques propres, résultat de l'action de trois types de facteurs externes: le contexte, les expériences personnelles, et l'enseignement. Les caractéristiques de l'apprenant jouent donc ici le rôle de variables d'entrée et les performances sont des effets mesurables. Le processus de réalisation de la tâche n'est pas mentionné de manière explicite et se présente sous forme de boîte noire. Le schéma 5 illustre cette synthèse (voir page suivante) :



Schéma 5 : Schéma interprétatif du modèle de White et Tisher


Ce schéma interprétatif rend bien compte de la non explicitation des aspects de processus. Il présente également l'avantage de distinguer les trois dimensions de toute activité éducative: l'entrée , le processus et les effets. Nous convenons d'appuyer notre analyse de la résolution de problème dans un contexte scolaire sur ces trois dimensions, qui permettent ainsi une description macroscopique de notre cadre problématique général. On distingue ainsi trois types de variables:
des variables d'entrée (Ve) constituées par l’enseignement, l’expérience et les caractéristiques propres du sujet et le contexte;
des variables de processus (Vp), qui ne sont pas explicitées par le modèle;
des variables d'effet (Vef) constituées par les différents aspects des performances.

Suivant le type de recherche envisagé, le cadre problématique général peut s’appuyer sur une articulation spécifique entre ces trois catégories de variables.


Par exemple, dans une recherche de type explicative ou prédictive (De Ketele, 1984), on pourrait se poser plusieurs questions à propos des relations entre les trois catégories de variables.
Une autre approche consisterait à s’intéresser à une meilleure connaissance de chacun des types de variables. La recherche pourrait alors porter sur une meilleure connaissance des méthodes d’enseignement de la résolution de problème (Dumas Carré, 1989  ; Goffard, 1993), sur une étude des stratégies de résolution de problème (Caillot, 1989 ; Gil Perez, 1989 ), ou l’étude des performances en résolution de problème (Chi et al. , 1983), dans une perspective évaluative ou docimologique (De Ketele et Roegiers, 1993).
De nombreuses recherches ont été déjà menées sur l’enseignement des stratégies de résolution de problème. Mais on ne s’est pas intéressé au rôle des enseignants dans les performances des apprenants en résolution de problème. Pourtant, beaucoup de recherches ont été menées sur la pensée des enseignants (Tochon, 1993 ; Hashweh, 1996 ; Klaassen et Lijnse, 1996).
Hashew (1996) suggère que les travaux sur la pensée des enseignants devraient plutôt s’orienter vers l’analyse des croyances et des conceptions des enseignants. Cette perspective semble selon lui plus fructueuse dans l’entreprise de compréhension des comportements des enseignants. Hashew renforce ainsi les assertions déjà émises par Fenstermacher (1979) et Clark (1989).
De même, à la suite de sa méta-analyse des recherches sur la pensée des enseignants, Pajares (1992) avait clairement indiqué que « la pensée des enseignants pouvait et devrait constituer un thème important dans la recherche en éducation…Cela nécessiterait cependant, une clarification conceptuelle,…et l’établissement de faits spécifiques par l’investigation sur les conceptions » (p. 307).
Hashew (1996) a mené des recherches sur l’influence des conceptions des professeurs de sciences (physique et chimie, mathématiques, biologie), sur les pratiques pédagogiques. A partir d’une dichotomisation d’un groupe d’enseignants en « type constructiviste » et « type empirique », Hashew obtient des résultats qui révèlent nettement des différences de comportement face aux réponses fournies par les élèves en situation de classe, mais aussi dans le choix des stratégies pédagogiques.
Cependant, parmi les nombreux travaux sur la pensée des enseignants, sur leurs conceptions épistémologiques à propos de la science et des connaissances scientifiques,

très peu ont porté sur la résolution de problème. Hashew (1996) signale cependant les travaux de Martens (1992). Celui-ci a mené une étude sur les changements en cours chez des enseignants en activité au niveau élémentaire. Martens a montré comment les conceptions des sujets faisaient obstacle lors d’une implantation d’une approche en résolution de problème au niveau élémentaire.
Notre travail se propose d’articuler le courant de recherche en résolution de problème et la problématique des conceptions des enseignants dans le sillage des travaux de Pajares (1992), Gallagher (1991), Hashew (1996) et Klaassen et Lijnse (1996).

Ainsi, nous avons choisi de nous intéresser aux conceptions des professeurs de physique et de chimie, en résolution de problème, comme préalable à l’amélioration des performances des élèves dans l’enseignement secondaire. Il s’agira d’expliciter la structure de ces conceptions, d’identifier des facteurs qui pourraient influer sur ces structures, et enfin de voir dans quelle mesure elles pourraient évoluer.

Nous ne cherchons pas à établir l’influence directe de ces conceptions dans les performances. Il s’agit ici, pour reprendre l’idée de Fenstermacher (1986), d’une dépendance « ontologique ». Nous ne sommes pas dans le paradigme de recherche du type processus/produit. La pensée des enseignants n’influe sur les performances des élèves que de manière indirecte. En effet, les enseignants organisent des activités enseignement/apprentissage de la résolution de problème, choisissent des exercices et des problèmes, exposent des stratégies de résolution, adoptent des attitudes qui vont influer sur les démarches de résolution et donc sur les performances des élèves.

La question qui se pose est alors celle-ci : est-il possible de connaître ces idées des enseignants ? Quelles sont les caractéristiques de ces conceptions ? De quelles variables spécifiques dépendent-elles ?

Ce cadre problématique général étant circonscrit, il s’agira à présent de délimiter un cadre problématique restreint permettant d’identifier les variables sur lesquelles portera la recherche. C’est l’objet du cadre problématique restreint.



III. 2. Cadre problématique restreint

La question centrale de notre recherche est de décrire de manière aussi fine que possible les conceptions des enseignants en résolution de problème. Il s’agira d’identifier des facteurs pertinents par rapport à ces conceptions, et d’étudier leur évolution dans un cadre spécifique. Cela fait des conceptions des enseignants la variable-clé du cadre problématique restreint.
Ce cadre doit être articulé d’une part avec les données de la recherche exploratoire, et d’autre part avec les données à la fois théoriques et empiriques fournies par le cadre théorique général et le cadre théorique spécifique.

La recherche exploratoire a permis une approche des conceptions à propos de la résolution de problème comme une combinaison de cinq (5) dimensions.
A partir d’un questionnaire ouvert, cinq dimensions ont été identifiées : la situation de départ (Sd), la finalité ou fonction du problème (Fi), la représentation de la tâche (Rt), le processus de résolution (Pr), la composante affective (Ca).
Cette décomposition est-elle suffisante à la lumière de notre revue théorique ? Dans le cadre théorique, la revue de la littérature a mis en évidence une sorte de consensus sur quatre étapes générales de la résolution de problème : l’analyse de la situation, la résolution, la validation et la communication de la démarche.

L’espace-problème de Newell et Simon (1972) peut constituer une autre grille d’analyse de la décomposition de la macrovariable « conceptions des enseignants ».
Il faut remarquer tout de suite que ces deux référentiels n’ont pas les mêmes objectifs. Les quatre étapes citées plus haut sont relatives à la résolution elle-même, alors que l’espace de Newell et Simon envisage à la fois l’énoncé du problème, les moyens pour le résoudre, et la résolution elle-même.

Le tableau 29 permet une vue d’ensemble des dimensions issues de la recherche exploratoire, les quatre étapes générales de la résolution et l’espace-problème de Newell et Simon (page suivante).

Tableau 29 : Comparaison entre variables exploratoires, étapes générales de résolution de problème l’espace-problème de Newell et Simon.

Variables de la recherche exploratoireLes quatre étapes générales de la résolutionL’espace-problème de Newell et Simon
1. Sd = Situation de départ

2. Fi = Finalité

3. Rt = Représentation de la tâche

4. Pr = Processus de résolution

5. Ca = Charge affective


1. l’analyse de la situation

2. la résolution

3. la validation

4. la communication de la démarche
1. un ensemble d’éléments, chacun représentant une unité de connaissance à propos de la tâche à faire dans le cadre du problème posé;

2. un ensemble d’opérateurs qui sont des procédures pour combiner les unités d’information et produire de nouvelles connaissances à partir de connaissances antérieures;

3. un état initial des connaissances à propos du problème spécifique;

4. le problème lui-même décrivant le but à atteindre par l’application de procédures;

5. l’ensemble des connaissances du sujet à propos du problème spécifique, mais aussi à propos de méthodes de résolution, de validation d’une démarche, de l’évaluation d’une solution obtenue.
Nous allons voir dans quelle mesure les dimensions utilisées dans la recherche exploratoire peuvent être reconduites ou reformulées pour construire le cadre problématique.

La variable (Sd) est prise en compte par la première étape de la résolution de problème : l’analyse de la situation. Mieux, elle est exprimée de manière explicite dans l’espace-problème de Newell et Simon.
La variable « situation de départ » sera donc reconduite dans notre cadre problématique restreint. Mais, pour lui donner un sens plus concret dans une perspective disciplinaire, nous l’appellerons « Enoncé » (En). L’énoncé est en effet une description de la situation de départ indiquant les données, les contraintes, avec une explicitation de la tâche à réaliser.



La variable « Finalité » va au-delà du processus de résolution. Compte tenu de l’intérêt de la recherche en didactique pour la signification à donner aux activités de résolution de problème (Dumas-Carré, 1989 ; Michel Caillot, 1998), cette variable sera reconduite. Elle recouvre à la fois la finalité et la fonction scolaire de la résolution de problème. Elle sera appelée « Finalité et fonction » et notée (Ff) dans notre cadre problématique restreint.

La troisième dimension « représentation de la tâche » est en fait un aspect du processus de résolution ; elle découle de l’analyse de la situation. Elle ne sera pas reconduite de manière distincte dans la suite de la recherche. Par contre on peut l’associer, dans une perspective purement didactique, au résultat attendu dans les problèmes de physique et de chimie. Nous substituons à la dimension Rt (représentation de la tâche), la dimension plus opérationnelle de « résultat attendu », notée (Ra).

Il peut paraître surprenant de remplacer une variable de processus (la représentation de la tâche, Rt ) par une variable plus statique (le résultat attendu, Ra). Le choix a été dicté par la nécessité, dans une perspective didactique, d’utiliser une terminologie plus familière. Mais, dans le fond, le résultat attendu (Ra), est un élément de la représentation de la tâche.

La quatrième dimension de la recherche exploratoire « processus de résolution » est bien prise en charge aussi bien dans les quatre étapes générales que dans l’espace-problème de Newell et Simon. Elle sera donc maintenue avec la même notation (Pr).

La dernière dimension (composante affective) telle que définie dans la recherche exploratoire était en troisième position dans les conceptions des élèves-professeurs interrogés lors de la recherche exploratoire. Mais les indicateurs qui lui ont été associés étaient les plus difficiles à manipuler.
Cependant, les analyses les plus récentes des processus cognitifs ont mis en évidence l’importance de la dimension affective et motivationnelle. L’espace qui permet de décrire les conceptions des enseignants doit nécessairement prendre en compte cette dimension.


C’est pourquoi, dans le cadre problématique restreint nous allons définir une variable qui englobe la dimension affective tout en prenant en charge les aspects motivationnels et conatifs (conatifs: liés à la somme d'efforts à fournir et l'énergie à la fois physique et psychique à investir dans une tâche). Cette variable nous l’appelons variable « motivation ». Elle sera notée (Mo).
Mais les cinq dimensions ainsi validées suffisent-elles à décrire les conceptions à propos de la résolution de problème ?
L’espace-problème de Newell et Simon, qui nous sert de référence, a cependant beaucoup mis l’accent sur les connaissances: connaissances spécifiques au problème, connaissances des moyens de traiter les connaissances, connaissances des procédures et stratégies. De manière générale, la littérature que nous avons parcourue montre bien la place stratégique occupée par les connaissances dans la réalisation de toute action finalisée dont la résolution de problème.
Cela nous amène à introduire ainsi une dimension qui nous semble pertinente : la dimension « connaissances » notée (Cn).
Enfin, au-delà des variables identifiées dans la recherche exploratoire, le rôle du contexte dans la cognition humaine a été largement établie dans la littérature (Anderson, 1981 ; Gillepsie, 1992). Nous sommes donc fondés, dans la description des conceptions des enseignants en résolution de problème, à tenir compte de la variable « contexte » que nous noterons « Ctx ».

En résumé, la problématique de la description des conceptions des enseignants s’articulera autour de sept dimensions dont la pertinence a été fondée sur la recherche exploratoire, sur le cadre théorique et les tendances actuelles des approches cognitives.
Ces sept dimensions sont présentées et explicitées dans le tableau 30 de la page suivante.
Tableau 30 : explicitation des différentes dimensions de la résolution de problème
Dimensions de la résolution
de problèmeExplicitation des dimensionsFinalité et fonction la résolution de problème (Ff)La place de la résolution de problème dans l’enseignement, les objectifs visés dans les activités scolaires de résolution de problème, les critères de réussite utilisés, les décisions induites par les performancesMotivation (Mo)La volonté, les efforts à fournir, les attitudes qui influent sur la résolution de problème, les sentiments exprimésEnoncé du problème (En)Le type de problème, les systèmes étudiés, la forme et la longueur de l’énoncé, la clarté du texte, les types de données fournies, les symboles et les notations, les graphes et les schémas, la description des expériences et des schémas, l’explicitation des contraintes et des niveaux d'exigence…Résultats (Ra)Le type de résultats (numérique ou littéral), la signification des résultats, les systèmes d’unités, la précision exigée, la présentation matérielle, la communication des résultats…Connaissances exigées pour résoudre le problème(Cn)Les phénomènes en jeu, les systèmes étudiés, les concepts mis en scène, les définitions, les principes, les lois scientifiques , les règles et les conventions, les nomenclature, les symboles, les unités, les schémas conventionnels, les procédures à appliquer, les conditions et domaines d’application…Processus de résolution (Pr)Faire une représentation du problème, identifier la tâche à faire, comprendre les phénomènes en jeu, raisonner, démontrer, articuler les différentes étapes, contrôler la rigueur de la démarche et la justifier, expliciter les hypothèse , exploiter les données du problème, simplifier, faire des inférences…Contexte des activités scolaires de résolution de problème (Ctx)Le degré d’autonomie, l’accessibilité à des sources extérieures, situation d’apprentissage (pour comprendre et s’entraîner), situation d’évaluation (composition, devoir, examen, concours), conditions matérielles (salle aérée ou exigüe ), contraintes horaires ou administratives…

Le tableau 30 laisse apparaître sept variables constituées par les sept dimensions ainsi identifiées. En même temps on perçoit qu’une description des conceptions qui s’appuierait uniquement sur ses sept dimensions laisserait beaucoup d’informations dans l’ombre. Chaque dimension revêt plusieurs aspects qui méritent d’être explicités.
Cette considération nous amène à faire une distinction entre deux approches de la description des conceptions : une description macroscopique et une description microscopique.
Nous entendons par description macroscopique, une description qui se fonde sur les grandes dimensions qui ont été identifiées. Elle ne donne aucune information sur le contenu de la dimension. La description macroscopique des conceptions se fera dans un espace à sept dimensions : la finalité ou la fonction de la résolution de problème (Ff), la motivation (Mo), les résultats attendus (Ra), l’énoncé du problème (En), les connaissances (Cn), le processus de résolution (Pr), le contexte de résolution de problème (Ctx).

Quant à la description microscopique, elle devra rendre compte de la structure interne de ces différentes dimensions lorsqu’elles sont évoquées dans les conceptions des enseignants. Il sera certainement nécessaire de se servir d’items descriptifs associés à chaque dimension et qui serviront d’indicateurs (voir ANNEXE A).
Par exemple la dimension connaissance « Cn » sera décrite par des indicateurs tels que: les lois, les théories, les formules, les théorèmes, les conventions, les unités…
La dimension processus est quant à elle explicitée par des indicateurs tels que: calculer, mobiliser ses connaissances, expliquer, résoudre, simplifier, schématiser…

Les sept dimensions ayant été retenues sur la base de leur pertinence, il s’agit à présent d’affiner la problématique sous forme de questions précises pouvant déboucher sur des objectifs de recherche.

Mais au paravent il est utile dans le cadre problématique de s’interroger sur les variables susceptibles de discriminer les conceptions des enseignants, en particulier les variables liées au profil professionnel tel que le diplôme ou l’ancienneté dans la fonction, le genre, et les classes où les professeurs ont exercé lors des cinq dernières années qui ont précédé l’enquête.




Cela enrichit le cadre problématique dans un premier temps de trois nouvelles variables :
le diplôme professionnel (dp)
l’ ancienneté dans la fonction (anc)
le genre (ge)

Pour les classes dans lesquelles les professeurs ont exercé, nous nous limiterons aux classes de terminale, dans un souci de simplification. Cette variable Terminale (Term) que nous avons choisie sera une variable dichotomique : l’enseignant a enseigné en classe de terminale ou n’a pas enseigné dans cette classe. La variable Term variable sera considérée comme une variable secondaire qui permettra d’affiner l’analyse.

Enfin, une dernière question permet de structurer le cadre problématique. Est-il possible de suivre la dynamique d’évolution des conceptions ? Si nous disposons d’un outil capable de décrire les conceptions des professeurs de physique et de chimie, il sera possible de mener la deuxième phase de la recherche. Il s’agira de répondre à une question simple : quelles modifications au sein des conceptions d’un échantillon de professeurs peut-on observer après une action finalisée telle que la formation initiale ?.
Le cadre problématique ainsi esquissé est résumé dans le schéma 6 suivant :
Shéma 6 : Synthèse du cadre problématique restreint
 dp







 Le modèle de White et Tisher, relatif à l’enseignement des sciences mettait en évidence trois types de variables : entrée, processus, effet ou produit. En partant de ce modèle nous avons abouti à un cadre problématique restreint mettant en jeu neuf variables.
Les sept variables concernent les différentes dimensions de la résolution de problème telles qu’elles ont été identifiées. Ces différentes variables peuvent être, par rapport à l’activité scolaire de résolution de problème en physique et chimie, classées suivant la grille entrée, processus, effets.
Les variables Ff, En, Mo, Cn, peuvent être classées comme des variables d’entrée.
Les variables Pr et Ctx peuvent être rangées dans les variables de processus pour la résolution de problème en contexte scolaire.
La variable Ra est une variable d’effet.

On pourrait disposer là d’une autre grille de lecture de la structure des conceptions à la fin de l’étude. Cependant une analyse attentive des différentes dimensions montre que cette catégorisation est très relative.

En effet, les variables Mo et Cn peuvent également être vues comme des variables de processus: en situation réelle, il y a certainement une interaction forte entre les processus de résolution mis en œuvre, les connaissances et la motivation des apprenants.
De même, le contexte est à la fois une variable d’entrée et une variable de processus, le contexte lui-même agissant sur la motivation.
Les variables étant précisées, nous allons à présent aborder les questions-problèmes et les hypothèses de recherche.

III.3. Questions et hypothèses de recherche

Les questions-problèmes seront formulées à un niveau général, puis à un niveau spécifique. Quelque soit leur niveau de formulation, des hypothèses leur seront associées.




III.3.1. Questions-problèmes et hypothèses générales

Le cadre problématique restreint ci-dessus suggère un ensemble de questions-problèmes générales auxquelles seront associées des hypothèses générales, comme l’indique le tableau 31 suivant :

Tableau 31 : Questions-problèmes et hypothèses générales

Questions-problèmes générales (QP-G). Hypothèses Générales (HG)
(QP-G1) :Quelles sont les conceptions des professeurs de physique et chimie par rapport à la résolution de problème dans leur discipline ?

(HG1) : Les sept dimensions choisies n’ont pas le même degré d’importance dans les conceptions des professeurs à propos de la résolution de problème en physique et chimie

(QP-G.2) :Quelle est l’influence du profil professionnel sur les conceptions de professeurs de physique et chimie en résolution de problème ?
(HG.2) : Le profil professionnel (diplôme, ancienneté) ne discrimine pas de manière significative les conceptions des professeurs de physique et chimie à propos de la résolution de problème
(QP-G.3) : Comment évoluent les conceptions à propos de la résolution de problème, au cours d’une formation initiale d’enseignants ?

(HG 3) : L’évolution des conceptions en résolution de problème au cours de la formation initiale des enseignants ne s’observe pas de manière significative




Dans le cadre d’une recherche, les hypothèses peuvent se justifier par des considérations d’ordre théorique ou empirique ou par des expériences personnelles.

C’est ainsi que la première hypothèse générale (HG1) nous a été inspirée par les résultats de notre recherche exploratoire, mais aussi par les observations sur le terrain de la formation initiale et continuée de professeurs de physique et chimie. Aussi bien dans l’enseignement que dans l’apprentissage, notre expérience de formateur et de membre de jury d’évaluation d’enseignants tend à montrer que, par exemple, le volet processus fait très peu l’objet d’une attention particulière, même si les calculs numériques sont très valorisés. Nous avons d’ailleurs montré à partir d’un exemple en chimie, (Sall et al., 1998) combien le processus de constructionn d’une solution est souvent escamoté, même dans des manuels scolaires inscrits dans une perspective d’innovation. Par contre l’accent est mis sur les résultats attendus souvent réduits à des chiffres.

La revue de la littérature (Glover et al., 1990 ; Giordan, 1987 ; Gagné, 1985, Chi et al. , 1983 ) a montré la grande capacité de résistance des conceptions. Ces données nous ont suggéré notre deuxième hypothèse générale (HG2).
A ces données s’ajoutent les caractéristiques de notre échantillon : compte tenu de la diversité des expériences des enseignants, le diplôme professionnel et l’ancienneté pourraient ne pas avoir de corrélation avec les conceptions à propos de la résolution de problème. En effet, les modifications des conceptions sont liées aux activités et aux situations réellement vécues. Or celles-ci n’apparaissent pas de manière explicite dans la structure des variables « ancienneté » (anc), et « diplôme professionnel »,(dip).

La troisième hypothèse générale (HG3) peut également se justifier par les mêmes raisons tirées de la littérature sur la capacité de résistance des conceptions. La formation initiale a pour but de mettre le futur professeur en mouvement vers des changements conceptuels et des modifications de conceptions à propos de l’enseignement et de l’apprentissage.
A ce propos il nous a été donné de recueillir des témoignages d’anciens élèves-professeurs qui confirment que l’effet de la formation initiale se fait sentir sur le terrain, lorsque le professeur est confronté à des situations réelles.

Cette sorte de confession à posteriori, était formulée ainsi : « Monsieur, c’est maintenant que nous avons compris la pertinence des cours que nous recevions à l’Ecole Normale Supérieure ».
A présent les questions-problèmes générales vont être démultipliées en plusieurs questions-problèmes spécifiques qui seront associées ensuite à des hypothèses spécifiques.

III.3.2. Questions-problèmes et hypothèses spécifiques

Les questions-problèmes générales se démultiplient en questions-problèmes spécifiques. Chaque question-problème spécifique peut être associée à plusieurs hypothèses spécifiques.
Dans une première étape nous présentons dans le tableau suivant la décomposition des questions-problèmes générales (QP-G) en questions-problèmes spécifiques
(QP-S).

III.3.2.1. Les questions-problèmes spécifiques

La démultiplication des questions-problèmes générales en questions-problèmes spécifiques est présentée dans le tableau 32. Pour une compréhension de ce tableau, il est utile de rappeler les deux axes de description des conceptions, tel que cela ressort du cadre problématique général.
La structure macroscopique concerne la description des conceptions basée uniquement sur le poids accordé à chacune des sept dimensions. Quant à la structure microscopique, elle s’appuie sur des indicateurs plus fins associés à chaque dimension.









Tableau 32 : Démultiplication des questions-problèmes générales en questions-problèmes spécifiques.

(QP-G)Questions-problèmes spécifiques (H-S)
(QP-G1) : Quelles sont les conceptions des professeurs de physique et chimie par rapport à la résolution de problème dans leur discipline ?

QP-S11:Quelle est la structure macroscopique des conceptions des professeurs de physique et chimie par rapport à la résolution de problème ?

QP-S12 : Quelle est la structure microscopique des conceptions des professeurs de physique et chimie par rapport à la résolution de problème ?
(QP-G2) : Quelle est l’influence du profil professionnel sur les conceptions de professeurs de physique et chimie en résolution de problème ?
QP-S21 : Les conceptions des professeurs de physique et chimie à propos de la résolution de problème varient-elle avec le diplôme professionnel ?

QP-S22 : Les conceptions des professeurs de physique et chimie à propos de la résolution de problème varient-elle avec l’ancienneté dans le métier ?

QP-S23 : Les conceptions des professeurs de physique et chimie à propos de la résolution de problème varient-elle avec la pratique en classe de Terminale ?

(QP-G3) : Comment évoluent les conceptions des professeurs de physique et chimie, à propos de la résolution de problème ?
QP-S31 : Comment évoluent les conceptions à propos de la résolution de problème, au cours d’une formation initiale d’enseignants  au niveau macroscopique?

QP-S32 : Comment évoluent les conceptions à propos de la résolution de problème, au cours d’une formation initiale d’enseignants  au niveau microscopique?


Nous allons à présent associer aux questions-problèmes spécifiques des hypothèses qui
seront testées à partir des données à recueillir.

III.3.2.2. Hypothèses spécifiques

Ce sont les hypothèses spécifiques qui constituent l’enjeu de la recherche. Ce sont des formulations orientées vers des assertions explicites, qui peuvent être soumises à la grille oui/non ou vrai/faux. Nous ne perdons cependant pas de vue l’avertissement de l’épistémologue Poper (1973). Il s’agira plus d’établir un degré de corroboration que d’atteindre une vérité. Les hypothèses seront donc soumises à l’épreuve des données recueillies. Elles sont alors soit corroborées au sens Poper (1972), soit rejetées. Lorsque les résultats ne sont pas significatifs, aucune conclusion ne pourra cependant être tirée.
Le tableau 33 suivant fait correspondre à chaque question-problème spécifique (QP-S) une ou plusieurs hypothèses spécifiques (H-S).
Tableau 33 : Questions-problèmes spécifiques et hypothèses spécifiques associées

QP-SHypothèses –Spécifiques (H-S)









QP-S11:Quelle est la structure macroscopique des conceptions des professeurs de physique et chimie par rapport à la résolution de problème ?H-S1. : La structure macroscopique des conceptions des enseignants est marquée par les dimensions « Enoncé» (En), « Résultats attendus» (Ra) et « connaissance » (Cn).

Cette hypothèse H-S1 à propos de la description macroscopique se justifie par les résultats de notre recherche exploratoire. En effet « la situation de départ (Sd) » qui a été remplacé par l’énoncé (En), expression qui désigne la situation de départ (Sd), dans la résolution de problème en contexte scolaire et la représentation de la tâche (Rt) devenue « résultat attendu, (Ra) étaient les dimensions les plus présente dans les 157 définitions qui ont été traitées.
La dimension « connaissance » (Cn) a été ajoutée à ces deux dimensions, compte tenu de l’importance des connaissances dans la résolution de problème tel que cela est ressorti du cadre théorique constituant le chapitre précédent.

H-S2. : Les dimensions « Motivation » (Mo) et « Finalité et fonction » (Ff) sont moyennement représentées dans les conceptions des professeurs de physique et chimie à propos de la résolution de problème.

Cette hypothèse H-S2 découle également de notre recherche exploratoire.

H-S3  : Les dimensions « Processus de résolution » (Pr) et
« contexte » (Ctx) sont les dimensions les moins représentées dans les conceptions des professeurs de physique et chimie en résolution de problème.

Cette hypothèse se justifie par la place du processus de résolution dans les résultats de notre recherche exploratoire, mais aussi s’appuie sur notre expérience d’enseignant et de formateur. En effet, le contexte de résolution ne nous semble pas suffisamment pris en compte par les enseignants.
Les travaux de Dumas-Carré et Goffard (1998) permettent d’appuyer la pertinence de cette hypothèse.





Tableau 33 (suite)












QP-S12 : Quelle est la structure microscopique des conceptions des professeurs de physique et chimie par rapport à la résolution de problème ?H-S4. : La structure microscopique de la dimension « connaissance » contient plus de connaissances déclaratives que de connaissances procédurales ou conditionnelles.
Nous faisons ici l’hypothèse que les professeurs de physique et chimie ne sont pas assez sensibles au rôle des connaissances conditionnelles dans la résolution de problème. Cette hypothèse H-S4 peut tirer sa pertinence de nombreux travaux en résolution de problème (Chi et Feltovitch, 1981 ; Dumas-Carré et Goffard, 1993, Sall et al.(1998).

H-S5. : La structure microscopique de la dimension « énoncé » est plus marquée par les aspects quantitatifs et de forme que par les aspects qualitatifs et de fond.
Cette hypothèse découle de notre expérience personnelle de formateur, observant des situations de résolution de problème en physique et chimique. L’exploitation de l’énoncé devant conduire à une représentation du problème est souvent réduite aux aspects qualitatifs. Nous faisons l’hypothèse que cela devait se refléter dans les conceptions des professeurs de physique et chimie.

H-S6 : La structure microscopique de la dimension « résultats attendus » est plus marquée par les produits des démarches, que par les démarches elles-mêmes.
Nous faisons ici l’hypothèse que les professeurs s’intéressent plus aux résultats numériques qu’à la démarche et à la signification qualitative des résultats obtenus par les élèves en résolvant un exercice ou un problème.

H-S7. : La structure microscopique de la dimension « processus » est plus marquée par les procédures et démarches spécifiques que par des procédures et démarches générales de représentation de la tâche et de construction d’une solution.
Cette hypothèse H-S7 postule que les professeurs de physique et chimie insistent plus sur les démarches spécifiques sans s’assurer que les élèves ont compris le cadre méthodologique général qui sert de repère dans la démarche de résolution.

H-S8. : La structure microscopique de la dimension « motivation » est plus marquée par des aspects cognitifs et/ou conatifs, que par des aspects affectifs
L’hypothèse H-S8.  prévoit que les enseignants ne mettent pas assez l’accent sur les aspects affectifs de la résolution de problème.

H-S9. La structure microscopique de la dimension « finalité » est plus marquée par la perspective évaluative ou diagnostique que par la perspective d’apprentissage.
L’hypothèse H-S9 permet de tester l’idée selon laquelle les professeurs perçoivent les activités de résolution de problème plus comme des moments d’évaluation que comme des opportunités offertes aux élèves pour apprendre.
 Tableau 33 (suite)










QP-S21 : Le diplôme professionnel de l’enseignant discrimine-t-il les conceptions des professeurs de physique et chimie, à propos de la résolution de problème ?H-S10. : Au niveau macroscopique le diplôme professionnel ne discrimine pas les conceptions des enseignants.

En d’autres termes, l’hypothèse H-S10 avance qu’il n’est pas possible de trouver des différences significations entre les visions globales des professeurs de physique et chimie sur la base du diplôme professionnel. Globalement tous les professeurs sortant du même système scolaire puis universitaire auraient les mêmes visions face à la résolution de problème.
En appui à cette hypothèse on peut citer le caractère résistant des conceptions, comme cela a été mis en évidence dans plusieurs recherches.

H-S11. : Au niveau microscopique, le diplôme professionnel discrimine les conceptions des professeurs de physique et chimie en résolution de problème pour la dimensions Cn

L’hypothèse H-S11 est une sorte d’antithèse de l’hypothèse H-S10 . Malgré la résistance des conceptions, l’expérience personnelle des enseignants pourrait malgré tout faire apparaître quelques différences notamment au niveau de certaines dimensions. Par exemple un professeur titulaire du diplôme professionnel « CAES », pourrait être plus sensible aux connaissances ou au processus, du fait d’une expérience personnelle vécue en qualité d’étudiant de licence ou de maîtrise en physique et chimie.

Un professeur qui n’a pas atteint ce niveau académique peut être moins sensible à ces aspects. Le diplôme professionnel peut en effet cacher le diplôme universitaire.

De plus, la formation professionnelle subie peut introduire des différences quant à la prise de conscience de certaines caractéristiques propres à la physique et à la chimie, c’est-à-dire de la didactique de la physique et la chimie.




Tableau 33 (suite)

QP-S22 : L’ancienneté dans la fonction discrimine-t-elle les conceptions des professeurs de physique et chimie par rapport à la résolution de problème ?

H-S12. : Au niveau macroscopique, l’ancienneté ne discrimine pas les conceptions des professeurs de physique et chimie en résolution de problème.

Cette hypothèse se justifie aussi par la résistance de conceptions qui se sont formées pendant tout le cursus de l’enseignant de physique et chimie. Un autre argument en faveur de cette hypothèse est que l’ancienneté est à distinguer de l’expérience. Ce n’est pas le nombre d’années qui permet de modifier de manière mécanique les conceptions, mais plutôt les expériences pédagogiques concrètes vécues par le professeur qui permettraient une dynamique de changement et de reconstruction de ces conceptions.

H-S13. : Au niveau microscopique, l’ancienneté discrimine les conceptions des professeurs de physique et chimie en résolution de problème particulièrement pour les dimensions Pr.

On retrouve ici également une sorte d’antithèse de l’hypothèse H-S12. L’ancienneté aurait malgré tout la possibilité de séparer la vision que les professeurs ont de certaine dimensions. Par exemple, les plus anciens seraient moins sensibles à certains aspects de la motivation que les plus jeunes enseignants.
De même les enseignants les plus jeunes pourraient être moins sensibles, dans les énoncés aux aspects qualitatifs qui sont en fait les fondements de l’élaboration de la solution.

Tableau 33 (suite)







QP-S23 : L’expérience en classe de Terminale, discrimine-t-elle les conceptions des professeurs de physique et chimie à propos de la résolution de problème ?H-S14 : Les professeurs qui ont une pratique des classes de Terminale manifestent des conceptions plus centrées sur les dimensions Cn et En.
Cette hypothèse H-S14 stipule que le fait d’enseigner en classe de Terminale (celle qui prépare au baccalauréat) influe sur la structure des conceptions des professeurs de physique et chimie dans le sens d’une plus grande centration sur les dimensions Cn et En.

H-S15 : Les professeurs ayant une pratique de la classe de Terminale, sont moins sensibles à la dimension « motivation », Mo.
En d’autres termes, les professeurs de Terminale ne s’occupent pas des aspects de motivation, l’idée étant que pour des élèves qui préparent le baccalauréat, la motivation ( sur les plan cognitif, conatif et motivationnel) doit aller de soi.






QP-S31 : Comment évoluent les conceptions à propos de la résolution de problème, au cours d’une formation initiale de professeurs de physique et chimie,  au niveau macroscopique?
H-S16 : Au cours de la formation initiale des enseignants les conceptions évoluent très peu au niveau macroscopique.
Cette hypothèse H-S18 se justifie par le caractère très lent de l’évolution des conceptions tel que révélé par la recherche et les observations courantes des praticiens de l’éducation. Les effets de la formation initiale sur les conceptions des professeurs ne devraient s’observer que plus tard au contact du terrain pédagogique réel.

QP-S32 :  Comment évoluent les conceptions à propos de la résolution de problème, au cours d’une formation initiale de professeurs de physique et chimie  au niveau microscopique?H-S17 : Au cours de la formation initiale des enseignants les conceptions évoluent très peu au niveau microscopique .
Cette hypothèse H-S19 est dans le même registre que l’hypothèse H-S18 et se justifie par les mêmes raisons.

Sur la base du cadre problématique restreint, nous avons pu formuler dix sept hypothèses spécifiques sur les caractéristiques et les propriétés des conceptions des enseignants en résolution de problème. Il s’agira ensuite de les confronter aux données recueillies. Mais il faudra au préalable de se doter d’instruments de recherche fiables pour le recueil et le traitement des données.

III.4. Nécessité de la construction d’outils de recherche

Il était important après la recherche exploratoire de faire un travail de conceptualisation permettant de situer les différents concepts manipulés. Après s’être assuré d’une base théorique explicite, et construit un cadre problématique opérationnel, notre démarche a abouti à un ensemble d’hypothèses spécifiques qui seront confrontées aux données à recueillir. La méthodologie de recueil de données est une question stratégique dans une recherche (De Ketele, 1984 ; De Ketele et Roegiers , 1993).

Un problème pratique se pose alors à cette étape de la recherche : comment mesurer les conceptions à propos de la résolution de problème. Quel outil approprié pour mesurer ces conceptions ? Quel outil et quelle validation ? C’est là une tâche qui sera abordée dans la deuxième partie de ce travail.
















DEUXIEME PARTIE

Construction ET EXPERIMENTATION DE L’OUTIL DE RECHERCHE















DEUXIEME PARTIE

CHAPITRE 1 : Construction d’un questionnaire POUR recueillir les conceptions a propos de la resolution de probleme en Physique et chimie.


I.1. Du questionnaire exploratoire au questionnaire de recherche 

A l’image de la partie théorique, la partie méthodologique s’articule avec la recherche exploratoire tout en tirant profit de l’éclairage théorique et du cadre problématique.

Les questions méthodologiques liées à l'étude des conceptions ont été abordées plusieurs auteurs (Abric, 1976, 1987, 1994 ; Flament, 1986 ; Doise, Clemence et Lorenzo-Cioldi, 1992). Deux aspects ont été l'objet d'une attention particulière : la méthodologie de recueil de données et les méthodes d'analyse.
La méthodologie de recueil de données, considérée comme un point-clé, est déterminée par la nature de l'objet étudié, le type de population et les contraintes du contexte de récolte d'informations. Le tout s'inscrit dans le cadre théorique que constitue la théorie des représentations sociales.
Quant à l'outil de recueil de données, il devra permettre d'atteindre au moins trois objectifs:
le repérage du contenu des conceptions (les éléments qui les composent);
l'étude des relations entre les éléments constitutifs, leur importance relative et leur hiérarchie;
la détermination et le contrôle du noyau central.

Abric (1994) distingue trois grandes catégories de méthodes pour étudier les conceptions: les méthodes de recueil du contenu des conceptions, les méthodes de repérage de l'organisation et de la structure des conceptions, et les méthodes de contrôle de la centralité du noyau.
La première catégorie comprend des méthodes interrogatives et des méthodes associatives. Les méthodes interrogatives sont constituées par l'entretien, le questionnaire, les planches inductrices, les dessins et supports graphiques et l'approche monographique.
Quant à la deuxième catégorie, elle englobe des méthodes de repérage de liens entre éléments de la conception et des méthodes de hiérarchisation des items. Mais cette deuxième catégorie peut faire appel aux méthodes interrogatives telles que le questionnaire ou l'entretien.
Les méthodes de repérage des liens entre les éléments de la conception s'appuient sur la constitution de couples de mots significatifs, les comparaisons par paires, ou la constitution d'ensemble de mots.
Pour les méthodes de hiérarchisation des items, les poids respectifs des items dans la conception sont repérés directement par l'analyse de mots ou de regroupements de mots. Ces méthodes visent à amener le sujet à produire lui-même la hiérarchie entre les éléments constitutifs des conceptions. On distingue ainsi les tris hiérarchisés successifs et les choix successifs par blocs. En particulier, la méthode des choix successifs par blocs permet de calculer des indices permettant d'explorer les distances entre les divers éléments constitutifs.
Enfin, les méthodes de contrôle de la centralité sont constituées par des techniques de remise en cause de noyau central et la méthode d'induction de scénario ambigu.
La méthode de remise en cause du noyau central cherche à identifier les éléments dont la remise en cause amène le sujet à changer de conception. L'ensemble de ces éléments, qui apparaissent alors comme les fondements de la conception, constitue ainsi le noyau central.

La méthode d'induction de scénario ambigu s'appuie sur la propriété dynamique des conceptions comme outil de repérage. Le sujet est confronté à une description ambiguë de l'objet de la conception, qui peut mener à deux types de description distincts. L'analyse et la comparaison de ces descriptions permet alors d'identifier les éléments centraux.
Mais, malgré cette distinction analytique assez explicite, les auteurs s'accordent sur l'intérêt de mettre en œuvre des approches qui combinent les différentes méthodes considérées comme des cas limites. En effet, concourant à des objetifs communs, ces méthodes, loin d'être exclusives, peuvent se compléter dans le cadre d'une recherche (Abric, 1994).
C'est dans cette perspective que nous avons opté pour la construction d'un outil qui, dans une approche plurielle, nous permettra de recueillir des données principalement sur le contenu des conceptions, la hiérarchie entre les éléments constitutifs et la détermination du noyau central : il s'agit d'un questionnaire dont la structure devrait permettre de fournir des données appropriées.

Le questionnaire à concevoir devra être en mesure de recueillir des données permettant de répondre aux questions soulevées par la mise à l’épreuve des hypothèses émises.
Les conceptions seront d’abord décrites à partir des sept dimensions définies à propos de la résolution de problème. Le choix de ces sept dimensions a été justifié par les résultats de la recherche exploratoire, mais aussi par l'éclairage théorique fourni par la littérature. Nous avons appelé cette première phase de description, une description macroscopique.
La description macroscopique cherche à identifier le contenu général des conceptions et la hiérarchie entre les éléments constitutifs. Cette hiérarchie permettra en même temps de délimiter le noyau central.
La description microscopique quant à elle, devrait permettre d’éclairer le contenu que les enseignants mettent dans les différentes dimensions, une fois qu’il se sont prononcés au niveau macroscopique. Elle sert donc à expliciter le contenu des sept dimensions de la résolution de problème par le biais des items descriptifs.

Mais comme cela a été souligné dans de nombreuses recherches, le questionnaire est un outil dont la simplicité apparente masque plusieurs difficultés qui lui sont intrinsèques. Celles-ci sont renforcées par le statut didactique des conceptions.
Selon Astolfi et Develay (1989), l’utilisation d’un questionnaire pour recueillir des conceptions (il lui préfère le terme de représentation) à propos d’un phénomène, soulève au moins trois préoccupations :
- une conception est sous-tendue par des stratégies cognitives face à une situation. Il faut donc rapporter l’explicitation des conceptions à leur contexte de production;
- la réponse fournie à une question par un sujet est d’abord une réponse à l’expérimentateur;
- le sujet réagit par rapport à des attentes supposées et par rapport à la préservation de l’image de soi;
toute interprétation intègre les cadres conceptuels de l’expérimentateur. Mettre au point un dispositif de recueil de conceptions, donner du sens à l’expression de celles-ci, ne relèvent pas d’un processus neutre.

Moscovici (1976) cité par Astolfi et Develay (1989) dit à ce propos :


« Une personne qui répond à un questionnaire ne fait pas que choisir une catégorie de réponses, elle nous transmet un message particulier. Elle cherche l’approbation, ou espère que sa réponse lui apportera une satisfaction d’ordre intellectuel ou personnel. Cette personne est parfaitement consciente de ce qu’en face d’un autre enquêteur, ou dans d’autres circonstances, son message serait différent » (p.36).

Ces considérations restent valables dans le cadre de cette recherche. C’est presque une tâche vaine que de les considérer comme des tares à supprimer. Mais les propos de Moscovici constituent à notre avis, un appel à la prudence dans l’élaboration des outils, dans les dispositifs d’application et dans l’interprétation des données recueillies par questionnaire.

I.2. La structure du questionnaire de recherche

Le questionnaire à construire devait d’abord tenir compte des mises en garde à propos des limites liées à cet outil de recueil de données. Ensuite, à l’image de la partie théorique et du cadre problématique, le questionnaire devrait être articulé avec la recherche exploratoire.
C’est ainsi que notre questionnaire de recherche a été structuré en quatre trois grandes parties que nous allons expliciter et justifier.

I.2.1. Une partie introductive de motivation

Il s’agit d’un message adressé aux enseignants pour leur expliquer le sens du questionnaire et le cadre dans lequel il s’inscrit. Un autre objectif était également de les motiver et de les sécuriser quant au caractère anonyme des réponses au questionnaire et de leur traitement.
C’est un aspect essentiel d’un questionnaire. En effet, répondre à un questionnaire, c’est toujours se révéler à l’autre, sans avoir la garantie de l’usage des réponses que l’on fournit. Dans le cadre spécifique de notre recherche, parler de résolution de problème à des professeurs de physique et chimie peut paraître trop abstrait, et très coûteux au niveau psychologique. Les professeurs de physique et chimie sont plus habitués à


donner des problèmes aux élèves, à exposer des solutions qu’à répondre à des questions à propos de résolution de problème.
De plus, compte tenu de leur surcharge horaire, dû plus particulièrement, dans le cas du Sénégal, à des heures de vacation dans des établissements privés, il fallait les motiver de manière spécifique pour qu’ils consentent à remplir avec soin le questionnaire.
Le message de motivation se termine par des remerciements.

I.2.2. La description du profil du (de la ) répondant(e)

Cette partie est destinée à recueillir le profil professionnel du répondant ou de la répondante. Nous avons choisi comme variables constitutives de ce profil, le diplôme professionnel (dp) et l’ancienneté dans la profession (anc). Nous avons cherché ensuite à affiner la variable « ancienneté » par la variable (Term), définie par l’expérience de l’enseignant dans la prise en charge de la classe de Terminale, la dernière année de l’enseignement secondaire préparant au baccalauréat.

I.2.2.1. Le diplôme professionnel de l’enseignant 

Le diplôme professionnel (dp) a quatre modalités :

- 1= Aucun : Ce sont des enseignants qui n’ont pas encore de diplôme professionnel. Ce sont soit des enseignants en formation initiale, soit des diplômés de la Faculté des Sciences et Techniques qui ont été directement recrutés dans l’enseignement.
2 = CAE/CEM (Certificat d’aptitude à l’enseignement dans les collèges d’enseignement moyen). Ce sont des enseignants formés à l’Ecole Normale Supérieure de Dakar, en deux années. Certains sont des bacheliers fraîchement sortis de l’enseignement secondaire, d’autres d’anciens étudiants inscrits à la Faculté des Sciences et Techniques, mais qui ont épuisé leur droit à une inscription, c’est-à-dire qui se sont mis en position d’échec. A l’Université Cheikh Anta Diop de Dakar, ils sont communément appelés « cartouchards » ( ils ont épuisé leurs "cartouches" ).
On peut considérer cette catégorie de professeurs comme équivalente aux régents, dans le système éducatif de la Belgique.


3 = CAEM : (Certificat d’Aptitude à l’enseignement moyen). Ce sont des enseignants qui, statutairement, sont appelés à enseigner au premier cycle du secondaire, à l’instar des titulaires du CAE/CEM. Mais ils ont un diplôme universitaire plus élevé : ils sont titulaire d’une licence en physique et chimie (Bac + 3 ans) et sont formés à l’Ecole Normale Supérieure de Dakar en une année.
Il faut signaler que très souvent, suivant les besoins du pouvoir organisateur (ici le Ministère de l’Education), les professeurs titulaires du CAEM enseignent au niveau secondaire ( 2nde, 1ère, Terminale).
4 = CAES : (Certificat d’Aptitude à l’enseignement secondaire). Ce sont des enseignants qui sont titulaires d’un diplôme universitaire de maîtrise en sciences physiques. D’abord formés à l’ENS en une année, ils sont depuis quelques années formés en deux ans. Ils sont destinés à enseigner au second cycle, même si parfois la réalité du terrain les oblige à enseigner au premier cycle.
Le diplôme professionnel (dp) a été introduit dans le questionnaire puisqu’il constitue l’une des variables indépendante à tester pour voir son influence sur les conceptions des enseignants.

I.2.2.2. L’ancienneté de l’enseignant dans la profession

On a demandé aux enseignants d’indiquer le nombre d’années qu’ils ont passées dans l’enseignement. L’ancienneté est la deuxième variable indépendante retenue dans le cadre problématique restreint. Les modalités sont sur une échelle discontinue exprimée en années d’enseignement allant de 0 (débutant ) à plus de vingt ans.

I.2.2.3. Les classes tenues les cinq dernière années

Cette question a été introduite pour recueillir des informations plus fines sur le profil professionnel. Les classes tenues par les enseignants (certains sont spécialistes des classes de terminale) pourraient en effet influer davantage sur les conceptions que l’ancienneté brute exprimée en nombre d’années. Le questionnaire prévoit de recueillir des informations sur les classes du cycle secondaire (.2nde , 1ère, Terminale ). C’est un choix délibéré, l’objectif étant ici de pouvoir éventuellement tester cette sous-variable sur une partie de l’échantillon.
L’intérêt porte cependant essentiellement sur la classe de Terminale. C’est pourquoi, nous n’avons défini que la variable «  expérience en classe de Terminale», notée « Term ».

I.2.2.4. Le genre

Il s’agit ici de créer la possibilité d’aborder la description des conceptions sous l’angle du genre. Même si l’effectif féminin est très faible parmi le personnel enseignant scientifique, il nous a semblé intéressant de prévoir cette question sur le genre. La question du genre et de l’enseignement scientifique est un thème très actuel au Sénégal comme en témoigne la création de la structure (FEMSA), spécialement chargée de promouvoir l’éducation scientifique des filles, en mathématiques, en physique et chimie, et en sciences de la vie et de la terre (Kane, 2002).

I.2.3. La description des conceptions

Cette partie commence par un préambule expliquant le contenu des sept dimensions de la résolution de problème telles qu’elles ont été identifiées. Suivent ensuite quatre questions hiérarchisées. La description comprend deux parties : une partie permettant une description macroscopique des conceptions et une partie permettant une description microscopique (cinquième question).

I.2.3.1. La description macroscopique

Nous avons essayé de prendre en compte certaines critiques à propos du questionnaire comme outil de recueil de conceptions. En effet, beaucoup de questionnaires utilisent des questions fermées avec des possibilités de choix parmi un ensemble de propositions. Parfois, en plus du caractère ouvert de la question, (le répondant / la répondante) avait aussi la possibilité de faire des propositions.
Nous avons combiné la réponse qualitative et la réponse quantitative. En effet, pour chaque question de cette partie, le sujet devait faire un classement (qualitatif) sur la base d’une pondération (quantitative): le sujet devait affecter un nombre à chaque dimension.
La pondération dans l’ensemble du questionnaire devait se faire sur une échelle continue allant de 0 à 100. La pondération elle-même avait une signification qualitative.

Barème :
0 = cette dimension n’est pas du tout importante
25 = cette dimension est peu importante
50 = cette dimension est assez importante
75 = cette dimension est importante
100 = cette dimension est très importante

Nous avons évité de mettre le sujet dans une position incommode consistant à lui demander son avis, à partir d’une question. Astolfi et Develay (1989) considère que les conceptions ne s’expriment pas de manière figée. Nous avons voulu mettre les sujets en situation-problème pour les amener à révéler leur pensée. Nous avons opté pour une question « absolue » et trois questions « relatives »
La première question de cette série de quatre demandait au répondant de pondérer de manière absolue, sans comparaison avec les autres, chacune des dimensions sur la même échelle. Il fallait affecter l’un des nombres du barème (de 0 à 100) à chaque dimension. Nous avons appelé cette question, une question « absolue ».

Dans les trois questions suivantes de cette série de quatre il était demandé au sujet de sélectionner, à partir des sept dimensions, successivement :
- cinq dimensions ; exemple : (Mo, Ra, Cn, Pr, Ctx)
- trois dimensions ; exemple : (Ctx, Ra, Cn)
- deux dimensions ; exemple : (Ctx, Ra)
Il s’agit d’une sélectivité croissante : le choix des trois dimensions se fait à partir des cinq dimensions et celui des deux dimensions à partir des trois dimensions sélectionnées.
Ensuite pour chaque sélection, le répondant devait distribuer les 100 points entre les dimensions choisies. La pondération est ici relative. Le nombre de points affectés à chaque dimension indique un rapport hiérarchique entre les dimensions d’une même sélection. La somme des points affectés à chaque dimension dans une sélection donnée doit être égale à 100. Ces trois questions sont appelées des questions »relatives ».

Exemple : sélection de trois dimensions ; (Ctx, Ra, Cn)
Pondérations : Ctx (20) ; Ra (30) ; Cn (50)
20 + 30 + 50 = 100
Nous convenons d’appeler cette forme de réponse, une réponse à hiérarchie double : en effet il y a une hiérarchie induite par la sélection des dimensions et une deuxième hiérarchie introduite par les différences de pondération entre les dimensions sélectionnées. Le sujet est contraint à un travail cognitif de discrimination. On espère ainsi que ses réponses éventuellement hasardeuses seront corrigées par cette sélectivité des questions.

I.2.3. 2. La description microscopique

Pour avoir des informations plus fines sur les conceptions des enseignants, chaque dimension a été décomposée en items correspondant à des indicateurs. Compte tenu des différences conceptuelles entre les dimensions, le nombre d’items retenus n’est pas le même pour toutes les dimensions.
Mais ces indicateurs n’ont pas été choisis au hasard. Nous avons procédé à un petit test appliqué à un groupe de six professeurs de physique et chimie, en exercice dans deux lycées d’application de l’Ecole Normale Supérieure de Dakar : le Lycée Thierno Saïdou Nourou Tall et le Lycée Galandou Diouf.

On avait demandé à ces professeurs de mettre un contenu dans les sept dimensions, par rapport à la résolution de problème. C’est l’analyse du contenu de ces réponses qui a été à la base de la confection de la liste de ces indicateurs. Nous avons finalisé la liste en nous appuyant sur la littérature consacrée à l’enseignement de la physique et de la chimie et sur notre propre expérience de formateur de professeurs de physique et chimie. Le tableau 35 suivant indique le nombre d’indicateurs par dimension :







Tableau 35 : le nombre d’indicateurs par dimension
DimensionsNombre d’indicateursFinalité ou fonction (Ff)10Motivation (Mo)26Enoncé (En)24Résultats attendus (Ra)12Connaissances (Cn)32Processus (Pr)54Contexte (Ctx)14
Chaque indicateur devait être pondéré par le répondant (ou la répondante) sur la base du barème de l’échelle initiale. On donnait ainsi l’occasion au sujet d’affiner sa position sur chaque dimension de la résolution de problème.
L’objectif est par exemple de pouvoir répondre à des questions du type de celles-ci :
Quand l’enseignant valorise la dimension connaissance, quel en est le contenu ? Sont-ce des connaissances déclaratives ou procédurales ?
Lorsque des conceptions sont centrées sur la motivation telle que définie, met-il l’accent sur les aspects affectifs ou conatifs ? Sa motivation est-elle plutôt cognitive ?

C’est avec cet outil que les conceptions des professeurs de physique et chimie à propos de la résolution de problème seront recueillies. Ce questionnaire sera d’abord testé sur des échantillons expérimentaux, avant d’être appliqué à notre échantillon de recherche. L’expérimentation sera l’occasion de mettre au point des modes de traitements adaptés à la structure du questionnaire et à la nature des informations recueillies. C’est l’objet du chapitre II de la deuxième partie de ce travail.














DEUXIEME PARTIE

CHAPITRE II. EXPERIMENTATION DU QUESTIONNAIRE DE RECHERCHE  ET DU MODELE DE TRAITEMENT


II.1. Echantillons de la pré-expérimentation

L’expérimentation du questionnaire a eu lieu sur deux échantillons. Le premier échantillon expérimental est constitué par un groupe de six enseignants chercheurs en stage au Département de Physique de la Faculté des Sciences de l’UCL pendant l’automne 1998. Ils assurent tous des enseignements dans leurs universités respectives. L’échantillon est constitué essentiellement d’assistants et de maîtres assistants qui interviennent particulièrement dans les séances de travaux dirigés.
L’origine géographique de ces stagiaires se présente comme suit : Afrique de l’Ouest : 1 ; Afrique Centrale 3 ; Caraïbes : 1 ; Magrheb : 1 .

Le deuxième échantillon expérimental est constitué de dix sept élèves-professeurs qui viennent tout juste de commencer leur formation initiale pour l’enseignement, après avoir obtenu leur diplôme universitaire à la Faculté des Sciences et Techniques de l’Université Cheikh Anta Diop de Dakar. Parmi eux dix sont titulaires d’une maîtrise et sept n’ont obtenu que leur licence.

II.2. Tableaux de codage des données

Chaque type de description est l’objet d’un codage spécifique.

II.2.1. Tableau de codage de la description macroscopique

Le tableau de codage doit recueillir les modalités prises par toutes les variables de profil et les pondérations attribuées à chaque dimension pour chacune des quatre premières questions. Comme nous l’avons explicité dans le cadre problématique, les variables du profil sont au nombre de six :.
- diplôme professionnel (dp)
- ancienneté (anc)
- nombre de classes de 2nde (sec)
- nombre de classes de 1ère (prem)
- nombre de classes de Terminale (term)
- le genre (ge)
A chacune des sept dimensions de la résolution de problème et pour chaque question ( de 1 à 4) il correspond une variable. Rappelons ces quatre questions permettent une discrimination progressive entre les dimensions. (voir ANNEXE B).
Ainsi ces variables seront notées respectivement :
pour la question 1: Ff1, Mo1, En1, Ra1 , Cn1, Pr1, Ctx1. Les modalités sont des pondérations (des points) variant de 0 à 100. Les pondérations sont indépendantes.

pour la question 2 : Ff2, Mo2, En2, Ra2, Cn2, Pr2, Ctx2. On choisit un bloc de cinq dimensions. Les dimensions éliminées ont pour pondération la valeur 0. Les cinq dimensions sélectionnées se partagent les 100 points.

pour la question 3: Ff3, Mo3, En3, Ra3, Cn3, Pr3, Ctx3. Deux nouvelles dimensions sont éliminées et ont pour modalité 0. Les trois dimensions restantes "se partagent" les 100 points.
pour la question 4 : Ff4, Mo4, En4, Ra4, Cn4, Pr4, Ctx4. Il ne reste plus qu'un bloc de 2 dimensions qui "se partagent" les 100 points. Toutes les autres ont pour modalité 0.

Exemples :
Ff1 représente la variable «  pondération de la dimension Ff à la question 1 »
Mo2 représente la variable «  pondération de la dimension Mo à la question 2 »
En3 représente la variable «  pondération de la dimension En à la question 3 »
Cn4 représente la variable «  pondération de la dimension Cn à la question 4 »

Le traitement de chacune des quatre première questions nécessite donc l’introduction de sept variables. Les quatre questions correspondront donc à 28 variables, c’est -à - dire à autant de colonnes dans le tableau. Ce sont des variables numériques dont les modalités peuvent prendre toutes les valeurs allant de 0 à 100.
Pour les questions sélectives (questions 2,3,4), lorsqu’une dimension est éliminée, sa pondération sera égale à zéro.
Le tableau de codage de la partie macroscopique sera donc constitué de : 6 + (4x7) = 34 colonnes. Le nombre de lignes dépendra de la taille de l’échantillon.



II.2.2. Tableau de codage de la description microscopique

Pour les données microscopiques, chaque dimension sera l’objet d’une étude spécifique. Chaque indicateur sera considéré comme une variable dont les modalités sont des valeurs numériques correspondant aux pondérations qui leur ont été attribuées. Mais , puisque nous voulons mesurer l’impact des variables du profil professionnel sur la structure microscopique des conceptions, nous allons, pour chaque tableau de codage d’une dimension, reconduire les colonnes correspondant aux variables de profil.

Le nombre de colonnes des tableaux de codage dépendra du nombre d’items ou indicateurs utilisés pour décrire chaque dimension. C’est la somme du nombre de variables de profil (6) et du nombre d’items descriptifs associés à la dimension considérée.
Exemples :
Finalité ou fonction (Ff) : 10 items ; 6 variables de profil ; nombre de colonnes :
10 + 6 = 16.
Processus (Pr) : 54 items ; 6 variables de profil ; nombre de colonnes : 54 + 6 = 60.

Le tableau 36 suivant indique le nombre de colonnes des tableaux de codage pour chaque dimension, dans la description microscopique.

Tableau 36 : nombre de colonnes de codage par dimension
DimensionsNombre de colonnesFinalité ou fonction (Ff)16Motivation (Mo)32Enoncé (En)30Résultats attendus (Ra)18Connaissances (Cn)38Processus (Pr)60Contexte (Ctx)20

II.3. TRAITEMENT DES DONNEES

La littérature (Doise et al., 1992) montre que les recherches sur les représentations sociales s’appuient généralement sur des méthodes quantitatives de traitement de

données permettant de mettre à jour des principes organisateurs de différences entre réponses individuelles, d’illustrer et d’expliciter empiriquement les dynamiques internes de ces représentations.
Ces différentes méthodes (analyse factorielles, analyse factorielle de correspondances) doivent s’inscrire dans le contexte théorique des représentations sociales, mais également tenir compte des contraintes imposées par la nature des données recueillies. Ces données sont généralement constituées par des recueils d’opinions, d’attitudes ou de préjugés individuels.
Dans le processus de construction de notre questionnaire de recherche, nous nous sommes efforcés d’enrichir le processus de recueil par l’introduction de questions imposant une sélectivité croissante au sujet, de manière à faire émerger le noyau central des conceptions et la hiérarchie entre les éléments constitutifs.
De même, dans l’élaboration de notre modèle d’analyse, nous faisons nôtre, la mise en garde de Howell (1998) : l’essentiel dans la recherche n’est pas de s’appliquer dans l’utilisation de méthodes consacrées, mais de choisir des méthodes adaptées aux données recueillies et aux objectifs poursuivis.
Il s’agit dans le cadre de cette recherche, d’adopter un mode de traitement permettant de « faire parler » les données recueillies. De manière plus précise, il s’agit d’expliciter la hiérarchie entre les éléments constitutifs des conceptions (ici les sept dimensions de la résolution de problème), d’identifier le noyau central, et d’explorer la structure microscopique de ces conceptions. Les données de base sont des pondérations affectées aux sept dimensions dans les quatre premières questions, et aux items descriptifs ou indicateurs dans la cinquième question.

Les données étant recueillies et codifiées, il reste à trouver un traitement qui puisse leur donner un sens, pour répondre aux questions-problèmes soulevées par le biais des hypothèses émises. Pour les échantillons de la pré-expérimentation, la question était de voir comment « faire parler » les données.
Nous distinguerons deux phases : le traitement des données macroscopiques et le traitement des données microscopiques.



II.3.1.Traitement des données macroscopiques 

Le mode de traitement, est naturellement lié à la nature des données, mais aussi à la forme des questions posées. Les données macroscopiques devraient permettre de répondre à la question suivante : quelles sont les conceptions des professeurs de physique et chimie exprimées à partir des sept dimensions ? De manière plus spécifique, il s’agit d’abord ici d’établir la hiérarchie entre les sept dimensions de la résolution de problème par le biais des pondérations affectées par les sujets pour les quatre premières questions.

Le problème méthodologique était donc de savoir comment transformer les réponses aux quatre premières questions en une seule information. Il fallait appliquer ou élaborer un modèle qui tienne compte à la fois du niveau de sélectivité de la réponse et des pondérations attribuées.
Le concept mathématique de barycentre nous a semblé être une solution à notre problème méthodologique. Nous avons opté pour la construction d’un modèle mathématique, le Modèle Barycentrique de Traitement de Données (MBTD).
Mais en plus, la forme des questions (la sélectivité croissante) permet d’induire une typologie de conceptions des enseignants qui peut avoir plusieurs dimensions. Ainsi les professeurs de physique et chimie pourraient être classés dans plusieurs types de conceptions:
- les deux dimensions qu’ils ont choisies à la quatrième question, on a alors une typologie à deux dimensions (X1, X2)
- les trois dimensions sélectionnées à la troisième question, on alors une typologie à trois dimensions (X1, X2, X3)
- les cinq dimensions choisies à la deuxième question, on a alors une typologie à cinq dimensions (X1, X2, X3, X4, X5)

II.3.1.1 Le modèle barycentrique de traitement de données (MBTD)

Pour résoudre la question méthodologique de transformer de manière pertinente les informations recueillies dans les quatre questions, nous nous sommes inspirés de la mécanique du point matériel.
En effet, lorsque nous avons fait une représentation de notre problème méthodologique au sens de Newell et Simon (1972) , nous nous sommes rendus compte que notre tâche était de déterminer le « poids » de chaque dimension de la résolution de problème à partir des pondérations obtenues sur les quatre questions. Et il fallait en même temps tenir compte du fait que les pondérations obtenues d’une question à une autre n’avait pas la même signification.
Par exemple la pondération obtenue à la quatrième question devait contribuer davantage au « poids global » de la dimension que la pondération obtenue à la deuxième question.
On devrait donc affecter chaque pondération d’un coefficient qui devrait être d’autant plus important que le niveau de sélection est élevé. Dans tous les cas la valeur trouvée pour chaque dimension devrait représenter un indice caractéristique de la dimension. C’est une grandeur macroscopique que nous avons convenu d’appeler « indice barycentrique », et qui permettait en même temps d’estimer les « distance » entre les dimensions. Le modèle de traitement sera appelé « modèle barycentrique de traitement de données » (MBTD)
C’est un modèle qui se veut une contribution méthodologique à une question souvent rencontrée en sciences de l’éducation : comment traiter un ensemble d’informations hiérarchisées relatives à un même objet pour en faire une donnée prenant en compte la sélectivité et la pondération relative ?

Or la mécanique du point matériel, nous apprend qu’on peut remplacer un système de points M1, M2, M3 , M4, affectés respectivement des coefficients a, b ,c , d, par un seul point G tel que :
OG = ( aOM1 + bOM2 +cOM3 +dOM4) / (a+b+c+d)

Dans cette relation, OG, OM1, OM2, OM3, OM4, sont des vecteurs. Le point G est appelé barycentre des points M1 , M2, M3, M4, affectés des coefficients a, b, c, d qui sont des grandeurs scalaires.
Dans le cadre de notre travail, nous avons considéré chacune des quatre questions comme correspondant à un niveau de sélectivité.



On distingue ainsi :

Niveau 1 = première question pour laquelle la pondération est absolue sans référence explicite aux pondérations attribuées aux autres dimensions.
Niveau 2 = deuxième question : sélection de 5 dimensions sur les 7 et pondération relative (distribution de 100 points entre les 5 dimensions)
Niveau 3 = troisième question : sélection de 3 dimensions sur les 5 précédentes et pondération relative (distribution de 100 points entre les 3 dimensions sélectionnées)
Niveau 4 = quatrième question : sélection de 2 dimensions sur les 3 précédentes et pondération relative (distribution de 100 points entre les deux dernières dimensions sélectionnées.

Le modèle barycentrique de traitement de données (MBTD) prend en compte l’ensemble des réponses fournies par l’échantillon aux quatre premières questions du questionnaire. Il s’appuie sur les notations suivantes :

Le (la) répondant(e) est noté(e) i ( i = 1,…N, N = taille de l’échantillon)
Chaque dimension est notée j ( j = 1, …7 )
Le niveau de sélectivité est noté k ( k = 1,… 4)
La pondération affectée à la dimension j par un sujet i à un niveau k sera notée aðik(j). Lorsque à un niveau donné une dimension n a pas été sélectionnée, alors aðik(j) prend la valeur zéro.
La moyenne des pondérations attribuées à une dimension par l ensemble des sujets pour un niveau k donné, peut être considérée comme une mesure de l importance attribuée à cette dimension par l échantillon. Nous appellerons indice d importance de la dimension j au niveau k, par Ik(j).

Ik(j). = (1/N)Sð ðaðik(j) est appelé indice d importance macroscopique de niveau k,
i = 1,& N. N est la taille de l’échantillon
L’indice d’importance macroscopique de la dimension j qui nous permet de prendre en compte toutes les pondérations relatives à cette dimensions dans les différents niveaux de sélection (1,2,3,4) sera appelé indice barycentrique de la dimension j, et noté Ibar(j). Il sera naturellement définis à partir des indices d’importance de niveau Ik(j), et cela sur l’ensemble de l’échantillon.

Par analogie avec le barycentre, pour déterminer l’indice macroscopique Ibar(j), nous allons utiliser les indices d importance de niveau, tout en les pondérant par des coefficients ak appropriés pour tenir compte de leur contribution. L indice barycentrique d une dimension j, noté Ibar(j) s écrirait alors :

Ibar(j) = Sð ð[ð Ik(j)ak ] /( ðSð ak ) j = constante ; k = 1, 2, 3, 4
Avec Ik(j) = 1/N [Sðaðik (j)]
Ibar(j) = ð[ð a1 I1(j) + a2 I2(j) + a3 I3(j) + a4 I4(j) ] /( ð a1 ð+ð a2 ð+ð a3 ð+ð a4 )

L indice barycentrique est une grandeur macroscopique attachée à une dimension j. Mais sa valeur dépend de pondérations effectuées par les sujets.
Par exemple l’indice barycentrique de la dimension « processus », (Pr) sera noté Ibar(Pr), celui de la dimension « motivation » (Mo) sera notée Ibar(Mo).

La question finale réside dans le choix des coefficients ak à affecter aux indices d’importance de niveau Ik(j). Pour cela, nous allons tenir compte de la sélectivité qui caractérise les quatre questions. Ainsi, la sélection d’une dimension à la quatrième question par un répondant doit être considérée comme un signal fort de l’importance qu’il lui accorde. La moyenne des pondérations obtenues par une dimension à la quatrième question doit bénéficier d’un coefficient important pour influer sur le résultat global. Ceci est d’autant plus nécessaire que les trois dernières questions (niveaux 2, 3, 4) s’appuient sur une pondération relative (distribuer 100 points sur 5, 3, 2 dimensions).

Le choix le plus simple est constitué par les quatre premiers nombres entiers
1, 2, 3, 4, c’est-à-dire : a1 = 1 ; a2 = 2 ; a3 = 3 ; a4 = 4
L’expression de l indice barycentrique devient alors :
Ibar(j) = ð[ð I1(j) + 2 I2(j) + 3 I3(j) + 4I4(j) ] /( ð1ð+ð2ð+ð3ð+ð4ð )

Ibar(j) = ð[ð I1(j) + 2 I2(j) + 3 I3(j) + 4I4(j) ] /1ð0ð M1

Nous appelons cette expression le  Modèle 1 , noté M1
Mais pour discriminer davantage les dimensions en tenant compte des considérations précédentes, on peut aussi, par exemple, affecter à chaque indice d’importance de niveau k, Ik(j) un coefficient ak = 2k (avec k = 1, 2, 3, 4). En effet, la fonction puissance a un pouvoir d'amplification plus important. On a alors :
a1 = 21 = 2 ; a2 = 22 = 4 ; a3 = 23 = 8 ; a4 = 24 = 16

L’expression de l’indice barycentrique devient alors :
Ibar(j) = ð[ð 2I1(j) + 4I2(j) + 8I3(j) + 16I4(j) ] /( ð2ð ð+ð ð4ð ð+ð ð8ð ð+ð ð1ð6ð)ð )
Ibar(j) = ð[ð 2I1(j) + 4I2(j) + 8I3(j) +16I4(j) ] /( ð3ð0ð )

En simplifiant par 2 cette équation on obtient une deuxième expression du modèle barycentrique  que nous appelons « Modèle 2 » , noté M2 :

Ibar(j) = ð[ð I1(j) + 2I2(j) + 4I3(j) + 8I4(j) ] /( ð1ð5ð ) M2

Comparons ce modèle M2, avec le modèle M1.
Ibar(j) = ð[ð I1(j) + 2 I2(j) + 3 I3(j) + 4I4(j) ] /1ð0ð M1
On peut faire les observations suivantes :
- le modèle M1 est plus maniable : il est plus facile de diviser par 10 que par 15
- le modèle M1 pourrait cependant défavoriser les dimensions qui sont sélectionnées aux troisième et quatrième questions.
La question du choix entre ces deux modèles sera résolue avec les données de la pré-expérimentation.
L’indice barycentrique, Ibar(j), dont nous venons d’établir deux expressions (modèles M1 et M2) reflète de manière absolue le poids de chaque dimension de la résolution de problème. Nous pouvons ainsi le qualifier d’indice absolu. Ainsi, lorsque les indices barycentriques absolus des différentes dimensions seront calculés pour un échantillon donné, il sera possible de calculer alors les indices barycentriques relatifs. Ces derniers seront notés I’bar(j).



L’indice relatif d’une dimension jo s’obtient par un calcul simple à partir des indices absolus :
I’bar(jo) = [Ibar(jo)] /[SðIbar(j)] j = 1,& 7

L indice relatif représente la contribution de chaque dimension dans la conception que le groupe se fait de la résolution de problème.

L avantage attendu des indices barycentriques relatifs, c est de permettre de situer de manière plus visible les dimensions les unes par rapport aux autres. L’indice barycentrique relatif est un outil de comparaison des dimensions de la résolution de problème.
Enfin, de même qu'on a calculé l'indice barycentrique d'une dimension par rapport à un groupe, on peut faire le même calcul pour chaque sujet. Les indices d'importance de niveau Ik(j) seront simplement remplacés dans chacun des modèles par les pondérations affectées par le sujet à la dimension j au niveau k, c'est – à – dire aðik(j). L'indice barycentrique d'une dimension j, par rapport à un sujet i que nous allons noter Ibar(j)i est donné par :

Pour le Modèle M1 : Ibar(j)i = ð[ð aði1(j) + 2 aði2(j + 3 aði3(j) + 4aði4(j) ] /1ð0ð

Pour le Modèle M2 : Ibar(j)i = ð[ð aði1(j) + 2aði2(j) + 4aði3(j) + 8aði4(j) ] /( ð1ð5ð )

L indice barycentrique d une dimension j, pour un groupe de taille N est la moyenne arithmétique des indices barycentriques individuels.
Ibar(j) = Sð Ibar(j)i
Avec i = 1,& N.

Les modèles de traitement ayant été définis, nous allons à présent les tester sur les échantillons de la pré-expérimentation.




II.3.1.1.1 Application du modèle barycentrique de traitement de données (MBTD) aux échantillons de la pré-expérimentation.

Les deux modèles M1 et M2 seront appliqués aux deux échantillons pré-expérimentaux constitués respectivement de 6 enseignants-chercheurs et de 17 élèves-professeurs en formation à l’Ecole Normale Supérieure de Dakar (Sénégal).
Cette application est destinée à établir dans quelle mesure les modèles de traitement sont capables de générer un sens à partir des donnés recueillies, mais aussi à départager les deux modèles.

II.3.1.1.1.1. Application du modèle barycentrique aux données de l’échantillon des 6 enseignants-chercheurs

Les indices barycentriques se calculent à partir des indices d’importance de niveau Ik(j). Le tableau 37 suivant donne les indices d’importance de niveau des différentes dimensions.

Tableau 37 : Indices d’importance de niveau Ik(j) des sept dimensions sur l’échantillon des 6 enseignants-chercheurs.
Dimension j (FfMoEnRaCnPrCtxI1( j )74, 8379,1786,8383,8391,6776,6763,33I2( j )12,512,161013,6725,3321,335I3( j )6,6711514,538,1724,670I4( j )6,679,168,338,8351,1715,830
Quelques observations sur le tableau 37 :
Les indices de niveau k =1 , I1(j), sont de loin plus élevés que les indices des niveaux suivants. Cela s'explique par le fait qu'à la première question les sujets pouvaient mettre des pondérations absolues allant de 0 à 100 pour chaque dimension, alors que dans les niveaux suivants, les 100 points étaient partagés entre 5 (niveau k = 2), puis 3 (niveau k = 3), puis 2 (niveau k = 4) dimensions.
Ce tableau montre également que le premier niveau discrimine très peu les dimensions : les sept valeurs de I1(j) varient de 66,33 (Ctx) à 91,67 (Cn). La dimension Cn devance toutes les autres dimensions à tous les niveaux alors que la dimension « processus » (Pr), à partir du deuxième niveau, arrive toujours en deuxième position.
Entre M1 et M2, nous choisirons le modèle qui attribue l'indice barycentrique le plus élevé à la dimensions qui a les indices de niveaux les plus élevés aux deux derniers niveaux, c'est-à-dire Cn.
A partir des indices de niveau, l’application des modèle M1 et M2 permet d’obtenir l’indice macroscopique Ibar(j) de chaque dimension, comme indiqué dans le tableau suivant  :

Tableau 38a : Indices barycentriques Ibar(j) : échantillon
des 6 enseignants-chercheurs calculés avec le modèle M2 et M1
Dimensions (FfMoEnRaCnPrCtxIndices barycentriques absolus Ibar(j) calculés avec M2
11,99
14,72
12,9
15,99
46,95
22,98
4,89
Indices barycentriques absolus Ibar(j) calculés avec M114,6517,3115,5119,0046,1525,677,33
Les données du tableau 38 montrent qu'en passant du modèle M2 au modèle M1, toutes les dimensions voient leur indice augmenter sauf la dimension Cn dont l'indice diminue légèrement. Pourtant c'est la dimension qui a les indices de niveau les plus élevés. Même si le classement est resté inchangé, le modèle M2 est celui qui maintient les écarts les plus importants entre Cn et les autres dimensions.

Dans la suite de ce travail, nous adopterons donc le modèle barycentrique M2 qui s'écrit :
Ibar(j) = ð[ð I1(j) + 2I2(j) + 4I3(j) + 8I4(j) ] /( ð1ð5ð ) pour un groupe
Pour un sujet, l'indice barycentrique de la dimension j pour le sujet i est donné par :

Ibar(j)i = ð[ð aði1(j) + 2aði2(j) + 4aði3(j) + 8aði4(j) ] /( ð1ð5ð ) pour un sujet i

Ainsi, à partir des valeurs fournies par le Modèle 2 nous pouvons représenter les indices barycentriques des sept dimensions pour le groupe des enseignants-chercheurs.




Graphe 4 : Indices barycentriques Ibar(j) des différentes dimensions dans l’échantillon des 6 enseignants-chercheurs

II.3.1.1.1.2 Axes d’ analyse des résultats 

Il faut remarquer d’abord que le tableau des indices d’importance de niveau met en évidence la cohérence des données recueillies. En effet, les pondérations faites au niveau k =1 sont nettement supérieures à celles des niveaux suivants. Cela est lié à la différence des échelles utilisées dans les types de question. De plus la somme des indices de niveau pour (2, 3, 4 ) est pratiquement égale pour chaque ligne à 100, ce qui rend compte de la distribution des 100 points.

L’objectif de discrimination des différentes dimensions est également atteint à partir de l’indice macroscopique, ce qui facilite l’interprétation des résultats. La formule barycentrique a agi comme amplificateur des écarts entre les pondérations des différents niveaux.
Le tableau 37 des indices barycentriques montre que les conceptions des enseignants-chercheurs interrogés sont centrées sur la dimension “ connaissances ” (Cn) qui obtient un indice Ibar(Cn)= 46,95. La dimension “ processus de résolution ” (Pr) vient en deuxième position, mais avec seulement Ibar(Pr)= 22,98 . Le contexte (Ctx) se présente


comme la dimension la moins importante dans les conceptions des enseignants-chercheurs à propos de la résolution de problème.
Les indices barycentriques permettent donc de mettre en évidence de manière nette la hiérarchie des dimensions de la résolution de problème. Il est possible ensuite d’analyser les résultats par rapport aux données de la recherche et par rapport au cadre théorique général ou spécifique.
Les indices barycentriques relatifs permettent d’expliciter la hiérarchie entre les dimensions. Ainsi, si les conceptions en résolution de problème sont représentées par un espace, la dimension connaissance (Cn) occupe à elle seule 36% de cet espace des conceptions par rapport à la résolution de problème. Mieux, le cumul des indices relatifs des dimensions Cn et Pr représente (36+18) = 54% de cet espace.
La structure des semble marquée par un noyau central constitué par les dimensions Cn et Pr, des dimensions périphériques constituées par les dimensions Ff, Mo, En et Ra dont les indices barycentriques ont des écarts qui ne semblent pas significatifs. Enfin la dimension "contexte" (Ctx) apparaît comme marginale.

On voit bien que les indices barycentriques constituent des données qui permettent une meilleure lecture des conceptions des professeurs.

Un autre élément d’analyse de ces résultats est de répondre à la question suivante : la hiérarchie établie à la première question (indices d’importance de niveau 1 = (I1(j) ) est-elle confirmée par les indices barycentriques Ibar(j)?
Le tableau 39 suivant va fournir des éléments de réponses. Les dimensions sont placées par ordre décroissant de leurs indices de gauche à droite.

Tableau 39 : Comparaison entre les classements des dimensions
à la question 1 et à partir des indices barycentriques Ibar(j)
Classement à partir de la question 1CnEnRaMoPrFfCtxClassement à partir des indices barycentriquesCnPrRaMoEnFfCtx
Seules deux dimensions ne conservent pas leur position : Pr et En. Il y a donc une cohérence interne à l’exception de ces deux dimensions qui permutent. En fait tout se passe comme si lorsqu’on astreint les enseignants à sélectionner, ils prennent d’avantage conscience de l’importance du processus de résolution.
Ce constat, s’il se confirmait serait en lui-même une contribution importante dans le recueil de conceptions. Il pourrait y avoir une différence entre une prise de position exprimée de manière absolue et celle qui s’exprime dans une situation de comparaison.

Au niveau méthodologique, la forme de notre questionnaire, où le répondant est mis dans une sorte de situation-problème, semble enrichir la panoplie des outils de recueil de conceptions. Les chercheurs qui s’intéressent au recueil de conceptions ont peut-être intérêt à recueillir ces conceptions, à la fois dans des situations absolues et dans des situations qui obligent le sujet à opérer des discriminations qualitatives ou quantitatives.

Cette démarche illustre la possibilité de dépasser, dans le recueil de données, l’opposition entre les approches qualitatives et les approches quantitatives.

II.3.1.1.1.3. Application du modèle barycentrique aux données de l’échantillon de 17 enseignants en formation initiale à l’Ecole Normale Supérieure de Dakar

Les résultats sont résumés dans les tableaux 40 et 41 suivants.
Tableau 40 : Indices d’importance de niveau des différentes dimensions (élèves-professeurs.)
Dimensions j (FfMoEnRaCnPrCtxI1( j )61,562,2962,5961,3586,6578,5232,88I2( j )12,1111,4113,2314,6426,4120,531,65I3( j )10,418,4113,418,523622,051,17I4( j )109,1110,298,6542,3519,590
A partir des indices de niveau on obtient par le calcul les indices barycentriques dans le tableau 41 suivant :
Tableau 41 : Indices barycentriques Ibar(j) des différentes dimensions (élèves- professeurs)
DimensionsFfMoEnRaCnPrCtxIndices barycentriques Ibar(j)13,7711,651512,9341,4924,292,71Indices barycentriques relatifs I'bar(j)0,110,100,120,110,340,200,02
Le graphe 5 met en évidence les positions relatives des dimensions.
Graphe 5 : indices barycentriques des différentes dimensions
dans l’échantillon des 17 élèves-professeurs.

Par rapport au modèle MBTD les remarques formulées dans le premier test restent valables, aussi bien pour la cohérence des données que pour l’effet de discrimination obtenu.
Les conceptions des élèves-professeurs restent également marquées par la dimension connaissances (Cn) suivie du processus (Pr). On retrouve toujours le même noyau central (Cn, Pr) et des éléments périphériques (Ff, Mo, En, Ra) et une dimension marginale (Ctx).

On note par rapport aux enseignants universitaires, quelques permutations entre les dimensions moyennes ou périphériques, sans grande signification. L’énoncé du problème (En) est placé en troisième position, suivi de la finalité (Ff). Bien que fraîchement sortis de l’ambiance des salles de travaux dirigés universitaires, les enseignants en formation semblent amorcer un démarcage par rapport à leurs maîtres.
Cependant, seuls des tests de comparaisons pourraient établir l'existence de différences significatives. Mais, à cette étape de la recherche notre objectif se limite à voir, dans quelle mesure le modèle barycentrique est opérationnel.

Quand on compare le classement fait à partir de la première question (pondération absolue) et celui qui découle de l’application du modèle barycentrique, on constate que toutes les dimensions conservent leur position à l’exception de la motivation (Mo) et de la finalité (Ff). Dans ce cas également, la nécessité de sélectionner semble avoir modifié la positions des élèves-professeurs par rapport à ces deux dimensions.

Dans les deux cas le MBTD a montré son caractère fonctionnel. Appliqué à des données, il donne des résultats qui peuvent être interprétés et mis en relation avec certains résultats de recherches où des approches théoriques considérées comme pertinentes. Il constitue à présent un outil de recherche, parce que permettant de répondre aux questions-problèmes spécifiques.
Le deuxième traitement applicable aux données macroscopiques est l’induction d’une typologie de conceptions.

II.3.1.2. L’induction d’une typologie de conceptions des enseignants

Nous présenterons d’abord le principe de l’induction des typologies de conceptions avant d’appliquer ce mode de traitement à un échantillon de 62 professeurs.

II.3.1.2.1. Le principe de l’induction des typologies de conceptions

L’indice macroscopique d’une dimension permet de rendre compte de l’importance accordée à chaque dimension par l ‘échantillon interrogé. Mais ce qui est peut-être plus intéressant est de connaître l’importance accordée à chaque dimension par un sujet donné. En d’autres termes existent-ils des groupes nettement distincts qui se caractérisent par des positions particulières par rapport à une ou plusieurs dimensions ?
Une façon pratique d’approcher cette question est de s’intéresser aux sélections successives opérées par les sujets interrogés. Les choix opérés par les répondants aux
différents niveaux pourraient donc être utilisés pour définir des types d’enseignants : on aboutit ainsi à des typologies d’enseignant à plusieurs dimensions.

En effet, la sélectivité croissante introduite au départ dans la structure du questionnaire, conduit le(la) répondant(e) à choisir les deux dimensions qu’il considère comme les plus importantes. En considérant ces deux dimensions choisies en dernier lieu comme caractéristiques du sujet, on peut considérer ce choix comme définissant un type de


conception caractérisé par une centration sur ces deux dimensions. On a ainsi une typologie de conceptions à deux dimensions (X1, X2).

Par extension on peut même envisager une typologie à trois dimensions (X1, X2, X3), ou même à cinq dimensions (X1, X2, X3, X4, X5) lorsqu’on considère les sélections opérées aux questions 2 et 3.
L’expérimentation de ce mode de traitement des données macroscopiques, a été réalisée sur un échantillon de 62 professeurs de physique et chimie. Ce nouvel échantillon pré-expérimental a été choisi pour avoir des groupes d'enseignants avec des effectifs significatifs.

Typologie à 5 dimensions : l’enseignant serait défini par les dimensions qu’il a choisies à la question 2. Un type d’enseignant sera défini par le choix d’un quintuplé.
(X1, X2, X 3, X4, X5)
Exemple : (Cn, Pr, Ff, Mo, Ra)

Un type d’enseignant sera donc défini de manière qualitative. On ne s’intéresse pas à la distribution des pondérations, ce qui laisse déjà entrevoir la possibilité d’existence de sous-groupes correspondant à la discrimination entre les dimensions opérée par chaque membre du groupe.
Le nombre de types de conceptions à cinq dimensions choisies parmi sept(7) est donné par l’analyse combinatoire : il correspond aux nombres de combinaisons de p = 5 objets pris parmi n = 7 objets.

Cn p = n !/ (p! x (n-p)! ) ; C75 = 7x6x5!/(5! x 2 !) = 21
Typologie à 3 dimensions : l’enseignant est défini par les trois dimensions (X1, X2, X3) qu’il a choisies à la question 3 .
Exemple : (Mo, Ra, Ctx)
Le nombre de groupes théoriquement possibles est égal à 42
Typologie à 2 dimensions : l’enseignant est défini par les dimensions qu’il a choisies à la quatrième question.
Exemple : (Ra, Pr).
Le nombre de groupes constituant cette typologie est théoriquement égal à 21.

La typologie à deux dimensions est naturellement la plus sélective. Le sujet a été poussé dans ses derniers retranchements et on peut considérer que , même s’il a pu hésiter, les deux dimensions qu’il a choisies à la question 4 occupent une place déterminante dans sa vision de la résolution de problème. Nous commencerons donc par classer les conceptions de l’échantillon des 62 enseignants par rapport à la résolution de problème en nous servant de la typologie à deux dimensions.

II.3.1.2.2. Application de la typologie des conceptions

Si l’échantillon était homogène par rapport aux types de conceptions, chaque groupe caractérisé par (X1,X2) aurait un effectif de 62/21 éléments.
Rappels des sept(7) dimensions :
Ff = finalité ou fonction du problème ; Mo = motivation ; En = Enoncé du problème, Ra = résultats attendus ; Cn = connaissances ; Pr = processus de résolution, Ctx = contexte.

Le tableau 42 fait correspondre à chaque couple (X1, X2) de dimensions choisies à la quatrième question, le nombre d’enseignants qui l’ont sélectionné.

Tableau 42 : Types (X1,X2) tirés de la quatrième question
(échantillon de 62 professeurs)
Types de conceptionsEffectifsTypes de conceptionsEffectifsCn-Pr14En-Pr1En-Cn11Cn-Ctx2Ff-Cn10Ff-En1Mo-Cn4Ff-Ctx0Ff-Ra3Mo-Pr2Mo-En3 En-Ctx1En-Ra3Ra-Pr2Ff-Mo3 Ra-Ctx0Ra-Cn2 Pr-Ctx1Ff-Pr0 Mo-Ctx0Mo-Ra2




Les résultats montrent que 3 types de conceptions se dégagent nettement lorsqu’on les décrit dans un espace à deux dimensions : les types Cn-Pr (14), En-Cn (11), Ff-Cn (10). Ces couples sont constitués de 4 quatre dimensions : Cn, Pr, En, Ff. On retrouve d’ailleurs cette hiérarchie si on compte le nombre de fois que chaque dimension a été sélectionnée à la quatrième question.

Tableau 43 : Fréquence des différentes dimensions à la quatrième question
CnPrEnFfMoRaCtx4020201613113
Le modèle barycentrique donne une image globale des conceptions. On devait légitiment s’attendre à des déviations par rapport aux résultats obtenus avec les indices macroscopiques. C’est surtout au niveau des dimensions Ff, Mo, et Ra que ce phénomène s’observe.
La typologie à deux dimensions même si elle est plus facile manipuler pourrait cependant masquer certaines caractéristiques des groupes d’enseignants ayant des visions plus complexes.
L’analyse de chacun des trois types les plus représentatifs tenant compte des pondérations des différentes dimensions pourrait peut-être nous fournir des informations plus fines sur la structure des conceptions.

Nous allons montrer comment il est possible d’analyser une typologie à deux dimensions. Nous avons choisi l’exemple du type le plus fréquent, le type Cn-Pr.
Etude du type Cn-Pr
Si on étudie les pondérations effectuées par le groupe Cn-Pr (14 sujets), on note :
Cn  moyenne : 48,23 ; écart-type : 4,4
Pr  moyenne : 51, 77 ; écart-type : 17, 90.
Compte tenu des écarts-types calculés, on peut dire que la différence entre les moyennes n'est pas significative. Mais on peut interpréter ces écarts-types en disant que le groupe Cn-Pr est plus homogène par rapport à la dimension connaissances (Cn), et plus dispersée par rapport au processus.




Les graphes suivants donnent les histogrammes des fonctions Pr =f(n) et Cn = f(n).
Graphe 6 : Histogramme des pondérations de la dimension (Pr) des 14 sujets ayant choisi le couple (Cn, Pr) à la question 4
EMBED Excel.Chart.8 \s
Graphe 7 : Histogramme des pondérations de la dimension (Cn) des 14 sujets ayant choisi le couple (Cn, Pr) à la question 4.
EMBED Excel.Chart.8 \s
Il est possible également de montrer comment se distribuent les pondérations affectées à chaque dimension dans les couples Cn-Pr des 14 sujets.

Tableau 44 : Répartition des pondérations dans
les différents couples Cn-Pr
CnPrCnPr65355545604080205545406040606040208060406040257525754258

Si on place chaque sujet dans un repère Pr, Cn, on obtient la répartition donnée par le graphe 8 suivant :

Graphe 8 : Répartition des sujets suivant les pondérations
affectées aux dimensions Pr et Cn
La représentation graphique Pr = f(Cn) montre un groupe nettement éclaté en deux sous groupes pratiquement de même effectif, l’un centré sur les connaissances et l’autre sur le processus, le premier sous-groupe étant plus modéré (plus proche du point d’équilibre 50/50).
Le groupe Cn-Pr est donc caractérisé par une distribution symétrique, avec une plus grande sensibilité au processus de résolution. On le voit bien, même si la dimension connaissance a toujours dominé la dimension processus, lorsque la compétition devient frontale le processus a pris le dessus. La typologie à deux dimensions masquent des informations plus fines sur les types de conceptions.
Ce mode d’analyse peut être étendu aux deux autres sous-groupes les plus représentatifs En-Cn et Ff-Cn .
Ainsi, on montre que le sous-groupe En-Cn conserve la hiérarchie établie entre les dimensions par les indices barycentriques, alors que le sous-groupe Ff-Cn se singularise par une égalité parfaite entre les dimensions Ff et Cn tant du point de vue de la moyenne que de la dispersion.
Le nombre de dimensions utilisées pour définir un type de conception semble donc influer sur la hiérarchie établie entre les dimensions. Pour affiner l’analyse il nous semble intéressant de faire intervenir la typologie à trois dimensions.

Nous allons montrer, sur un exemple, comment le passage à une typologie à trois dimensions permet d’affiner l’analyse des conceptions des enseignants.
Comment la typologie des conceptions à trois dimensions permet-elle d’affiner la description macroscopique ?
L’analyse combinatoire prévoie l’existence de 42 types de conceptions à trois dimensions. Il s’agit de combinaisons de trois éléments pris parmi sept éléments.
Un problème pratique se pose compte tenu du nombre de groupes possibles. Pour des raisons pratiques et compte tenu des groupes émergents dans l’application de la typologie à deux dimensions, nous ne considérerons que les triplets ( X1, X2, X3 ) ayant pour base les doublés (Cn-Pr), (En,Cn) et (Ff-Cn).
Les types que nous recherchons sont obtenus à partir des réponses fournies à la troisième question du questionnaire-professeur. L’inventaire des types rencontrés est donné dans le Tableau 11.

Tableau 45 : Type (X1, X2, X3) tirés de la troisième question
TypesEffectifsTypesEffectifsEn-Cn-Pr13Mo-Ra-Cn3Ff-Cn-Pr6Ff-Ra-Pr2Ff-En-Cn5En-Ra-Ctx2Mo-Ff-Cn3Mo-En-Ra2Mo-Cn-Pr5En-Cn-Ctx2Mo-En-Cn5Mo-En-Pr1Ra-Cn-Pr6Ef-En-Pr1Ra-En-Cn1En-Ra-Pr1Ef-Mo-Ra2Cn-Pr-Ctx2
On constate que seuls 18 types sont apparus dans le décompte. Nous allons maintenant nous intéresser aux triplets (X1, X2, X3), ayant pour base respectivement Cn-Pr, En-Cn et Ff-Cn.
Un autre constat, sans surprise, est que le type En-Cn-Pr arrive en tête en termes d'effectif. Les dimensions En (énoncé), Ff (finalité) et Ra (résultats attendus) sont celles qui accompagnent le plus la base Cn-Pr. Viennent ensuite la motivation(Mo) et le contexte toujours marginalisé.





Pour bien analyser les rapports entre les connaissances (Cn) et le processus de résolution (Pr) nous allons comparer le comportement de ces deux dimensions sur l’ensemble des triplets ayant pour base Cn-Pr
Ces triplets seront notés de manière générale (Cn,Pr,X), X étant une dimension pouvant être Ff, Mo, En, Ra, Ctx. Toutes les pondérations de chaque dimension seront cumulées.
On a ainsi des éléments d’une typologie à trois dimensions avec une base constituée par le couple Cn-Pr
A partir du tableau 44 précédent, on obtient par extraction tous les types (X1, X2, X3) ayant pour base Cn-Pr , ce qui donne le tableau 45.

 Tableau 45 :Types (X1, X2, X3) ayant pour base Cn-Pr
TypesEffectifsEn-Cn-Pr13Ff-Cn-Pr6Ra-Cn-Pr6Mo-Cn-Pr3Ctx-Cn-Pr1Total29
Le tableau 46 suivant va faire abstraction de la signification de la troisième dimension qui est ainsi notée X. Les numéros des sujets ayant répondu sont également mentionnés(page suivante).


Tableau 46 : Les triplets (Cn, Pr, X) , X étant l’une des cinq autres dimensions

N°XCnPr1502030310603072050301120552513256015142030501518226016305020182050302150302022254535252560152610306027204535281070202940402032203050343344233530601037353035394040204120503042353332472840325112187052354025573020506027314262354025
Le graphe 9 suivant représente la distribution des sujets du groupe Cn-Pr-X dans le plan (Cn, Pr).






Graphe 9 : la distribution des sujets du groupe Cn-Pr-X dans le plan (Cn, Pr)

EMBED Excel.Chart.8 \s

Commentaires :
L’effectif du sous-groupe Cn-Pr-X est de 29 soit plus de 48 % des effectifs de l’échantillon. Le groupe comprend trois sous-groupes nettement distincts :
un groupe « connaissances » majoritaire ;
un groupe « processus » ;
un groupe « centriste » (voir graphe 9).
Ainsi lorsqu’on considère les trois dimensions, les connaissances reprennent leur place de dimension dominante dans les conceptions des enseignants.
Cet exemple montre qu’une analyse des conceptions articulant les typologies à deux dimensions et les typologies à trois dimensions permet d’affiner de manière significative l’analyse des conceptions des enseignants.
Les limites du questionnaire en tant qu’instrument de recueil de conceptions peuvent être en partie atténuées, par cette démarche d’analyse.

II.3.1.2.3. Type de conception et profil professionnel

Cette partie ne sera développée que sur l’échantillon de recherche. Il faut en effet un effectif assez important pour distinguer des strates significatives.



II.3.1.3. Conclusion sur le traitement des données macroscopiques.
La description macroscopique a permis jusqu’ici de dégager la structure générale des conceptions des enseignants à propos de la résolution de problème. La prédominance des dimensions connaissances (Cn) et processus(Pr) est apparue nettement dans l’application du modèle barycentrique.
L’identification de types de conceptions permettant de faire apparaître des groupes nettement distincts de conceptions en rapport avec la hiérarchie établie à partir des indices macroscopiques a été possible grâce à la définition de typologies correspondant à des sélections successives opérées par les enseignants. Cette démarche a permis d’affiner la hiérarchie entre les différentes dimensions.

L’utilisation de la typologie à deux dimensions a permis de confirmer la position des dimensions les unes par rapport aux autres, malgré quelques irrégularités qui se sont traduites par des inversions hiérarchiques entre les dimensions qui sont apparues d’importance moyenne.
Les irrégularités observées ont suggéré d’étudier la typologie à trois dimensions, en s’appuyant sur les résultats obtenus avec la typologie à deux dimensions. La prédominance des connaissances a été confirmée, mais le processus se révèle très important pour les enseignants lorsqu’ils sont contraints à des choix plus pointus.
Une autre particularité de la dimension processus (Pr), c’est qu’elle apparaît moins importante pour les enseignants universitaires qui mettent l’accent sur la finalité et la motivation, que pour les élèves-professeurs.

Cette description macroscopique n’est qu’une première approche. Même si les résultats obtenus peuvent déjà fournir des renseignements utiles dans la compréhension du comportement des enseignants dans leurs activités de résolution de problème en classe, du point de vue didactique il est indispensable d’aller plus loin en explicitant les contenus que les enseignants mettent dans les dimensions. Ce sera l’objet de la description microscopique.



II.3.2. Traitement des données microscopiques

Les données microscopiques sont constituées par des pondérations affectées à des indicateurs des différentes dimensions. Il s’agit de voir quels sont les items les plus valorisés. Par exemple, qu’est-ce que les enseignants mettent dans la dimension connaissances (Cn) ?
Quels processus sont privilégiés par les enseignants quand ils choisissent la dimension Pr?
Les réponses à ces questions devraient venir des pondérations affectées aux indicateurs associées à chaque dimension.

II.3.2.1. Classement des indicateurs associés aux différentes dimensions

Nous proposons de classer les indicateurs suivant la moyenne de leurs pondérations sur l’ensemble de l’échantillon. Les indicateurs d’une dimension qui ont les moyennes arithmétiques les plus élevées sont sensés être les plus représentatifs de la dimension du point de vue de l’échantillon des enseignants interrogés.
L’écart-type permettra de voir quels sont les indicateurs les plus homogènes par rapport l’échantillon, c’est-à-dire pour lesquelles les avis sont les moins dispersés.
Par exemple pour un échantillon de 62 professeurs voici comment les 21 premiers indicateurs de la dimension « processus » (Pr) ont été classés sur un total de 54 indicateurs :

1.Comprendre 2. Mobiliser ses connaissances 3. Schématiser 4. analyser 5. Interpréter 6. Interpréter 7. Identifier les phénomènes en jeu 8. Expliquer.
9. Justifier 10. Résoudre 11.obsrever 12. Calculer 13. Appliquer 14. Résoudre 15. Démontrer 16. Vérifier 17. Contextualiser 18. Formuler 19. Argumenter 20. Manipuler 21. Evaluer

Sur le plan didactique ce résultat est riche de significations. Il apparaît ainsi qu’il est possible de comprendre en profondeur les conceptions des enseignants. Dans un contexte disciplinaire de la physique et de la chimie, sciences expérimentales par excellence. Aussi bien en relation avec le cadre théorique général qu'avec le cadre

restreint, la position de chaque item peut être interprétée, en relation avec la résolution de problème. Les indicateurs permettent ainsi de révéler les aspects cachés de la classification macroscopique à partir des indices barycentriques.

II.3.2.2. Mise en relation de la structure des conceptions et du profil professionnel.

Tous les outils de traitement qui ont été utilisés peuvent être croisés avec les variables du profil professionnel. En particulier il sera possible de répondre aux questions suivantes :
Quelle est la hiérarchie des conceptions mesurées avec le modèle barycentrique de traitement de données pour les professeurs qui ont tel diplôme professionnel ou qui ont telle ancienneté dans l’enseignement. ?
Quelle est la structure microscopique des conceptions pour les sous-groupes qui ont émergé de l’induction de typologies de conceptions ?
Quelle est la structure microscopique des conceptions des sous-groupes définis par le diplôme professionnel ou par l’ancienneté ? Y’ a-t-il un recoupement entre les types de conceptions identifiés au niveau macroscopique et les strates définies par les variables de profil ?

Ainsi, la variété des questions qui surgissent à la suite de l’expérimentation de l’outil de recherche associée à des méthodes de traitement spécifiques, peut être considérée à priori comme un indicateur de la validité opérationnelle de notre démarche empirique. Mais dans tout les cas, il sera nécessaire de procéder à des test de signification appropriés pour établir les différences entre sujets et entre groupes d'enseignants définis par des variables de profil.








II.4. Qualité des outils et des méthodes de la recherche

Il s’agit ici, sur la base de l’expérimentation du questionnaire et des modes traitement initiés, de donner un premier avis sur nos outils de recherche et nos modes de traitement.

II.4.1. Avis sur la qualité du questionnaire

Après avoir construit notre cadre problématique restreint, nous avons élaboré notre outil de recherche, un questionnaire de description de conceptions structuré en deux niveaux :  un niveau macroscopique et un niveau microscopique. La partie macroscopique a été conçue de manière à éviter des réponses mécaniques.
Le questionnaire a été construit en cohérence avec les questions-problèmes associées à des hypothèses spécifiques.
L’expérimentation de l’outil que nous venons de décrire montre que le questionnaire a permis de recueillir les informations que nous voulions réellement recueillir. En cela nous pouvons estimer que notre outil de recueil de données est valide (De Ketele, 1984). De même l’outil est pertinent (De Ketele, 1984 ; De Ketele et Roegiers, 1993), puisqu’il a permis de recueillir les informations qui permettent effectivement de répondre aux questions de la recherche que nous nous sommes posées. Nous pouvons considérer que notre outil peut être accrédité d’une validité certaine.

II.4.2. Validité des méthodes de traitement

La validité d’une démarche empirique ne dépend pas seulement de l’outil de recueil de données. C’est l’ensemble (outil de recueil de données + méthodes de traitement) qui assure la validité. Nous avons montré que de manière intrinsèque, notre outil de recherche est valide.
Les traitements que nous avons proposés ont renforcé la validité de l’outil de recueil de données.
Cependant, le modèle barycentrique, tel que nous l’avons appliqué, pourrait être l’objet d’une critique. Et dans notre objectif de transformer des informations fournies sur


quatre questions, nous avons appliqué la formule du barycentre à deux types de données.
La première question fournit des données absolues, les sujet n’ayant pas à comparer les dimensions. Ne fallait-il pas alors limiter la formule barycentrique aux pondérations fournies par les questions 2, 3 et 4, à l’exclusion de la question 1 ?
Ou faudrait-il faire la différence entre des indices barycentriques bruts (avec les données des quatre questions) d’une part et des indices corrigés (limités aux questions 2, 3, 4), d’autre part ?
Nous considérons que l’indice barycentrique, tel que nous l’avons défini est plus riche. En effet la réponse à la première question est une donnée importante qu’il ne faut pas occulter dans l’analyse. De plus malgré les apparences cette question contient une comparaison implicite liée à la nature de l’échelle proposée aux sujets interrogés.
La typologie des conceptions limitée à deux dimensions pourrait apparaître comme une méthode grossière de catégorisation. L’éclairage de la typologie à trois dimensions est venue heureusement atténuer cette impression.
Nous pensons à présent disposer d’un cadre méthodologique fiable pour étudier les conceptions des professeurs de physique et chimie en résolution de problème.
















TROISIEME PARTIE

ETUDE DES CONCEPTIONS DES PROFESSEURS DE PHYSIQUE ET CHIMIE EN RESOLUTION DE PROBLEME













TROISIEME PARTIE

CHAPITRE I. DESCRIPTION DES CONCEPTIONS DES PROFESSEURS DE PHYSIQUE ET CHIMIE A PROPOS DE LA RESOLUTION DE PROBLEME


I.1. Notre échantillon de recherche

Dans la deuxième partie de ce travail, nous avons construit et expérimenté notre questionnaire de recherche. Le questionnaire a été testé sur des échantillons réduits. Cette expérimentation a permis de définir des méthodes de traitement aussi bien pour les données macroscopiques que pour les données microscopiques.
C’est fort de cette validation opérationnelle de notre outil et de nos méthodes que nous allons maintenant nous atteler à décrire les conceptions d’un échantillon de 179 professeurs de physique et chimie du Sénégal.
L’échantillon peut être décrit en strates en prenant comme critères trois variables indépendantes : le diplôme professionnel (dp) ; l’ancienneté dans la profession (anc) et le genre (ge).

L’ancienneté mesurée par le nombre d’années d’exercice de la fonction de professeur sera complétée par une variable associée à la pratique en classe de Terminale (Term).
On notera cependant la très faible représentation des femmes dans l’échantillon. Malgré tout, l’importance actuelle de la question de l’accès des femmes à l’enseignement scientifique (UNESCO, 1992) nous oblige à réserver au sous-groupe des femmes un paragraphe destiné à faire émerger des hypothèses susceptibles d’être l’objet de recherches ultérieures.

Nous n’avons pas retenu un critère géographique de stratification même si toutes les dix régions administratives que compte le Sénégal sont représentées, la région de Dakar à elle seule réunissant plus du tiers des répondant(e)s.


La description de l’échantillon de recherche en strates se fera à partir des modalités des variables indépendantes que sont le diplôme professionnel (dp), l’ancienneté (anc) , l’expérience en classe de Terminale (Term) et le genre (ge).








I.1.1. Description de l’échantillon suivant le diplôme professionnel (dp)

Les modalités de la variable nominale « diplôme professionnel » (dp) sont les suivantes :
1 = Aucun (diplôme professionnel) : cette modalité prend en compte les enseignants interrogés qui sont en formation initiale à l’Ecole Normale Supérieure ou qui exercent sur le terrain sans avoir reçu une formation professionnelle.
2 = CAE/CEM : Certificat d’Aptitude à l’enseignement dans les collèges d’enseignement moyen. Recrutés par concours sur la base du niveau du baccalauréat, les enseignants titulaires du CAE/CEM sont formés en deux ans à l’Ecole Normale Supérieure. Leur formation comporte un renforcement académique en mathématique, en physique et en chimie, et une formation professionnelle.

3 = CAEM : Certificat d’Aptitude à l’Enseignement Moyen. Ce diplôme professionnel sanctionne la formation reçue par des étudiants titulaires d’une licence en physique et chimie et formés à l’ENS en une année académique. Ils sont statutairement destinés à servir au premier cycle. Cependant, par nécessité de service, ils exercent souvent au niveau du second cycle.

4 = CAES : Certificat d’Aptitude à l’Enseignement Secondaire. Les professeurs titulaires de ce diplôme entrent à l’ENS avec une maîtrise en physique et chimie et sont formés en deux ans. Ils sont sensés être des enseignants très qualifiés de l’enseignement secondaire.

L’explicitation des modalités de la variable étant faite, voici comment se répartit l’échantillon suivant le diplôme professionnel :

Tableau 47 : Description de l’échantillon suivant le diplôme professionnel

1= aucun2 = CAE/CEM3 = CAEM4= CAESTotalEffectif78283637179%43,615,620,120,7100Cumul43,659,279,3100
On voit que notre échantillon est constitué pour plus de la moitié de professeurs ayant reçu une formation professionnelle.
En effet le cumul des fréquences pour les trois certificats d’aptitude à l’enseignement 
( CAE/CEM et CAEM pour les premiers cycles des lycées et les collèges, CAES, pour le second cycle des lycées ) est égal à 101, soit 56,3% de l’échantillon. Le ratio sujets formés/ sujets non formés est donc de 101/78.
Dans le groupe des enseignants formés, 73 soit 40,8% de l’échantillon sont titulaires d’une licence ou d’une maîtrise en physique et chimie.

I.1.1.2. Description de l’échantillon selon l’ancienneté (anc).

Les valeurs prises par la variable « ancienneté » (anc) dans notre échantillon varient de zéro (professeur en formation initiale ou débutant sans formation), à 26 ans. La variable « ancienneté » est initialement une variable numérique discrète. Mais pour les besoins de l’étude elle sera transformée en variable catégorielle. L’étendue des données sera subdivisée en cinq strates : 0 (débutant) ; 0 – 5 ans ; 5 – 10 ans ; 10 – 15 ans ; plus de 15 ans. Pour les besoins de la codification les catégories ont été associées respectivement aux lettres a, b, c, d, e. Ainsi on a :
0 = « a » ; 0-5ans = « b » ; 5-10ans = « c » ; 10-15 = « d » ; plus de 15 ans = « e ».

Tableau 48 : Description de l’échantillon suivant l’ancienneté
ModalitésEffectifsCumul%Cumul%a = 0646435,7535,75b = ]0-5]4410824,6060,35c = ]5-10]2513313,9674,31d = ]10-15]2615914,5288,83e = plu de 15ans2017911,17100
On observe que l’échantillon est constitué de 35,75% d’enseignants débutants. Près de 25% des sujets interrogés ont une ancienneté comprise entre 1an et 5 ans. Plus 25% des professeurs ayant répondu au questionnaire ont une ancienneté au moins égale à 10 ans, dont 11,17% d’enseignants ayant exercé depuis plus de 15 ans.
Une autre façon de lire la structure de l’échantillon est de faire une dichotomie entre débutants (de 0 à 5 ans) et anciens (plus de 5 ans d’expérience). On obtient ainsi en arrondissant les chiffres, 60% de débutants et 40% d’anciens.

I.1.3. Description de l’échantillon suivant l’expérience en classe de Terminale

L’expérience dans l’enseignement en classe de Terminale a été est représentée par une variable dichotomique. Il y a d’une part, les professeurs qui ont au moins exercé une fois en classe de Terminale (Term ( 0), et ceux qui n’ont jamais exercé en classe de Terminale (Term = 0).
Le tableau 49 résume la description de l’échantillon suivant la variable Term.

Tableau 49 : Description de l’échantillon suivant l’expérience
en classe de Terminale

ModalitésEffectifs%Term = 010960,9Term (7039,1Total179100
I.1.4. Description de l’échantillon selon le genre

L’accès des femmes à l’enseignement des sciences est encore très faible, en physique et chimie. Notre échantillon est à ce propos particulièrement discriminatoire. Le tableau suivant est assez explicite.

Tableau 50 : Description de l’échantillon suivant le genre

ModalitésEffectifs%1= féminin137,262 = masculin16692,74Total179100
Malgré le nombre très réduit d’enseignantes dans l’échantillon de recherche nous essayerons de voir à titre indicatif si la structure des conceptions du sous-groupe des femmes se singularise par rapport à celle des conceptions des hommes.

I.2. Description macroscopique

La description macroscopique se fera selon deux axes. Le premier axe consistera à classer les sept dimensions qui structurent le cadre problématique restreint de notre recherche. Cette classification se fera à partir des indices barycentriques que nous avons définis lors du traitement des données obtenues sur les échantillons expérimentaux.
Le second niveau de description se fera à partir des typologies de conceptions induites par la forme sélective des questions 2, 3 et 4 du questionnaire.
Ces différents niveaux de description seront mis en relation avec les variables indépendantes que sont le diplôme professionnel, l’ancienneté et l’expérience en classe de Terminale. Le groupe des femmes enseignantes dans l’échantillon de recherche ne sera pris en compte qu'à titre indicatif.


I.2.1. Application du modèle de traitement barycentrique à l’échantillon de recherche : description des conceptions des professeurs de physique et chimie à propos de la résolution de problème

I.2.1.1. Présentation des résultats de l’échantillon de recherche

Les indices barycentriques sont calculés à partir d’une formule que nous avons élaborée lors de l’expérimentation. L’indice barycentrique d’une dimension j, noté Ibar(j) est une grandeur macroscopique permettant de situer les dimensions les unes par rapport aux autres. Il constitue une mesure synthétique des pondérations affectées à chaque dimension dans les quatre premières questions du questionnaire. Ces questions ont été formulées de manière à imposer au répondant une sélectivité croissante.

Rappel :
Ibar (j) = [ I1(j) + 2 I2(j) + 4 I3(j) + 8 I4(j)]/15
Avec Ik(j) = 1/N Sðaðik(j) k est le niveau de sélectivité correspondant aux quatre premières questions du questionnaire ( k = 1, 2, 3, 4)
i désigne un sujet ; 1, 2, & N ; N = taille de l échantillon
j désigne une dimension ( j = 1, 2, 3, 4, 5, 6,7 )

aðik(j) = pondération affectée par le sujet i, à la dimension j, au niveau de sélectivité k.

L’indice barycentrique de la dimension j, noté Ibar(j) est calculé à partir des valeurs des
Ik(j), moyennes des pondérations affectées à la dimension j au niveau k (à la question k).

Pour mieux situer les dimensions les unes par rapport aux autres, nous avons proposé, au cours de l’expérimentation de l’outil de recherche, la distinction entre les indices barycentriques absolus Ibar(j), et les indices relatifs I’bar(j). Pour une dimension jo :
I bar(jo) = Ibar(jo)/( ðSð Ibar(j))

Les valeurs des Ik(j) pour notre échantillon de recherche sont données par le tableau 51 suivant :
Tableau 51 : Indices de niveau Ik(j) de l échantillon de recherche.
DimensionsFfMoEnRaCnPrCtxI1(j)59, 8761,2568,3759,1381,6874,9845,15I2(j)11,0113,8816,0811,3324,7918,954,52I3(j)11,4613,8214,177,5929,0720,503,44I4(j)11,5215,3012,096,3332,3618,923,35
Rappelons également que les coefficients barycentriques ont étés choisis de manière à accorder un poids plus important aux pondérations attribuées aux différentes dimensions, au fur et à mesure que la sélectivité augmente de la question 1 à la question 4.
Les indices barycentriques absolus Ibar(j) des sept dimensions, calculés sur l’échantillon de recherche à partir des valeurs des indices de niveau, Ik(j) et les indices barycentriques relatifs I’bar (j) sont donnés dans le tableau 52 suivant :








Tableau 52 : Indices barycentriques absolus Ibar (j) et indices barycentriques relatifs I’bar (j) des sept dimensions dans l’échantillon de recherche
FfMoEnRaCnPrCtxIbar (j)14, 6617,7816,9310,8533,7623,086,32I’bar (j)0,120,140,130,090,270,190,05
Le graphe 10 permet de mettre en évidence les positions relatives des différentes dimensions de la résolution de problème.

Graphe 10 : Indices barycentriques des sept dimensions
de la résolution de problème


Le graphe 10 précédent permet de distinguer quatre séries de dimensions :
une série de deux dimensions nettement prédominantes, constituées par les « connaissances » (Cn, Ibar(Cn) = 33,76)et le « processus » (Pr, Ibar (Pr) = 23,08). Dans cette série la dimension « connaissances » constitue un pôle dominant.
une série constituée par ce qu’on pourrait appeler des « dimensions moyennes » : la finalité (Ff), la motivation (Mo) et l’énoncé du problème (En). Dans cette série la dimension « motivation » se détache légèrement suivie de la dimension « énoncé ».
une série très moyenne constituée par la seule dimension « résultats attendus » (Ra) ;
une série nettement marginale constituée par la dimension contexte (Ctx) ;


I.2.1.2. Discussion des résultats de l’échantillon de recherche

Nous discuterons d’abord les résultats généraux fournis par les indices barycentriques des différentes dimensions à l’échelle de l’échantillon de recherche. Ensuite les discussions porteront sur les résultats des différentes strates définies à partir des variables de profil. Enfin nous tirerons une conclusion provisoire quant à la description des conceptions des professeurs de physique et chimie en résolution de problème par les indices barycentriques.

I.2.1.2.1. Discussion des résultats généraux

Les discussions porteront sur la mise en relation des hypothèses avec les résultats présentés, sur les aspects méthodologiques et sur la comparaison des résultats de l’échantillon de recherche et ceux obtenus avec les échantillons expérimentaux.
Il nous semble utile de rappeler ici les indices barycentriques des différentes dimensions, dans l’échantillon de recherche (Tableau 52) :
Tableau 52 bis
FfMoEnRaCnPrCtxIbar (j)14, 6617,7816,9310,8533,7623,086,32I’bar (j)0,120,140,130,090,270,190,05
I.2.1.2.1.1. Par rapport aux hypothèses de recherche

Le tableau précédent montre que les conceptions des professeurs interrogés sont centrées sur la dimension « connaissances » (Cn), Ibar(Cn) = 33,76). La dimension « processus de résolution » (Pr) vient en deuxième position, mais avec Ibar(Pr) = 23,08. La dimension « motivation » (Mo), est en troisième position avec Ibar(Mo) = 17,78, avant la dimension « énoncé », Ibar(En) = 16, 93. La dimension « résultat attendu » est en avant-dernière position avec un indice Ibar(Ra) = 10,85.
Le contexte (Ctx, Ibar (Ctx) = 6,32) se présente comme la dimension la moins présente dans les conceptions des professeurs de physique et chimie à propos de la résolution de problème.

Cette hiérarchie est plus explicite avec les indices barycentriques relatifs. Ainsi la dimension connaissance (Cn) qui a l’indice barycentrique le plus élevé , Ibar(Cn) = 33,76, a un indice relatif de I’bar(Cn) 0,27, suivie par la dimension Pr (Ibar(Pr) = 23,08 et
I’bar(Pr) = 0,19. En d’autres termes, les dimensions Cn et Pr représentent à elles seules 46% de l’espace des conceptions des professeurs de physique et chimie.
On voit bien que les dimensions (Mo, En, Ff), que nous avons qualifiées de dimensions moyennes ont des indices relatifs très voisins, alors que les dimensions Ra et Ctx ne représentent respectivement que 9% et 5% de l’espace des conceptions.

Il est maintenant possible d’examiner nos hypothèses sur la structure macroscopique des conceptions.

H-S1. : La structure macroscopique des conceptions des enseignants est marquée par les dimensions « Enoncé» (En), « Résultats attendus» (Ra) et « connaissance » (Cn).

Parmi les trois dimensions annoncées comme les plus présentes dans les conceptions des enseignants, seule la dimension « connaissance » (Cn) confirme l’hypothèse. La dimension Pr qui, sur la base des résultats de la recherche exploratoire semblait marginalisée se retrouve en deuxième position. Il semble bien que la forme du questionnaire (qui oblige le répondant à sélectionner et à affecter des pondérations relatives) a amené les sujets à prendre conscience de l’importance de la dimension Pr. Une autre explication résiderait dans le mode d’identification des aspects liés au processus de résolution dans les définitions fournies par les sujets dans la recherche exploratoire.

Les dimensions Ra et En, ne semblent pas occuper la place attendue, précédées qu’elles sont par la dimension Mo. Cette position de la dimension Mo est un résultat important du point de vue didactique. Globalement, les professeurs semblent plus sensibles qu’ils ne le laissent apparaître aux aspects motivationnels des activités de résolution de problème en physique et chimie.



Il restera cependant à voir quels aspects motivationnels sont privilégiés par les enseignants. La réponse à cette question découlera de la description microscopique.

Quant à l’hypothèse H-S2 , elle était libellée comme suit :

H-S2 : Les dimensions « Motivation », (Mo), « Finalité et fonction » (Ff), sont moyennement représentées dans les conceptions des professeurs de physique et chimie à propos de la résolution de problème.

Les résultats ne corroborent que partiellement l’hypothèse H-S2 . En effet, si la dimension Ff occupe le rend prédit par l’hypothèse, la « Motivation » comme nous venons de le voir plus haut apparaît comme plus présente dans les conceptions des enseignants, en intégrant le peloton de tête.
Qu’en est-t-il à présent de l’hypothèse H-S3 relative à la description macroscopique ?

H-S3 : Les dimensions « Processus de résolution » (Pr) « contexte » (Ctx) sont les dimensions les moins représentées dans les conceptions des professeurs de physique et chimie en résolution de problème.

L’hypothèse H-S3  prédisait donc une marginalisation des dimensions Pr et Ctx. Si le contexte est effectivement marginalisé, la dimension Pr apparaît comme la plus importante pour les professeurs de physique et chimie, après les connaissances (Cn). L’hypothèse n’ a été qu’à moitié corroborée au sens de Popper (1973).

Cette marginalisation du contexte dans les conceptions des professeurs de physique et chimie en résolution de problème peut être l’objet de nombreuses questions pédagogiques et didactiques. En effet, il est admis aujourd’hui que les activités mentales finalisées telles que la résolution de problème (Richard, 1990) doivent tenir compte du contexte.






Ainsi on peut se poser des questions sur la signification de la faiblesse des notes obtenues par les élèves dans les évaluations en physique et chimie. Les contextes d’apprentissage sont-elles isomorphes aux contextes d’évaluation ? De même, selon que l’élève évolue dans une séance de travaux dirigés où la présence de l’enseignant rassure ou inhibe, ou se trouve face à une épreuve d’examen, obligé d’analyser la situation-problème, de sélectionner les connaissances et les démarches, les exigences sont très variables.
Ces résultats à propos du contexte interpellent donc les formateurs d’enseignants. Il s’agira d’insister sur les conséquences d’un manque de sensibilité au contexte dans les activités d’enseignement/apprentissage en général et de la résolution de problème en physique et chimie en particulier.
La confrontation des résultats de la recherche avec les hypothèses relatives à la structure macroscopique des conceptions des professeurs de physique et chimie montre que certaines prévisions n’ont pas été confirmées. Seules les dimensions Cn , Ctx et Ff se sont révélées en adéquation avec les hypothèses spécifiques, alors que les prévisions à propos des dimensions Pr, En, Ra, Mo ont été infirmées de manière nette. Les écarts observés entre les résultats de la recherche exploratoire et la recherche proprement dite semblent liés aux limites méthodologiques que nous avions alors signalées.
La recherche exploratoire a cependant joué son rôle de base d’appui à la construction de notre problématique de recherche, à l’élaboration de nouveaux outils de recueil de données et à l’élaboration d’hypothèses de recherche.

Cette interprétation des résultats au niveau méthodologique sera abordée ultérieurement. Auparavant, nous allons faire quelques remarques sur les relations entre les résultats des échantillons expérimentaux et l’échantillon de recherche.

I.2.1.2.1.2 Par rapport aux échantillons expérimentaux

Les résultats obtenus sur l’échantillon de recherche confirment ceux obtenus à partir des échantillons expérimentaux. Mais, pour une meilleure comparaison, nous allons regrouper à la page suivante les résultats des échantillons expérimentaux et de l’échantillon de recherche. Les graphes 11, 12, 10 bis, permettent de comparer les trois résultats.

Graphe 11. Echantillon expérimental de 6 enseignants-chercheurs


Graphe 12. Echantillon expérimental des 17 élèves-professeurs

Graphe 10 bis :. Echantillon de recherche
 Les trois courbes obtenues avec des échantillons différents aussi bien sur le plan qualitatif que quantitatif révèlent une constante : les conceptions des enseignants à propos de la résolution de problème en physique et chimie sont nettement marquées par une prédominance des dimensions « connaissance » et « processus », alors que la dimension « contexte » se présente comme la dimension la moins présente dans la vision des professeurs.
La différence se situe au niveau de la hiérarchie entre les dimensions Ff, Mo, En, et Ra.
Si au niveau des échantillons expérimentaux (6 enseignants-chercheurs ; 16 élèves-professeurs ) les dimensions Ff, Mo, En ont des indices très voisins, au niveau de l’échantillon de recherche, les dimensions Mo et En se détachent dans le sens croissant tandis que la dimension Ra fléchit de manière appréciable.
L’échantillon de recherche accorde relativement beaucoup plus d’importance au processus de résolution que les échantillons expérimentaux. Le fait que l’écart Ibar(Cn) et Ibar(Pr) soit plus important pour les universitaires est en soi très significatif. L’accent mis sur les connaissances à l’université par rapport aux autres aspects de l’apprentissage est une donnée soulignée souvent dans les recherches en pédagogie universitaire (Chi et Feltovich, 1982 ; Sall, 2002).

I.2.1.2.1.3. Par rapport aux aspects méthodologiques

Les indices macroscopiques de niveau Ik(j) permettent également de classer les dimensions conformément au tableau suivant :
Tableau 53 : Classement des dimensions sur les quatre niveau de sélectivité
NiveauxClassement des 7 dimensions à partir des indices de niveau par ordre décroissantk = 1CnPrEnMoFfRaCtxk = 2CnPrEnMoRaFfCtxk = 3CnPrEnMoFfRaCtxk = 4CnPrMoEnFfRaCtx
Trois dimensions gardent une position constante dans la hiérarchie : Cn, Pr, Ctx. Les dimensions Cn et Pr sont toujours restées respectivement 1ère et 2ème dans les réponses aux quatre questions, et dans le classement fait à partir des indices barycentriques, ce qui dénote de leur prépondérance dans les conceptions des enseignants à propos de la résolution de problème.

De même la dimension Ctx a été marginalisée, non seulement à partir de sa position dans le classement, mais aussi à partir des indices qui lui ont été attribués.
Enfin on observe des dimensions moins stables, c’est-à-dire qui n’occupent pas le même rang dans les classements faits aux différents niveaux de sélectivité : (En, Mo), (Ra, Ff).
En fait l’inversion observée entre Ra et Ff peut être attribuée à des fluctuations introduites par l’échelle de mesure. En effet, au niveau 1 les indices des deux dimensions étaient très proches (59,87 pour Ff et 59,34 pour Ra), mais la différence était en faveur de Ff. Au niveau 2, les indices restent encore très voisins, mais cette fois-ci au détriment de la dimension Ff (11, 33 contre 11,01). A partir du niveau k = 3, la dimension Ff l’emporte définitivement. Mais à l’arrivée, au niveau de sélectivité k = 4, la dimension motivation Mo dépasse la dimension En.
L’outil de recueil de données que nous avons utilisé révèle ainsi ses qualités : une fiabilité pour les dimensions qui occupent les positions extrêmes et des fluctuations intermédiaires qui montrent que les sujets interrogés étaient véritablement placés dans une situation-problème qui les oblige à faire des discriminations de plus en plus poussées. La réponse au questionnaire devient ainsi une activité intellectuelle au cours de laquelle le sujet ne réagit pas de manière mécanique.
Mais ces résultats globaux concernent l’échantillon de recherche considéré comme une entité. Il s’agit d’un cumul d’informations sur des sujets définis par certaines variables de profil. Nous allons à présent faire une relecture des résultats à travers le prisme des variables de profil.

I.2.1.2.2. Indices barycentriques et variables de profil

I.2.1.2.2. 1. Présentation des résultats par strates

Dans cette partie, nous présenterons les indices barycentriques des différentes dimensions suivant les strates définies par les variables de profil (diplôme professionnel, ancienneté, genre, pratique en classe de Terminale).




I.2.1.2.2. 1. 1. Indices barycentriques et diplôme professionnel (dp)

Nous analyserons successivement les résultats obtenus pour les différentes strates définies par le diplôme professionnel.

I.2.1.2.2.1.1. 1. Les professeurs sans aucun diplôme professionnel

Les indices barycentriques de cette strate sont donnés par le tableau 54

Tableau 54 : Indices barycentriques et diplôme professionnel : dp = aucun
AucunFfMoEnRaCnPrCtxI1(j)61,0663,9361,8759,6582,5472,0242,96I2(j)12,2215,7812,6712,2627,0418,773,28I3(j)12,4516,0410,47,0232,5119,472,30I4(j)12,5918,217,765,2836,5217,961,41Ibar (j)15,7320,3512,7210,3037,2522,074,67I’bar (j)0,130,170,100,080,300,180,04
On retrouve la même hiérarchie entre les différentes dimensions que pour l’échantillon global, sauf que la dimension Ff (Ibar (Ff) = 15,73) devance la dimension Ra (Ibar(j) = 12,72). Les mêmes observations peuvent donc être faites par rapport aux hypothèses spécifiques de la recherche. Il est cependant remarquable de constater que la dimension motivation (I’bar (Mo) = 0,17) est très proche de la dimension Pr, I’bar (Pr) = 0,18).


Ainsi, la dimension Mo représente 17% de l’espace des conceptions des professeurs de physique sans diplôme professionnel. Tout se passe comme si, la prise de conscience de leur manque de certification professionnelle rendaient ces enseignants, obligés de déployer beaucoup d’énergie pour assurer leurs enseignements, plus sensibles aux aspects motivationnels et conatifs.

I.2.1.2.2.1.1.2. Les professeurs titulaires du CAE/CEM

Les indices barycentriques de cette strate sont donnés par le tableau 55.

Tableau 55 : Indices barycentriques et diplôme professionnel : dp = CAE/CEM
CAE/CEMFfMoEnRaCnPrCtxI1(j)49,354,6467,7554,7178,5773,6838,46I2(j)8,5713,7117,7512,3922,3219,265,96I3(j)8,0414,1018,299,4626,0722,61,43I4(j)8,0316,4316,829,7526,8521,360,50Ibar (j)10,8617,9920,7313,0229,4924,904,01I’bar (j)0,090,150,170,110,240,210,03
Pour les professeurs titulaires du CAE/CEM, la hiérarchie établie sur l’échantillon de recherche n’est respectée que pour les dimensions extrêmes : Cn et Pr restent en tête de même que le contexte est toujours marginalisé. Mais la dimension En (I’bar (En) = 0,17) précède la dimension Mo (I’bar (Mo) = 0,15). On note un rapprochement entre les dimensions Cn (I’bar (Cn) = 0,24 et Pr ((I’bar (Pr) = 0,21).

Mieux, non seulement la dimension Ra est pour la première fois en 5ème position, avant la dimension Ff, mais son indice relatif montre qu’elle représente 11% de l’espace des conceptions.

I.2.1.2.2.1.1.3. Les professeurs titulaires du CAEM

Les indices barycentriques de cette strate sont donnés par le tableau 56.
Tableau 56 : Indices barycentriques et diplôme professionnel : dp = CAEM
CAEMFfMoEnRaCnPrCtxI1(j)64,5655,2877,0256,3378,6176,449,08I2(j)10,9510,2719,929,7024,4718,565,02I3(j)14,308,1918,476,4529,1118,834,64I4(j)13,477,6417,414,6732,5819,15,28Ibar (j)16,7611,3122,009,2633,6422,787,99I’bar (j)0,140,090,180,070,270,180,06
Pour les professeurs titulaires du CAEM, on retrouve la même hiérarchie pour les dimensions en position extrême (Cn, Pr, Ctx). Mais la dimension En, Ibar (En) = 22 est presque à égalité avec la dimension Pr, Ibar (Pr) = 22,78. La dimension Mo, Ibar (Mo) =


11,31 se retrouve en cinquième position, précédée par la dimension Ff, Ibar (Ff) = 16,76.
On peut donc dire que du point de vue macroscopique, les conceptions des professeurs titulaires du CAEM sont marquées par une valorisation de l’énoncé dans la résolution de problème et une relative marginalisation de la dimension Mo, si on compare sa position dans cette strate à celle dans l’échantillon de recherche. Cette position de la dimension Mo dans les conceptions des professeurs titulaires du CAEM pourrait être liée au passage trop bref à l’ENS (durée 1 an).

I.2.1.2.2.1.1.4. Les professeurs titulaires du CAES

Les indices barycentriques de cette strate sont donnés par le tableau 57
Tableau 57 : Indices barycentriques et diplôme professionnel : dp = CAES
CAESFfMoEnRaCnPrCtxI1(j)60,8166,4074,1064,1085,2280,8151,00I2(j)10,3513,5118,310,1922,2119,465,54I3(j)9,1914,4014,818,4924,0522,686,21I4(j)10,0015,7812,487,5727,5118,957,70Ibar (j)13,2118,4817,9911,9329,7324,149,90I’bar (j)0,110,150,140,100,240,190,08
La strate constituée par les professeurs titulaires du CAES confirme parfaitement les résultats de l’échantillon de recherche. La dimension Mo retrouve sa 3ème position. On peut remarquer cependant que cette catégorie de professeurs valorise les dimensions Ra, (I’bar (Ra) = 0,10) et Ctx, (I’bar (Ctx) = 0,08), plus que toutes les autres catégories définies par le diplôme professionnel. De manière générale la répartition spatiale des sept dimensions dans l’espace des conceptions est plus équilibrée pour les professeurs titulaires du CAES, le diplôme professionnel le plus élevé.

Conclusion sur les indices barycentriques et le diplôme professionnel

Pour les quatre modalités du diplôme professionnel (dp), les dimensions Cn et Pr viennent toujours en tête dans cet ordre. Si l’indice barycentrique de la dimension Pr est du même ordre de grandeurs dans les différentes strates (I’bar (j) = 0,18 ; 0,21 ; 0,18 ; 0,19), la dimension Cn est particulièrement valorisée dans les conceptions des

professeurs qui n’ont pas de diplôme professionnel. En effet, en passant des professeurs sans diplôme professionnel aux titulaires du CAES, les indices barycentriques relatifs de la dimension « connaissance » varient comme suit : (I’bar (j) = 0,30 ; 0,24 ; 0,27, 0,24).

De même, le contexte (Ctx) reste toujours la dimension qui a l’indice barycentrique le plus faible, suivie par la dimension Ra, à l’exception des CAE/CEM.
La marginalisation du contexte est plus accentuée au niveau des deux premières modalités (Aucun diplôme, CAE/CEM). La dimension Mo arrive en troisième position sauf pour les professeurs titulaires du CAEM ou du CAE/CEM. Ce sont les enseignants qui ne passent qu’une année de formation à l’Ecole Normale Supérieure (CAEM), ou qui ne sont pas titulaires d’une licence (CAE/CEM). Il est difficile dans ces conditions d’émettre une hypothèse solide quant à une éventuelle corrélation entre la structure des conceptions et le diplôme professionnel, le diplôme universitaire ou le nombre d’années de formation professionnelle.
Le tableau 58 suivant présente la hiérarchie des dimensions selon le diplôme professionnel.


Tableau 58 : Hiérarchie entre les dimensions suivant le diplôme professionnel
AucunCnPrMoFfEnRaCtxCAE/CEMCnPrEnMoRaFfCtxCAEMCnPrEnFfMoRaCtxCAESCnPrMoEnFfRaCtx
Ce tableau permet de se prononcer sur l’hypothèse spécifique H-S10 libellée ainsi :

H-S10 : Au niveau macroscopique, le diplôme professionnel ne discrimine pas les conceptions des professeurs de physique et chimie.

Le tableau 58 montre que le diplôme professionnel ne discrimine pas les conceptions des professeurs de physique et chimie pour les dimensions extrêmes de l’échelle des indices barycentriques : les dimensions les plus représentées (Cn, Pr) et la dimension la moins représentée (Ctx).

Pour les dimensions intermédiaires, la position sur l’échelle des indices barycentriques varie avec le diplôme professionnel. La description microscopique permettra de voir si les positions identiques d’une dimension correspondent au même contenu décrit à partir des indicateurs proposés.

I.2.1.2.2.2. Indices barycentriques et ancienneté (anc)

Dans cette partie, seront présentés et discutés les indices barycentriques des sept dimensions dans les différentes strates définies à partir de l’ancienneté de l’enseignant.

I.2.1.2.2.2. 1. Indices barycentriques et ancienneté : anc = 0

Tableau 59 : Indices barycentriques des dimensions dans la strate
définie par anc = 0
ANC = 0FfMoEnRaCnPrCtxI1(j)59,3662,358,557,1282,3473,1543,67I2(j)11,7815,0111,4512,9826,0319,824,19I3(j)10,9416,59,347,6931,8420,753,34I4(j)10,5618,96,46,4336,2319,012,03Ibar (j)14,0820,6311,3311,0236,7723,195,44I’bar (j)0,110,170,090,090,300,190,05
On retrouve dans cette strate les principaux résultats de l’échantillon de recherche. La dimension Cn arrive en tête suivie de Pr et Mo, Ctx étant en dernière position. Mais l’écart entre Cn et Pr est relativement important (I’bar (Cn) = 0,30 et I’bar (Pr) = 0,19 ). La motivation a un indice relatif très proche de celui de Pr (I’bar (Mo) = 0,17).
Ces résultats de la strate (anc = 0) sont similaires aux résultats de la strate (dp = 0). C’est là un indicateur de cohérence. En effet les enseignants non diplômés de notre échantillon sont le plus souvent des enseignants en formation initiale, donc avec une ancienneté égale à zéro.

1.2.1.2.2. 2. 2. Indices barycentriques et ancienneté : anc = 0 – 5 ans

Tableau 60 : Indices barycentriques des dimensions dans la strate (anc = 0 – 5 ans)
ANC 0 - 5 ansFfMoEnRaCnPrCtxI1(j)55,0962,4578,2256,8182,4375,4348,63I2(j)9,8115,417,58,4523,2720,065,25I3(j)8,661616,185,0527,3422,813,75I4(j)10,0217,914,591,7730,3121,973,4Ibar (j)12,6320,0319,647,2032,0525,506,76I’bar (j)0,100,160,160,060,260,210,05
La hiérarchie de l’échantillon de recherche est confirmée par la strate (anc = 0 – 5 ans) avec les trois dimensions Cn, Pr, Mo et le Ctx en dernière position. Cependant la dimension En est presque à égalité avec la dimension Mo. Tout se passe comme si, après cinq ans de pratique, l’importance de l’énoncé dans la résolution de problème apparaissait de plus en plus aux enseignants. Nous verrons si cette hypothèse sera confirmée par les autres strates. La finalité (Ff) est toujours en cinquième position.

1.2.1.2.2. 2. 3. Indices barycentriques et ancienneté : anc = 5 – 10 ans

Tableau 61 : Indices barycentriques des dimensions dans la strate
(anc = 5 – 10 ans)
ANC 5 - 10 ansFfMoEnRaCnPrCtxI1(j)71,461,9674,6863,0876,9676,1644,08I2(j)12,813,3220,0412,6421,5615,843I3(j)1512,818,068,8823,7618,042,68I4(j)1516,0815,889,5223,1217,43,2Ibar (j)18,4717,9020,9413,3426,6721,285,76I’bar (j)0,150,140,170,110,210,170,05
Au niveau de la strate (anc = 5 – 10ans), seules les positions des dimensions Cn, Pr, et Ctx sont confirmées. Mais la dimension En Ibar (En) = 20,94 occupe désormais la troisième place devant la finalité (Ibar (Ff) = 18,47) et Mo (Ibar (Mo) = 17,90). L’importance de la place de la dimension En avec l’ancienneté se confirme. De même, la finalité (Ff) connaît une progression notable et occupe la quatrième place, alors que la dimension Ra atteint pour la première fois un indice barycentrique relatif I’bar (Ra) = 0,11. Notons également que de manière générale la répartition des dimensions dans l’espace des conceptions des professeurs ayant une ancienneté comprise entre 5 et 10

ans est plus homogène, alors que les deux premières strates sont caractérisées par une pointe très marquée au niveau de la dimension Cn et Pr.

Il semble qu’avec l’ancienneté les professeurs de physique et chimie, tout en privilégiant les dimensions Cn et Pr, deviennent plus sensibles aux autres dimensions dans leur vision de la résolution de problème. Cette évolution se fait au détriment de la dimension Mo et au profit de l’énoncé(En) et de la finalité (Ff).

1.2.1.2.2. 2. 4. Indices barycentriques et ancienneté : anc = 10 – 15 ans

Tableau 62 : Indices barycentriques des dimensions dans la strate (anc = 10 – 15 ans)
ANC 10 - 15 ansFfMoEnRaCnPrCtxI1(j)61,6960,1980,6958,8485,476,7346,53I2(j)10,0710,9619,468,7327,2317,774,23I3(j)15,199,6117,155,0733,1916,882,88I4(j)14,86,92153,4633,2717,34,23Ibar (j)17,4011,7320,558,2835,9221,216,69I’bar (j)0,140,100,170,070,290,170,05

Les tendances notées dans la strate (anc = 5 – 10 ans) se confirment avec la strate (anc = 10 – 15 ans). Les dimensions Cn, Pr, En, occupent respectivement les trois premières places, la dimension Ctx restant toujours en dernière position. La dimension Ff est encore en quatrième position devant la dimension Mo. Les indices barycentriques relatifs montrent cependant un accent mis sur la dimension Cn (I’bar (Cn) = 0,29).
L’ancienneté apparaît de plus en plus comme une variable susceptible d’influer sur la structure macroscopique des conceptions des professeurs de physique et chimie.

1.2.1.2.2.1.2. 5. Indices barycentriques et ancienneté : anc = plus de 15 ans

Tableau 63 : Indices barycentriques des dimensions dans
la strate (anc = plus de 15 ans)


ANC 15 ans+FfMoEnRaCnPrCtxI1(j)55,2555,7567,6566,17976,0541,75I2(j)10,1511,417,4514,152519,16,25I3(j)107,2515,7514,625,322,354,75I4(j)9,25816,315,7528,315,96,5Ibar (j)12,6411,4419,7318,5930,4422,068,35I’bar (j)0,100,090,160,150,250,180,07
Les dimensions Cn, Pr, En, occupent respectivement les trois premières places, le contexte toujours marginalisé est à la dernière place. La motivation est rejetée à la sixième place par les professeurs ayant une ancienneté de plus de 15 ans après les dimensions Ra, Ff. Elle ne dépasse le contexte que très peu (I’bar (Mo) = 0,09 et I’bar (Ctx) = 0,07).
Les résultats de cette strate confirment bien que la prise en compte des aspects motivationnels dans les conceptions des professeurs de physique et chimie diminue avec l’ancienneté. Il semble ainsi que plus l’enseignant dure dans le métier plus il adopte une attitude « rationnelle » qui privilégie les connaissances(Cn), les processus de résolution (Pr), l’énoncé (En), les résultats attendus (Ra) et la finalité (Ff).
Ce résultat nous semble très important. Compte tenu des notes obtenues par les élèves dans toutes les formes d’évaluation, la marginalisation des aspects de motivation (conatifs, intellectuel, affectifs) pourrait être un facteur explicatif des faibles performances des élèves.
La classification des différentes dimensions dans les strates définies suivant les modalités de la variable « ancienneté » est présentée dans le tableau 64 suivant :

Tableau 64 : Classification des différentes dimensions dans les différentes strates définies par l’ancienneté.
Anc = 0CnPrMoFfEnRaCtx0 – 5 ansCnPrMoEnFfRaCtx5 – 10 ansCnPrEnFfMoRaCtx10 -15 ansCnPrEnFfMoRaCtx+de 15 ansCnPrEnRaFfMoCtx
Conclusion sur les indices barycentriques et l’ancienneté : l’hypothèse H-S12

H-S12 : Au niveau macroscopique, l’ancienneté ne discrimine pas les
conceptions des professeurs de physique et chimie en résolution de problème

L’ancienneté ne discrimine pas les conceptions des professeurs de physique et chimie par rapport aux dimensions extrêmes (Cn , Pr) et (Ctx). La discrimination par rapport à la dimension Ra n’intervient qu’avec les enseignants qui ont plus de 15 ans d’ancienneté.
Les dimensions intermédiaires fluctuent avec l’ancienneté comme avec le diplôme professionnel. Cependant, on peut noter deux sous-groupes nettement distincts : le sous-groupe (Anc = 0 - 5 ans) a une structure qui met la motivation (Mo), au troisième niveau, alors que le sous-groupe (5 - 15 ans ou plus) est caractérisé par la hiérarchie (Cn, Pr, En). Ces sous-groupes correspondent à la classification « débutant/ancien ».

Tout se passe comme si avec l’ancienneté, les professeurs adoptaient une vision plus « rationnelle » de la résolution de problème. La trajectoire suivie par la dimension En est remarquable : d’abord en cinquième position (Anc = 0), puis en quatrième position (0 –5 ans), elle occupe définitivement la troisième place à partir de 5 ans.
De même, la motivation (Mo) d’abord en troisième recule progressivement pour se retrouver à la 6ème place chez les enseignants de plus de 15 ans d’activité professionnelle.
Une question-problème générale peut donc être formulée à ce niveau : la prise en compte des aspects motivationnels dans les activités d’enseignement/apprentissage décroît-elle avec l’ancienneté des professeurs ? C’est là un thème général de recherche qui ne manquera pas d’intéresser les chercheurs en éducation.

I.2.1.2.2.1.3. Indices barycentriques et pratique en classe de Terminale

La variable « pratique en classe de Terminale » (Term) a été dichotomisée en deux modalités:
Term = 0 pour les professeurs qui n’ont jamais enseigné en classe de Terminale et Term (0 pour les autres.

I.2.1.2.2.3.1. Indices barycentriques dans la strate Term = 0

Tableau 65 :Indices barycentriques des sept dimensions dans la strate Term = 0


Terminale = 0FfMoEnRaCnPrCtxIk(j)57,6362,8764,0857,7982,3373,7143,5Ik(j)10,8615,6313,9811,6525,9819,294,23Ik(j)10,315,9412,267,5830,8920,722,46Ik(j)10,6617,789,46,634,2519,191,85Ibar (j)13,7220,0114,4210,9535,4623,255,11I’bar (j)0,110,160,120,090,290,190,04
On retrouve chez les professeurs n’ayant jamais exercé en classe de Terminale le même classement pour les dimesnions Cn, Pr, Ctx.. La motivation (Mo) retrouve sa troisième place devant En, Ff, Ra. De nouveau la dimension connaissance a un indice relatif très élevé (I’bar(Cn) = 0,29). De manière générale, il est remarquable de noter les similitudes entre les tableaux 58 (ancienneté = 0) et 64 (Term = 0).
C’est là une deuxième indication sur la cohérence des données et du mode de traitement. En effet, ces deux strates devraient pratiquement se recouper, puisque la totalité des enseignants débutants (anc = 0) devrait se retrouver dans la strate Term = 0. L’expérience montre effectivement que les chefs d’établissement, dans la distribution des classes aux professeurs, consentent rarement à donner des classes de Terminale aux professeurs débutants, sauf cas de force majeure.

I.2.1.2.2.1.3.2. Indices barycentriques dans la strate Term = (0

Tableau 66 :Indices barycentriques des sept dimensions dans la strate Term (0
Terminale (0FfMoEnRaCnPrCtxI1(j)63,8458,1777,2162,7881,4778,1447,24I2(j)11,210,8820,2611,232318,434,44I3(j)13,0010,0018,288,0826,320,383,86I4(j)13,510,1716,996,4028,9718,975,07Ibar (j)16,4213,4221,7811,2530,9623,227,47I’bar (j)0,130,110,170,090,250,190,06
Les professeurs exerçant dans les classes de Terminale devraient avoir une structure de conceptions analogue à celles des professeurs ayant au moins cinq ans d’ancienneté. Cela est effectivement confirmé par les indices barycentriques ( Cn, Pr, En, Ff, Mo,Ra).
Le tableau 67 résume cette classification des dimensions.

Tableau 6 7 : Classification des dimensions suivant la variable Term.
Term = 0CnPrMoEnFfRaCtxTerm (0CnPrEnFfMoRaCtx
L’hypothèse H-S14 peut être examinée à ce niveau.

H-S14: Les professeurs qui ont une pratique en classe de Terminale manifestent des conceptions plus centrées sur les dimensions Cn et En.

Comme l’indique le tableau 67, pour les professeurs « spécialisés » dans les classes de Terminale, les conceptions par rapport à la résolution de problème sont centrées, comme le perçoit la majorité des professeurs interrogés, sur les connaissances (Cn) et les processus (méthodes). Mais l’énoncé occupe une place importante. Cependant, étant placés dans une position où ils préparent des élèves à l’examen du baccalauréat, les professeurs de Terminale perçoivent bien l’importance de la finalité (Ff) et à un degré moindre, de la motivation (Mo).


L’hypothèse H-S15, peut être examinée ici :

H-S15: Les professeurs ayant une pratique en classe de Terminale, sont moins sensible à la dimension « motivation », Mo.

Sans être confirmée de manière nette, l’hypothèse H-S15 ne peut cependant pas être rejetée compte tenu d’un décalage de deux rangs, de la dimension Mo entre les deux catégories de professeurs.

La pratique de la classe de Terminale semble donc discriminer les conceptions des enseignants par la place accordée aux dimensions Mo et En. Le fait d’exercer dans cette classe préparant au baccalauréat conduirait l’enseignant à privilégier la dimension En au détriment de la dimension Mo.



I.2.1.2.2.4. Indices barycentriques et genre

Tableau 68 : Indices barycentriques dans le sous-groupe des femmes
GenreFfMoEnRaCnPrCtxI1(j)62,357,377,350,7666,537049,23I2(j)10,1518,320,546,1523,4612,929,2I3(j)13,4616,9220,612,6928,8411,535,92I4(j)6,9220,3817,691,5330,6112,3810,00Ibar (j)12,7921,6422,825,7431,5816,0711,42I’bar (j)0,100,180,190,050,260,130,09

Le sous-groupe des femmes se présente avec des résultats qui bousculent la hiérarchie établie. Seule la variable Cn conserve la place occupée dans l’échantillon de recherche et dans les strates définies à partir de l’ancienneté, du diplôme professionnel, de la pratique en classe de terminale.
La dimension Cn est suivie respectivement par les dimensions En, Mo, Pr, Ff, Ctx, Ra. Pour la première fois, le Ctx ne vient pas en dernière position, devançant la dimension Ra qui ne représente ici que les 5% de l’espace des conceptions.
Mais compte tenu de l’effectif très faible de la strate des femmes (13/179), il ne nous semble pas prudent de tirer des conclusions sur des différences significatives entre les conceptions des femmes et celles des hommes par rapport aux activités de résolution de problème en contexte scolaire.
Cependant si ces résultats se confirmaient sur un échantillon plus important, des études sur les conceptions de l’enseignement/apprentissage et le genre devraient constituer un champ de recherche en devenir. Ce serait alors une deuxième question-problème induite par notre recherche : les conceptions des enseignants à propos de l’enseignement/apprentissage sont-elles fonction de la variable « genre » ?

Les résultats que nous venons de décrire semblent indiquer des caractéristiques propres aux différents groupes. Ils n’indiquent cependant pas si les différences observées entre les groupes sont statistiquement significatives. C’est la statistique inférentielle qui nous permet de nous prononcer.

I.2.1.2.2.2. Application de tests statistiques aux résultats descriptifs.

Le calcul des indices barycentriques en fonction différentes strates définies par les variables de profil (ancienneté, diplôme professionnel, pratique en classe de Terminale), a laissé apparaître des tendances au sein des groupes. L’analyse de ces tendances a été l’objet du paragraphe précédent.
Il s’agit maintenant de voir si les différences observées au niveau descriptif entre les différents groupes et pour les sept dimensions, sont statistiquement significatives. Les questions suivantes peuvent par exemple être posées :

Existe-t-il une différence significative entre les professeurs titulaires du CAES et ceux titulaires du CAEM par rapport à la dimension « connaissance » ?
Existe-t-il une différence significative entre les professeurs qui ont enseigné pendant 5 ans seulement et ceux qui ont exercé pendant plus de 10 ans et si oui dans quel sens ?

Nous avons fait appel à l’analyse de variance (ANOVA) à un facteur. Cette analyse de variance est complétée par des tests de comparaison multiples: test de Scheffé et test de Bonferroni. Les seuils de signification seront respectivement p< 0,10 et p< 0,05.

Pour la variable de profit « diplôme professionnel », (dp), nous avons cherché a voir si les différences observées entre les quatre groupes définis par ce critère sont statistiquement significatives: Aucun diplôme ; CAE/CEM ; CAEM ; CAES.
L’analyse de variance montre que les différences entre groupes ne sont significatives que pour la dimension Enoncé (p< 0,05). Pour toutes les autres dimensions, il n’y a pas de différences significatives entre les groupes.
Ce résultat global à propos de la dimension En est explicité par les tests de comparaison multiple. Sur les quatre groupes (Aucun diplôme, CAE/CEM, CAEM, CAES), la différence n’est significative qu’entre les enseignants sans diplôme professionnel et les enseignants titulaires d’une licence si on prend comme base le test de Scheffé seulement, (p