Td corrigé Méthode d'évaluation de la composition des didacticiels multimédia pdf

Méthode d'évaluation de la composition des didacticiels multimédia

La problématique de mon sujet de DEA est née des travaux antérieurs et des conclusions ... L'évaluation d'un logiciel classique peut se faire a priori en vérifiant qu'il .... A l'heure actuelle une première version du questionnaire existe, sous Excel, .... d'évaluation des logiciels de formation, réalisé par le Réseau Européen de ...




part of the document



Tissier de m’avoir permis de découvrir le domaine à mes débuts,
Danielle Quarante et Marie Noëlle Sicard de m’avoir ouvert leurs bibliothèques et leurs avis,
Jean Vanderdonckt, Dominique Scapin, Christian Bastien et Marie-Pierre Massé de m’avoir reçu et conseillé,
Bruno Bachimont, Jacsques Theureau et Dominique Boullier de m’avoir permis d’acquérir les bases dont j’avais besoin en sciences de l’homme,
Le secrétariat, et Nathalie en particulier pour sa disponibilité à toutes épreuves,
La famille Frappier dont presque tous les savants membres se sont attachés à m’aider,
Maryse pour sa relecture pertinente et méritante (entre autres …).
SOMMAIRE

 TM \o "1-3" Introduction  RENVOIPAGE _Toc429592315 \h 7
1. Préambule  RENVOIPAGE _Toc429592316 \h 7
2. Description du projet de recherche  RENVOIPAGE _Toc429592317 \h 8
2.1. Thème  RENVOIPAGE _Toc429592318 \h 8
2.2. Cadre  RENVOIPAGE _Toc429592319 \h 9
2.3. Historique  RENVOIPAGE _Toc429592320 \h 9
2.4. Enoncé du sujet de DEA  RENVOIPAGE _Toc429592321 \h 10
Démarche de recherche  RENVOIPAGE _Toc429592322 \h 11
1. Le propre du didacticiel multimédia  RENVOIPAGE _Toc429592323 \h 11
1.1. Présentation  RENVOIPAGE _Toc429592324 \h 11
1.2. Analyse technique  RENVOIPAGE _Toc429592325 \h 11
1.3. Analyse ergonomique  RENVOIPAGE _Toc429592326 \h 11
1.4. Analyse didactique  RENVOIPAGE _Toc429592327 \h 12
1.5. Analyse multimédia  RENVOIPAGE _Toc429592328 \h 12
2. EMPI  RENVOIPAGE _Toc429592329 \h 13
2.1. Quatre approches complémentaires et dépendantes  RENVOIPAGE _Toc429592330 \h 13
2.2. Un questionnaire  RENVOIPAGE _Toc429592331 \h 14
3. Cadrage du DEA  RENVOIPAGE _Toc429592332 \h 14
3.1. Objectifs  RENVOIPAGE _Toc429592333 \h 14
3.2. Positionnement  RENVOIPAGE _Toc429592334 \h 14
3.3. Remarques et mise en garde  RENVOIPAGE _Toc429592335 \h 15
4. Méthodologie suivie  RENVOIPAGE _Toc429592336 \h 16
4.1. Approche théorique  RENVOIPAGE _Toc429592337 \h 16
4.2. Approche empirique  RENVOIPAGE _Toc429592338 \h 19
4.3. Notion de supplément  RENVOIPAGE _Toc429592339 \h 20
4.4. Démarche  RENVOIPAGE _Toc429592340 \h 21
Analyser les documents numériques  RENVOIPAGE _Toc429592341 \h 23
1. Introduction  RENVOIPAGE _Toc429592342 \h 23
2. Documents textuels  RENVOIPAGE _Toc429592343 \h 24
2.1. Problématique  RENVOIPAGE _Toc429592344 \h 24
2.2. Evolution de l’écriture  RENVOIPAGE _Toc429592345 \h 24
2.3. L’édition moderne  RENVOIPAGE _Toc429592346 \h 25
2.4. La couleur  RENVOIPAGE _Toc429592347 \h 30
2.5. La rédaction  RENVOIPAGE _Toc429592348 \h 31
2.6. Propositions  RENVOIPAGE _Toc429592349 \h 32
3. Documents visuels  RENVOIPAGE _Toc429592350 \h 33
3.1. Problématique  RENVOIPAGE _Toc429592351 \h 33
3.2. Sémantique de l’image  RENVOIPAGE _Toc429592352 \h 35
3.3. La photographie  RENVOIPAGE _Toc429592353 \h 38
3.4. La cinématographie  RENVOIPAGE _Toc429592354 \h 40
3.5. La publicité  RENVOIPAGE _Toc429592355 \h 41
3.6. Les images didactiques  RENVOIPAGE _Toc429592356 \h 42
3.7. Autres approches  RENVOIPAGE _Toc429592357 \h 45
3.8. Propositions  RENVOIPAGE _Toc429592358 \h 47
4. Documents sonores  RENVOIPAGE _Toc429592359 \h 48
4.1. Problématique  RENVOIPAGE _Toc429592360 \h 48
4.2. La musicologie  RENVOIPAGE _Toc429592361 \h 48
4.3. L’audiovisuel  RENVOIPAGE _Toc429592362 \h 49
4.4. Sémantique  RENVOIPAGE _Toc429592363 \h 50
4.5. Propositions  RENVOIPAGE _Toc429592364 \h 51
Pour une scénarisation évoluée  RENVOIPAGE _Toc429592365 \h 53
1. Introduction  RENVOIPAGE _Toc429592366 \h 53
2. Navigation  RENVOIPAGE _Toc429592367 \h 53
2.1. Problématique  RENVOIPAGE _Toc429592368 \h 53
2.2. Structures navigables  RENVOIPAGE _Toc429592369 \h 54
2.3. Extension à des environnements externes  RENVOIPAGE _Toc429592370 \h 56
2.4. Gestion des structures  RENVOIPAGE _Toc429592371 \h 57
2.5. Construction des structures  RENVOIPAGE _Toc429592372 \h 60
2.6. Propositions  RENVOIPAGE _Toc429592373 \h 61
3. Interactivité  RENVOIPAGE _Toc429592374 \h 63
3.1. Problématique  RENVOIPAGE _Toc429592375 \h 63
3.2. L’implication de l’apprenant  RENVOIPAGE _Toc429592376 \h 63
3.3. Les potentiels d’action  RENVOIPAGE _Toc429592377 \h 64
3.4. Les interactions réelles  RENVOIPAGE _Toc429592378 \h 64
3.5. Interactivité émotionnelle  RENVOIPAGE _Toc429592379 \h 66
3.6. Propositions  RENVOIPAGE _Toc429592380 \h 67
4. Personnalisation  RENVOIPAGE _Toc429592381 \h 68
4.1. Problématique  RENVOIPAGE _Toc429592382 \h 68
4.2. Cadrage, ajustements et ouverture  RENVOIPAGE _Toc429592383 \h 68
4.3. Les agents  RENVOIPAGE _Toc429592384 \h 73
4.4. Les risques  RENVOIPAGE _Toc429592385 \h 74
4.5. Proposition  RENVOIPAGE _Toc429592386 \h 76
5. Fiction  RENVOIPAGE _Toc429592387 \h 76
5.1. Problématique  RENVOIPAGE _Toc429592388 \h 76
5.2. Narratologie  RENVOIPAGE _Toc429592389 \h 77
5.3. Cinématographie  RENVOIPAGE _Toc429592390 \h 79
5.4. Ecriture interactive  RENVOIPAGE _Toc429592391 \h 80
5.5. Proposition  RENVOIPAGE _Toc429592392 \h 81
Du multimédia au polymedia  RENVOIPAGE _Toc429592393 \h 83
1. Problématique  RENVOIPAGE _Toc429592394 \h 83
2. Relations Documents / Documents  RENVOIPAGE _Toc429592395 \h 84
2.1. Introduction  RENVOIPAGE _Toc429592396 \h 84
2.2. Choix  RENVOIPAGE _Toc429592397 \h 84
2.3. Interactions  RENVOIPAGE _Toc429592398 \h 85
2.4. Texte et parole  RENVOIPAGE _Toc429592399 \h 86
2.5. Texte et images  RENVOIPAGE _Toc429592400 \h 87
2.6. Son et images  RENVOIPAGE _Toc429592401 \h 87
2.7. Proposition  RENVOIPAGE _Toc429592402 \h 88
3. Relations Documents / Scénarisation  RENVOIPAGE _Toc429592403 \h 88
3.1. Introduction  RENVOIPAGE _Toc429592404 \h 88
3.2. Rythme  RENVOIPAGE _Toc429592405 \h 88
3.3. Ambiance  RENVOIPAGE _Toc429592406 \h 89
3.4. Interactivité  RENVOIPAGE _Toc429592407 \h 89
3.5. Propositions  RENVOIPAGE _Toc429592408 \h 90
Rendre compte des impressions générales  RENVOIPAGE _Toc429592409 \h 91
1. Problématique  RENVOIPAGE _Toc429592410 \h 91
1.1. Introduction  RENVOIPAGE _Toc429592411 \h 91
2. Approche Empirique  RENVOIPAGE _Toc429592412 \h 92
2.1. Introduction  RENVOIPAGE _Toc429592413 \h 92
2.2. Description des expériences  RENVOIPAGE _Toc429592414 \h 92
2.3. Caractérisation  RENVOIPAGE _Toc429592415 \h 93
2.4. Critères d’appréciation  RENVOIPAGE _Toc429592416 \h 94
3. Les affordances selon Gibson  RENVOIPAGE _Toc429592417 \h 95
3.1. Préambule  RENVOIPAGE _Toc429592418 \h 95
3.2. Définitions  RENVOIPAGE _Toc429592419 \h 95
3.3. Exemples  RENVOIPAGE _Toc429592420 \h 95
3.4. Propriétés  RENVOIPAGE _Toc429592421 \h 96
3.5. Autres notions  RENVOIPAGE _Toc429592422 \h 97
3.6. Synthèse  RENVOIPAGE _Toc429592423 \h 98
3.7. Application aux didacticiels  RENVOIPAGE _Toc429592424 \h 99
3.8. Autres approches  RENVOIPAGE _Toc429592425 \h 102
4. Apports de la sémantique de l’image  RENVOIPAGE _Toc429592426 \h 104
5. Proposition  RENVOIPAGE _Toc429592427 \h 104
5.1. Introduction  RENVOIPAGE _Toc429592428 \h 104
5.2. Critères …  RENVOIPAGE _Toc429592429 \h 105
Apports à la méthode EMPI  RENVOIPAGE _Toc429592430 \h 106
1. Introduction  RENVOIPAGE _Toc429592431 \h 106
2. MEDA versus EMPI  RENVOIPAGE _Toc429592432 \h 106
2.1. Préambule …  RENVOIPAGE _Toc429592433 \h 106
2.2. Présentation  RENVOIPAGE _Toc429592434 \h 106
2.3. Conclusions  RENVOIPAGE _Toc429592435 \h 107
3. Recensement de méthodes d’analyse  RENVOIPAGE _Toc429592436 \h 108
4. L’enquête sociale  RENVOIPAGE _Toc429592437 \h 109
4.1. Introduction  RENVOIPAGE _Toc429592438 \h 109
4.2. Dangers liés à l’utilisation du questionnaire  RENVOIPAGE _Toc429592439 \h 109
4.3. Techniques de rédaction  RENVOIPAGE _Toc429592440 \h 110
5. Proposition  RENVOIPAGE _Toc429592441 \h 111
5.1. Documents, scénarisation, relations  RENVOIPAGE _Toc429592442 \h 111
5.2. Impressions générales  RENVOIPAGE _Toc429592443 \h 114
5.3. Evaluation mixte …  RENVOIPAGE _Toc429592444 \h 115
Logiciel et essais  RENVOIPAGE _Toc429592445 \h 119
1. Logiciel d’aide à l’évaluation  RENVOIPAGE _Toc429592446 \h 119
1.1. Introduction  RENVOIPAGE _Toc429592447 \h 119
1.2. Description  RENVOIPAGE _Toc429592448 \h 119
2. Application à l’évaluation de trois logiciels  RENVOIPAGE _Toc429592449 \h 123
2.1. Introduction  RENVOIPAGE _Toc429592450 \h 123
2.2. Considérations instinctives  RENVOIPAGE _Toc429592451 \h 124
2.3. Résultats d’évaluation  RENVOIPAGE _Toc429592452 \h 124
2.4. Remarques  RENVOIPAGE _Toc429592453 \h 125
Conclusion  RENVOIPAGE _Toc429592454 \h 126
1. Considérations générales  RENVOIPAGE _Toc429592455 \h 126
2. L’aide à l’évaluation  RENVOIPAGE _Toc429592456 \h 127
3. Ouvertures  RENVOIPAGE _Toc429592457 \h 127
Bibliographie  RENVOIPAGE _Toc429592458 \h 129
Lexique  RENVOIPAGE _Toc429592459 \h 136
Liste complète des critères  RENVOIPAGE _Toc429592460 \h 137
Annexes
A. Dossier technique
A1. Questionnaire
A2. Prototype : Interface
A3. Prototype : Structure de données
A4. Résultats d’évaluation
B. Compléments
B1. MEDA versus EMPI
B2. Veille technologique
B3. Article NTICF’98

Introduction
Préambule
Les nouveaux besoins de l’apprentissage …
L’apprentissage, sous ses diverses formes, prend une place croissante dans la société moderne. Il touche de plus en plus de personnes, commence de plus en plus tôt, et se termine de plus en plus tard. Ces nouveaux besoins réclament de nouveaux moyens pour les combler et le didacticiel multimédia est un moyen parmi ceux-là, apte à proposer certaines solutions. L’utilisation de didacticiels semble particulièrement adaptée dans le cas de la formation à distance, de la formation continue, de la lutte contre l’hétérogénéité des niveaux, de l’accompagnement scolaire, de l’éveil préscolaire. Des pays comme le Canada, possédant une très grande superficie pour une densité de population faible mettent à profit ce moyen pour adapter leur enseignement. Le didacticiel étant à ses débuts, il est certain que des utilisations nouvelles se révéleront par la suite et lui permettront de s’intégrer plus profondément aux processus d’apprentissage actuels.
Les usages sont donc divers, mais à l’instar du livre, c’est le même support qui est utilisé pour transmettre l’information dans chacune de ces situations. Le didacticiel présente des avantages à plusieurs égards, il permet de stocker plus d’informations qu’un livre, pour des frais de diffusion pouvant être réduits à presque rien (par télécommunication ou via la duplication du cd-rom), avec en plus l’espoir de générer chez l’apprenant un intérêt et une activité qu’il n’aurait pas eus en face d’un autre support didactique. L’émergence des technologies du multimédia (le cd-rom, bientôt le dvd-rom, et Internet en particulier) laisse entrevoir les possibilités offertes par les formidables sources d’information qu’elles présentent.
L’engouement virtuel …
On constate aujourd’hui un certain engouement de la part des institutions françaises et européennes [Selys 98] et du grand public pour ces nouvelles technologies. Il faut les utiliser, il faut les intégrer aux centres de formation quels qu’ils soient, il faut en avoir chez soi, il faut que les enfants les utilisent, il faut que les adultes les utilisent, … Qui n’entend pas régulièrement ces phrases ? Mais si l’on y regarde de plus près, force est de constater qu’en pratique l’engouement n’est que virtuel et que les didacticiels sont fréquemment ignorés, oubliés, sous utilisés voire même rejetés. Rares sont les entreprises qui fondent leur activité économique sur les didacticiels plutôt que sur les jeux vidéo …
Nous ne pensons pas que le principe même soit en cause, il n’y a pas de raisons pour que le support numérique ne trouve sa place à côté du livre, de l’enseignement scolaire traditionnel ou de la formation en entreprise (et il n’y a d’ailleurs pas de raisons non plus pour qu’il se substitue à eux comme on l’entend parfois). L’échec relatif du cd-rom aujourd’hui peut en grande partie être attribué à la mauvaise qualité de sa conception devant un public très exigeant, et qui a toutes les raisons de l’être devant le potentiel inexploité qu’il représente. Les défauts de conception se manifestent sous la forme de mauvaises interfaces, malgré éventuellement un bon contenu pédagogique, ou inversement par des interfaces de qualité qui masquent un contenu très pauvre.
Le développement du didacticiel passe probablement par des décisions politiques et économiques telles que celles prises en ce moment, et qui ne sont pas de notre ressort. Mais il passe aussi par une meilleure maîtrise du support. Les utilisateurs et les réalisateurs doivent apprendre à modifier leur façon de l’aborder, comme dans le cas de toute nouvelle technologie.
L’autonomie de l’informatique …
Aujourd’hui la question ne se pose pas de savoir s’il faut ou non utiliser l’informatique, s’il faut ou non favoriser l’apprentissage assisté par ordinateur. La technologie informatique a acquis une autonomie certaine, et plus aucun homme ni institution – pas même les glorieux sultans américains – ne peut se vanter de maîtriser l’évolution de l’informatique. Des grandes corporations obligées par une force mystérieuse à courir derrière la progression étourdissante de la technologie, aux employés exprimant leur impuissance devant « l’ordinateur qui fait ce qu’il veut », en passant par les entreprises dans lesquelles plus personne ne sait vraiment qui a fait les logiciels, ni surtout comment, personne ne choisit totalement sa position vis à vis de l’informatique.
Ce constat n’est pas un encouragement à la renonciation, bien au contraire, une fois admis que la créature informatique avait son autonomie (les objectifs si ambitieux de l’Intelligence Artificielle des années passées se réaliseraient-ils sous cette forme ?) notre travail consiste à la comprendre, l’irriguer dans les meilleures directions, et évoluer avec elle pour continuer d’en profiter au mieux. La position de renoncement par principe, ou par conviction, ne fera que renforcer une informatique omnipotente, alors que la volonté de comprendre va dans le sens d’une informatique utile et cadrée. Tel est du moins mon point de vue, celui qui m’a conduit à réaliser ces travaux.
Description du projet de recherche
Thème
Mon DEA s’intègre à la thèse d’Olivier Hû, dirigée par Philippe Trigano au sein du laboratoire Heudiasyc. L’objectif du projet de recherche est la mise en place d’une méthode d’aide à l'évaluation des didacticiels multimédia.
Devant l’accroissement du nombre de logiciels mis sur le marché et les doutes quant à l’accroissement de leur qualité, le projet vise à permettre une meilleur visualisation de l’efficacité de ces produits en fonction de leur contexte pédagogique. Un des problèmes qui se posent aujourd’hui, en partie dû à la difficulté du marché du cd-rom à trouver sa place, est la problématique du choix en situation d’achat. Il est en effet difficile de discriminer les didacticiels en fonction de leur capacité à remplir leurs objectifs pédagogiques. En informatique, classiquement, un bon logiciel est un logiciel qui est utilisé. Ce qui n’est pas facile à déterminer avant l’achat. En informatique didactique, un bon logiciel est un logiciel utilisé, et qui permet à l’utilisateur d’atteindre effectivement un objectif pédagogique donné. Ce qui est encore moins facile à déterminer a priori !
Le but de ces travaux de recherche est d’aider un évaluateur à objectiver son approche du didacticiel de façon à pouvoir effectuer un choix réaliste. Les bénéficiaires précis de la méthode n’ont pas encore été totalement définis, on peut néanmoins caractériser une situation typique en considérant que l’utilisateur est un étudiant de second cycle, le didacticiel un outil de formation à une matière quelconque de son cursus et l’évaluateur un professeur de cette matière. Notons que selon cette vision, l’évaluateur est potentiellement ignorant en informatique, mais compétent en pédagogie et dans son domaine.
Cadre
Le pôle régional NTE a été initié en Picardie entre 1995 et 1996 et finance aujourd’hui trois projets de recherche basés sur des thèses, autour de la problématique des nouvelles technologies au service de l’apprentissage :
Plate-forme intégrée d’évaluation de méthodes et d’outils à base de nouvelles technologies (C. Moreau, F. Ghitalla, N. Rogovic)
Contribution à l’évaluation de l’interface homme-machine des logiciels éducatifs multimédia (P. Trigano, O. Hû)
Les NTE au Lycée : transformation des usages et des représentations (N. Lautier, A Romby)
Le projet fait également partie du Groupement de Recherche PRC I3, dont les assises nationales se sont déroulées cette année à Lyon du 24 au 26 juin. De nombreux projets de recherche sur la thématique des NTE existent en France (voir la veille technologique réalisée sur ce sujet [Crozat 98a]) et nos travaux sont menés en collaboration avec d’autres équipes de recherches qui couvent plusieurs domaines complémentaires : informatique, multimédia, interfaces homme-machine, graphisme, ergonomie, sciences cognitives, sciences de l'éducation, …
Historique
Dans un premier temps, l’étude des méthodes d’évaluation issues de l’ergonomie du logiciel a permis de dégager un ensemble de critères adaptés au contexte du multimédia didactique. Une méthode d’évaluation en a émergé, présentée sous la forme d’un questionnaire, et se voulant accessible à un public de non-spécialistes. S’articulant autour des critères définis, les questions sont simples, précises, quantifiables et appuyées d’une aide permettant de les expliciter.
La stabilité des résultats entre évaluateurs différents pour un même didacticiel apparaissant comme une validation importante, un critère de divergence a été mis au point pour mesurer cette stabilité et des expériences ont été menées en ce sens.
La méthode initiale, essentiellement attachée à l’ergonomie, s’enrichit au fur et à mesure d’aspects pédagogiques et multimédia. De plus l’objectif est de présenter la méthode sous la forme d’un système informatique permettant d'aider un évaluateur dans le processus d'analyse du logiciel testé. Le programme ainsi développé sera constitué d'une grille d'analyse des produits multimédia éducatifs comprenant les critères et la méthodologie évoqués précédemment.
Voici ci-dessous un historique des principaux travaux menés en cycle ingénieur UTC, en DEA et en Thèse, depuis le début du projet, afin d’élaborer la méthode EMPI.
Printemps 1996Automne 1997Printemps 1997Automne 1998Printemps 1998 …D
E
APremière version, évaluation ergo-pédagogique des didacticiels
Vincent RiethmullerSeconde version, évaluation ergonomique des didacticiels
Olivier HûTroisième version, évaluation de la composition multimédia
Stéphane CrozatSeconde version, évaluation pédagogique des didacticiels
Olivier SalesseT
PCritique de la méthode Riethmuller
Sophie Gallouet, Sébastien SarrazinCritique de la méthode Hû
Stéphanie Caillat, Etienne Delobel, Salima Dib, Edouard VilleneuveExpérience de validation de la méthode Hû
Une cinquantaine d’évaluateursT
H
E
S
EConsolidation de l’ensemble des résultats dans le but de réaliser la méthode finale d’Evaluation du Multimédia Pédagogique Interactif (EMPI)
Olivier HûL’ensemble des travaux et publications réalisés sur ce thème par l’équipe sont, chronologiquement, [Reithmuler 96], [Trigano 97a], [Trigano 97b], [Hû 97], [Salesse 97], [Gallouet, Sarrazin, 97], [Caillat & al 97], [Drocourt 98], [Crozat 98a], [Crozat 98b], [Hû, Trigano 98a], [Hû, Trigano 98b], [Hû & al 98c], [Hû & al 98d].
Enoncé du sujet de DEA
Dans le contexte qui vient d’être exposé, l’objectif de mon DEA était de traiter une partie complémentaire de la problématique d’évaluation, que nous avons nommée composition multimédia. Cette partie est intermédiaire entre l’ergonomie et la pédagogie, et regroupe les quatre thèmes suivants :
L’analyse des documents, qui supportent l’information
L’analyse de la scénarisation, qui définit l’agencement des informations
L’analyse des relations entre les différents documents et entre les documents et la scénarisation
L’analyse des impressions générales, qui émergent des documents et de leur scénarisation
De plus ces travaux avaient pour objet de contribuer à l’enrichissement de la méthode actuelle, du point de vue général et du point de vue informatique.
Démarche de recherche
Le propre du didacticiel multimédia
Présentation
L’acquisition finale de connaissances est le seul moyen certain de juger de l’efficacité d’un didacticiel. On peut ainsi mesurer a posteriori l’ancrage des connaissances acquises, les efforts qu’il a fallu fournir, la rapidité de l’apprentissage, … Mais étant donnée la rapidité de l’évolution des didacticiels, il semble difficile d’établir une base d’information concernant les produits disponibles, à partir des résultats déjà obtenus avec ceux-ci.
La solution restante est donc de définir des critères qui permettent de discriminer les bons logiciels des mauvais a priori. L’objectif n’est pas de mesurer la qualité exacte du logiciel, mais d’aider un évaluateur à porter son attention sur l’ensemble des points importants en fonction de son contexte pédagogique.
La problématique de mon sujet de DEA est née des travaux antérieurs et des conclusions qui en étaient ressorties, notamment concernant l’insuffisance des approches ergonomiques et didactiques. Je propose une rapide revue des thèmes abordés au sein de l’équipe de recherche et qui ont abouti pour moi aux propositions que je formulerai au sein de ce mémoire.
Analyse technique
L’évaluation d’un logiciel classique peut se faire a priori en vérifiant qu’il fonctionne et a posteriori en vérifiant qu’il est utilisé (et nullement en fonction de sa complexité technique). Cette approche classique en génie logiciel est nécessaire dans le cadre des didacticiels, mais néanmoins insuffisante.
L’évaluation technique concerne le niveau le plus bas, sur des aspects tels que la rapidité d’exécution, la fiabilité, l’installation, la documentation, … Il est certain que ces aspects ont des répercutions sur la qualité de l’apprentissage, néanmoins un didacticiel excellent selon l’approche technique ne sera pas nécessairement un bon didacticiel.
Les travaux relatifs à l’évaluation technique ne font pas l’objet de recherche de la part de l’équipe, mais relève du génie logiciel classique, tel qu’il est connu est utilisé dans le cas général.
Analyse ergonomique
L’apparition des interfaces graphiques a considérablement fait évoluer la problématique de l’ergonomie des logiciels. La qualité de tout logiciel dépend de son ergonomie en fonction des utilisateurs concernés. Elle permet de définir que les utilisateurs utilisent effectivement un système informatique et que l’activité en relation avec cette utilisation est bonne. Les didacticiels, à plus forte raison multimédia, obéissent à cette règle. Des recherches sont menées depuis deux ans et Olivier Hû a notamment synthétisé les connaissances du domaine et proposé une approche ergonomique adaptée au cas particulier des didacticiels [Hû 97]. La version actuelle du questionnaire concerne uniquement les critères d’évaluation ergonomiques [Hû, Trigano 98a].
Néanmoins, un aspect manquait toujours, en effet l’ergonomie est l’expression de l’activité d’un utilisateur par rapport à une interface, et en tant que telle ne traite pas des contenus et des méthodes pédagogiques. Il apparaît donc qu’un didacticiel techniquement et ergonomiquement au point ne garantit pas l’acquisition de connaissances pour un utilisateur du système. En outre certaines expériences de validation du questionnaire ergonomique [Hû & al 98c], [Crozat 98b], ont permis de mettre l’accent sur les faiblesses de certains critères dues justement au manque d’approche didactique. On retiendra également les interventions de George Louis Baron, Michel Caillot et Martial Vivet (experts au sein du suivi scientifique pour le Conseil Régional) en mars 1998, qui mettaient accent sur les besoins d’ancrer certaines des considérations ergonomiques sur des bases pédagogiques.
Analyse didactique
L’analyse de la stratégie pédagogique et des contenus est actuellement en cours de recherche au sein de l’équipe à partir des travaux d’Olivier Salesse [Salesse 97]. Cette approche nous permet de prendre la mesure de manques présents au sein de la méthode dépourvue de l’aspect didactique. Ainsi des critères tels que la gestion des erreurs ou la navigation nous apparaissent plus clairement dans le cadre des didacticiels lorsque leur dimension pédagogique est prise en compte en parallèle de leur dimension ergonomique.
Les critères recensés concernent la démarche pédagogique, l’assistance et la tutoralité, l’adaptabilité, le suivi du cursus pédagogique, la validation des acquis,  … D’autre part, il est important de pouvoir caractériser la situation d’apprentissage : en réseau ou isolé, avec ou sans tuteur, …
Analyse multimédia
Malgré les apports indéniables de l’approche pédagogique, toujours en cours de finition à ce jour, un vide subsistait, rappelé notamment par G. Delacote (expert du suivi scientifique au sein du projet NTE Picardie) et constaté empiriquement. Bien que parfois difficile à formuler au début, il était évident que manquaient :
les aspects propres au multimédia (l’évaluation des documents textuels, visuels et sonores)
les aspects propres à la scénarisation de ces documents
une considération de l’envie, du plaisir, qu’évoquaient le didacticiel pour l’utilisateur.
Ces aspects étaient tour à tour inclus dans l’ergonomie (critères « graphiques », « lisibilité », « images », « son », « vidéo ») parfois dans la pédagogie (critères « qualité de l’interface », « design graphique », média ») mais n’étaient jamais totalement traités, de peur de déborder du sujet. Ils ne relèvent donc ni tout à fait de l’ergonomie, puisque l’activité n’en dépend pas directement, ni tout à fait de la pédagogie, puisqu’ils ne sont pas totalement liés à l’apprentissage. Ils sont en quelque sorte à la jonction des deux. Il est important de remarquer que parmi les recherches actuelles, peu d’entre elles se préoccupent réellement de la spécificité multimédia. Bien que certains les incluent plus ou moins dans l’ergonomie, elle est généralement laissée de côté et considérée comme secondaire. L’un des objets de ce mémoire est d’insister sur l’importance de la composition dans la qualité finale du logiciel.
Nous avons décidé d’organiser l’évaluation selon quatre axes, distincts, mais participant d’un même ensemble que l’on se propose de nommer composition multimédia. Ces quatre axes sont l’analyse des documents, de leur scénarisation, des relations entre documents et avec la scénarisation et des impressions générales.
EMPI
Quatre approches complémentaires et dépendantes
Un ensemble nécessaire et suffisant …
Chaque approche prise séparément – technique, ergonomique, pédagogique, multimédia – représente un ensemble de conditions nécessaires, mais pas suffisantes. Nous pensons que seul l’ensemble des critères issus de chaque approche permettra une évaluation complète et représentative du didacticiel. Bien entendu il conviendra de faire des expériences de validation afin de déterminer la suffisance de ces critères ainsi que l’importance relative de chacune des approches sur l’acquisition finale des connaissances, qui est en fin de compte ce qu’il faut être en mesure de prévoir.
Le recouvrement des critères …
Il est important de noter que les critères que nous mettons en valeur se rattachent souvent à plusieurs approches simultanément. Les quatre domaines ainsi définis forment donc un tout aux limites imprécises. Cela implique que le questionnaire final ne se composera certainement pas des quatre sous questionnaires écrits par ailleurs, mais d’un unique ensemble de questions permettant d’évaluer les différents critères via un graphe de dépendance.
Voici par exemple quelques critères dont le domaine ne peut être déterminé de façon absolue :
La navigation tient de l’ergonomie et de la scénarisation
La gestion des erreurs tient de l’ergonomie et de la pédagogie
L’interactivité tient de la scénarisation et de la pédagogie
L’homogénéité tient des documents et de l’ergonomie
La lisibilité tient de l’ergonomie et des documents textuels
 …
Vision d’ensemble …
 INCORPORER Word.Picture.8 
Un questionnaire
Les quatre approches se complètent pour former un ensemble de critères et de questions. Parallèlement une méthodologie est mise en place pour les exploiter dans un processus d’évaluation. L’objectif est de réaliser un outil informatique interactif d’aide à l’évaluation, EMPI (Evaluation du Multimédia Pédagogique Interactif)
A l’heure actuelle une première version du questionnaire existe, sous Excel, permettant de répondre à un ensemble de question fermées visant à détecter les défauts ergonomiques, et fournissant un histogramme représentant la note obtenue pour chaque critère.
Cadrage du DEA
Objectifs
Dans le cadre de la méthode EMPI, nous avions fixé les objectifs suivants pour mes travaux de DEA :
Définir un ensemble de critères pouvant servir à l’évaluation
Proposer une classification de ses critères
Associer des questions à ces critères afin de proposer un questionnaire effectif et utilisable
Intégrer mes travaux à la méthodologie d’évaluation mise en place par Olivier Hû.
Présenter une version informatisée, éventuellement innovante, du questionnaire établi
Positionnement
Public privilégié
Apprentissage de l’enfant versus apprentissage de l’adulte … (prendre v5.01)
L’enfant naît dans un monde défini par d’autres personnes. Il est le centre de ce monde unique, et s’imprègne de ce qu’il offre. L’enfant ne distingue pas entre le monde interne de ce qu’il connaît et le monde externe [Piaget 77].
 INCORPORER Word.Picture.8 Il imite ce que le monde extérieur offre, pour l’intégrer à son monde interne, sans en avoir conscience [Winnykamen 90]. Il construit ainsi un cadre de référence, lié à son monde maternel. Les objets auxquels il se trouve confronté alimentent son monde. L’adolescence marque la fin de l’unicité du monde et la capacité chez l’(ex)enfant à produire une frontière entre ce qui fait partie de son monde et ce qui y est extérieur.
L’adulte quant à lui est plein, il ne peut plus accumuler directement les connaissances issues de nouveaux objets sur son monde maternel. Il est obligé de déconstruire ce dont il s’était imprégné pour faire de la place, et pouvoir acquérir de nouvelles connaissances. INCORPORER Word.Picture.8 Choix …
Nous ne pouvons donc traiter de la même façon l’apprentissage de l’enfant et celui de l’adulte, ce qui nous conduit à effectuer un choix. Les utilisations que nous faisons de la méthode EMPI, les tests qui sont effectués et le public cible à court terme est composé d’étudiants de second cycle, c’est pourquoi nous dirigeons plus la méthode EMPI, dans un premier temps, vers l’apprentissage de l’adulte.
Le choix qui a été fait d’utiliser le terme didactique, plutôt que pédagogique ou éducatif, va dans ce sens : La didactique est définie comme la transmission des valeurs d’un individu dans la culture d’un autre [Costa, Moles 91]. Cela dépasse le concept de pédagogie, concentré étymologiquement sur les enfants, ce qui ne ce justifie pas, étant donné qu’on ne cesse d’apprendre ou d’enseigner. Le terme éducatif a une connotation liée à l’enfant dans son emploi commun, aussi nous avons donc préféré employer le terme de didactique qui touche donc tous les âges, tous les milieux, plus généralement tous les contextes d’apprentissage.
Support privilégié
La méthode EMPI a pour vocation d’évaluer les logiciels didactiques, quelque soit leur support, et actuellement les deux principaux sont les sites Web et le cd-rom. Notre support d’étude privilégié est néanmoins pour le moment le cd-rom, car celui-ci dispose d’un potentiel plus important qu’Internet, qui ne peut exploiter que faiblement les aspects multimédia et scénaristiques. Bien que largement applicable à Internet, et de plus en plus à mesure que celui-ci s’améliore, nos considérations sont donc essentiellement liées au cd-rom.
Notons que l’avènement de supports plus performants, tels que le dvd-rom, auront un impact sur la méthode, puisque développant les possibilités des didacticiels (vidéo plein écran par exemple), mais les bases théoriques et la plupart des critères resteront valables.
Le Multimédia
Nous avons choisi de nous concentrer sur le multimédia plutôt que sur des supports monomédia (et donc essentiellement textuels), pour deux raisons essentielles :
La conjoncture : Le multimédia consiste en ce qui est effectivement disponible aujourd’hui en majorité, et c’est donc là que se trouve les principaux besoins d’évaluation
Un pari : Celui que le multimédia est plus riche potentiellement que le monomédia, et qu’il ne tient qu’à le maîtriser mieux pour en profiter réellement.
Remarques et mise en garde
Des points de départ …
Alors que concernant certains aspects de mes travaux, je disposais d’une grande liberté, d’autres étaient des points de départ fixés à l’avance par l’ensemble du projet. L’utilisation d’un questionnaire par exemple est une solution qui a été adoptée après une étude approfondie : Alors que le recours à des experts et des utilisateurs en situation eut certainement été plus performant qu’un simple questionnaire, il est bien entendu que celui était d’une diffusion large plus aisée, ce qui était la vocation de la méthode.
Le questionnaire ne peut pas remplacer l’évaluateur expert, mais il peut aider l’évaluateur profane à cerner du mieux l’objet de l’évaluation, en l’absence d’expert.
Un autre aspect déterminant est la taille du questionnaire : Celui-ci étant destiné à des évaluations de relativement courte durée (compte tenu des contraintes des évaluateurs), il n’était pas possible de proposer des centaines de questions (je disposais a priori d’environ cinquante à cent questions). Etant donné la taille du domaine considéré par la composition multimédia, cela impliquait une généralisation des questions sur des points thématiques.
La pluridisciplinarit項
L’analyse de la composition multimédia est un problème largement pluridisciplinaire qui dépend de sciences aussi diverses que l’informatique bien sûr, mais aussi la didactique, le design, la sociologie, la psychologie, la philosophie, la cinématographie, la photographie, la linguistique, …
Notons néanmoins que ces travaux s’inscrive dans le contexte générale de l’informatique, et c’est dans ce cadre que les autres disciplines seront utilisées et appliquées. En aucun cas nous ne prétendons effectuer des recherches en psychologie ou en didactique !
La subjectivit項
La méthode EMPI repose dans son ensemble sur les appréciations subjectives d’un évaluateur, dans le cas de la composition multimédia plus particulièrement. Notre but n’est donc pas d’effectuer une évaluation absolue et indiscutable, mais bien d’aider l’évaluateur à gérer sa subjectivité, à comprendre le didacticiel, de façon à objectiver au maximum son approche.
Relation vis-à-vis des autres travaux …
Ce DEA intervient dans un projet plus large, et en particulier en appui à la thèse d’Olivier Hû. J’ai travaillé en collaboration étroite avec Olivier Hû et Philippe Trigano, et à partir des travaux précédents, évitant d’être redondant (notamment avec les aspects ergonomiques largement traités). Néanmoins j’ai choisi pour ces travaux de DEA de proposer un ensemble cohérent, quitte à recouvrir parfois des travaux effectués par ailleurs. Nous avons signalé que les domaines n’étaient pas indépendants, donc pour traiter l’ensemble de mon sujet je n’avais d’autre choix que de reparler de critères déjà abordés, avec la réserve toutefois d’une approche différente, ni ergonomique, ni pédagogique.
Nous mettrons en commun l’ensemble des travaux, mais dans ce premier temps j’ai souhaité proposer une vision propre des choses, afin d’enrichir le sujet, quitte à abandonner certains points de vue dans une seconde phase du projet.
Méthodologie suivie
Approche théorique
Veille technologique
Mes premiers travaux ont été constitués par une veille technologique concernant « l’évaluation des applications éducatives (Internet et CD-Rom) » [Crozat 98]. Voici un aperçu de ces recherches :
L’évaluation des didacticiels …
La méthode MEDA est un outil opérationnel d’évaluation des logiciels de formation, réalisé par le Réseau Européen de Recherche en Education et Formation (REREF). Bien qu’un peu ancien, cet ouvrage représente le travail le plus directement lié aux recherches que nous voulons mener. Il est construit selon une méthodologie d’évaluation basée sur des grilles de questions à remplir par l’utilisateur. Les critères retenus sont très complets. De plus la méthodologie MEDA est implémentée sur support cd-rom, sous le nom de MEDA 97 . Notons tout de même qu’elle est plus orientée logiciel de formation d’entreprise que cd-rom multimédia à caractère scolaire ou familial.
Le Laboratoire d'Informatique de l'Université du Maine (LIUM) dirigé par Martial Vivet EX "Vivet, Martial "  se consacre notamment à l’IA et l’ingénierie des connaissances. Dans ce cadre, il travaille sur des applications concernant la création d'outils de formation. Leur domaine de recherche est très proche du nôtre bien qu’il semble plus orienté vers une approche de conception d’applications que d’évaluation.
CyberScol est un projet de recherche et de développement canadien sur les applications éducatives des Nouvelles Technologies de l'Information (NTI). Il propose une base de données composée de logiciels éducatifs (sur support cd-rom pour la plupart) associés à des évaluations. Les évaluations sont menées depuis 1993 dans le cadre du Ministère de l’Education.
M'hammed Abdous, au Centre Electronique des Ressources Educationnelles de l’Université de Laval, propose des grilles d’analyse destinées à évaluer les différents sites existants sur le Web. Un processus d’indexation permet aussi de comparer les sites entre eux.
L’évaluation (élargissement) …
De nombreuses recherches liés à l’évaluation des interfaces homme-machine, mais sans restriction au domaine des didacticiels ont été recensées [Hû 97]. On peut citer l’INRIA [Scapin, Bastien, 97], Christophe Kolski [Kolski 97] EX "Kolski, Christophe " , Jean-Claude Sperandio [Sperandio 93], …
Le Centre for Curriculum Transfer and Technology EX "Centre for Curriculum Transfer and Technology"  (Canada) a été créé en 1996, afin de donner aux professeurs les moyens d’évaluer les logiciels de conception d’applications éducatives sur le Web. Ces travaux s’intéressent au même sujet que celui que nous comptons développer à l’UTC, c’est à dire l’évaluation, dans le domaine des applications éducatives, mais à un niveau différent. Il s’agit en effet ici d’évaluer les logiciels permettant de développer les sites, que nous comptons ensuite, à notre tour évaluer.
Patrick Pognant et Claire Scholl propose des éléments pour l’évaluation des cd-rom culturels [Pognant, Scholl 96]. Si le sujet n’est pas exactement celui qui nous intéresse, la démarche adoptée dans ce livre pour évaluer les cd-rom culturels pourra servir d’inspiration à une démarche d’évaluation de didacticiels. Ce livre propose en effet des outils de critique, qui pourront être réutilisés et adaptés, étant donné la relative proximité des deux domaines (notamment en ce qui concerne les aspects multimédia, interface, scénarios, …)
Y. Bourron, J.P. Chapuis, J.L. Ruby [Bourron & al 95] exposent les théories de la représentation et de la communication par l’image et le son. Après un vaste chapitre consacré à l’audiovisuel, il s’intéresse au multimédia à travers notamment une grille d’analyse d’un cd-rom interactif (CDI) en 58 questions. Cette grille est basée sur des critères subjectifs remplis par un évaluateur (on retrouve les critères esthétiques, ergonomiques, techniques, d’utilisation des médias, de documentation, …).
Les sciences éducatives en informatique …
TEFCA EX "TEFCA"  est une unité de recherche et d’enseignement dans le cadre de la faculté de psychologie et des sciences de l’éducation de l'Université de Genève. Leurs travaux portent sur les technologies éducatives, ils ont de nombreux projets en lien avec l'éducation à distance, l'intégration de l'informatique dans les classes, ... En outre ils disposent d’une bibliothèque virtuelle référençant de nombreux ouvrages sur le thème de l'éducation et un serveur a été mis en place afin de servir de base de travail pour les chercheurs en sciences de l’éducation ainsi que pour servir de base de renseignement aux enseignants.
Le laboratoire TRIGONE EX "Laboratoire TRIGONE:Université des Sciences et Technologies de Lille"  de l’Université des Sciences et Technologies de Lille EX "Université des Sciences et Technologies de Lille"  (Lille I), travaille sur les technologies nouvelles dans le cadre de la formation permanente des adultes. L'équipe NOCE effectue des recherches dans le domaine des technologies de l'information et de la communication et sur leurs applications à la formation d'adultes : Apport des sciences humaines ; ergonomie, IHM, multimédia ; méthodologie d’évaluation ; création d’un campus virtuel, …
Le Centre de Ressources NTE EX "Centre de Ressources NTE:UNIVERSITE CLAUDE BERNARD"  de Université Claude Bernard EX "Université Claude Bernard"  (Lyon I) dispose d’une activité directement liée aux NTE. On trouve sur le site Internet de nombreux renvois et il propose en outre le magazine on line GEMME, dédié aux NTE (actualité, travaux en cours, …)
Eric Bruillard, EX "Bruillard, Eric"  informaticien, enseignant-chercheur à l’IUFM de Créteil, propose une synthèse des idées et des approches dans l’usage des technologies de l’information et de la communication, pour l’éducation et la formation. [Bruillard 97] (historique, exemples, état de l’art, apports de l’IA dans le domaine, interfaces graphiques, les techniques multimédia, réalité virtuelle et augmentée, théories des sciences éducatives, différents courants, …).
L’Institut National de Recherche en Pédagogie travaille régulièrement la problématique des NTE. Une synthèse des travaux de recherche entre 1991 et 1994 [Glikman, Baron 96], [Baron 96] propose une réflexion principalement du point de vue pédagogique, en insistant sur les expériences vécues ou des exemples d’apport de la technologie dans le domaine de la pédagogie (liens et différentes intégrations possibles entre technologie et éducation, intérêt de l’utilisation de l’image et représentation de la connaissance sous forme d’image, conception d’environnements, modélisation d’élèves, …)
Divers …
Notons que cette veille a également été l’occasion de recenser des outils de développement d’environnement éducatifs (notamment sous la forme de sites Web), ainsi qu’un certain nombre de sites et de cd-rom disponibles, matière première indispensable à nos essais d’évaluation.
Etat de l’art
Colloques, …
J’ai pu assister aux réunions suivantes concernant le thème des NTE :
« Nouvelles technologies et nouveau rôle du formateur : Quelles stratégies ? », Colloque Journal du Multimédia, Paris, mai 1998.
Les thèmes abordés concernaient notamment les méthodes de conduite de projet dans le cas des didacticiels [Raffenel 98], [Escarabajal 98], des réflexion sur l’outil cd-rom [Kellner 98] et l’autoformation encadrée [Caradot 98], les structures navigationnelles adaptées au didacticiels [Farah 98], …
« Assises du GDR-PRC I3 », Lyon, juin 1998.
Ces assises furent l’occasion d’un état des lieux concernant tous les aspects sur lesquels se concentrent actuellement les chercheurs du point de vue de la communication homme machine [Caelen, Henry 98], du multimédia [Nigay, Vigouroux 98], de l’ergonomie [Bastien, Scapin 98] de l’intelligence artificiel [Garcia 98], [Muller, Pesty 98], … On notera également une perspective de la recherche dans ce domaine au etats Unis [Strong 98] et une intervention concernant la didactique en informatique et invitant à la collaboration au sein d’équipes pluridisciplinaires [Balacheff 98].
« CAPS’98 : Apprentissage Homme-Machine », Caen, juin 1998.
Les présentations concernaient principalement la problématique de l’enseignement assisté par ordinateur, sous les thèmes du co-apprentissage entre homme et machine [Vivet 98], de la pluridisciplinarité, et également à travers des exemples d’outils d’aide à l’apprentissage effectifs [Léglise 98], [Baker 98].
Rencontre d’experts …
Ce DEA a également été l’occasion de rencontrer de nombreux experts dans les différents domaines concernés par mes travaux. Outre les enseignants chercheurs de l’UTC (domaine des sciences humaines, du design, …), j’ai pu rencontrer Jean Vanderdonckt (Université de Lille), Dominique Scapin et Christian Bastien (INRIA), … (voir annexe, liste des contacts).
Bibliographie …
Il a bien entendu fallu se documenter sur l’ensemble des disciplines concernées par le domaine de recherche. J’ai choisi de ne pas organiser la bibliographie par discipline, car les frontières auraient été arbitraires, et devant la pluridisciplinarité que nous recherchons, il me paraissait peu opportun de diviser les royaumes.
Ainsi on trouvera en bibliographie (voir annexe) des ouvrages et des articles issus de l’informatique, mais aussi des sciences cognitives, des sciences sociales, de la psychologie, … C’est l’ensemble des ces sources d’informations, aussi diverses soient elles, qui m’ont permis de proposer les résultats qui suivent dans le domaine plus restreint des didacticiels, et encore plus restreint de leur aspect multimédia uniquement.
Approche empirique
Description …
Les résultats que nous exposons dans ce mémoire sont également issus de constatations et de mesures empiriques. On citera l’étude de trois corpus issus de trois situations d’évaluation instinctives, une étude portant sur la méthode EMPI, et plusieurs études de cas pratiques. Cette approche empirique nous a permis de diriger et de compléter l’approche théorique. Elle nous a été particulièrement utile en ce qui concerne l’étude des impressions générales.
Première expérience : 50 évaluateurs, 1 logiciel …
Une cinquantaine d’évaluateurs, élèves de second cycle à l’UTC, ont été mis en situation d’utilisation du même logiciel, Prisméo, réalisé par le Groupe des Ecoles de Télécommunication en 1994. Les utilisateurs ont essayer le logiciel pendant une heure et ont ensuite procédé à une évaluation libre. Ils devaient exprimer leurs impressions et leurs commentaires par écrit. Le corpus est donc composé d’une cinquantaine de texte d’environ une page en moyenne.
Deuxième expérience : 100 logiciels …
Le second corpus a été prélevé sur les évaluations d’une centaine de didacticiels différents. Notons que nous avons effectué une analyse manuelle de ce corpus, ainsi qu’un traitement automatique par recherche de lemmes.
Troisième expérience : 4 évaluateurs, 4 logiciels, 1 heure …
Quatre utilisateurs de culture similaire (informatique) ont évalué chacun quatre logiciels multimédia qu’il ne connaissaient pas, et qui concernaient l’enseignement d’une matière scientifique (Silicapolis, Galilée, Dicit, La cellule). Ils disposaient d’une heure environ pour tester les quatre logiciels et noter leurs impressions générales.
MEDA vs EMPI …
Des études avaient précédemment été effectuées pour analyser les méthodes d’évaluation mise au point au fur et à mesure [Gallouet, Sarrazin, 97], [Caillat & al 97]. Ces études ont critiqué les méthodes et les ont comparé entre elles à différents stades pour en apprécier les évolutions. J’ai quant à moi procédé à l’étude comparative de la version de la méthode EMPI au début 1998 avec la méthode MEDA 97.
Etudes de cas …
J’ai enfin eu l’occasion de tester et utiliser une vingtaine de logiciels au cours de mes travaux, ce qui a considérablement influencé mon point de vue.
Autres corpus …
Notons enfin qu’il existe de nombreux autres corpus, notamment liés à l’évaluation de documents hors contexte informatique, que je n’ai pas approfondis pour le moment. On citera les corpus d’analyse de photographies [Debray 94], les corpus de styles graphiques [Poynor 91], …
Notion de supplément
Cerner et comprendre les spécificités et les potentiels …
Umberto Eco parle de « dérive infinie du sens », pour exprimer que « le langage dit toujours quelque chose de plus que son inaccessible sens littéral, lequel s’est perdu dès le début de l’émission textuelle » [Eco 92]. Chaque support présente des spécificités, des particularités, des potentiels qui influencent profondément l’information qu’il contient. Pour évaluer ou concevoir un didacticiel, il faut en comprendre ses spécificités. Cette approche est essentielle pour maîtriser le support. On ne peut pas utiliser le cd-rom comme une cassette vidéo, tout comme on ne peut pas écrire comme on parle. A support de communication différents, écriture différente, car lecture différente.
J’ai donc cherché tout au long de mes travaux à discerner quelle était la valeur ajoutée potentielle pour chaque aspect du didacticiel (du point de vue de l’objet de notre étude, la composition multimédia). Une fois cette valeur ajoutée potentielle décrite, on peut vérifier si elle est ou non mise en œuvre dans les didacticiels à évaluer, et on peut vérifier quelle est la qualité de son utilisation. L’objectif n’était pas d’énumérer l’ensemble des particularités existantes (ce serait par ailleurs impossible) mais de focaliser sur celles qui paraissent les plus importantes, de notre point de vue.
Phénoménologie du support …
« Toute connaissance n’existe que médiée sur un support matériel ». Cette thèse, soutenue par le courant phénoménologique fondé par Husserl au début du XXème sciècle [Husserl 50] est la base de la réflexion que nous venons de décrire, aussi convient-il de la rappeler, à défaut de l’expliciter. Si l’on adopte cette posture qui consiste à placer la médiation de la technique au centre de l’élaboration de la connaissance, on doit également prendre en compte le supplément. Nous proposons une très succincte définition de cette notion [Bachimont 98] :
Le support technique enregistre une connaissance selon une forme propre qui conditionne sa réappropriation (la réappropriation consiste à synthétiser les connaissances acquises depuis certains supports techniques sur de nouveaux supports). Cette réappropriation suppose un différemment à l’infini de l’assimilation totale du sens inscrit sur le support et une différenciation de chaque lecture. La notion de supplément exprime le fait qu’inscrire une connaissance sur un support technique suppose l’addition à cette connaissance d’un supplément de sens directement lié à la nature du support.
Si l’on nomme réalisateur celui ou ceux qui écrivent le logiciel et utilisateur celui qui le lit, on peut schématiser ce concept de la façon suivante :
 INCORPORER Word.Picture.8 
On constate donc pour le didacticiel, comme dans le cas de tous supports techniques, que son utilisation comporte des particularités propres qui apportent des suppléments de sens indépendants de la volonté du réalisateur, et que ces suppléments conditionnent la réappropriation des connaissances. Les changements observés, quant à la façon d’apprendre en face d’un support logiciel, sont divers : La lecture de chaque document est modifiée (la lecture d’un texte sur un écran par exemple est différente de la lecture sur un support papier), la façon de parcourir le document est modifiée (la structure hypertextuelle par exemple se différencie de la structure linéaire d’un livre). Une fois admis que le contenu, la façon d’apprendre sont profondément conditionnés par l’outil, nous pouvons en tenir compte lors de l’écriture et de l’évaluation. Et si le réalisateur de l’outil technique ne peut maîtriser au cours de son écriture l’ensemble du sens qui sera perçu par les futurs lecteurs, sa maîtrise du support lui permettra de réduire la distance entre le sens qu’il désire transmettre et la lecture qui en sera faite. Je propose dans ce mémoire une réflexion quant à la nature des différents suppléments constatés, quant à leur influence sur le sens des informations, afin de fournir les meilleurs moyens d’évaluer les didacticiels.
Démarche
Synthèse …
Etant données les multiples sources d’information nécessaires au traitement de l’ensemble du problème, mon approche fut d’effectuer une synthèse empruntant à chaque discipline et à chaque expérience ce dont j’avais besoin. J’ai donc systématiquement chercher à rassembler l’approche empirique et l’approche théorique pour :
Trouver les spécificité du didacticiel selon le domaine concerné
En déduire des critères propres à en définir la qualité
Proposer une terminologie adéquate et significative pour l’ensemble des domaines réunis
Classer les critères selon une logique hiérarchique d’évaluation à profondeur variable
A partir de ces critères et des connaissances acquises au cours de l’approche empirique et théorique, j’ai pu :
Construire un questionnaire permettant d’évaluer effectivement
Elaborer une documentation détaillé pour l’aide
Proposer une méthode d’évaluation informatisée adaptée au problème
Description des résultats …
La méthodologie décrite a été appliquée en parallèle pour les domaines :
des documents
de la scénarisation
des relations
des impressions générales
Nous proposons également de consacrer dans ce mémoire un paragraphe concernant les études qui ont été menées concernant la méthode d’évaluation en elle-même.
Visualisation graphique …
 INCORPORER Word.Picture.6 
Analyser les documents numériques
Introduction
L’essence du didacticiel …
Les documents sont les vecteurs essentiels de l’information dans le didacticiel. Les textes, les images et les sons constituent la matière première du logiciel multimédia, cela ne signifie pas que leur évaluation prévaut sur les autres, nous avons choisi néanmoins, par soucis de cohérence, de commencer notre étude par eux.
Précisions …
Rappelons également que notre étude ne porte pas sur le contenu des documents, mais sur la pertinence de l’utilisation qui en est faite, afin de transmettre leur contenu. L’étude de la pertinence du contenu proprement dit est traitée par ailleurs par l’approche pédagogique de l’évaluation.
Selon la classification suivante [Bachimont 98], on peut considérer le document numérique selon cinq niveaux différents :
le support d’enregistrement (cd-rom, disque dur, …)
la forme d’enregistrement (codage binaire, …)
le support d’appropriation (écran, papier, …)
la forme d’appropriation (écrit, son, image, …)
le mode d’appropriation (vue, ouïe, …).
Notre approche se concentre sur les deux derniers niveaux, c’est à dire le mode et la forme d’appropriation.
Organisation …
On peut donc diviser les documents selon qu’ils considèrent l’écrit (perçue par la vue), le visuel (également) ou le son (perçu par l’ouïe). ce découpage est le plus couramment utilisé et c’est celui qui nous est apparu le plus pertinent.

 INCORPORER OrgPlusWOPX.4 
Documents textuels
Problématique
Le langage …
Le texte écrit est la seule forme d’appropriation, avec le texte oral, permettant d’utiliser le langage. Même si la théorie selon laquelle le langage serait le seul vecteur de la connaissance est discutée, il est indéniable qu’il constitue un des supports privilégiés de l’information. De plus le caractère permanent de l’écrit est primordiale pour la transmission d’informations complexes. Selon Goody, « l’écriture a une importance décisive, non seulement par ce qu’elle conserve la parole dans le temps et dans l’espace mais aussi parce qu’elle transforme le langage parlé : elle en extrait et en abstrait les éléments, elle permet de procéder à des examens rétrospectifs » [Goody 79].
L'écriture est un support plus propre à la synthèse, elle aide le lecteur à comprendre à partir des informations qu’elle rend disponibles. Dans la perspective de l’apprentissage en particulier, les documents textuels sont donc centraux.
Le texte et l’écran …
L’utilisation de textes pour transmettre de l’information à l’intérieur d’un programme didactique est un aspect intéressant, en ce sens que le support numérique est (avec la technologie actuelle) plutôt mal adapté à la lecture de textes. En effet la concentration visuelle imposée par la lecture sur un support vertical, immobile et lumineux est particulièrement difficile, et la visualisation d’ensemble d'éléments textuels est gênée par la taille et la forme de l'écran. On utilise néanmoins la forme d’appropriation textuelle – qui ne peut en rien être remplacée par les sons ou les images – mais il faut assimiler le fait que la lecture sur un écran apporte des modifications à l'information, du fait des conditions particulières de visibilité et de lisibilité.
On constate que l’utilisateur disposera d’une capacité de concentration moindre que sur un support papier. Ainsi il aura tendance à survoler plus facilement les phrases, à se fatiguer plus rapidement, à porter moins d’attention aux mots, … De plus de nombreuses spécificités propres au numérique (comme le fait de devoir faire défiler un texte ou l'utilisation d'hypertextes qui conduit souvent à interrompre sa lecture avant la fin) font que les informations doivent être agencées de façon particulière pour garder leur sens. Le support impose donc une lecture différente, ce qui conditionne l’écriture, qui doit prendre en compte les nouveaux paramètres de visibilité et de lisibilité pour diminuer la distance entre l’information destinée à être inscrite sur le support et celle que lira effectivement l’utilisateur.
Evolution de l’écriture
Naissance …
La découverte de l’écriture fut fondamentale en ce sens qu'elle permit la spatialisation de la parole, lui conférant alors un caractère permanent. On définit l’écriture comme un « corps organisé et réglementé de signes ou de symboles », cela implique en outre que tout message exprimé ne s’appuie pas systématiquement sur une écriture [Bottéro 87]. L’écriture tel que définie précédemment est née des pictogrammes, c’est à dire de dessins représentant le réel. L’étape suivante fut l’abstraction du langage en un alphabet fini. Cette révolution eut lieu lorsque les sumériens, suivis des égyptiens et des chinois, élaborèrent une langue écrite, en passant d’une première phase pictographique (-3300 av. J.-C.) à la représentation de concepts complexes et abstraits. Les pictogrammes initiaux se combinèrent, adoptèrent une valeur phonétique, devinrent de moins en moins imagés, de plus en plus stylisés, pour aboutir à l’écriture cunéiforme vers 1800 av. J.-C. [Richman 87] . Cette première étape fut fondamentale puisqu’elle permit de fixer dans le temps la fugacité de la parole.
Evolutions …
Les deux évolutions les plus importantes que connut ensuite l’écriture furent la découverte de l’alphabet en Phénicie vers 1500 av. J.-C. (puis sa maturation par les grecs 500 ans plus tard) et celle de l’imprimerie par Johannes Gensfleisch, dit Gutenberg, au XVème siècle. L’alphabet fut une rupture avec l’écriture iconique et influença profondément l’évolution vers nos sociétés modernes dites de l’écrit [Christin 95]. L’imprimerie quant à elle permit la démocratisation, la normalisation et la grammatisation [Auroux 95] de ce mode de communication qu’est le texte, ce qui bouleversa profondément la nature même de l’écriture. Mais de multiples évolutions, moins spectaculaires, ont marqué et marquent encore l’écriture : La rhétorique issue de la Grèce antique, l’index issu du Moyen-Age, les différentes techniques d’organisation de la page qui sont apparues régulièrement, … [Illich 91] Aujourd’hui encore l’amélioration des possibilités d'impression sur le papier a permis d'intégrer au support des éléments nouveaux de mise en page et de typographie. La publicité notamment a largement profité de ces possibilités, pour diriger la lecture d’un texte afin de contrôler son impact. La numérisation des documents textuels, avec les possibilités d’indexation et de représentations nouvelles que cela implique, marque un nouveau changement dans l’histoire de l’écriture, un changement qu’il convient de maîtriser pour adapter notre lecture et notre écriture et profiter du potentiel offert par ce nouveau support.
L’édition moderne
Introduction
« Une communication écrite efficace dépend aussi bien de la forme que du fond » [Parker, Thérien 91]. Cette affirmation, émise dans le cadre de l’édition papier est à mon avis encore plus vraie dans le cas de l’édition électronique. Les principes utilisées actuellement par les professionnels de l’édition sont majoritairement transposables aux documents textuels visualisés sur écran. Nous proposons un rapide aperçu de ces principes à travers principalement l’étude d’ouvrages traitant de la mise en page et de la typographie. [Perrousseaux 96], [Parker, Thérien 91], [Donay 91], [Duplan, Jauneau, 94], [Rüegg, Frölich 72].
Principes fondateurs
L’adage de base qui s’applique en ce domaine peut-être résumé par les trois principes suivants : Uniformité, modération et respect du détail. En dehors de principes généralistes tels que ceux-ci, aucune règle universelle tangible n’existe, les règles valables pour un document peuvent être inadéquates pour un autre. La forme à adopter pour le texte est dépendante du contexte, composé :
du public cible
du type de message à transmettre
du support utilisé pour transmettre le message
de l’ensemble des messages concurrents sur le même document
de l’ensemble des autres documents concurrents sur le même support
C’est l’adéquation entre ces paramètres contextuels et les paramètres de mise en forme utilisés qui déterminera la qualité des documents textuels.
Critères
On propose de détailler quelque peu les principes qui conditionnent la réussite de la mise en forme du texte.
Uniformit項
Les documents doivent être homogènes de façon à ce que le lecteur se sente en confiance. Cela implique par exemple l’utilisation restreinte des polices de caractère, de leur taille ; la constance des espacements, des marges, des colonnes, … De plus la répétition d’éléments graphiques (comme les filets verticaux, les colonnes, les bordures) peuvent être conseillés pour permettre à l’utilisateur de se repérer dans la lecture et d’acquérir des automatismes.
Contraste …
L’uniformité ne doit cependant pas être absolue, sous peine de générer l’ennui et la banalité, et l’utilisation parcimonieuse du contraste est un élément important de la mise en forme. Il fournit un effet dynamique qui aide à maintenir l’attention du lecteur. Il est donc important de concilier uniformité, variété et originalité [Cornu 90]. En outre le contraste fournit un effet dynamique au texte.
Par exemple si l’on présente quatre photos sur une même page sans les distinguer afin d’indiquer l’importance ou bien l’ordre de lecture (par leur taille ou leur coloration), on risquer de générer une hésitation du lecteur, voire un ennui, celui-ci ne sachant pas laquelle regarder en premier.
Un bon test consiste à effectuer un zoom arrière sur le texte, de façon à ne plus distinguer les lettres ou les mots : On se concentre uniquement sur la perception visuelle de l’ensemble et on peut alors vérifier que l’ensemble reste homogène tout en conservant une certaine dynamique due au contraste.
Couleur …
La couleur représente la densité textuelle des pages, on distingue donc entre les textes clairs, c’est à dire dans lesquels les blocs sont espacés, et les zones sombres, c’est à dire denses. Les textes clairs sont plus agréables et plus facile à lire, néanmoins les changements de couleur ont une force de structuration dans le composition de la page. La lecture sur écran impose plus particulièrement une couleur claire, et le modèle du journal par exemple est totalement inadapté.
Modération …
Le travail de conception ne doit pas apparaître, les efforts de mise en page doivent rester humbles. Le concepteur ne doit pas chercher à faire étalage de son art, mais l’utiliser parcimonieusement et judicieusement. Dans le cas contraire la lisibilité du document risque d’en faire les frais. Notons que dans des contextes plus spécifiques, tels que la publicité, où l’impact prévaut et où les messages sont courts, la fantaisie peut s’exprimer plus librement que dans le texte didactique où l’information doit rester centrale.
Structuration …
La mise en page doit représenter la logique du texte, et fournir des repères quant à la façon de lire le document. Les études ont montré que le parcours du texte s’effectuait selon un ‘Z’ qui part du coin supérieur gauche (qui doit contenir la première information à voir) pour aboutir au coin inférieur droit (qui doit contenir la dernière). Dans le contexte de la publicité par affiche, c’est le quart inférieur gauche qui doit contenir l’aspect à valoriser [Moles 69]. Il est généralement admis que la partie gauche est la plus observée, ce qui est expliqué par l’asymétrie du cerveau [Cossette 83]. Un autre élément de structuration important et la hiérarchique des titres, que le lecteur doit pouvoir lire sans efforts.
Harmonie …
Les éléments de mise en page et de typographie sont nombreux et l’on doit veiller à leur complémentarité et leur harmonie. Les choix et les agencements doivent donc être réfléchis selon la composition globale du document.
Sens …
Les choix de mise en forme ont une sémantique qu’il convient de respecter. Par exemple le choix des polices donnera un caractère plus formel ou plus fantaisiste au texte ; les gros caractères associés aux petits espaces donneront une impression d’écrasement, tandis que le contraire donnera une impression de perte ; les soulignements larges donneront une impression d’étranglement, les soulignements fins, une impression de faiblesse, …
On parle en sémiologie de code typographique [Baticle 85] pour exprimer que les polices utilisées ont une connotation différente pour le lecteur (par exemple les caractères gothiques exprimeront le Moyen-Age).
Un autre aspect de la sémantique est relatif à la position des informations sur la page [Pajon 97]. Ainsi les informations se trouvant en haut de la page exprimeront plutôt la spiritualité, tandis qu’elles exprimeront la matérialité en bas ; et les informations situées à gauche seront liées au passé, et inversement au futur à droite.
Détail …
Du fait de l’intense concentration nécessaire à la lecture des textes, les détails de la mise en forme sont très visibles par le lecteur. Les différents paramètres que nous venons de citer ne souffrent donc pas l’exception, et cela implique que le concepteur devra veiller aux moindres éléments. Inversement il pourra se servir de détails pour mettre en valeur sa mise en forme de façon discrète.
Eléments de mise en page
Le respect des critères que nous venons de citer dépend de différents éléments de mise en page et de typographie. Nous proposons une rapide revue des principaux.
Les titres …
Les titres représentent un des éléments essentiels de la mise en page. Ils doivent respecter les règles suivantes :
Se détacher du texte, contraster, afin d’être identifiés rapidement : On conseille l’utilisation de polices sans empattement pour les titres, en corps gras et plus grand que le texte normal.
Etre aussi courts que possible, afin d’être compris rapidement : L’utilisation des majuscules et du centrage ralentit sensiblement la lecture et doivent être réservés au titres courts ; en outre on considère qu’un titre ne doit jamais excéder trois lignes.
Etre correctement positionnés, afin d’avoir une fonction de structuration : Il peuvent se détacher du texte par des renfoncements ou des tabulations, et être situés sur les endroits stratégiques de la page, tel que le haut.
Renseigner le lecteur sur le contenu, afin d’avoir une fonction de guidage de la lecture : L’important est donc de parvenir en peu de mots à exprimer le thème du paragraphe concerné.
Les  marges …
La page est entourée de marges constantes, sur lesquelles le texte ne doit pas empiéter. La largeur des marges participe à la densité du texte. Dans le cas de documents numériques, la notion de marge est quelque peu différente, dans la mesure où ces marges peuvent être utilisées pour placer des menus, des boutons de commandes, des éléments d’information divers, … Néanmoins reste que les différents éléments de la page doivent être agencés en respectant les cadres définis par les marges.
Les logos …
L’utilisation des logos, peut aider à fournir une identité au texte, voire une certaine originalité. Néanmoins les logos doivent veiller :
à rester en harmonie avec le reste de la mise en page : Un logo futuriste sur une mise en page très classique aura un effet troublant.
à avoir une taille raisonnable : Trop gros ils détourneront l’attention du lecteur, trop petits ils seront mal identifiables.
Les colonnes …
Les colonnes présentent l’avantage d’utiliser des lignes moins larges, ce qui permet de favoriser les retours à la ligne du lecteur. Les documents numériques peuvent profiter de cet avantage, mais devront veiller à des colonnes espacées et peu nombreuses, car l’utilisation des colonnes peut aussi avoir comme conséquence de noircir la page.
En outre l’usage des colonnes réclament l’attention sur certaines règles :
La largeur des colonnes doit être soigneusement étudiée (on les prend proportionnelles à la taille des caractères) : Si elles sont trop larges, on ne profite plus de leur avantage de lecture, si elles sont trop étroites, les retours à la ligne trop fréquents rompent le rythme de lecture .
L’espacement entre les colonnes doit être suffisant pour ne pas que le lecteur hésite pendant sa lecture (on conseille environ quatre caractères entre les colonnes)
Les divers éléments de la page (titres, graphiques, photos, …) doivent être alignés sur les colonnes
Les détails …
La liste des détails à respecter et des erreurs à ne pas commettre est très longue, citons ici à titre d’exemple quelques uns des principaux détails qui risquent de gâter l’ensemble de la mise en page :
Titres isolés en bas de page, avec le texte correspondant sur la page suivante
Distance inadéquate entre le texte et les éléments graphiques
Coupure de mots excessive ou inappropriée
Lézardes dans le texte
Espaces blancs isolés
Pages surchargées
Débuts de colonnes inégaux
Espacements excessifs ou insuffisants après la ponctuation
Surcharge (encadrement, soulignement, …)
Espacements irréguliers (donne impression d’un travail négligé, ou que le message n’est pas important)
Tabulations et renfoncements exagérés
 …
Eléments de typographie
On définit la typographie par la manière dont le texte est imprimé et l’ensemble des règles d’écriture qui facilitent la lecture.
L’alignement …
L’alignement est certainement considéré comme l’élément le plus important de la typographie. On distingue quatre grandes familles d’alignement :
A gauche : Les recherches prouvent qu’il facilite la lecture, notamment parce que le retour à la ligne suivant est facile et que l’alignement constant entre les mots permet de retrouver les groupes de mots. La non uniformité à droite est regrettable, mais permet également une certaine aération.
Justifié : L’alignement justifié a été introduit dans l’imprimerie afin de faire des économies. En effet sa forme est propice aux coupures de mots et permet ainsi d’économiser de l’espace. Si son uniformité est appréciable, on constate également qu’il noircit la page et que les coupures de mots et les espacements irréguliers ralentissent la lecteur.
Centré : Il confère un caractère formel à réserver aux titres, aux annonces, et aux textes courts en général. Les textes centrés sont difficiles à lire, principalement à cause du retour à la ligne.
A droite : Cet alignement présente les désavantages conjugués de l’alignement à gauche (non uniformité) et de l’alignement centré (retour à la ligne difficile) sans présenter d’avantages. Il est donc à réserver aux cas très particuliers le nécessitant.
La police …
Le choix des polices est également important pour la lisibilité et l’harmonie générale du texte. On distingue en premier lieu les polices avec empattement (Times), généralement utilisées pour le corps de texte, des polices sans empattement (Arial), préférées pour les titres. La lisibilité est en effet plus facile dans le cas des polices avec empattement, surtout lorsque les caractères sont petits, car les lettres paraissent reliées entre elles. Les caractères sans empattement, quand à eux, sont plus simples et élégants.
Quant au choix exact de la police, il doit s’harmoniser avec le contexte du texte, sachant que certaines sont autoritaires, d’autres cordiales, ou encore distinguées, classiques, officielles, chaleureuses, … Quel que soit le choix, il est fortement proscrit d’utiliser plus de deux polices sur la même page (voir sur le même document). On choisit généralement une police avec et une sans empattement. Des caractères plus fantaisistes peuvent être utilisés pour des objectifs précis, mais doivent être pensés consciencieusement.
Le corps …
Le corps de la police représente sa taille, qui doit être proportionnel à l’importance du message et aux autres éléments de la composition. En général on utilise un corps plus grand selon l’importance des titres par exemple.
Le style …
Il existe plusieurs variantes de style, dont les plus utilisés sont le gras, l’italique et le souligné :
Gras : Ce style est généralement indiqué pour les titres. Il peut aussi être utilisé pour faire ressortir un mot particulier du texte. Néanmoins il faut éviter les abus, car il ralentit la lecture et noircit la page.
Italique : L’italique est utilisé pour faire ressortir un mot ou une expression dans un texte, particulièrement quand il s’agit du titre d’un livre, de mots étrangers, …
Souligné : L’emploi du soulignement diminue la lisibilité, gênant la reconnaissance des mots à travers le jambage.
MAJUSCULES et Petites capitales : Elles sont difficiles à lire, mais sont adaptées aux titres, puisqu’elles se détachent du texte sans noircir la page.
Contours, relief, ombré, empreinte, sont autant d’autres styles qui peuvent être utilisés exceptionnellement, pour faire ressortir un effet particulier. Notons également que ces styles sont à réserver à de grandes tailles de caractères du fait de leur faible lisibilité.
L’espacement et l’interlignage …
La gestion des espaces entre les lettres, les mots et les lignes influe sur la couleur de la page et la lisibilité. Par exemple l’utilisation d’un interlignage exagéré améliore l’apparence du texte et l’aère, mais la lecture est rendue plus difficile, du fait des retours à la ligne.
Inversement on conseille l’utilisation d’un interlignage plus petit dans le cas de titres, surtout s’ils sont en majuscules, c’est à dire sans jambage. Notons également que l’espacement entre les paragraphes du texte doit être géré de façon à briser la monotonie, à aérer le texte.
La couleur
Le support numérique multimédia permet d’utiliser la couleur sans surcoût, en cela une grande différence avec l’édition papier. La couleur est donc un élément omniprésent dans le didacticiel en général et dans les documents textuels en particulier. Une autre différence fondamentale est que l’écran émet de la lumière, ce qui empêche d’utiliser les contrastes les plus forts sous peine d’engendrer une fatigue visuelle. C’est pourquoi les études de lecture sur écran montre que le couple texte bleu sur fond blanc est préférable au texte noir sur fond blanc. De même l’écran blanc engendre une éblouissement qui conduit à préférer d’autres fonds colorés.
De nombreuses recherches sont menées, notamment par des ergonomes [Vanderdonckt 98], des psychologues et des sociologues, sur l’adéquation entre la couleur du texte et celle du fond d’écran. Ainsi des résultats existent concernant les combinaisons de couleur propres ou impropres à la lecture, selon les domaines. Nous proposons ici de résumer les résultats de différentes études, en faisant ressortir les meilleurs et moins bons couples (texte / fond) observés.

Meilleurs couplesMoins bon couplesEtude d’affiches
[Moles 69]1.Noir / Blanc
2.Noir / Jaune
3.Rouge / Blanc
4.Vert / Blanc
5.Blanc / RougePerception
[Cossette 83]1.Noir / Jaune
2.Bleu / Blanc
3.Vert / Blanc
4.Blanc / Bleu1.Noir / Bleu
2.Blanc / Noir
3. Blanc / Rouge
4.Rouge / JaunePerception
[Cossette 83] 1.Noir / Vert
2.Noir / Jaune
3.Noir / Blanc
4.Blanc / NoirTypographie
[Cossette 83]1.Noir / Blanc
2.Vert / Blanc
3.Bleu / Blanc
4.Noir / Jaune
5.Rouge / Jaune1.Vert / Rouge
2.Orange / Noir
3.Orange / Blanc
4.Rouge / Vert
5. Noir / VioletPages WEB
[Vanderdonckt 97]
1.Noir / Vert
2.Bleu / Blanc
3.Blanc / Noir
4.Jaune / Rouge
5.Blanc / Bleu1. Jaune / Blanc
2. Bleu / Noir
3.Blanc / Jaune
4.Vert / Bleu
5. Bleu / Rouge
On propose quant à nous de se référer en priorité à la proposition de Vanderdonckt qui synthétise des études (telles que [Murch 87] et [Type, Frommer 85]) fondées sur la lisibilité sur écran plutôt que les autres qui s’appuient principalement sur l’étude du support papier. On remarquera néanmoins que les couples bleu/blanc, noir/blanc, vert/blanc et noir/jaune sont unanimement reconnus en ce qui concerne l’édition papier, tandis que les couples bleu/blanc, blanc/bleu et noir/vert sont les seuls réellement partagés par le support papier et l’écran.
La rédaction
Une nouvelle écriture …
Nous avons déjà exprimé que la lecture sur écran était particulière, il est donc nécessaire d’inventer une nouvelle manière de rédiger les textes destinés à être visualisés sur écran. Le roman policier a un style différent de la poésie ou de la bande dessinée, le théâtre et le cinéma propose encore leur propre rédaction du texte. Chaque support apporte ses spécificités, il en est de même pour le texte numérique. Trop souvent les textes actuels sont des transpositions plus ou moins directes des textes qui existaient pour d’autres support, tels que les livres scolaires ou de formation professionnelle. Pour réécrire ces textes, outre les efforts de mise en forme dont nous avons déjà parlé, il est primordial d’adapter la rédaction des documents textuels au support.
Les règles classiques …
Certains aspects du texte sont indépendants du support, on peut citer en premier lieu la qualité du français. (grammaire et orthographe) qui ne peut souffrir aucune faille d’une façon générale et en particulier dans le cas de documents pédagogiques. On prendra également garde aux problèmes liés à la traduction, aux erreurs et aux pertes de sens éventuelles dans ce cas de figure.
De plus la rédaction implique un registre de langage qui doit être adapté au contexte (domaines commerciaux, techniques, scolaires, …) et au niveau du lecteur (en fonction de son âge, de sa profession, de sa qualification, …).
On notera également l’importance du code linguistique [Baticle 85] : C’est à dire de ce qu’évoque le style utilisé. Il existe des styles qui évoqueront les contes de fées (il était une fois), des styles propres au polar (argot), des styles modernes (cyber, techno), … L’usage particulier des ces styles devra être réfléchi en fonction du contexte, mais également des autres documents et des éléments de scénarisation. L’important est que l’évocation générée soit profitable et que l’ensemble soit cohérent.
Les règles propres …
Nous proposons ici quelques lois particulières  à cette nouvelle rédaction, mais notons que d’une façon générale la lecture sur écran, du fait de capacités d’attention plus limitées, implique la simplicité du texte.
Les textes doivent être courts (on conseille 24 lignes de 40 caractères au maximum), ainsi que les phrases (on conseille moins de 15 mots par phrase, notons que les bandes dessinées en comportent en général moins de 8) [Cossette 83].
La syntaxe doit être connue et prévisible (ne pas employer de subordonnées, de phrases longues, de structures complexes, de techniques sophistiquées telles que les ellipses, …)
Le vocabulaire doit être simple et adapté au public (ne pas employer de mots rares, de néologisme, de mots longs, de mots anciens, de mots polysémiques, …)
L’ensemble doit être structuré et logique, de façon à faire ressortir les articulations.
Il est important de commencer par l’essentiel (en effet les risques de fatigue combinés à l’utilisation des hypertextes, diminuent grandement les chances des textes d’être lus jusqu’au bout).
Les références croisées ne doivent pas être utilisées dans le document (la consultation entre pages différentes étant plus difficile)
Notons que la plupart des éléments que nous venons de citer sont vrais pour d’autres supports plus classiques, néanmoins les faibles possibilités de concentration sur écran exacerbent ces règles et invitent plus que jamais à ne pas les enfreindre, par erreur ou originalité.
Indice de Flesh
L’indice de Flesh indique que plus les mots et les phrases d’un texte sont longs, plus il est difficile de lire le texte. Flesh a proposé une équation générale que Kandel et Moles ont adaptée à la langue française [Baticle 85], [Cossette 83] :
Lisibilité = 209 –1,15 x W – 68 x S
avec W longueur moyenne des phrases en mots
et S longueur moyenne des mots en syllabes
Cette équation nous rappelle, sur des bases plus théoriques, que les mots et les phrases doivent être courts. On considère que le texte est facile jusqu’à un indice de 60 (80% de la population y a accès), difficile de 60 à 30 (moins de 50%) et très difficile en deçà de 30 (moins de 10%). Il serait intéressant de faire des expériences concrètes permettant de fixer les valeurs seuils à respecter dans le cadre du texte lu sur écran.
Propositions
Organisation …
On se propose de diviser l’étude des documents textuels numériques selon :
La rédaction, c’est à dire la pertinence de la langue utilisée.
La mise en page, c’est à dire la pertinence de l’organisation spatiale.
La typographie, c’est à dire la pertinence de la mise en forme des caractères.
Rédaction …
La rédaction par exemple devra obéir à des règles particulières qui prennent en compte les possibilités réduites de concentration par rapport au papier. Les phrases des textes devront être courtes et claires, employant un vocabulaire maîtrisé par l’utilisateur, des tournures classiques. La construction des textes devra être rigoureuse de façon à ce que le contenu soit facilement et rapidement accessible.
On cherchera en particulier dans le cadre de l’évaluation à caractériser le niveau de langage utilisé, en préférant un langage simplifié à un langage usuel voire recherché. On cherchera également à évaluer l’adéquation entre le niveau observé et le contexte pédagogique (en particulier dans le cas de registres techniques ou infantiles), ainsi que la qualité du français employé.
Mise en page …
Les informations doivent être mises en valeur différemment, les messages transmis différemment et les textes doivent être aérés pour permettre le repos. Les titres, les paragraphes, les marges, l’équilibre général, le contraste et la couleur de la page, doivent obéir à des règles propres afin de stimuler l’intérêt, mettre l’accent sur les éléments les plus importants, dynamiser la lecture et la rendre propre à l’écran.
L’évaluation portera sur l’uniformité (en privilégiant une uniformité générale agrémentée d’un certain contraste), sur la modération, sur la densité des informations (en préférant une couleur claire), et sur la qualité de la structuration et de l’organisation de la page (devant aider à la lecture).
Typographie …
Enfin la typographie même du texte porte une signification particulière, liée à son style, à sa lisibilité, … Du point de vue de l’informatique on conseille une typographie simple (polices, styles, couleurs modérées), homogène, avec une taille de caractères importante, une couleur de fond adaptée à la couleur des caractères et à la concentration sur l’écran, …
L’évaluation portera essentiellement sur la lisibilité (qui dépendra des choix effectués et de la constance), mais également sur l’harmonie (qui dépendra des styles utilisés et de leur homogénéité).
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 
Documents visuels
Problématique
La communication à travers l’image …
L’image, contrairement à ce que suggère son caractère naturel (par opposition à l’écriture, totalement artificielle) est peu propice à la communication. Le problème tient du fait que l’image est hautement polysémique, et qu’il est donc très difficile de transmettre un message précis par son unique biais. L’image réclame un message linguistique complémentaire pour être précisée, et on convient que l’on « ne peut sortir de la dualité image + texte ou image + parole » [Baticle 85] pour exprimer une communication sensée. Sa polysémie fait de l’image un support impropre à l’acquisition de connaissance, tant qu’elle n’est pas accompagnée d’un texte.
On distingue néanmoins deux cas où l’image peut avoir un sens autonome :
Les pictogrammes ou les symboles qui font l’objet d’un codage commun a priori (comme le code de la route)
Les représentations plus formelles (cartes, graphiques, …) qui utilisent généralement des conventions connues ainsi que des données chiffrées et textuelles au sein même de l’image. Par la suite nous avons appelé ces images particulières, les images didactiques selon le terme emprunté à [Costa, Moles 91] et pour signifier leur aptitude à transmettre de l’information.
Le multimédia …
Les dessins, photographies et films muets ne sont pas donc réellement porteurs d’une information maîtrisable s’ils ne sont pas expliqués par ailleurs. C’est probablement ce qui fait que l’image est surexploitée aujourd’hui dans les logiciels didactiques. En effet, dans le cadre du multimédia, elle peut trouver plus aisément une place que dans un cadre monomédia uniquement composé d’images.
Le handicap vis à vis de l’information n’exclut pas l’intérêt de l’image dans les didacticiels, au contraire, elle renforce sa place sur ce type de support et rappelle par la même occasion l’intérêt du texte.
Caractéristiques …
Baticle propose en introduction de son ouvrage une liste des propriétés de l’image [Baticle 85]. Ces informations sont fondamentales pour comprendre la spécificité et la complexité de la communication à travers l’image. Rappelons certaines des propriétés qui nous paraissent les plus importantes :
Polysémie : Toute lecture implique une infinité de sens et de compréhensions, quelque soit le support. Dans le cas de l’image on remarque que cet infini est particulièrement grand et qu’il est encore plus difficile de retrouver dans la lecture d’une image les idées qu’a voulu y mettre l’auteur.
Universalité : L’utilisation et la compréhension des images se base sur la perception visuelle et en tant que telle ne répond pas globalement de codes culturels (à la différence d’une langue). Néanmoins notons que certains aspects, tels que la lecture des images en trois dimensions échappent à cette règle.
Globalité : Une image est perçue directement dans sa globalité et l’interprétation qu’on s’en fait dépend de l’ensemble.
Infidélité : L’image n’est pas une reproduction de la réalité, comme on a parfois tendance à la croire. Elle transforme la réalité et en propose une nouvelle vision, transformée par la réécriture effectuée par celui qui l’a produite et par la lecture de celui qui la regarde.
Contextualité : La signification d’une image est fortement dépendante des autres documents qui l’accompagnent, qu’ils soient également des images ou pas.
Eléments de rhétorique visuelle …
Comme la communication verbale, la communication visuelle est dotée d’une rhétorique propre. Alors que la rhétorique verbale impose le raisonnement sur la base d’une pensée en ligne (On lit A, puis B, puis C,  …) l’image s’associe à une pensée en surface [Costa, Moles 91]. Les éléments de rhétorique visuelle sont aussi divers que la chaleur, la sensualité, la couleur, la fascination, le rejet, l’attraction, la répulsion, la valorisation, … Nous proposons de rassembler l’ensemble de ces éléments sous deux notions supérieures particulièrement marquées dans le cadre des didacticiels : L’iconicité et l’appétence. On attend d’une image qu’elle renforce une information déjà présente, qu’elle l’illustre et la complète. Elle peut remplir ce rôle par un niveau d’abstraction plus ou moins élevée, ce que nous exprimons par le terme emprunté à Moles de degré d’iconicité. Par ailleurs l’image apporte au didacticiel multimédia un caractère attractif, interpellant la subjectivité de l’utilisateur, attisant son intérêt et son appétit.
Sémantique de l’image
Généralités
La lecture des images fait appel à un ensemble de codes que chacun met en œuvre pour parvenir à donner un sens à une image. Notons que nous traitons ici d’illustrations, c’est à dire d’images n’ayant pas un sens fixé. Les codes peuvent être connotatifs (le rouge traduit la violence) ou dénotatifs (le rouge traduit Coca-Cola). Baticle propose (à partir notamment de travaux d’Umberto Eco et de Christian Metz) un ensemble de codes iconiques qui influent sur le sens de l’image. Nous avons notamment retenu :
Le code du support : Le fait d’utiliser un cd-rom plutôt qu’un support plus classique, implique en soi une signification pour le lecteur (comme par exemple la technologie, le jeu, …).
Le code de la perspective : Il permet de visualiser des images en trois dimensions sur une représentation à deux dimensions (Notons que c’est un code acquis, que les enfants par exemple ne possèdent pas).
Le code morphologique : Il est relatif à l’ensemble de la symbolique, de la composition graphique, du design, …
Le code topologique : Les objets représentés impliqueront des significations stéréotypées
Le code chromatique : Les couleurs ont une connotation importante dans l’appréhension de l’image.
Le code stylistique : L’image s’immisce dans un style donné que l’utilisateur peut cataloguer (rétro, cybernétique, nature, …).
Nous proposons dans les trois paragraphes suivants des tableaux présentant les significations des couleurs, des formes, des objets. Ceci ne constitue pas, et de loin, une vision globale du champ des sens associés à l’image, mais permet de donner certains repères initiaux pour explorer le domaine. La sémantique de l’image est beaucoup plus large que ce dont nous traitons dans ce mémoire, on se référera néanmoins à la partie concernant les «  RENV _Ref428266213 \h Rendre compte des impressions générales », p. RENVOIPAGE _Ref428266216 \h 91, dans laquelle nous avons traité d’autres aspects de cette discipline.
Code chromatique
Nous proposons dans le tableau suivant certaines significations liés à certaines couleurs :
Photographie
[Alekan 84]Sémantique
[Cossette 83]Psychologie
[Cossette 83]Physiologie
[Cossette 83]Symbolisme
[Cossette 83]RougeViolence
Colère
Vie
Agitation
PuissanceAction
Vitalité
Amour
MeurtreChaleur
Dynamique
NervositéChaleur
StimulationCharité
Amour
Nervosité
RoseInnocenceOrangeChaleur
LumièreArdeur
BrillanceStimulation
DigestionJauneJalousie
Raison
DispersionGaieté
Gai
Spirituel
DynamiquePerception
StimulationPuissance
Magie
VertEspoir
CalmeMauvais
Patience
InquiétudeClamant
Rafraîchissant
Equilibrant
NéfasteSédatif
Hypnotique
ReposantVérité
Foi
Régénération
Espérance
Mauvais œilBleuMéditation
Innocence
Religion
Infini
Pureté
SurnaturelEspace
Voyage
Calme
ReposFraîcheur
Légèreté
Transparence
Calme
ClartéCalmant
ApaisantSagesse
Intelligence
Immortalité
ScienceVioletDeuil
Dignité
TristesseRafraîchissant
CalmantPénitence
EspéranceNoirTristesse
Deuil
MortTénèbres
Mystère
MalTristesseReposantMort
DeuilBlancPureté
JoieCommunion
Mariage
Clarté
Propreté
SobriétéSobriété
ClartéPropreté
Innocence
Vertu
Chasteté
PuretéIl est aussi utile de remarquer que certaines couleurs sont préférées par rapport à d’autres, ainsi on estime que :
Le bleu est la couleur la plus universellement préférée, suivi du vert pour les hommes et du rouge pour les femmes.
Le rouge est la couleur préférée des enfants.
Les couleurs les moins aimées sont le violet, le vert et le jaune.
Code morphologique
Les formes également portent une signification. On distinguera ici la sémantique liée aux polygones et celle liée à l’orientation des lignes.
Formes …
Les sens associés aux trois polygones principaux sont [Cossette 83] :
TriangleCarréCercleFeu
Impulsion
Ascendance
Origine
MasculinitéAction
TensionSévérité
Statisme
Organisation
Rationalisation
Féminité
Terre
Monotonie
Honnêteté
TravailSoleil
Ciel
Perfection
Eternité
Masculinité
Entité
SoiChaleur
ProtectionOrientation …
Les sens associés à l’orientation et la direction des lignes sont les suivants
HorizontaleVerticaleObliqueRepos
Calme
Paix
Froid
MortForce
Lutte
Vie
ChaleurAngoisse
Chute
InstabilitéAscendanteDescendanteOblique à 45°Spiritualité
Progrès
PositivitéRégressionConflit
Intériorité
OppositionCode topologique …
Images qui interpellent …
L’utilisation de stéréotypes dans les images permet d’instaurer un climat de confiance propre à la communication [Cossette 83]. Voici des exemples d’images attirant facilement l’attention du spectateur :
Mariée
Bébé
Animal
Personnages célèbres
Costumes originaux
Allures spéciales
Scènes narratives
Scènes romantiques
Catastrophes
Sujet d’actualité
Moments forts de la vie
 …
Sujets préférés …
Voici également une liste des sujets que les hommes et les femmes disent préférer [Peeters 86] :
HommesFemmesSports
Automobile
Spectacles
Immeubles
Religion
Jardinage
Affaires
PolitiqueReligion
Cuisine
Foyer
Enfants
Décoration
Mode
Spectacles
JardinageConnotation …
Notons également le fort pouvoir de connotation des objets utilisés. On peut citer à titre d’exemple :
Un gratte-ciel évoque les Etats-Unis
Un lit l’érotisme
Un sombrero le Mexique
Un cactus la chaleur
Un liquide frais la soif
 …
L’originalit項
L’utilisation des stéréotypes pour faire passer un message ne signifie pas qu’il faut appliquer consciencieusement des recettes toutes préparées. L’originalité reste un élément essentiel qu’il convient d’utiliser [Carrière, Bonitzer 90] pour exploiter au mieux les stéréotypes de façon discrète.
Les éléments que nous venons de citer concernant la couleur, la forme ou les objets ne sont pas des critères strictes qui peuvent être appliqués directement à l’évaluation des images, néanmoins ils peuvent servir de base pour les décrire afin de savoir si elles sont ou non adaptées à tel ou tel public. Un évaluateur pourra donc utiliser ce genre d’éléments pour mieux comprendre le produit et ainsi objectiver son évaluation.
La photographie
Le domaine de la photographie fournit des éléments intéressant d’analyse, en ce qui concerne les photographies incorporées aux didacticiels, mais plus généralement à l’ensemble des documents visuels dont il se compose.
Problématique
La photographie est dans la société actuelle assimilée au réel, à un enregistrement exact, « à un modèle de véracité et de l’objectivité » [Bourdieux 65]. Ainsi le lecteur n’estime pas avoir à effectuer de travail d’interprétation, comme en face d’un autre vecteur d’information. Mais cette idée reçue est fausse, et, à l’instar de tout autre document, une photographie est une sélection arbitraire de l’information, traduite par une réécriture de ce que le photographe a perçu à un instant donné. Il n’y a pas d’identification entre l’information et la photographie, elle est l’œuvre d’un photographe et non un indice de faits, d’événements réels [Schoeffer 87]. Il y a donc nécessité pour le lecteur de transcrire à nouveau cette information.
Ce qui donne à la photographie (et par extension au cinéma) ce statut particulier est qu’elle ne peut se séparer de ce qu’elle montre. L’image auquel réfère la photographie a existé, et la séparation entre la photographie et son référent est donc rendue plus difficile de ce fait [Barthes 80]. Notons néanmoins que les possibilités de montage photographique, et plus encore aujourd’hui les possibilités de montage numérique, diminue cet aspect de la photographie, puisqu’elle peut être une création totale, tout comme une peinture.
Les limites de l’approche technique
L’analyse technique repose sur une multitude de paramètres [Ferrières, Bouhot 91]. Dans notre cas – c’est à dire l’évaluation d’un grand nombre de photographies (plusieurs dizaines) en un laps de temps très limité (quelques heures) – l’approche est donc impossible d’un point de vue purement technique. De plus cette analyse ne serait pas même opportune si elle était possible, en effet l’acte photographique comprend la production, la réception et la contemplation, et avec ces trois éléments seulement elle prend sa signification [Dubois 83]. Il n’est donc pas possible d’adopter une évaluation uniquement technique, qui ne concernerait que la production. L’évaluateur doit également se placer en situation de réception, et de contemplation, pour apprécier la photographie.
Afin de mener l’évaluation il est donc nécessaire que l’évaluateur ait des éléments techniques, mais il ne peut s’en contenter : Ces éléments, décrits par la suite, traitent de lumière, d’angle de prise de vue, de mise au point, …
La lumière
« La lumière est notre bain quotidien » [Alekan 84] et en tant que tel conditionne notre état psychologique, qu’elle soit naturelle ou utilisée à des fins artistiques. L’opposition entre le Noir représentant la Mort et le Blanc représentant la Vie est inscrite en l’homme depuis ses plus hautes origines. L’architecture a notamment appris à domestiquer le sens de la lumière solaire (notamment en ce qui concerne les édifices religieux), mais également le dessin et la peinture, puis la photographie. La lumière conserve une valeur mystique très forte.
Elle est certainement un des aspects les plus importants de la photographie et par extension de la cinématographie. Le contraste en est le pendant et permet la mise en valeur des ombres et des lumières. L’objectif de la photographie n’est pas de reproduire la lumière à l’identique, mais de l’utiliser pour modeler le contour des choses [Sorlin 92].
L’œuvre photographique est totalement dépendante des choix effectués en matière de lumière et la lumière dispose de « puissants moyens de communication » à qui sait la maîtriser [Alekan 84]. Les différentes lumières, solaires ou artificielles, sont chargées de sens qui dépendent :
de l’angle
de la luminosité (de l’exposition)
de la diffusion
de la couleur
du mouvement qu’elle décrivent
du nombre de sources d’éclairage
…
Autres éléments
Cadrage …
La qualité et l’originalité du cadrage sont très importantes en photographie. Il définit l’organisation de l’espace et des objets, ainsi que la focalisation. En tant que tel il doit guider la vision en insistant sur les éléments importants, mais il permet également de dégager une sémantique générale et d’équilibrer la photographie.
Par exemple la position de l’horizon dans le cadre aura une influence : L’horizon au milieu est généralement évité, car il donne une impression de banalité, en position haute il exprimera l’écrasement, tandis qu’en position basse il exprimera l’évasion.
Couleur …
Une photographie peut-être en couleur ou bien noir et blanc et imposer ainsi des valeurs sémantiques différentes. La couleur peut-être un élément important, et permettre de donner une dimension globale à la photographie (voir « Code chromatique », p. RENVOIPAGE _Ref428195530 \h 35) ou encore d’attirer l’œil sur des détails particuliers.
Grain …
La qualité de la définition de la photo est également un élément important, surtout en ce qui concerne la photographie numérique. La définition de la photographie numérique est directement en lien avec l’espace qu’occupe l’image sur le support, et les réalisateurs sont donc tenté de diminuer la résolution pour économiser cet espace si précieux. Ceci est louable, mais néanmoins les moyens techniques actuels permettent (et permettront de mieux en mieux) d’utiliser des résolutions très discrètes, à défaut d’être totalement imperceptibles [Poinot 91].
L’échelle de plan …
On distingue plusieurs niveaux de plan, notamment dans le cas de la photographie de personnages :
Le plan général (paysages, grand nombre de personnages, …)
Le plan moyen (personnage en pied)
Le plan rapproché (poitrine)
Le gros plan
Les autres plans : le plan italien (personnage coupé aux genoux) ; le plan américain (personnage coupé à mi-cuisse) ; l’insert (très gros plan : œil, …)
Ces différentes échelles de plans revêtent des sens différents : Alors que le plan général est neutre et essentiellement descriptif, le gros plan est plus significatif, il insiste sur le sens d’une image, possède la faculté d’impliquer le spectateur dans l’image [Sorlin 92] et intervient au niveau de l’affect du spectateur [Deleuze 83] ; on parle également de toucher visuel [Aumont 90].
Prises de vue …
La position de l’appareil, et l’angle selon lequel est réalisée la prise de vue, sont également porteurs de sens, notamment dans le cas des personnages. On distingue les vues :
de face (invitation au dialogue, sollicitation émotive, interpelle personnellement le spectateur dans une relation « je/tu »)
de profil (retrait, interagit avec d’autres personnages, pas de lien affectif avec le spectateur, relation de type « il/il »)
de trois quarts (ambiguïté)
en plongée (impression d’écrasement, de petitesse, …)
en contre-plongée (impression de grandeur, d’exaltation, …)
Effets …
La photographie en générale, et numérique en particulier permet d’agrémenter l’image d’effets spéciaux. Ces effets peuvent être utilisés pour corriger l’image ou lui adjoindre un objectif différent de celui initialement exprimé par l’image.
On peut citer les effets les plus courants (flou, gommages, fonds, trucages, …) mais l’informatique à permis d’en démocratiser des centaines.
La cinématographie
La cinématographie hérite des paramètres de la photographie, et y ajoute ce qui est relatif au mouvement. La sémantique et les procédés de connotation relatifs au mouvement sont regroupés sous le terme de code kinésique, qui s’applique au cinéma, mais également à la bande dessinée ou d’autres procédés exprimant le mouvement.
Mouvement …
Les mouvements peuvent être divers et plus ou moins sophistiqués, on opte généralement pour des procédés pertinents et expressifs, mais qui ne gênent pas la compréhension [Peeters 86]. On peut proposer la liste non exhaustive des techniques suivantes :
Le panoramique : Il possède une fonction principalement descriptive
Le travelling : Il permet d’attirer l’attention sur un élément, mais a également une fonction descriptive ou bien de dévoilement progressif
Le mouvement de grue : Il s’agit d’un travelling en trois dimensions
Le plan fixe
Les effets de zoom
Les autres techniques plus complexes (travelling panoramiqué, l’arraché, le filé, le tremblé, … [Baticle 85])
Plan
Le plan est l’unité temporelle la plus petite dans le cinéma. Chaque type de plan est porteur de signification, on distingue les principales configurations suivantes [Gaudreault, Jost 90] :
Configuration objective : Plan qui représente les faits sans s’immiscer dans les personnages, ni le narrateur.
Configuration de l’adresse : Plan dans lequel les personnages interpellent le spectateur.
Configuration subjective : Plan dans lequel le film représente ce qui est vu par un personnage.
Configuration objective irréelle : Plan dans lequel les axes filmés ne sont pas possibles dans le film (à travers un mur par exemple).
Champ contrechamp : Plan qui alterne entre deux interlocuteurs.
Séquences
Le temps cinématographique se découpe en séquences, composées de plusieurs plans successifs se rapportant au même sujet. La durée des séquences et des plans marque le rythme du film. On propose la typologie des séquences suivantes [Vanoye, Goliot-Lété 92] :
Scène (durée de projection égale au temps filmé)
Séquence ordinaire (présence d’ellipses temporelles, suite chronologique)
Séquence alternée (plusieurs histoires simultanées en même temps)
Séquence par épisode (longue durée de temps de l’histoire)
Autres séquences : Séquence en parallèle (plusieurs histoires, pas de lien chronologique), séquences en accolade (plusieurs plans concernant un même événement, tel que la guerre)
Le rythme du film a une grande importance et devra notamment rester en lien avec les documents sonores (dont la musique principalement), la scénarisation et le contexte pédagogique. Des séquences rapides et des plans courts exprimeront la joie, la nervosité, voire la folie, tandis que les plans longs exprimeront la douceur et l’apaisement.
Montage …
L’organisation d’un film dépend finalement du montage, c’est à dire de la faculté à ne montrer que les images nécessaires, dans le bon ordre, et dans le bon rythme. C’est le montage qui fixe la signification globale du film puisque c’est la juxtaposition des photographies côte à côte qui donneront le sens et non la présence de chacune séparément.
Le montage utilise parfois des effets particuliers, notamment dans les liaisons entre plans (par exemple le fondu enchaîné).
La publicité
Clips …
La construction des films publicitaires est intéressante dans notre cadre car ils sont très courts et peuvent parvenir néanmoins à transmettre un message fort. Dans le cadre des didacticiels, les possibilités matérielles actuelles, imposent l’utilisation de films courts. Il est donc intéressant de se pencher sur ce que fait la publicité, qui dispose des mêmes limitations, même si l’objectif n’est pas le même.
Stratégie …
On distingue trois formes de stratégies de communication dans ce cadre :
Argumentation (description, explication, formalisation, …)
Narration (éveille l’intérêt à partir d’une histoire, influence le spectateur à l’aide du rôle joué par le produit dans le film)
Séduction (utilisation de techniques cinématographiques telles que le ralenti, le fondu enchaîné rapide, … ; utilisation de musiques d’ambiance stéréotypées ; utilisation forte du contraste ; montage rapide ; …)
Ces stratégies sont portés par des messages informatifs, connotatifs et/ou incitatifs
Techniques …
Les techniques utilisées sont également intéressantes de notre point de vue, car elles pourraient être aménagées pour l’objectif didactique [Vanoye, Goliot-Lété 92] :
L’utilisation de stéréotypes (le temps est court, il y a peu de place pour l’analyse complexe)
Exploitation forte des possibilités du support (beaucoup de musique, personnages marqués, …)
Droit au but dans le message à communiquer (« achetez ! »)
Les images didactiques
Définition
On recommande généralement d’utiliser des graphiques plutôt que des phrases longues, lorsque le support le permet [Baticle  85], ce qui est tout à fait le cas du multimédia. De plus l’usage des graphiques est de rigueur pour faire ressortir visuellement des données littérales ou numériques, des relations, pour présenter l’information de façon ordonnée, … [Parker, Thérien 91]. On regroupe l’ensemble des représentations visuelles visant à remplacer un texte sous le terme d’images didactiques (graphiques, schémas, organigrammes, cartes, …). Costa et Moles définissent la didactique graphique comme « l’emploi de l’image pour aider l’homme à penser à partir d’informations pertinentes » [Costa, Moles 91].
Le graphisme didactique consiste à faire ce travail de sélection propre à l’intelligence pour proposer une représentation visuelle préparée d’un savoir en vue d’un apprentissage. En ce sens le graphisme peut être un support d’information. Ajoutons que les images didactiques sont généralement accompagnées de texte, ce qui permet de fixer leur sens pour le lecteur.
En tant que synthèse d’idée, l’image didactique se définit comme :
une abstraction
une concentration d’informations
une hiérarchie d’éléments
une attitude de normalisation
Règles de construction
La réalisation des images didactiques répond à un ensemble de principes fondamentaux qui doivent être suivis pour favoriser la compréhension [Costa, Moles 91], [Bertin 67], [Cossette 83].
Principes généraux …
Les images didactiques d’un document doivent respecter :
le principe de non ambiguïté qui assure que les images sont bien interprétées (en appliquant notamment la comparaison pour aider à remarquer et l’ordre pour aider à mémoriser)
le principe de cohérence qui assure (dans le cas de plusieurs graphiques) que les graphiques participent à une signification commune (sans que le lecteur puisse confondre pour autant)
le principe d’identification qui assure que le sujet de communication est déterminé (titres, relations au textes, justification de leur usage, …)
le principe de simplicité qui assure que les graphiques sont facilement interprétables (par exemple plusieurs petits graphiques sont préférables à un seul surchargé) que l’essentiel n’est pas noyé sous les détails. De plus l’usage de stéréotypes et de codes connus est recommandé.
Principes d’organisation …
La construction des images didactiques se fait selon quatre méthodes d’organisation des informations visuelles :
L’association, pour relier les données ayant des points communs
La sélectivité, pour distinguer les données
L’ordonnancement, pour classer les données
La quantification, pour représenter une quantité par rapport à une autre
Variables de l’image …
L’image didactique est composée en premier lieu de deux variables de plan, éventuellement d’une troisième en cas de représentation en perspective. On peut ensuite utiliser les six variables, dites rétiniennes, supplémentaires que sont la forme, l’orientation, la couleur, le grain, la valeur et la taille.
Il existe des règles précises d’utilisation de ces variables, afin de les appliquer aux principes d’organisation. On retiendra l’application possible suivante :
L’association utilise la forme et l’orientation
La sélectivité utilise le grain et la couleur
L’ordonnancement utilise la valeur
La quantification utilise la taille
Notons que les différents attributs doivent également respecter un nombre de paliers maximum pour être correctement perçus (par exemple vingt paliers maximum pour la couleur, trois pour le grain, …). On parle également de lisibilité des images [Bertin 67].
Interprétation
Principes de communication …
Outre le respect des critères que nous venons de citer, la pertinence des images didactiques dépend avant tout de l’adéquation entre le public et la situation de communication. En effet les erreurs ont fréquemment pour origine un décalage entre ces deux objets.
Caractérisation du public cibleCaractérisation de la situation de communicationLa capacité d’attention
La durée du transfert
Le niveau culturel de base
La durée moyenne du message
Le nombre de signes
Le degré de figurativité (ou d’iconicité)
Le niveau de départDe plus différentes stratégies de communication peuvent être employées dans le cadre des images didactiques :
Stratégie de persuasion
Stratégie de démonstration
Stratégie de raisonnement
Degré d’iconicité …
Le degré d’iconicité est un concept proposé par Moles pour décrire l’intelligibilité et le niveau d’abstraction des représentations visuelles. Il s’oppose au degré d’analogie ou de mimésis notamment remarqué en ce qui concerne la photographie [Aumont 90]. Cette approche est très intéressante dans la mesure où elle met l’accent sur la complexité de compréhension des images. Dans le multimédia, où l’image est parfois utilisée pour remplir le didacticiel, cédant à un effet de mode plus qu’à une vraie réflexion, il est bon de prendre garde au fait que la lecture des images sera possible par les utilisateurs concernés.
Degré d’iconicitéDescription12L’objet réel11Modèle à l’échelle 110Modèle avec changement d’échelle9Photo ou autre projection réaliste sur un plan8Dessin ou photo retravaillée7Schéma anatomique ou de construction6Vue éclatée5Schéma de principe4Organigramme, schéma de structure fonctionnelle3Schéma de formulation2Schéma en espace complexe1Schéma en espace totalement abstrait0Description en langue normalisée ou en formules algébriques
Théorie des coûts …
On peut représenter la lecture d’une image comme coûtant un certain prix à payer pour la comprendre, et dans ces conditions on admet que « l’attention sera attirée vers le champ visuel dont l’appréhension exige la dépense d’énergie minimum » [Cossette 83]. George K. Zipf démontre en linguistique que la longueur d’un mot est inversement proportionnelle à sa fréquence d’emploi et en déduit une loi d’économie valable dans la plupart des domaines. INCORPORER Word.Picture.6 Notons que nos expériences empiriques révèlent parfois l’utilisation de la notion de coût intellectuel pour qualifier un logiciel. L’image didactique est dite économique si elle permet de répondre à une question précise en une seule perception. Elle l’est d’autant plus que le temps pour répondre à cette question est faible [Bertin 67]. Moles expose une théorie complexe basée sur les coûts [Mathien 92], [Moles, Massé 80], nous en proposons une application à la problématique des didacticiels.
Type de CoûtApplication à notre problématique$
PrixL’aspect financier est à prendre en compte dans la mesure où des images de qualité dans le didacticiel nécessitent un travail plus grand, un matériel plus performant et reviendront plus cher en fin de compte.W
Effort Physique Le travail physique se traduit principalement en ergonomie et peut se mesurer proportionnellement au nombre de clics de souris effectués ! Plus qu’une fatigue, le risque est à l’agacement si l’utilisateur à trop de manipulations à mener.T
TempsLe temps est un facteur important dans la mesure où le didacticiel intervient dans des univers où le temps risque de manquer. Dans les entreprises le temps d’autoformation est un temps volé au temps de travail, dans les unités scolaires le didacticiel est en supplément et doit prouver sa performance, on n’a pas le temps chez soi de traîner devant un ordinateur, …(
Coût PsychologiqueLe didacticiel a un impact relativement fort sur la psychologie de l’apprenant, celui-ci risque d’y voir un outil moins sérieux, ou plus ludique,  … Quelles que soient ses croyances, ce sont autant de barrières qu’il devra franchir pour utiliser l’outil correctement.C
Coût CognitifPour apprendre les mathématiques il est préférable d’avoir d’abord appris à lire pour utiliser les livres traitant du sujet, de même pour apprendre à travers le didacticiel, il faut d’abord apprendre à le manipuler. Néanmoins le didacticiel ne doit pas compliquer l’apprentissage de la matière dont il a la charge en impliquant un apprentissage préalable du didacticiel plus difficile !R
Coût de RisqueEt si en fin de compte l’utilisateur n’apprenait rien ? Si l’apprentissage par ordinateur n’était pas fait pour lui ? Si il n’en était pas capable ? Si le niveau était trop faible ? … Autant de questions qui submergent l’utilisateur devant un outil nouveau qui n’a pas encore fait ses preuves.On peut considérer que l’efficacité de l’apprentissage dépend de la quantité d’items assimilés par l’utilisateur, par rapport aux coûts qu’il a dû couvrir pour ce faire :
Efficacité = Items assimilés
$ + W + T + ( + C + RAutres approches
Le gestaltisme
La Gestalttheorie s’appuie sur une approche de la perception visuelle pour proposer des lois, mi-théoriques mi-empiriques, de la bonne image. On observe en effet certaines règles qui définissent universellement des images comme efficaces, agréables, belles, …
Ces lois sont basées par exemple sur :
La proximité (on apprécie les objets proches et similaires, ayant des rapports, des relations)
La continuité (les objets suivent un axe continu et participent au même mouvement)
La concentration (symétrique autour d’un point central)
La symétrie (axiale, partielle ou totale)
La simplicité (la recherche graphique ne passe pas par la surcharge d’objets et la complexité)
La fermeture (on préfère les contours fermés à ceux ouverts)
Le contraste (la mise en opposition d’objets est également une forme de relation utile)
 …
Notons que ces lois sont particulièrement applicables dans le cadre d’images simples, de schémas, …
Le multimédia vu par l’édition
L’édition moderne traite déjà en quelque sorte avec le multimédia, version réduite, dans la mesure où elle est habituée à la cohabitation entre des textes et des images. Du point de vue de la publicité notamment, on utilise les photos, en tant qu’images du réel, pour ajouter de la crédibilité au document [Parker, Thérien 91]. On peut s’inspirer des critères de l’édition pour la disposition des illustrations, on retient :
La qualité
Le cadrage, qui permet de mettre en valeur les éléments essentiels
Le détourage qui permet de détacher l’image, et de donner des impressions dynamiques
La disposition (par exemple une photographie plus petite à tendance à renforcer le message d’une plus grande)
Les divers effets spéciaux et de traitement d’images (pointillisme, agrandissement, …)
L’édition met également en garde contre les images trop complexes et trop détaillées, contre les légendes (accompagnant les images) trop longues, contre les défauts d’association entre les couleurs, … Autant d’éléments que nous avons déjà énoncés dans le contexte d’autres disciplines.
Défense vis à vis de l’image
Devant une image chacun met en œuvre des processus de lecture qui comportent certaines particularités à prendre en compte [Cossette 83] :
L’exposition sélective : Le spectateur s’expose aux images qu’il préfère a priori et rejette ce qui est dangereux pour son équilibre, en une réaction de défense instinctive. Par exemple les fumeurs ne verront pas la même chose dans une image sur le tabac que des non-fumeurs. Une étude montre que les thèmes qui retiennent en premier l’attention sont la sexualité, puis l’amour et la mort.
L’attention sélective : Seule une partie des stimulus disponibles parviennent à la conscience, il est donc nécessaire que les stimulus constituant du message se détachent et ne soient pas noyés sous les autres. De plus les stimulus perçus dépendent de l’état présent dans lequel se trouve le spectateur : Si il a faim , il sera plus sensible à des images représentant la nourriture !
La correction perceptuelle : Le spectateur corrige inconsciemment les objets qu’il perçoit en fonction de ses connaissances du monde et de qui lui est habituel. S’il perçoit fugitivement un chat vert, il pensera qu’il était marron.
L’apprentissage de la vision : La vision est également culturelle, et plus le résultat du travail du cerveau que de l’œil. De plus une partie du processus de perception est acquis est non inné, par exemple les enfants ne savent pas lire des représentations en trois dimensions.
Propositions
Organisation …
On distingue trois formes de documents visuels caractéristiques des didacticiels :
Les images didactiques, qui contiennent une véritable information en elles-mêmes
Les illustrations, qui accompagnent une information disponible sous une autre forme d’appropriation (les illustrations comprennent les photographies, les séquences vidéo, les dessins et les animations)
Le design graphique, qui accompagne l’ensemble des informations du logiciel.
Les images didactiques …
Les images didactiques concernent les images aptes à contenir de l’information, c’est à dire les tableaux, les graphiques, les cartes, … Les images didactiques sont généralement accompagnées de texte sous la forme d’annotations, de légendes, qui permettent notamment de faire sens à partir de la représentation visuelle. On considère qu’elles sont une spatialisation d’une représentation mentale et donc qu’il est possible de les réécrire par un texte écrit (généralement long !).
L’iconicité des images didactiques est centrale dans la mesure ou l’interprétation plus ou moins aisée par l’utilisateur détermine le niveau de langage iconique. Ainsi l’utilisateur sera amené à penser que le logiciel est sérieux ou décontracté, abstrait ou concret (par exemple), en fonction du type d’images didactiques proposées. Des images trop simples ne flattent pas l’utilisateur qui risque d’ignorer l’information qu’elles contiennent et des représentations trop complexes peuvent le rebuter, même de façon injustifiée vis-à-vis d’une information simple à assimiler.
Les illustrations …
Les illustrations concernent toutes les images qui accompagnent d’autres documents dans le but de renforcer l’information qu’ils contiennent. Elles ne peuvent en elles-mêmes véhiculer une information ( l’interprétation étant trop libre chez le lecteur ( néanmoins l’utilisation des illustrations aura un impact particulier sur le sens des documents accompagnés (à l’instar de la musique par exemple). Elles ont d’abord un impact fort sur la séduction de l’utilisateur. En effet, le support multimédia implique a priori pour l’utilisateur une cascade de dessins, d’animations, de photos, de films, … Leur utilisation peut provoquer un engouement particulier (indépendamment des informations plus directement en lien avec l’enseignement souhaité) ou une déception (comme d’ailleurs souvent, par exemple dans le cas des applications où certains réalisateurs jugent opportun de mettre des images ou des animations pour faire bien sans penser que l’ensemble de leur produit en sera profondément modifié). Le nombre d’images influence directement l’interprétation, s’il y a beaucoup d’images, c’est que c’est facile, donc la concentration est moindre, s’il y a peu d’images, c’est dur, donc l’utilisateur a tendance à penser qu’il faut beaucoup de temps pour comprendre (or il n’en a pas, donc il risque de ne pas utiliser le logiciel).
Le design graphique …
Le design graphique forme un ensemble qui accompagne visuellement l’utilisateur tout au long de sa consultation. Ainsi le choix des formes, des couleurs, de l’orientation des lignes même sont autant d’éléments qui influenceront potentiellement la lecture des documents plongés dans le graphisme global de l’application. On ne peut donc se limiter à penser que le design graphique possède un but décoratif : Son agencement est un supplément essentiel qui aidera à interpréter correctement le contenu ou au contraire aura comme conséquence de désorienter l’utilisateur. La sémantique des couleurs ou des formes pourra nous informer sur les choix à effectuer en fonction des caractéristiques de notre public. Mais l’utilisation de techniques informatiques plus ou moins modernes (effets 3D, textures complexes, …) sont aussi à étudier attentivement dans le cadre particulier d’une charte graphique et de son image par rapport au public concerné.
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 
Documents sonores
Problématique
L’utilisation du canal sonore pour transmettre de l’information est naturel, c’est en outre la première forme adoptée par l’humain. Le propre de la parole est que l’information dispensée est ponctuelle dans le temps : L’écoute doit donc être simultanée au discours. Il s’agit également d’une relation fondamentalement personnelle entre des hommes, qui interpelle leurs subjectivités. La transmission orale a été aménagée par l’avènement de l’enregistrement analogique, qui permet le différemment de l’écoute ainsi que sa répétition. L’enregistrement numérique permet de mieux contrôler les enregistrements, aidant à atteindre la partie de l’information désirée sans avoir besoin de faire défiler la bande, et autorisant le traitement du son pour l’améliorer, le corriger, le modifier, voire même le transformer complètement.
La forme sonore apporte donc sa spécificité à l’information qu’elle véhicule, un caractère personnel dans le message, qui interpelle fortement l’utilisateur, et un caractère éphémère, qui conditionne sa façon de s’approprier le texte du fait qu’il ne peut pas (où pas aisément) revenir sur ce qui a été entendu. Notons que si le numérique hérite de ces caractéristiques, il les tempère : L’évanescence est réduite par les possibilités d’accès et de réécoute de l’enregistrement ; la perte de la simultanéité et les possibilités de traitement numérique diminuent l’empreinte subjective. En effet, dans le cas du son numérique, on n’écoute pas ce qui est dit, ni ce qui a été dit, mais ce qui a été dit, puis transformé.
La musicologie
Caractérisation de la musique …
La musique, plus que la voix encore, sera apte à générer des émotions chez l’utilisateur, participant à l’instauration d’une ambiance : C’est là que le caractère empathique du son est potentiellement le plus fort. L’originalité, le rythme, le volume des musiques mettront l’utilisateur dans des états émotifs riches en informations qui pourront compléter ou au contraire perturber la lecture d’autres informations simultanément à l’écoute de la musique. Cette caractéristique essentielle [Kivy 89], tient certainement de trois aspects intrinsèques qui se retrouvent dans tous les styles et toutes les époques [Chion 94] :
La répétition : Elle est plus utilisée que dans aucun autre art.
La régularité : La musique est basée sur la régularité du métronome.
L’automatisme : La composition musicale tient d’une forme d’instinct, d’inspiration naturelle.
Ces caractéristiques favorisent la mémorisation, voire la communion, si la musique fonctionne sur l’auditeur.
Fonctions de la musique …
On propose quatre fonctions principales pour la musique [Hennion 93], [Chion 94] :
Esthétique : La musique est avant tout un art, qui en tant que tel interpelle l’affection de l’auditeur, pour susciter du plaisir, des émotions, …
Symbolique : La musique est chargée de significations et peut avoir une fonction de message, donc un contexte multimédia notamment (voir le paragraphe suivant concernant l’audiovisuel).
Sociale : La musique est une identité pour un groupe culturel qui se reconnaît en elle, peut l’échanger avec les autres membres du groupe, se positionner socialement par rapport à la connaissance qu’il en a, …
Utilitaire : La musique a également des utilisations pratiques, dont on pourra citer la fonction de masque (pour se séparer des bruits extérieurs), de stimulation (liée au rythme de la musique), de détente et de préparation à la réflexion (dans des conditions particulières néanmoins).
Apport de la technologie à la musique …
Les progrès technologiques et notamment la numérisation ont des conséquences importantes sur la nature de la musique [Chion 94] :
La continuité : Le morceau musical a maintenant la possibilité de paraître ininterrompu et infini, en utilisant les effets de boucle, de fondu, …
L’infinitésimal : Les progrès effectués dans le domaine de l’amplification et du filtrage du son, permettent de rendre intelligiblement des sons très faibles, comme le souffle, le froissement, les contacts entre objets, les bruits fugitifs, …
L’accroissement du spectre musical : Aujourd’hui les sons sont plus étendus dans les graves et les aigus.
La décomposition : Le son peut désormais être décomposé et recomposé selon des caractères auparavant indissociables (timbre, hauteur, intensité, …).
La démocratisation : La musique est plus accessible dans le monde, et quasiment omniprésente en de nombreux endroits. Ce développement a aussi pour effet que les auditeurs ont généralement des capacités d’écoute et d’attention plus faibles.
L’utilisation de nouveaux effets : La saturation, l’écho, la réverbération, …
L’audiovisuel
Introduction …
L’adjonction de la piste sonore à l’image mobile du cinéma a profondément modifié son expression. Alors qu’exprimer une idée précise nécessitait une débauche de moyen pour la faire comprendre au spectateur par des images, l’usage de la parole a simplifié les paraboles utilisées jusque là [Sorlin 92]. Néanmoins le son conserve un place très auxiliaire au cinéma relégué au renforcement des images.
Il y a trois matières de l’expression sonore au cinéma, les paroles, les bruits et la musique [Vanoye, Goliot-Lété 92]. On se propose de conserver ce découpage pour le son utilisé dans les didacticiels.
Fonction du son au cinéma …
La fonction du son est clairement définie dans le cas du cinéma, et reste applicable au cas des didacticiels [Sorlin 92] :
La parole condense le récit
Les bruitages permettent de renforcer les objets et les personnages
La musique crée une atmosphère
Cette vision est caricaturale et réduit le son à un appui fourni à l’image pour préciser ou augmenter son sens. Cette réduction n’est donc pas suffisante pour cerner la place du document sonore, néanmoins elle donne un point de départ intéressant sur l’utilisation que l’on peut en faire dans le contexte multimédia scénarisé.
Sources sonores …
Dans le cadre de l’audiovisuel, on distingue les sources sonores suivantes [Vanoye, Goliot-Lété 92] :
In : La source est visible et synchrone avec l’image. C’est le cas le plus courant des dialogues entre personnages présents.
Hors champs : La source n’est pas visible mais provient d’un espace-temps proche (son diégétique). C’est par exemple le cas d’un dialogue entre deux personnes situées dans des pièces différentes.
Off : La source est extérieur à l’univers de la fiction (son extra diégétique). La voix off est notamment utilisée pour se positionner d’un point de vue narratif ou objectif, pour dépersonnaliser le message, ou le détacher de l’action.
Notons qu’un didacticiel qui n’utilise pas de personnages (voir «  RENV _Ref428564792 \h Personnages », p. RENVOIPAGE _Ref428564792 \h 79) sera cantonné à l’utilisation de la voix off, ce qui limite la communication avec l’utilisateur à une approche objective et descriptive.
Focalisation sonore …
On parle de point de vue sonore, au même titre que pour l’image [Gaudreault, Jost 90]. Cette focalisation se base sur :
La localisation : Généralement le son n’est pas localisé dans l’espace, on perçoit une image, on entend un son et on en déduit que c’est un personnage qui parle, où un oiseau qui chante. Notons néanmoins que les progrès dans le domaine conduisent aujourd’hui à utiliser des sons localisés dans l’espace à trois dimensions (par extension de la stéréophonie à n sources sonores).
L’individualisation : La perception sonore n’est pas directive comme l’est la perception visuelle, et le spectateur sonore ne peut s’empêcher de percevoir l’ensemble des bruits dans toutes les directions (dans la limite d’un certain rayon).
L’intelligibilité : La parole doit rester audible malgré l’usage d’ambiances musicales, de bruitages, … Le volume avec lequel s’exprime la parole (par rapport aux autres sources sonores) est important dans la mesure où s’il est trop faible, les mots seront difficiles à saisir, et s’il est trop fort, les mots risquent de plus s’imposer qu’ils ne le devraient.
Ces paramètres permettent de mettre l’accent sur les difficultés techniques qui doivent être surmontés pour l’utilisation des documents sonores. Cette maîtrise qui est déjà difficile dans le cas d’une situation d’apprentissage isolée, le devient encore plus dans le cas d’utilisation dans une salle de classe, ou d’autres lieux ne bénéficiant pas d’isolation sonore adéquat.
Sémantique
Introduction …
A l’instar de l’image, il est possible de définir une sémantique des sons, dépendante de caractères naturels ou culturels, et ayant une réelle influence sur l’interprétation. Nous avons dit que la musique est particulièrement porteuse d’émotion : Cette émotion dépend de l’état d’esprit de la personne qui écoute, mais également d’aspects intrinsèques au morceau de musique, dépendants des personnes qui l’ont composée et interprétée, et de ce qu’ils voulaient exprimer [Kivy 89]. De même la parole est porteuse de sens : Un passage religieux ou un discours politique lu avec fureur pourra avoir un sens radicalement opposé au même discours lu avec lyrisme. On pourrait en dire de même des bruitages – des onomatopées comiques aux grincements tragiques – et également du silence, oppressant ou annonciateur, réfléchi ou inopiné, …
Exemples …
Nous ne pourrons donner ici la liste des connotations, évocations, et autres inspirations liées à l’audition de tel ou tel son. Néanmoins à travers les exemples suivants, on pourra se faire une opinion sur certains éléments caractéristiques des documents sonores.
Dans le cas de la parole on remarque surtout [Baticle 85] :
Si c’est un homme ou une femme qui parle, ou éventuellement, dans le cadre de l’informatique, une voix synthétique et asexuée.
La chaleur de la voix qui aura des effets aussi divers que l’apaisement, l’excitation, l’assurance, le doute, …
Le timbre de la voix, qui selon son harmonie et sa tonalité pourra être agréable ou irritant.
L’accent ou l’absence d’accent qui aura des connotations sur l’origine culturelle de l’orateur enregistré.
Le rythme et les variations dans la lecture qui influenceront la concentration de l’auditeur.
 …
Dans le cas de la musique on s’attache :
Aux évocations associées aux musiques connues
Aux évocations socioculturelles du type de musique
A l’évocation artistique
A l’originalité, l’avant-gardisme ou au contraire le côté rétro
 …
Les bruitages ont quant à eux surtout un rôle de signalisation :
Bruits de pneus (vitesse, précipitation, poursuite, …)
Sifflet de train (présence, menace, …)
Bruits de verre brisé (maladresse, événement, …)
Bruits de pas (suspense, menace, …)
 …
On retiendra également le rôle important des bruitages sur les effets comiques.
Propositions
Organisation …
On distingue quatre formes de documents sonores :
La musique
La parole
Les bruitages
Les silences
Pour chacun de ces points on cherchera à définir si les bons documents ont été utilisés à bon escient.
La musique …
La musique a un impact sur l’émotion ressentie par l’utilisateur, et donc sur l’état d’esprit avec lequel il aborde son apprentissage. On propose d’évaluer la musique selon son adéquation, qui met en relation le style musical adopté dans le didacticiel, le contexte pédagogique, le contexte social et la sémantique associée ; et selon son opportunité qui met en relation la fréquence d’utilisation de la musique avec son esthétique et son utilité.
La parole …
Son caractère évanescent fait que la parole n’est pas le support idéal pour transmettre des informations trop complexes, par contre elle est particulièrement adaptée pour faire passer un message, des consignes, pour fixer la concentration de l’utilisateur, et accompagner, par exemple, une information textuelle.
Les phrases doivent être claires, simples, correctement articulées et structurées, plus encore certainement que pour les textes écrits (on s’inspirera pour cela des recommandations émises dans ce cadre). L’impact de la voix sur l’utilisateur est plus difficile à maîtriser, il convient de garder à l’esprit l’influence de chaque paramètre au moment de l’enregistrement, puis du traitement.
Les bruitages …
Les bruitages sont particulièrement utiles pour informer l’utilisateur des actions que lui ou le logiciel manifestent. Ils permettent d’interpeller l’attention de l’utilisateur sur des états (et des changements d’état). Ce rôle leur convient particulièrement bien dans la mesure où ils cherchent à dénoter une situation ponctuelle dans le temps.
Le silence …
Le silence (c’est à dire l’absence de son) a également un sens particulier pour l’utilisateur, surtout dans un contexte réputé multimédia. En effet ce type de logiciel porte en lui l’attente par l’utilisateur d’être submergé de média et donc de sons en particulier.. Leur absence (ponctuelle ou propre à l’ensemble du cd-rom) impliquera chez l’utilisateur une interrogation qui dirigera sa lecture globale.
De plus le silence a une fonction de structuration de l’apprentissage : Il peut permettre de marquer une étape pédagogique, en laissant le temps de la réflexion à l’utilisateur ou encore être utilisé pour des phases de repos.
Critères d’évaluation …
On propose finalement les critères d’évaluation suivants (et détaillés dans le questionnaire, disponible dans le document technique liés à ce mémoire) :
 INCORPORER OrgPlusWOPX.4 

Pour une scénarisation évoluée
Introduction
Définition …
Dans le cadre du didacticiel multimédia, on définit la scénarisation comme le procédé particulier qui consiste à structurer les documents de façon à en préparer au mieux la lecture par l’utilisateur. La scénarisation ne prend donc pas directement en compte les informations à transmettre, mais la façon dont elles sont agencées. Mais cet agencement est à l’origine de la naissance de nouvelles informations.
Cette forme de scénarisation est totalement originale, dans la mesure où le numérique lui impose de traiter avec des concepts nouveaux tels que la navigation dans une structure non-linéaire, l’interactivité, des données dynamiques, … Précisons qu’il ne s’agit pas du scénario pédagogique (au sens des techniques d’apprentissage mises en œuvre), et que nous ne nous attacherons pas aux aspects spécifiquement ergonomiques, qui sont traités par ailleurs.
Organisation …
On pose que le procédé de scénarisation peut-être découpé en quatre aspects :
La définition et la gestion d’une structure navigable afin de traiter avec la délinéarisation
Les potentialités d’interactivité de l’utilisateur avec le logiciel
Les possibilités de personnalisation de l’ensemble pour l’adapter aux spécificités de chaque utilisateur
L’utilisation d’une fiction dans laquelle s’intègrent les informations.

 INCORPORER OrgPlusWOPX.4 
Navigation
Problématique
Espace et temps …
Le support multimédia offre une conception nouvelle de la structure du document. Cette spécificité est portée par la délinéarisation de l’information : Alors que les documents classiques (comme les livres) offrent une information linéaire dans l’espace et séquentielle dans le temps, le multimédia offre potentiellement une structure spatiale de type réseau et une structure temporelle aléatoire. On parle également dans le cadre du multimédia de temps simultané et d’espace de mise en perspective [Milon, Cormerais 98].
Ressources et sens …
Cette structure particulière a pour conséquence la délinéarisation de la lecture, ce qui implique le déconstitution du sens : La structure offre des ressources pour faire sens, quitte à l’utilisateur de les remettre en ordre. Ainsi plus le réalisateur inscrit le logiciel dans une structure linéaire, plus la constitution du sens est facile. Mais inversement, plus la structure est délinéarisée, et plus la puissance du support est utilisée, offrant à l’utilisateur une lecture potentiellement plus riche et plus adaptée. Ajoutons que la richesse de la structure, mais aussi la confusion induite, peuvent encore être augmentées par l’ouverture de l’application sur des environnements externes (avec par exemple des liens vers Internet, des pointeurs vers d’autres logiciels, …).
les outils de gestion peuvent autoriser effectivement la structure du support à profiter de ses potentiels, et éviter la perte de sens inhérente à la délinéarisation. Ils permettent à l’utilisateur de maîtriser la structure pour s’approprier et ancrer l’information qu’elle contient.
Structures navigables
Typologies des structures
Plusieurs chercheurs en informatique s’interrogent sur la nature des structures navigationnelles adaptées pour présenter les documents numériques. Nous proposons une vision des différentes approches de classification étudiées, avant d’en proposer une synthèse adaptée à notre usage.
Typologie basée sur l’espace de navigation …
Cette première approche, basée sur la description de l’espace de navigation, est la plus courante et celle que nous adopterons en synthèse. On propose ici deux visions proches, que nous représentons sous la forme des graphes de navigation correspondants :
[Escarabajal 98][Milon, Cormerais 98]Espace linéaire
 INCORPORER Word.Picture.8 Espace en étoile
 INCORPORER Word.Picture.8 Espace arborescent
 INCORPORER Word.Picture.8 Espace en boucle
 INCORPORER Word.Picture.8 Espace en mailles
 INCORPORER Word.Picture.8 Espace rhizomique
 INCORPORER Word.Picture.8 Typologie basée sur le degré de pilotage …
Cette approche est similaire aux approches spatiales, mais appliquée au domaine de la didactique. Il repose sur le fait qu’un apprenant doit être plus ou moins piloté en fonction de son contexte pédagogique. On peut ainsi proposer une échelle des degrés de pilotages associés à des espaces de navigation [Salesse 97] :
Degré de pilotage maximum associé au parcours linéaire : L’utilisateur ne dispose d’aucune alternative, sa lecture est fortement contrainte.
Degré de pilotage important associé au parcours orienté : L’utilisateur est dirigé, la contrainte demeure élevée, mais il dispose de plusieurs parcours possibles.
Degré de pilotage moyen associé au parcours arborescent : L’utilisateur a le choix de son parcours pédagogique.
Degré de pilotage nul associé au parcours en réseau : L’utilisateur est libre, les liens sont peu structurés.
Typologie basée sur le temps de navigation  …
L’espace et le temps sont intimement liés : Au niveau conceptuel la confusion est courante (par exemple on dit souvent : « j’ai l’avenir devant moi »), même au niveau physiologique, l’oreille permet la perception sonore qui dépend du temps et l’équilibre qui dépend de l’espace [Feat 97]. On peut donc proposer une typologie basée sur le déroulement temporel de la navigation plutôt que sur son espace [Durand & al 97] :
Niveau 0, Diffusion : Schéma de diffusion linéaire continu (film)
Niveau 1, Lecture : Diffusion linéaire interruptible (livre)
Niveau 2, Consultation : Utilisation de l’adressage (annuaire)
Niveau 3, Navigation : Enchaînement de parcours propres (arborescence)
Niveau 4, Exploration : Réseau de liens, parcours non tous prévus par le concepteur (encyclopédie)
Niveau 5, Environnement virtuel : Plus aucune diffusion séquentielle, même par morceau, toute action de l’utilisateur est déterminante, programme figé en l’absence d’action
Typologie basée sur l’approche du logiciel …
Une autre façon d’aborder la navigation est de le faire du point de vue de la thématique globale du logiciel. On distingue ainsi [Pognant, Scholl 97] :
Les approches narratives : Elles sont essentiellement linéaires, c’est le didacticiel qui présente l’information, à la manière d’un cours traditionnel.
Les approches educativo-culturelles : Elles se font majoritairement via des structures arborescentes, dans lesquelles l’utilisateur aborde les sujets les uns après les autres selon une logique hiérarchique.
Les approches educativo-ludiques : Elles se font souvent par composition d’approches narratives et arborescentes, avec des zones locales de jeu.
Les approches encyclopédiques : Elles sont basées sur les hyperliens.
Forme de navigation …
On peut également effectuer une classification selon la façon de naviguer :
Dominante déambulatoire (aventure)
Dominante livresque (page écran)
Dominante pratique (recherche d’informations, index , …)
Dominante ludo-intuitive (découverte peu à peu de la logique de navigation)
Typologie basée sur les modes de navigation …
Bien que certainement moins descriptive que la structure navigable en elle même, on peut considérer la navigation du point de vue des outils informatiques mis à disposition pour la mettre en œuvre. On distinguera alors [Pognat, Scholl 97] :
Les outils basiques de type diaporama ou lecteur magnétique, c’est à dire avant, arrière, pause, …
Les boutons et les menus, plus évolués, qui permettent une navigation non-linéaire, dans un espace et selon des parcours déterminés
Les hyperliens (se décomposant en hypertextes, hypersons et hyperimages, …) qui permettent de naviguer dans un réseau de documents selon des possibilités de parcours infinies
Les écrans réactifs (sur lesquels tout l’espace de l’écran est sensible, c’est à dire que chaque pixel est lié à une action de la machine), représentant généralement des espaces à deux dimensions, comme des cartes. Ils permettent à l’utilisateur d’envisager la navigation comme une recherche, une aventure
Les environnements virtuels, les plus élaborés et encore majoritairement à l’état d’étude, permettent de se déplacer dans des micro-univers (en trois dimensions généralement) dans le but d’accéder aux informations.
Extension à des environnements externes
Définition …
Outre la structure proposée de façon interne, le didacticiel peut permettre à l’utilisateur d’accéder à des environnements externes : Typiquement on trouve les liens vers Internet, vers les encyclopédies et dictionnaires en ligne, et vers les autres logiciels de la même collection. Ce type de coopération peut augmenter le potentiel du logiciel, à condition d’être à propos. On peut citer par exemple :
Dans le cadre de l’apprentissage d’un traitement de texte, il peut être intéressant de consulter l’aide en ligne de ce logiciel ou encore exécuter des exercices sur le logiciel depuis le didacticiel.
Dans le cadre de l’apprentissage des langues, il peut-être utile d’accéder aux dictionnaires correspondants.
Dans le cadre de l’apprentissage de l’histoire, il peut être intéressant de consulter une encyclopédie généraliste.
Dans le cadre d’un cours de mathématiques, il peut-être nécessaire d’accéder à d’autres cours de niveau inférieur (pour rappeler les bases).
Typologie …
On propose quatre niveaux d’extension de la structure vers l’extérieur du didacticiel :
L’Intégration : L’apprentissage proposé dans le logiciel intègre constamment d’autres environnements et il y a une réelle possibilité de naviguer dans l’ensemble de ces environnements comme dans un seul logiciel.
L’Ouverture : Le logiciel propose régulièrement des liens contextuels vers d’autres environnements.
Les Renvois : Le logiciel renvoie occasionnellement à d’autres environnements pour compléter l’apprentissage qu’il offre.
La Fermeture : Le logiciel ne propose aucune extension.
Evaluation …
Et on s’attache à vérifier :
La validité des références (les informations référencées sont-elles valables, fiables, reconnues, … ?)
La variété des références (l’intégration se fait-elle à travers plusieurs environnements ou bien de façon exclusive ?)
La pertinence des références (les informations référencées sont-elles directement en relation avec le sujet d'étude ?)
La qualité des liaisons (l’utilisateur accède-t-il facilement aux informations référencées qui lui sont utiles ?)
On remarquera des travaux qui étudient la profondeur de l’univers Internet (au sens des renvois entre pages) et les problèmes liés à cette profondeur et au peu de maîtrise qu’en a l’utilisateur [Rouillard, Caelen 97].
Gestion des structures
Enjeu
Une fois admis qu’il existe plusieurs structures et que celles-ci ont une complexité plus ou moins élevée, mais de toute façon plus grande que la structure linéaire à laquelle nous sommes habitués, on conviendra de la nécessité de proposer des outils pour aider l’utilisateur à gérer sa structure. Un enjeu important se situe à ce niveau : Tant que l’utilisateur ne dispose pas d’outils pour gérer sa structure navigationnelle, l’apprentissage à travers le didacticiel est moins facile qu’à travers un livre, ou un autre support linéaire. C’est également une des raisons qui poussent certains réalisateurs à produire des didacticiels linéaires, ce qui leur permet de prendre moins de risques. Mais ces didacticiels on surtout l’intérêt commercial d’occuper le segment constitué par le cd-rom, et pas celui de présenter un apprentissage différent.
Gestion Spatiale
Problématique …
On peut définir le didacticiel comme un hyperdocument, c’est à dire « un contenu informatif constitué d’une nébuleuse de fragments dont le sens se construit à travers chacun des parcours que la lecture détermine » [Durand & al 97]. Cela rappelle que la structure non linéaire du didacticiel n’a pas de sens a priori, et que c’est bien l’utilisateur en naviguant qui le déterminera. Il est donc nécessaire d’organiser la non-linéarité [Farah 98].
Outils de lecture …
Le problème principal est que plusieurs textes peuvent occuper le même espace, superposés par les liens hypertextuels. Ceci entraîne qu’on ne peut jamais prévoir quels sont les antécédents d’un utilisateur qui accède à un document. Puisque le didacticiel ne peut être organisé à priori dans ce sens, il faut qu’il fournisse à l’utilisateur des outils pour qu’il gère son espace lui même. Voici à titre indicatif quelques uns de ces outils :
Tables des matières
Index
Résumés
Carte dynamique de ce qui a été parcouru et de ce qui reste à parcourir
Repérage des chapitres courants
Indications quant aux antécédents nécessaire à la lecture d’un document
Navigation contextuelle proposant des liens plus adaptés (en plus de la navigation hors contexte classique)
…
Outils de réécriture …
Le second aspect primordial de l’appropriation d’un texte est la réécriture. Comme nous l’avons expliqué auparavant (voir «  RENV _Ref428523761 \h Notion de supplément », p. RENVOIPAGE _Ref428523754 \h 20) la compréhension d’un texte passe par sa réécriture sur un autre support. Il convient ainsi de donner dans le didacticiel des moyens à l’utilisateur de n’être pas seulement spectateur, mais également réalisateur de l’information qui lui est fournie. Voici quelques exemples d’outils qui servent à la réécriture :
Carnet de notes
Création d’hyperliens personnels
Marquage des étapes
Bilans
Annotations des contenus
Exercices
Evaluations
 …
Gestion temporelle
Problématique …
Outre la prise en compte de la dimension spatiale, il est nécessaire de maîtriser les liens temporels entre les documents qui composent le didacticiel. Le problème de la maîtrise du temps dans le didacticiel est lié à la dualité entre :
un temps maîtrisé par le logiciel (le temps de la diffusion des documents qui s’expriment sur une durée, comme les animations, les sons, …)
un temps maîtrisé par l’utilisateur (le temps de la lecture des documents spatiaux, comme les textes, le temps de la navigation entre les documents, …)
Il est fondamental que le didacticiel sache gérer ces deux temps, de façon à ce que l’utilisateur conserve pleinement la maîtrise du temps qui lui appartient, sans pour autant empiéter sur celui du logiciel, ce qui aurait des conséquences sur la transmissions des informations (séquences tronquées par exemple).
Tics et tacs …
Il est nécessaire de comprendre le temps relatif au didacticiel dès la conception [Sabry-Ismail 97], aussi Loay Sabry-Ismail propose la gestion du temps à partir de deux concepts clés :
Les tacs : Un tac de début et un tac de fin encadrent la présentation d’un document (il apparaît à un tac et disparaît à un autre). Ils concernent donc l’activité du logiciel, qui présente et enlève des documents à ces dates.
Les tics : Ils représentent des instants quelconques dans le déroulement du scénario. Ils permettent donc de gérer le temps de l’utilisateur (qui peut intervenir à tout moment), et de le faire en relation avec les tacs, pour éviter les interférences.
Ce principe permet de gérer les mises à jour, les interactions entre les documents, les contextes, …
L’organisation en sessions …
L’apprentissage s’échelonne dans le temps (ce temps pouvant se mesurer en minutes ou en années). On appelle sessions le découpage de ce temps d’apprentissage dans le cadre des didacticiels. Les outils de gestion du temps doivent prendre en compte les différentes sessions autour desquelles s’articule l’apprentissage. Le didacticiel peut proposer des découpages a priori et/ou laisser à l’utilisateur le soin d’aménager ces propositions en fonction de son contexte pédagogique. On distinguera :
Les sessions organisables : L’utilisateur a toute liberté pour organiser a priori ses sessions selon son contexte pédagogique. Il conserve ensuite la possibilité de modifier cette organisation initiale en fonction de ses obligations. Le didacticiel propose une assistance pour réaliser l’organisation et le suivi des sessions.
Les sessions imposées : L’apprentissage est prédécoupé en sessions que l’utilisateur doit suivre (modèle du cours classique).
Les sessions libres : Le logiciel ne prévoit rien, l’utilisateur a toute la charge du découpage de son temps d’apprentissage (le modèle du roman)
En outre le didacticiel peut mettre à la disposition de l’utilisateur une batterie d’outils pour mieux gérer et organiser ses sessions :
Un découpage dépendant du contexte pédagogique propre (niveau de l’utilisateur, de sa disponibilité en durée continue et en fréquence, …)
Un découpage souple et contrôlé : L’utilisateur peut modifier l’organisation prévue a priori, tout en étant informé sur l’opportunité des coupures (par exemple, si la conclusion est proche). En dernier ressort l’utilisateur doit pouvoir s’interrompre et reprendre où il en était (interruption courte) ou bien antérieurement (interruption longue, …).
La possibilité pour l’utilisateur de se laisser des notes entre deux utilisations, afin de maintenir la cohérence entre les différentes sessions (fonction marque-page, aide-mémoire, …)
La mémorisation par le logiciel de ce qui a été vu, ce qui reste à voir
Des propositions de résumés et récapitulatifs automatiques en fin et début de session pour permettre de gérer les transitions..
 …
Le rythme d’apprentissage …
Le didacticiel a aussi pour rôle de fixer un rythme adapté au contexte pédagogique de l’utilisateur. On remarque que la vitesse à laquelle se déroule l’apprentissage est fondamentale pour la compréhension et l’assimilation des informations. Cette vitesse sera caractérisée par différents facteurs comme :
Le niveau de détail atteint dans les explications
L’obligation ou non de suivre des cours entiers
La durée des exercices
La fréquence des évaluations
 …
Construction des structures
Le dernier point que nous désirions aborder, c’est à dire la façon dont doivent être construites les structures, est délicat car il est fortement dépendant du contexte pédagogique : On peut néanmoins formuler certaines règles générales. Précisons que nos considérations concernent principalement les structures non linéaires, les plus intéressantes de notre point de vue, et celles pour lesquels la réflexion est aujourd’hui nécessaire.
Orientation …
Un des dangers contre lequel doit lutter la structure est le risque de désorientation de l’utilisateur « qui ne sait plus où il en est ». Les symptômes les plus fréquents sont :
Le sentiment de perte pendant le parcours
La difficulté d’accès à un nœud recherché
L’arrivée involontairement sur des nœuds indésirables
Plusieurs règles connues permettent de se prémunir contre ces effets. D’une façon générale on sait que la mémoire à court terme est chez la grande majorité des individus organisée en sept cases. Ce nombre magique doit donc être gardé à l’esprit à tous les stades de l’organisation de la structure, et notamment en ce qui concerne le nombre de liens sortant et entrant pour un nœud donné [Feat 97]. De même on a observé que le nombre de niveaux hiérarchiques dans une structure arborescente est acceptable entre 2 et 4. Au-delà l'utilisateur perd la logique de l'organisation hiérarchique (et s'il n'y a qu'un seul niveau, on reparle alors de structure linéaire).
Logique …
Il est fondamental que les liaisons (et/ou l’organisation hiérarchique) répondent à une certaine logique de lecture, et que l’utilisateur perçoive cette logique afin de s’appuyer dessus. Le contre exemple est régulièrement fournit par les serveurs Web, dans lesquels les hyperliens nous conduisent souvent vers des pages ayant peu de rapport avec la lecture en cours et qui se termine par un retour. On constate qu’un réseau peut-être organisé :
en profondeur (c’est à dire qu’il faut beaucoup d’opérations pour atteindre certains nœuds) ce qui peut dénoter une certaine organisation, mais engendre des difficultés d’accès 
ou inversement en largeur (c’est à dire que les nœuds sont accessibles rapidement quelque soit l’endroit) ce qui peut faciliter l’utilisation, mais renforcer la confusion du parcours.
Homogénéit項
Pour que l’utilisateur s’approprie la structure, les niveaux doivent être relativement homogènes, c’est à dire exprimer le même niveau d’information, sous la même forme, …
Propositions
Organisation …
Nous proposons de diviser l’étude de la scénarisation selon :
Le potentiel offert par la structure navigable
Les outils de gestion spatiale disponibles
Les outils de gestion temporelle disponibles
Typologie synthétique …
Nous proposons une synthèse des typologies que nous avons énoncées afin de proposer une caractérisation (spatiale) pertinente pour l’évaluation des didacticiels actuels. Notons que d’avoir réuni sous le terme de réseau l’ensemble des environnement plus complexes (comme les environnements virtuels) est lié au fait qu’aujourd’hui ces cas sont très isolés. A terme il sera sûrement nécessaire de distinguer les potentiels des structures de navigation à l’intérieur des réseaux et de diviser cette catégorie.
Type de structurePrécisionsLinéaire
 INCORPORER Word.Picture.8 La structure linéaire peut être enrichie par la possibilité d’effectuer des retours arrières ou bien de sauter des chapitres (structure linéaire orientée). Une autre façon d'augmenter le potentiel de la structure linéaire est de disposer de plusieurs parcours linéaires différents que l'utilisateur peut suivre tour à tour (structure multi-linéaire).
 INCORPORER Word.Picture.8   INCORPORER Word.Picture.8 
Structure multi-linéaire Structure orientéeArborescente
 INCORPORER Word.Picture.8 Plusieurs techniques peuvent être utilisées dans les arborescences pour jouer sur le degré de linéarité :
 INCORPORER Word.Picture.8   INCORPORER Word.Picture.8 
Transversalité RelinéarisationRéseau
 INCORPORER Word.Picture.8 La structure peut proposer des séquences linéaires imbriquées dans le réseau. Si cette relinéarisation est utilisée à bon escient, elle peut aider l’utilisateur à concentrer sa lecture sur les points délicats.L’évaluation de la structure interne …
La structure peut-être évaluée selon le potentiel de navigation qu’elle offre et selon la qualité de son organisation. Nous considérons que les réseaux sont par essence plus riches, mais également plus risqués. Ainsi un bon réseau sera préféré à une bonne arborescence, mais par contre une mauvaise arborescence sera préférée à un mauvais réseau, dans lequel l’utilisateur ne pourra rien apprendre. Les structures linéaires (ou verticales) sont trop rigides et manquent d’intérêt, tandis que les structures arborescentes (ou horizontales) créent une hiérarchie artificielle dans l’information, hiérarchie différente de celle du schéma mental et qui introduit des relations faussées entre les données [Farah 98]. On recherchera donc une navigation complexe et transversale, mais protégée et organisée (spatialement et temporellement) de façon à respecter les impératifs pédagogiques basés sur des modules indépendants (pédagogie par paquets).
Il est nécessaire d’opérer une rupture par rapport aux structures valables dans le cadre de la littérature ou du cinéma. Appliquer ce type de structures au support numérique est sans intérêt et inadapté à l’apprentissage par le didacticiel. Selon [Milon, Cormerais 98], « le système d’information multimédia, pour être viable, doit être dynamique, [ …] hétérotypique et transversal ».
Notons que le potentiel peut être accru par une extension de la structure interne à des environnements externes (tel qu’Internet).
Gestion spatiale …
La délinéarisation accroît la difficulté de l’utilisateur pour se réapproprier la connaissance inscrite à travers la structure du support. C’est pourquoi le logiciel doit aider l’utilisateur dans l’acte de réappropriation, il doit l’aider à comprendre, à effectuer sa synthèse. Cette aide se manifeste en premier lieu par les possibilités de réécriture qui lui sont données. Il est en effet fondamental que l’utilisateur puisse produire des documents, se trouver en situation de réalisateur à son tour. Par exemple il s’agira de pouvoir annoter, critiquer, remplacer, enrichir les contenus, créer ses propres liens ou commenter ceux dont dispose déjà le programme, …
Pour que l’utilisateur donne un sens à son parcours, il est également nécessaire de guider sa lecture à travers l’espace de la structure. Il s’agira par exemple de lui proposer des outils permettant d’appréhender de façon globale le contenu (table des matières adaptée, résumés, index), des outils permettant de visualiser ce qui a été parcouru et ce qu’il reste à parcourir (carte dynamique des contenus, indication de la quantité parcourue), …
Gestion temporelle …
La gestion temporelle doit enfin être prise en compte : Il y a un temps propre au numérique (qui se distingue du temps littéraire, théâtrale ou cinématographique). Les outils doivent prendre en compte les différentes sessions autours desquelles s’articulera l’apprentissage. L’utilisateur doit pouvoir disposer de résumés, obtenir des récapitulatifs, écrire des bilans ; il doit pouvoir effectuer un découpage de son apprentissage adapté et fonction de ses obligations propres (l’idéal étant de disposer de propositions de découpage à priori, et de conserver des possibilités de coupure libres a posteriori).
Le rôle du scénario est aussi de respecter les étapes pédagogiques fonctions des caractéristiques de l’utilisateur et du sujet étudié, et de proposer un rythme adapté.
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 
Interactivité
Problématique
Interaction et construction …
Le logiciel multimédia est dit interactif, ce qui laisse supposer, en plus de l’activité habituelle de la machine, une activité effective de l’utilisateur. Le fait de permettre à un apprenant d’agir est un atout potentiel important dans la mesure où cela permet de confronter – ou d’auto-confronter – des informations avec une réalité, ce qui est intéressant du point de vue pédagogique. Mais cet intérêt n’est que potentiel : Le support en donne la possibilité, mais il n’est pas forcément utilisé, et pas forcément à bon escient.
Le problème du cd-rom est qu’il fait croire a priori à une activité réelle de l’utilisateur, alors que celui-ci peut rester aussi passif que devant un livre. La seule activité consistant à cliquer intempestivement n’est pas constructive, et peut même être destructive en ce sens qu’elle peut rompre la concentration sur le sujet. L’utilisateur a toujours plus ou moins la possibilité d’agir, mais son action n’est positive que si elle est consciente, que s’il a la possibilité de la construire. Deux questions fondamentales à se poser par rapport à cette problématique sont proposées par Martial Vivet : « Le scénario crée-t-il de l’interactivité ? L’activité générée est-elle utile à l’apprentissage ? » [Vivet 96].
Définitions …
On appelle interactivité la possibilité supplémentaire qui consiste à solliciter l’action de l’utilisateur pour lui permettre de devenir auteur à son tour. On notera qu’il ne s’agit ni de la passivité d’un utilisateur devant l’activité d’un ordinateur, ni d’une activité réelle, mais inutile, voire néfaste, si elle génère la confusion en dispersant l’utilisateur à travers des actions désorientantes.
L’implication de l’apprenant
Activit項
Le problème de la passivité devant l’apprentissage est général et se retrouve donc au niveau des didacticiels. Ce problème est important car seul l’activité permet la réécriture, c’est à dire l’assimilation des informations. Le logiciel doit donc lutter contre la passivité. Certaines techniques pédagogiques à mettre en œuvre pour élaborer une réelle interactivité ont notamment été recensées dans le cadre des didacticiels [Gaussens & al 97], on pourra citer les règles suivantes :
Faire réagir l’utilisateur
Le laisser s’exprimer
Le mettre en confiance
Ne pas le laisser dans l’erreur
Faire faire à l’utilisateur
 …
Attention …
Le second problème, en lien étroit avec le premier d’ailleurs, est celui de la perte de l’attention. L’hétérogénéité des classes permet de mettre en valeur ce phénomène [Salesse 97]. On se rend compte que l’attention d’un apprenant décroît lorsque celui-ci ne comprend plus ce qui est enseigné (c’est un phénomène rapide étant donné que la moindre perte d’attention liée à l’incompréhension accélère cette incompréhension, qui accélère la perte d’attention, etc.) ; et inversement l’attention décroît également lorsque le sujet est trop facile pour l’apprenant. Dans une classe hétérogène il n’y pas vraiment de solution, et il est inévitable que tous ne soient pas attentifs à chaques instants, par contre l’intérêt – et le rôle – du didacticiel est de pouvoir s’adapter à chaque utilisateur pour lui proposer ce dont il a juste besoin à chaque instant (voir «  RENV _Ref428981464 \h Personnalisation », p. RENVOIPAGE _Ref428981467 \h 68).
Pour et contre …
L’interactivité est donc un outil avantageux à plusieurs égards, motivation, concentration, autonomie, mais il faut garder à l’esprit que c’est aussi un risque de dispersion, de frustration, d’énervement, s’il est mal utilisé.
Les potentiels d’action
Définition …
Le didacticiel permet à l’utilisateur d’agir en relation avec l’apprentissage et d’avoir un retour immédiat sur son action. L’action la plus basique proposée par tous les didacticiels est l’exploration, identique à la consultation d’un livre. Mais certains proposent à l’utilisateur de manipuler des objets, de les expérimenter, ou mieux, de les créer. Les possibilités d’action ainsi offertes permettent d’impliquer l’utilisateur, de le motiver, de capter et maintenir son intérêt et sa concentration, et de développer chez lui une certaine autonomie. Autant de facteurs fondamentaux dans le processus d’apprentissage.
Typologie …
A partir de constatations effectuées dans le domaine des cd-rom culturels [Pognant, Scholl 96], on peut proposer la typologie des actions suivantes :
L’exploration regroupe les actions de naviguer dans le logiciel, d’écouter, regarder et lire les documents, de choisir parmi eux, …
La manipulation regroupe les actions de bouger des objets, de les orienter, les agrandir, les détailler (pour mieux les voir par exemple), les combiner, … On citera par exemple la manipulation en trois dimensions de pièces mécaniques.
L’expérimentation regroupe les actions de participer à des simulations interactives, d’associer des données ou des objets pour en observer les effets, de réaliser des séquences d’actions préparées pour en acquérir la pratique, … On citera à titre d’illustration un didacticiel permettant la simulation de processus sous Unix pour aider à la compréhension de cette notion délicate [Perrin, Bonnaire 98].
La création regroupe les actions d’utilisation réelle et de façon libre, de fonctions liées à l’apprentissage. On citera par exemple les éditeurs graphiques, de texte, de musique, … Un concept proposé à l’école d’architecture de Toulouse associe bases de données, éditeurs graphiques, éditeur de texte, … dans un logiciel permettant aux architectes d’informatiser leurs carnets de notes [Léglise 98]. Cette approche permet une réelle créativité, médiée par la machine.
Les interactions réelles
Notion de communication
Définition …
L’apprentissage à travers le didacticiel peut également être le théâtre d’interactions réelles entre les différents acteurs, notamment entre les utilisateurs soumis à la même démarche, et entre les utilisateurs et les tuteurs encadrant leur travail. L’aspect essentiel de cette interactivité est la communication, sous toutes ses formes, que les acteurs peuvent mettre en œuvre. Insistons sur le fait qu’on ne traite pas ici de communication avec la machine, les possibilités des interfaces restant aujourd’hui encore trop limitées pour parler de réelle communication (d’où le terme d’interactions réelles).
Le mythe de l’autodidacte …
Sur l’informatique semble peser le risque de l’apprentissage solitaire : Les hommes reclus derrière une console acquérant à grands coups de clics les moindres secrets de la connaissance. Cette vision n’est pas valable dans la mesure où l’adulte ne peut apprendre seul, par définition. L’apprentissage consiste en la confrontation de cultures ou de cadres de référence différents, dans un processus de déconstruction et de reconstruction, en la révision de ses croyances devant celles d’autrui [Boullier 98].
La notion d’autodidacte dans le sens où l’on apprend seul est erronée et les utilisateurs de didacticiels, comme ceux des livres, apprennent toujours avec quelqu’un d’autre, même si le support technique intervient en médiation. Néanmoins on remarquera que ceci sera d’autant plus vrai que le didacticiel intègre les différents acteurs en son sein, pour leur permettre de continuer d’interagir, comme ils le font en l’absence du didacticiel.
Communication et action …
La problématique de la communication à travers un système informatique a déjà été étudiée. On citera notamment l’expérience d’un système proposant des outils de communication aux utilisateurs dans un hôpital. Ce système a été réalisé par Terry Winograd à partir des théorie de Varela [Winograd 87]. Le postulat de base est que la communication est en lien directe avec l’action, et notamment que la pratique est de parler avant d’agir. Cette expérience nous permet de mettre en valeur certains avantages de l’intégration de la communication au sein des didacticiels :
L’enrichissement : L’utilisateur peut requérir un avis extérieur pour élargir son point de vue avant de passer à l’action.
Le doute : L’utilisateur peut se retrouver en situation d’incertitude et solliciter la confirmation d’un tiers avant d’agir.
Les relations personnelles : Les acteurs d’un apprentissage tissent des relations qui ne sont pas en lien direct avec celui-ci. Ces relations sont basées sur la communication et existent avant l’introduction du didacticiel. Il est donc nécessaire que le didacticiel maintienne ses relations, et même les encourage en tant que source de réalisation personnelle.
L’autorité : La communication permet également l’expression de l’autorité du tuteur sur l’apprenant. Cet aspect de la communication est particulièrement bienvenu dans le cadre des didacticiels : En effet le tuteur est susceptible de craindre la perte de son influence sur l’utilisateur, au profit du didacticiel. S’il conserve la possibilité de communiquer avec l’utilisateur, à travers le didacticiel, il est en mesure de garder le contrôle de cette autorité.
Le conflit : Des situations de conflit peuvent apparaître entre l’utilisateur et le didacticiel. Ceci risque de conduire à la démotivation, surtout si l’utilisateur est isolé. Par contre le dialogue est un moyen de gérer ce genre de situations sans entrer en rupture avec le système, puisque la communication est médiée par lui.
Typologie …
On propose de distinguer les formes de communication selon qu’elles sont locales ou distantes, synchrones ou asynchrones et libres ou dirigées.
Locale versus distante …
La communication locale concerne la communication avec les autres utilisateurs du même didacticiel, sur le même site (c’est à dire essentiellement les autres apprenants et les tuteurs). La communication distante concerne la communication avec des apprenants situés dans un autre contexte pédagogique (autre école, autre matière, …) et la communication avec des sources d’informations distantes (autres professeurs, centres de documentations, …). Il ne s’agit donc pas nécessairement d’une distance géographique, mais d’une distance didactique. Le tuteur peut se trouver à des kilomètres et utiliser Internet, on parlera de communication locale, ou l’utilisateur peut consulter un bibliothécaire sur le même site, et l’on parlera de communication distante.
Synchrone versus asynchrone …
Un autre élément de comparaison important est la gestion de la synchronisation entre les utilisateurs qui communiquent. Voici quelques exemples :
Dialogue en ligne à travers un clavier ou des microphones, pour demander des précisions, des conseils, … (synchrone)
Utilisation de la messagerie électronique pour publier des résultats, poser une question à un ou plusieurs utilisateurs, … (asynchrone)
Transferts de fichiers de questions, de réponses, d’énoncés d’exercices, d’évaluation, … (asynchrone)
Notons que l’on observe un usage différent selon que la communication est synchrone ou asynchrone, comme cela est décrit dans le paragraphe suivant.
Libre versus dirigée …
Nous nous attacherons dans cette question à l’encadrement de la communication par le didacticiel. En effet la communication (synchrone ou asynchrone, locale ou distante) peut également être plus ou moins dirigée par le didacticiel. La communication libre est caractérisée par la messagerie électronique (les deux interlocuteurs peuvent dialoguer à leur guise). On parlera de communication dirigée lorsque l’interface permet par exemple à un utilisateur de signaler qu’il a terminé un exercice en appuyant sur un bouton, ou encore en réclamant de l’aide à un tuteur, toujours via une interface graphique. L’idéal est de disposer des deux systèmes complémentaires, libre et dirigé [Baker 98] :
La communication dirigée peut-être un moyen pour guider l’utilisateur dans son processus de communication
La communication dirigée permet un dialogue plus rapide et plus précis. Une fois adoptées les conventions du didacticiel, la communication est très efficace et permet de ne pas empiéter sur le temps d’apprentissage à proprement parler.
La communication dirigée ne doit concerner qu’un domaine restreint, de façon à ce que l’utilisateur apprenne rapidement le langage.
La communication dirigée, notamment associée aux communications synchrones permet de traiter rapidement les problèmes courants (Quel résultat trouves-tu ? Ma réponse est-elle correcte ? Que dois-je faire ensuite ?). 
La communication libre doit être conservée pour les problèmes les plus complexes ou qui nécessitent un certain développement.
La communication libre peut-être conservée pour encourager les utilisateurs à la rédaction et à l’échange.
La communication libre peut-être un moyen de détente (qui en tant que tel doit rester sous contrôle).
Interactivité émotionnelle
Introduction …
L’interaction entre l’utilisateur et le didacticiel est également susceptible de générer des émotions (chez l’utilisateur, le didacticiel en étant encore incapable, quoi qu’on en dise parfois …). C’est à dire qu’en fonction de l’utilisation qu’il fait du didacticiel, en fonction de ses actions et des retours qu’il obtient, l’utilisateur peut être amené à se retrouver dans des états émotifs différents et plus ou moins forts. On renverra également à la notion de catharsis (voir «  RENV _Ref428632418 \h Fiction », p. RENVOIPAGE _Ref428632420 \h 76) qui exprime la génération par le récit d’une émotion chez le spectateur. Notons que ce concept d’émotion est largement utilisé dans le domaine ludique, on parle de jubilation [AAM 98], et que la différence d’engouement entre les jeux et les didacticiels provient également de la différence d’interaction émotionnelle.
Quelques situations …
Voici quelques situations dans lesquelles le didacticiel peut initier une interactivité émotionnelle :
Lorsque l’action de l’utilisateur engendre une réaction de la machine qui suscite une émotion particulière comme le rire, l’émerveillement, la curiosité, la peur, …
Les séquences de jeux
Les commentaires liés aux évaluations des résultats (c’est bien, c’est pas très bien, …)
Le fait de dissimuler ou de dévoiler progressivement des secrets, une intrigue.
L’usage des images est également un moyen d’impliquer l’utilisateur et de le faire se sentir concerné, on parle de code psychologique [Baticle 85].
Un exemple …
Voici un exemple (résumé) emprunté à [AAM 98] particulièrement illustratif : « L’utilisateur voit une fillette qui joue dans la rue. Lorsqu’il actionne la souris, elle interrompt son jeu pour tourner son regard vers le spectateur-acteur ». Cet artifice expose bien le pouvoir du didacticiel de tisser un lien entre l’utilisateur et lui. Force est de constater néanmoins que ces artifices sont davantage utilisés dans les jeux, voire les applications culturelles.
Propositions
Organisation …
Nous proposons de diviser l’évaluation de l’interactivité selon :
Le degré d’action auquel a accès l’utilisateur
Ses possibilités de communication avec d’autres acteurs réels
Les émotions que génère chez lui l’utilisation
Action …
On distingue plusieurs degrés d’action de l’utilisateur (l’exploration, la manipulation, l’expérimentation et la création). On évalue donc en premier lieu le niveau qu’atteint le didacticiel ainsi que l’utilité de ces actions disponibles dans le contexte pédagogique.
Communication …
On constate que le logiciel didactique présente l’avantage paradoxal de permettre à l’utilisateur de travailler seul et en groupe. En effet l’utilisateur est isolé dans le cadre de son apprentissage, ce qui lui permet de développer son autonomie. Mais en même temps il peut être relié à d’autres, que ce soit de façon synchrone (dialogues en ligne) ou asynchrone (courrier électronique), à travers un réseau (local, Internet) ou des fichiers partagés sur une seule machine. Le logiciel peut se révéler le théâtre d’une communication particulière entre plusieurs acteurs qui s’aident mutuellement à construire un apprentissage grâce à leurs interactions. De plus l’évaluation tiendra également compte de la combinaison entre communication libre et communication dirigée, ainsi que de la mise à profit des avantages de chaque approche.
Emotion …
L’interactivité entre l’utilisateur et la machine est également susceptible de générer des émotions chez l’utilisateur. Elles seront potentiellement utiles pour motiver, impliquer l’utilisateur, l’aider à se concentrer, développer chez lui une certaine forme d’autonomie, de curiosité, … Mais elles seront aussi source d’énervement, de dispersion, …
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 
Personnalisation
Problématique
Le cd-rom est un atout didactique très fort dans la mesure ou sa capacité de stockage et sa capacité calculatoire lui permettent (potentiellement) de s’adapter à l’utilisateur pour proposer une lecture personnalisée. Le cours magistral s’adresse à quelques dizaines d’élèves, le livre scolaire à quelques milliers, le documentaire télévisé à quelques millions, le didacticiel est potentiellement capable de s’adresser à chaque utilisateur de façon unique. Cette position reste idéale mais illustre l’ampleur du travail à réaliser en matière de capacité de personnalisation des didacticiels.
Aujourd’hui il est encore rare que les logiciels aient de réelles capacités d’adaptation, de par la difficulté que recèle une telle entreprise. Néanmoins on observera avec intérêt des efforts plus ou moins fournis pour utiliser les possibilités du support afin de présenter les informations les plus justes en fonction de l’utilisateur.
Cadrage, ajustements et ouverture
Introduction
La notion de cadrage – inspirée de théorie aussi diverses que les schèmes de Piaget ou les frames de Minsky – est utilisée dans le cadre de l’étude des objets techniques et notamment en anthropologie des échanges homme-machine [Boullier 98], [Latour 93], [Livet 94], [Hutchins 95]. On propose dans ce paragraphe une réflexion basée sur cette théorie et appliquée aux didacticiels.
Définitions
L’adulte ne vit pas dans un monde unique, comme l’enfant, il est donc nécessaire pour lui de se placer dans le contexte adéquat en fonction de chaque situation. Dans le rapport homme-machine, le cadrage est défini comme la capacité d’un utilisateur à produire un cadre de référence dans un contexte d’utilisation donné. Ce cadre produit a priori a pour vocation de correspondre au mieux à la machine à utiliser.
Le cadrage ne peut être parfaitement adéquat, on considère en conséquence qu’il existe des ajustements qui permettent à l’utilisateur, et éventuellement à la machine, de modifier leurs cadres pour permettre une meilleure symbiose. Les ajustements ont donc lieu au cours de l’utilisation.
On appelle ouverture le processus complémentaire qui consiste en la déformation de la machine par l’utilisateur pour la faire correspondre au cadre qu’il produit.
Cadrage
Orientation …
Le cadrage est comparable à l’effet de la boussole. Lorsqu’un utilisateur doit utiliser une machine, il s’oriente en fonction du cadre qu’il croît être celui de la machine. La différence fondamentale avec la boussole est que là où cette dernière indique invariablement le nord, l’utilisateur s’oriente en fonction de croyances, qui peuvent donc être trompeuses. En pratique, il est même impossible que le cadrage soit parfait, car l’utilisateur l’établit à partir d’images, ni uniques ni déterminées, des objets.
Condition préalable …
Le cadrage est une représentation avant pratique, une condition préalable à l’utilisation d’une machine par un homme. L’adulte ne peut appréhender une nouvelle machine à partir de rien, il est obligé de l’apprécier et de parier sur son fonctionnement pour commencer de l’utiliser. On peut faire l’analogie avec le dialogue entre deux personnes : Pour engager la conversation, chacune d’elle est obligée de cadrer son interlocuteur, de se positionner par rapport à lui, et de tenter d’imaginer qui il est.
Révisabilit項
Puisque le cadrage est un pari, il ne peut être gagné à tous les coups. Plus radicalement nous affirmerons qu’il ne peut jamais l’être totalement. Ce qui fait néanmoins l’intérêt du cadrage est que celui-ci est révisable. L’homme en phase d’utilisation peut se rendre compte de ses erreurs d’appréciation et ajuster son cadre en conséquence, le déconstruire pour le reconstruire à nouveau.
Représentation schématique …
INCORPORER Word.Picture.8L’utilisateur en interaction avec une machine produit un cadre à partir de la perception qu’il a de cette machine. On appelle d la distance entre le cadre ainsi produit et la réalité de la machine.Ajustements
Principe …
L’utilisation d’un artefact suppose la recherche d’un couplage entre un homme et cet artefact. Ce couplage, cette symbiose, est possible si les cadres de l’homme et de l’artefact se confondent. Cet état idéal n’est pas accessible parfaitement, néanmoins sa recherche est nécessaire pour obtenir un niveau de correspondance rendant possible l’utilisation.
La première étape de l’utilisation, nous l’avons dit, est la production d’un cadre par un utilisateur. Une fois ce cadre produit, l’utilisation peut débuter, et un dialogue peut s’instaurer entre la machine et l’utilisateur, qui sera ainsi amener à réviser son cadre initial. On appel ce processus de révision l’ajustement. Les ajustements se font de façon incrémentale tout au long de l’utilisation. A chaque ajustement (et en supposant que les ajustements sont positifs) la distance entre le cadre produit par l’utilisateur et celui réel de la machine diminue.
Représentation schématique …
INCORPORER Word.Picture.8Plus la distance d sera faible, plus la correspondance entre les cadres sera grande, plus l’utilisation sera facile, rapide, agréable, … Le processus d’ajustement s’arrête (ou devient insignifiant) lorsque la distance d est une garantie supposée suffisante pour l’utilisation correcte.Posture des utilisateurs …
On distingue trois types d’utilisateurs faces au problème de l’ajustement :
Les autonomes : Ils cherchent à accomplir les ajustements de façon instinctive, en recherchant des familiarités dans la machine et tentant d’appliquer des actions valables dans d’autres cadres.
Les hétéronomes : Ils ne prennent aucune initiative et se bornent à appliquer une norme d’utilisation, un mode d’emploi lié à la machine.
Les didactiques : Ils forment la catégorie la plus apte à pratiquer des ajustements corrects, en jouant et sur la recherche de familiarité et sur l’application des consignes.
Typologie …
L’ajustement doit être prévu dans la machine dès sa conception, celle-ci doit prendre en compte les ajustements que réalisera l’utilisateur. Les méthodes pour faciliter l’ajustement sont de différentes natures et sont en particulier liées aux différentes attitudes des utilisateurs devant l’ajustement.
On distingue les méthodes suivantes (notons que l’ajustement se fera globalement par composition de ces différents modes) :
L’ajustement par familiarité (ou ajustement replié) : Ce mode correspond notamment aux autonomes, son objet et de plonger l’utilisateur dans un cadre qui lui est familier. La machine utilise par exemple une interface dont l’utilisation est connue, comme les signes propres aux bandes magnétiques qui ont été réutilisés pour des appareils numériques.
L’ajustement par explicitation (ou ajustement déplié) : Ce mode adapté aux hétéronomes, consiste à fournir à l’utilisateur une norme d’utilisation, un standard qui garantit le bon fonctionnement de la machine. Cela concerne toutes les notices techniques en générale et les aides en ligne en particulier dans le cadre de l’informatique.
L’ajustement par évidence : Cette méthode repose sur la construction de la machine selon une logique d’utilisation évidente. Par exemple les boutons sur lesquels doit appuyer un opérateur peuvent être numérotés dans l’ordre de l’utilisation.
L’ajustement par automatisme : Si la machine garantie un fonctionnement toujours identique pour une même action, l’utilisateur s’ajuste de façon progressive, jusqu’à entrer lui aussi dans un processus automatique. C’est le cas par exemple de la conduite automobile, lorsqu’un conducteur découvre une voiture il s’ajuste à ses réactions, puis au bout d’un certain temps, du fait que les réactions sont toujours les mêmes, il conduit instinctivement.
L’ajustement par opportunité : Ce mode d’ajustement repose sur le fait que la machine expose de façon explicite son fonctionnement à l’utilisateur afin de susciter chez lui l’action juste. Plus particulièrement utilisé dans le domaine du marketing (ou le produit doit susciter l’envie), cette approche est également présente en ergonomie ou les formes, les emplacements, les couleurs, inspirent l’utilisation.
L’ajustement par virtuosité : Au contraire de la précédente, cette méthode repose sur une utilisation à long terme. Son objet est de conduire l’utilisateur à utiliser pour le plaisir, indépendamment, ou en supplément, de la tâche à accomplir. On citera par exemple un conducteur de machine qui se plaît à manœuvrer sa machine dangereusement, ou un utilisateur qui utilisera un logiciel jusqu’à ses limites.
Ouverture
Principe …
Généralement le processus d’ajustement est mixte dans le sens où l’utilisateur modifie son cadre pour le faire correspondre à la machine, mais également, dans le même temps, tente de plier la machine au cadre qu’il avait produit pour elle. Précisons que souvent l’utilisateur se plie davantage que la machine.
La notion d’ouverture pour une machine représente sa capacité à se plier pour correspondre au cadre produit par l’utilisateur. Une machine est dite fermée si l’utilisateur doit seul faire l’effort d’ajustement, et sera plus ou moins ouverte si l’utilisateur a la possibilité de l’adapter.
On peut illustrer ce propos par l’exemple d’un fauteuil de bureau et d’une chaise en métal. Le fauteuil peut-être déformé, ajusté par l’utilisateur, alors que dans le cas de la chaise en métal, l’utilisateur devra seul s’ajuster pour l’utiliser correctement.
Représentation schématique …
 INCORPORER Word.Picture.8 La distance d peut à présent être réduite par la combinaison de l’ajustement et de l’ouverture.Cas des didacticiels
Un cadrage complexe …
L’utilisation du didacticiel, comme tout artefact, obéit aux lois du cadrage préalable et révisable. Dans ce cas précis le cadrage est très complexe, car le monde virtuel proposé par le logiciel est illimité. Devant une machine classique l’utilisateur peut rattacher son cadrage aux lois de la réalité qu’il connaît. Dans le cas du numérique, le concepteur possède un champ de réalisation qui n’a de frontières que celles de son imagination.
La notion de cadrage dans le cas des didacticiels se rattache plus à une problématique pédagogique (cadrage didactique), ergonomique (cadrage de l’utilisateur), voire technique (génie logiciel). Par contre elle relève peu de la scénarisation, au contraire de l’ajustement et de l’ouverture.
Une capacité potentielle d’ajustement importante …
Le support qui nous intéresse est très spécifique quant à ses capacités d’ajustement : Le caractère calculatoire du numérique est capable de doter le logiciel de nombreux soutiens à l’ajustement. Précisons qu’il ne s’agit là que d’un potentiel disponible, nullement d’un caractère systématique du logiciel didactique. Notons que le concepteur peut programmer le logiciel pour aider l’utilisateur à utiliser tous les types d’ajustements que nous avons décrits préalablement. A titre d’exemple :
L’ajustement par familiarité s’accomplira par l’utilisation d’interfaces stéréotypées et récurrentes (type Mac, Windows, …) et par l’application de règles d’ergonomie respectant des normes d’usage (emplacement des boutons, codes de couleurs, …)
L’ajustement par explicitation sera principalement développé par l’aide en ligne, l’aide contextuelle,  …
L’ajustement par évidence doit être pris en compte dans la réalisation des interfaces, en prenant garde à l’explicitation des icônes, à la logique des intitulés, des titres, des cheminements hiérarchiques, des fictions utilisées, …
L’ajustement par automatisme sera d’autant plus présent que le programme sera fiable et que les erreurs inopinées seront évitées. De plus au niveau des commandes, les fonctions devront être stables et permettre l’acquisition des automatismes. (notamment la même séquence de commandes devra toujours fournir le même résultat).
L’ajustement par opportunité sera assuré par l’utilisation d’une interface graphique et de médias liés au contexte pédagogique.
L’ajustement par virtuosité fait également partie des possibilités offertes par l’informatique, si l’utilisateur dispose d’une marge de manœuvre suffisante dans son utilisation. Ainsi il pourra être intéressant de proposer à l’utilisateur expérimenté des fonctions complexes et faisant appel à la qualité de sa pratique et à sa maîtrise du logiciel.
Une très grande ouverture possible …
De même que pour l’ajustement, le didacticiel peut-être très ouvert, notamment par la mise à disposition d’un paramétrage. L’utilisateur doit pouvoir modeler le logiciel en fonction de ses goûts, de ses objectifs, de ses particularités de ses attentes, … La particularité du logiciel tient dans sa capacité de calcul et de stockage de données qui lui permettent idéalement d’offrir une telle quantité d’utilisations possibles que chaque utilisateur pourra choisir celle qui lui convient le mieux, en fonction de ses cadres.
On pourra citer pour exemple :
le paramétrage de l’interface (choix des couleurs, des représentations iconiques, de la place des boutons, des menus, …)
le paramétrage du contenu (choix des contenus en fonction des contextes pédagogiques propres)
le paramétrage de la scénarisation (choix des histoires, des personnages, des actions, …)
le paramétrage des médias (choix entre des supports textuels, visuels, sonores).
L’apport du calculatoire : Cadrage et ajustement par le logiciel …
Là où l’informatique apporte une réelle nouveauté dans le domaine de l’ajustement, est qu’il permet non plus seulement l’ajustement de l’utilisateur à la machine, mais l’ajustement de la machine à l’utilisateur, de façon automatique et autonome.
Il ne s’agit pas ici d’ouverture, l’utilisateur ne plie pas la machine à son cadre, mais la machine se plie elle-même. Le didacticiel est capable de réaliser un cadrage de l’utilisateur, comme l’utilisateur est capable de réaliser un cadrage de la machine, puis de réviser ce cadre initial par des ajustements, tout comme l’utilisateur.
Ceci s’effectue par l’implantation dans le logiciel d’un module expert qui possède des règles d’action et des données permettant de traiter un modèle l’utilisateur. Ce module est capable de cadrer l’utilisateur et de s’ajuster automatiquement en fonction de ce qu’il pense lui être le plus approprié. Notons qu’il ne s’agit pas d’une pratique exacte et que le cadrage et les ajustements peuvent être faux, mais rappelons qu’il en est de même dans le cas de l’utilisateur. Il s’agit d’un pari, ou plutôt de deux paris combinés à présent. On admettra que les capacités du logiciel seront moindres que celles de l’utilisateur, mais le principe est identique, sur une échelle plus réduite.
Représentation schématique …
L’ajustement par le didacticiel permet de réviser les schémas du cadrage et de l’ajustement que nous avions proposés en première partie.
 INCORPORER Word.Picture.8 INCORPORER Word.Picture.8Cadrage Ajustement Les agents
L’agent autonome …
La notion d’agent autonome proposée par [Million, Cormerais 98] regroupe en quelque sorte l’ensemble des principes que nous avons soumis sous le terme de scénarisation. Nous choisissons de traiter l’agent autonome dans le paragraphe concernant la personnalisation, dans la mesure où c’est de ce concept qu’il semble le plus proche.
L’agent autonome est un programme informatique intelligent capable de proposer à l’utilisateur une structure de navigation, une fiction et une interaction personnellement adaptées à son cas particulier. C’est une notion idéale, que les didacticiels doivent essayer de mettre en œuvre progressivement, afin de développer leur spécificité.
L’adaptabilité des systèmes multi-agents …
Le modèle du multi-agents issu de l’intelligence artificielle, paraît particulièrement propice pour des architectures de didacticiels. Il permet de décomposer le didacticiels en un ensemble de modules indépendants, dynamiques et communiquant entre eux. L’intérêt de ce découpage est que chaque module peut évoluer en temps réel [Leman & al 97] en fonction des actions de l’utilisateur.
L’environnement d’apprentissage ainsi généré est donc adaptable, et cette adaptation est notamment souhaitable du point de vue des enseignants [Labeke, Bernat 97] : Ceux-ci ont en effet leur propre représentation de la matière qu’ils enseigne, et cette représentation est rarement identique à celle proposée dans le didacticiel. Le fait de pouvoir modeler le didacticiel est essentiel pour que ce dernier soit utilisé en tant que support du cours au même titre que l’est le livre.
Des données génératives …
Cette approche propose une typologie des données selon qu’elles sont [Durand & al 97] :
Fixes : Ces données peuvent simplement être affichées à la demande de l’utilisateur, mais restent invariablement identiques quel que soit l’utilisateur.
Evolutives : L’usager devient propriétaire de ses données et peut en disposer pour les exploiter dans d’autres environnements. Il n’est plus cantonné à son rôle de lecteur.
Génératives : Les données ne sont pas codées en mémoire, mais sont capables de se créer spécifiquement pour chaque utilisateur.
L’aide dans les didacticiels …
Les didacticiels nécessitent qu’une forme spécifique d’aide soit inventée. En effet l’aide en ligne telle qu’on la conçoit généralement en informatique, n’est pas adaptée à la didactique, où les aides liées au fonctionnement du logiciel côtoient les aides à vocation pédagogique (concernant les concepts, les méthodes, les conseils de rédaction, …) [Blondel, Schwob 97]. Cette forme nouvelle d’aide doit être plus évoluée et dépasser les documentations hypertextuelles usuelles, on citera par exemple les systèmes conseillers, les explications interactives, le diagnostic de ce que l’élève produit,  …
Cette tâche plus ardue trouve notamment une solution avec les agents, qui permettent de modéliser une aide plus complexe.
L’agent perturbateur …
On citera finalement l’exemple particulièrement intéressant des agents perturbateurs : Ils interviennent dans le didacticiel, non pour aider l’utilisateur, mais au contraire pour le gêner. L’objectif n’est bien entendu pas de gêner l’apprentissage, mais bien l’utilisateur, afin que celui-ci ancre plus profondément ses connaissances. Dans l’exemple proposé par [Piché & al 98] l’agent perturbateur intervient en fonction de trois paramètres du modèle de l’utilisateur : La performance, la motivation et la confiance.
En jouant sur ces notions, l’agent perturbateur du didacticiel peut aider à renforcer la confiance en soi, les capacités de défi, la capacité à confirmer ses réponses, … Ainsi on détectera un utilisateur en situation de doute et on tentera d’apporter les réponses effectives. Inversement un utilisateur particulièrement brillant sera perturbé afin de le pousser à ses limites.
Les risques
Notion de risque …
Nous avons présenté les concepts de cadrage, d’ajustement, d’ouverture, d’adaptabilité, d’aide, … Nous avons illustré l’importance de ces concepts dans le cas plus particulier du didacticiel, du fait du potentiel que leur donne le support numérique. Nous aimerions porter notre attention sur certains problèmes inhérents au support et ouvrir le débat sur la notion de risque.
Les risques d’une mauvaise maîtrise …
Les risques existent dès que le cadrage est mauvais, que le didacticiel n’est pas adaptable, pas ouvert. Ils se manifestent également lorsque ces capacités sont à la disposition de l’utilisateur, mais sont peu maniables et peuvent influencer négativement le processus d’apprentissage.
Ces risques restent néanmoins l’apanage de toute machine, à des niveaux plus ou moins élevés. Mais le logiciel multimédia didactique introduit un risque supplémentaire lié à la personnalisation autonome par le programme. Le danger est que si cette automatisation est a priori fondamentale, sa mise en œuvre conduit à une augmentation de la complexité du rapport homme-machine. Les résultats d’une telle démarche dans le cadre du multimédia didactique restent donc à établir pour prouver que la machine est capable de réaliser une telle tâche, dans le cadre actuel des connaissances en informatique en général et en intelligence artificielle en particulier.
Les risques d’une trop bonne maîtrise …
Aujourd’hui l’utilisateur se plie à la machine beaucoup plus que la machine à l’utilisateur. Les progrès qui pourront être faits dans le domaine de la personnalisation par le logiciel pourront avoir pour effet de contrebalancer le rapport actuel pour amener l’utilisateur à ne plus se plier ou presque. Bien qu’un progrès sur le plan de l’utilisation pure et simple soit indéniable, cela pose deux problèmes relativement sournois : L’autonomie et le contrôle de la machine, la perte d’une forme d’apprentissage.
En effet si la machine s’accapare le monopole de l’ajustement, l’utilisateur perdra une partie du contrôle qu’il avait sur elle, avec des risques amplifiés en cas de dysfonctionnement, de cas particuliers, …
L’autre problème est lié au fait que le cadrage et l’ajustement participent à un processus d’apprentissage, l’utilisateur apprend à déconstruire puis reconstruire ses connaissances. Or si la machine le remplace dans cette activité, l’utilisateur risque de perdre une source d’apprentissage, l’apprentissage devant le logiciel. Il pourra toujours apprendre à travers le contenu du logiciel, mais il perdra ce qu’il apprend à travers l’utilisation du support technique.
Modèle d’architecture …
On constate donc que la personnalisation peut-être plus ou moins automatique, c’est à dire livrée ou non à la maîtrise de l’utilisateur. En effet si le logiciel fait les choix, cela s’accompagne de perte de contrôle (et aussi peut-être d’information) pour l’utilisateur. Inversement si les choix sont entièrement laissés à l’utilisateur, celui-ci peut ne pas être compétent pour les effectuer.
On propose le compromis correspondant au schéma ci-dessous : La personnalisation doit être suggérée par le logiciel (en fonction de modèles prévus dans le programme par le réalisateur), contrôlé par un expert humain (pour gérer les cas particuliers notamment) et enfin laissée entre les mains de l’utilisateur (qui possède une connaissance et des préférences qui lui sont tout à fait propres).
 INCORPORER Word.Picture.8 
Proposition
Organisation …
On considérera que la personnalisation du didacticiel peut s’opérer selon trois fonctions :
L’ajustement de l’utilisateur par le logiciel ou information : Le logiciel fournit à l’utilisateur les informations nécessaires pour que celui-ci se prépare à sa lecture (par exemple les aides contextuelles).
L’ajustement du logiciel par l’utilisateur ou paramétrage : L’utilisateur dispose de possibilités pour modifier le logiciel en fonction de ses choix propres (par exemple le choix de l’interface).
L’ajustement du logiciel par le logiciel ou adaptation : le logiciel est programmé pour s’adapter statiquement ou dynamiquement à l’utilisateur en fonction des données qu’il recueille (par exemple les agents intelligents)
Evaluation …
Pour chacun de ces aspects on évaluera le degré avec lequel le didacticiel permet de le réaliser, ainsi que la qualité des outils mis en œuvre et leur efficacité réelle sur la personnalisation.
Dans le cadre de l’information on s’attachera à la contextualité, la disponibilité, la pertinence des aides. Pour le paramétrage on s’intéressera au nombre de paramètres modifiables, à la facilité avec laquelle on se repère dans ses paramètres. Pour l’adaptation on s’attachera principalement à savoir si elle va effectivement dans le sens de la personnalisation de l’apprentissage, sans risque pour l’utilisation.
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 
Fiction
Problématique
Le dernier aspect que nous avons voulu traiter dans le cadre de la scénarisation consiste en la possibilité, grâce à notre support, d’intégrer l’apprentissage au travers d’une fiction. La notion de fiction regroupe plusieurs aspects : Un récit construit, une intrigue, dans laquelle s’intègre l’apprentissage ; des personnages incarnés par l’utilisateur, le tuteur, le logiciel ; une ambiance propre et persistante au long du scénario.
L’apport de la fiction dans notre cadre est un potentiel particulièrement puissant. Outre le côté ludique qui permet d’attirer plus facilement l’utilisateur vers une tâche d’apprentissage a priori rébarbative, l’utilisation d’une fiction adaptée favorise l’appropriation, l’autonomie, … En effet la fiction est un facteur d’implication (l’utilisateur participe à une histoire) et de cohérence (elle permet de fixer un cadre général homogène qui canalise la lecture).
Narratologie
Structure du récit
Définition …
On définit le récit en narratologie comme un ensemble organisé de signifiants, dont les signifiés constituent une histoire [Aumont 90]. Notons que l’on parle aussi de diégèse pour désigner le « monde fictionnel construit par le lecteur ou par le spectateur à partir des données d’un récit » [Gardies 91].
Catharsis …
« Tout récit classique inaugure la captation de son spectateur en creusant un écart initial entre un sujet désirant et son objet de désir. Tout l’art de la narration consiste ensuite à réguler la poursuite toujours relancée de cet objet du désir [ …] jusqu’à la fin du récit » [Carrière 93]. La notion de catharsis introduite par Aristote exprime le fait que la fiction est une source d’apaisement, de purgation, d’allégement, de délivrance pour le spectateur. En d’autre terme un loisir. C’est notamment cette propriété qui en fait un élément désirable dans le cadre des didacticiels. Etre capable de proposer un apprentissage comme une détente est un pari intéressant dans la mesure où c’est un des critères qui permettront au didacticiel de se positionner sur la scène des supports d’apprentissage, et dans des créneaux où les techniques habituelles sont relativement inefficaces ou trop coûteuse pour être mise en œuvre à la hauteur des besoins (cas du rejet scolaire, de la formation continue, …)
Schéma dramatique …
Le récit aristotélicien qui se base sur l’usage d’un début, d’un déroulement et d’une fin est à la base de la plupart des récits (70 % des récits cinématographiques appliquent ce schéma de la façon la plus fidèle [Carrière, Bonitzer 90]).
On peut représenter le schéma dramatique – ou structure d’intrigue – selon les quatre étapes essentielles suivantes [Maillot 91] :
L’introduction : Elle permet la mise en place des personnages, du thème, des objectifs, …
Le développement : Il décrit l’évolution de l’action.
La culmination : C’est l’instant pivot du récit, celui au cours duquel le succès ou l’échec se décide.
Le dénouement : Il constitue le point final du récit.
Schéma actantiel …
On peut également s’appuyer sur le schéma actantiel [Pajon 97] qui caractérise le récit sous la forme d’une quête (c’est à dire un ensemble d’action à réaliser) effectuée par un agent (l’utilisateur dans le cas des didacticiels) dans le but d’atteindre un objet (défini par le réalisateur). De plus des co-agents ou des contre-agents peuvent intervenir pour aider ou gêner l’agent. Cette structure de quête est particulièrement bien adaptée dans le cas des didacticiels puisque une analogie peut-être faite entre le but à atteindre dans le récit et le but pédagogique réel.
Caractéristiques …
En plus de sa structure d’intrigue, le récit se caractérise habituellement par les aspects suivants [Gaudreault, Jost 90] :
Le récit est une séquence doublement temporelle, composée d’une suite chronologique d’événements fictifs et d’un temps de diffusion réel.
Le récit reste essentiellement un discours et repose donc sur la communication.
Le récit est une perception irréaliste, c’est à dire qu’il présente des faits qui ne sont pas nécessairement vrais.
Le récit est un ensemble d’événements, ce qui rejoint la représentation sous la forme d’une quête.
Typologie …
Les typologies basées sur le genre (enquête, suspense, comique, fable, western, médiéval, aventures, science fiction, …) sont souvent de peu d’intérêt pour la compréhension ou la maîtrise de l’histoire. On retiendra par contre la typologie proposée par Carrière sur un plan différent. On distingue selon lui les quatre cas suivants :
Quelqu’un qui connaît l’histoire la raconte à quelqu’un qui la connaît aussi : C’est l’exemple du théâtre classique.
Quelqu’un qui connaît l’histoire la raconte à quelqu’un qui ne la connaît pas : C’est le cas du suspense, du comique, …
Quelqu’un qui ne connaît pas l’histoire la raconte à quelqu’un qui ne la connaît pas non plus : C’est le cas de l’improvisation par exemple. On notera aussi que ce schéma peut-être adapté au cas des didacticiels, dans la mesure où s’il utilise une structure non-linéaire, le réalisateur ne sait pas de quelle façon l’utilisateur va parcourir l’histoire (voir «  RENV _Ref428556065 \h Ecriture interactive », p. RENVOIPAGE _Ref428556065 \h 80) .
Quelqu’un qui ne connaît pas l’histoire la raconte à quelqu’un qui la connaît : Carrière prend l’exemple d’un réalisateur de cinéma qui avait adapté une légende qu’il connaissait très peu et l’avait diffusée à un public la connaissant parfaitement bien.
Techniques …
Le but principal du récit est de « captiver et maintenir l’attention » [Carrière, Bonitzer 90]. Réaliser cet objectif est avant tout un art, qui se base sur l’originalité et la personnalité de celui qui raconte. On peut néanmoins énoncer un certain nombre de recettes utiles pour l’écriture d’un récit :
La gestion de la montée dramatique : La tension doit être maintenue jusqu’à un point de non retour, afin d’emprisonner le spectateur dans le récit, et de mieux le délivrer ensuite.
Le recours à des moments forts : Les rebondissements, les coups de théâtres sont autant d’éléments de surprise qui, ménagés avec soin, permettent d’accrocher, de fixer, de fasciner le spectateur. Les événements efficaces sont définis comme « inattendus mais inévitables » [Carrière 90].
L’implication du spectateur : Par le maintien de l’ambiguïté, de l’incertitude, afin de faire participer son interprétation et de le faire devenir acteur à son tour
L’utilisation de clichés et de stéréotypes : Qui lui permettront de se positionner par rapport au récit.
La gestion du rythme : Qui doit permettre des instants de détente (tout en fuyant les longueurs) et des séquences d’emballement afin de lutter contre l’ennui.
La proposition d’une histoire logique, vraisemblable, cohérente par rapport à elle même.
L’humour : Le rire chez le spectateur est un gage de participation de sa part.
La vigilance vis à vis des tabous : Pour ne pas heurter le spectateur et l’obliger à sortir de la fiction.
L’utilisation de métaphores : La fiction peut être dotée de différents niveaux de compréhension, basés parfois sur des prises de position morales, politiques, esthétiques, philosophiques, poétiques, … On parlera de points de vue [Gaudreault, Jost 90].
…
Cinématographie
Le cinéma a également beaucoup à nous apprendre sur la fiction, en plus de ce qu’il apporte déjà au récit. Les deux points essentiels que nous aborderons sont la mise en scène de personnage, l’instauration d’une ambiance et le recours à des dispositifs narratifs propres.
Personnages
Personnalit項
Les personnage ont un rôle central dans la fiction, nous les traitons ici à partir du cinéma, qui semble dans ce cas être le plus proche de ce que l’on peut trouver dans les didacticiels. Au cinéma les personnages sont caractérisés par [Baticle 85] :
Des postures : Les gestes effectués, la façon de se tenir et d’agir marque la personnalité ressenties par le spectateur (on peut ainsi représenter la féminité, la sportivité, la pureté, …).
Des attributs : Les objets utilisés, les vêtements portés, sont autant d’éléments qui permettent de cataloguer le personnage.
Le jeu de l’acteur : La façon de jouer (théâtrale, réaliste, burlesque, dramatique, …) a également une influence sur le personnage représenté. Notons que même dans le cas d’images de synthèse on peut parler de jeu, qui ne sera plus celui de l’acteur, mais celui du réalisateur ou des modèles qui auront été utilisés.
Un nom : On parle notamment de code onomastique: Les noms propres utilisés pour les différents personnages ont un impact sur le personnage lui-même du point de vue du lecteur (par exemple les noms féminins en ‘a’ connotent l’Italie).
Identification …
Dans le cadre des didacticiels, le processus d’identification permet à l’utilisateur, et éventuellement au tuteur, de pénétrer dans le didacticiel par l’intermédiaire de l’incarnation d’un personnage. On distingue quatre grandes catégories de personnages dans les didacticiels :
Le personnage utilisateur : Il représente l’utilisateur dans le didacticiel et ce dernier peut le contrôler pour naviguer.
Le personnage tuteur réel : Il représente le tuteur, et permet à celui-ci d’intervenir sous la forme d’un personnage. Ce schéma permet de transposer les relations apprenant/tuteur au niveau de personnages fictifs ce qui peut-être intéressant dans certains cas (notamment dans le cas de relations difficiles, cela permet de renouer le dialogue sous une autre forme)
Le personnage tuteur virtuel (ou co-agent) : C’est un agent gérer par le didacticiel et qui a pour objectif d’aider l’utilisateur dans son apprentissage, en lui donnant des conseils, des indications, des trucs, …
Le personnage perturbateur (ou contre-agent) : C’est un agent dont l’objectif est de gêner l’apprenant en lui proposant des réponses fausses, en le distrayant, … L’objectif de cet usage est d’aider l’ancrage des connaissances en jouant sur la confiance en soi de l’utilisateur. Cela peut également être utile pour vérifier la validité de l’apprentissage (cas de formations professionnelles principalement) en situation de crise.
Les autres personnages : Bien entendu de nombreux autres personnages peuvent intervenir, avec un caractère plus illustratif et dans le but de renforcer la fiction, plus que directement l’apprentissage.
L’utilisation des personnages ne repose pas sur leur simple matérialisation dans le didacticiel, mais sur les possibilités d’autonomie et d’interaction qu’ils représentent. On se reportera au chapitre concernant l’interactivité («  RENV _Ref428603143 \h Interactivité », p. RENVOIPAGE _Ref428603147 \h 63) pour mesurer l’importance des possibilités de communications (entre personnages dirigé par des humains) et les possibilités d’autonomie (des personnages dirigés par le didacticiel).
Ambiance
Eléments …
Le cinéma peut également nous fournir des éléments sur la façon dont se constitue l’ambiance. Ce paramètre assez large exprime que les films sont toujours associés à une atmosphère propre. Un des premiers caractères de l’ambiance est constitué par le genre du film qui impose l’héritage de l’ensemble des films du même style (comme par exemple le western). On peut citer également citer divers paramètres (antagonistes) tels que [Vanoye, Goliot-Lété 92] :
Décors : Intérieur versus extérieur
Eclairage, couleurs : Jour versus nuit
Son : Images muettes versus dialogue
Séquences : Action versus détente
Plans : Intimité versus public
…
Personnalit項
Le didacticiel peut également revêtir une personnalité propre qui influence l’ambiance générale :
Les éléments caractéristiques (qu’ils soient graphiques ou sonores)
Les clins d’œil (par exemple des changements de forme de la souris comiques)
Le recours à des émotions (voir «  RENV _Ref428983194 \h Interactivité émotionnelle », p. RENVOIPAGE _Ref428983195 \h 66)
L’utilisation de stéréotypes (voir «  RENV _Ref428728779 \h Sémantique de l’image » p. RENVOIPAGE _Ref428728779 \h 35)
Dispositifs narratifs
Enfin le cinéma peut également nous renseigner sur les méthodes utilisées pour gérer le récit dans le cadre de l’audiovisuel [Vanoye, Goliot-Lété 92] :
Répétition, variation, gradation : La même scène est répétée, avec des variations mineures chaque fois.
Oppositions : L’utilisation du contraste entre de scènes contraires
Humour : Jeux de mots, comique de situation, de répétition, …
Morale : Fables, contes, …
Ecriture interactive
Le jeu de rôle …
Les jeux de rôles sont des pratiques encore méconnues et mal comprises, inventées aux Etats Unis au début des années 80 et introduites en France vers 1985, sous la forme du jeu Donjons et Dragons. Mélange original entre le théâtre et le jeu de société, le principe est le suivant : Un maître du jeu propose à plusieurs joueurs (généralement moins d’une dizaine) un univers et une intrigue dans lesquels chaque joueur incarnera un personnage pendant plusieurs heures. Le déroulement de l’intrigue est virtuel et totalement basé sur l’imagination de chacun : Le maître du jeu raconte une partie de l’histoire et invite les joueurs a énoncer des actions en relation avec celle-ci. Puis en fonction de ces actions il imagine l’évolution de la trame, fait intervenir de nouveaux personnages (dits non-joueurs), et ainsi de suite, jusqu’à l’aboutissement de la quête, le renoncement, la disparition des personnages, …
Le jeu de rôle n’est pas basé sur le désir de gagner (comme la majorité des autres jeux) – aucun joueur ne peut se vanter d’avoir mieux joué – mais uniquement sur la volonté commune de participer à une histoire ; histoire indéterminée au début du jeu, mais qui le deviendra sur la base des actions de chacun. Personne ne peut dire avant un jeu de rôle ce qui se passera, pas même le maître du jeu, qui pourtant possède le plus d’éléments, mais chacun peut raconter la même histoire à l’issu de la séance. L’histoire est née de l’interaction entre les différents joueurs.
Les limitations du support informatique …
Il existe de nombreuses adaptations informatiques du concept des jeux de rôle, des jeux d’aventure aux multi-users dungeons, qui mettent en relation via Internet un grand nombre de joueurs dans un même monde virtuel. La différence essentielle entre les jeux informatiques et les jeux de rôles est que l’interaction entre les joueurs est profondément limitée, alors que l’essence même du jeu de rôle est la communication [Sanchez, Lumbreras 97]. L’adaptation informatique impose donc une réduction de la notion de rôle, et il y a tout lieu de penser que cette réduction est inéluctable également dans les didacticiels, dans le mesure où le jeu de rôle est basée sur des interactions humaines, que l’on ne sait pas simuler exactement sur un ordinateur.
Reste qu’avec la prise de conscience de cette limitation, il peut néanmoins être souhaitable de rechercher à introduire cette notion d’écriture interactive, même à un niveau moindre. Cela signifie que des fonctions telles que le backtracking doivent être oubliées pour passer d’un document figé que l’on consulte à un document dynamique que l’on construit.
Hyperhistoires …
Une hyperhistoire désigne une histoire non séquentielle dans un monde virtuel [Sanchez, Lumbreras 97]. Un jeu de rôle est donc un exemple d’hyperhistoire. Dans le cadre de l’informatique cela signifie que l’histoire est construite par l’utilisateur au fur et à mesure, et non prévue exactement à l’avance comme dans le cas classique du récit. Une hyperhistoire est composée d’un environnement navigable, d’objets dynamiques (autonomes), de personnages (dont le protagoniste est incarné par l’utilisateur), d’un récit.
L’ensemble de ces aspects fait de l’hyperhistoire un outil très évolué dans la mesure où il permet de développer ce que nous appelons l’écriture interactive, c’est à dire la possibilité pour l’utilisateur de s’immiscer dans l’écriture de histoire à laquelle il participe. Notons ici la différence fondamentale avec les jeux d’aventures classiques dans lesquels l’utilisateur ne fait que redécouvrir une des histoires préalablement écrites par l’auteur. Dans le cas des hyperhistoires une trame est fournie à l’utilisateur (des événements amenés à se produire, un univers, des personnages existants et autonomes, …), mais c’est ce dernier qui les assemble, par sa navigation, pour une histoire dynamique et unique.
Le concept d’hyperhistoire encore rare dans le domaine des jeux, n’est pas exploité dans le domaine des didacticiels. Pourtant il permet de mettre en œuvre l’imagination, la créativité, la communication, et autant de notions composantes de l’intelligence et destinées à être développées par l’apprentissage.
Proposition
Pari …
La notion de fiction est largement sous-employée aujourd’hui dans le cadre des didacticiels. Je pense pourtant que c’est un atout primordial du support numérique, qui non seulement peut intégrer l’utilisateur dans une histoire, mais peut le faire passer d’un statut de spectateur à un statut d’écrivain. Le didacticiel qui permet l’intégration de son enseignement dans un récit, voire dans une hyperhistoire, non seulement renforce ses capacités d’apprentissage, mais offre les deux suppléments de valeur que sont l’implication de l’apprenant et le développement de son imagination.
Précautions …
Il ne suffit pas d’intégrer cet aspect comme un cadeau du nouveau support. L’apport n’est pas gratuit et il est nécessaire de le maîtriser afin que la fiction soit en phase avec l’apprentissage. Par exemple l’emploi d’une histoire loufoque et irréaliste dans le cadre de l’enseignement de la logique ou des mathématiques peut avoir des conséquences sur l’image que l’utilisateur aura de son travail. De même le récit aide à maintenir l’attention, mais encore une fois, on doit le maîtriser de façon à ne pas trop détendre ou tendre l’atmosphère de travail, à ne pas faire en sorte que l’histoire à laquelle participe l’utilisateur ne vienne empiéter sur les objectifs pédagogiques. On notera encore que l’utilisation d’une histoire, de personnages, de références plus ou moins subtils dans le cadre d’un apprentissage complexifie la lecture. A l’instar de la délinéarisation, c’est un atout potentiel qui est également source de confusion.
Pour terminer remarquons une difficulté supplémentaire, profondément culturelle, qui nous apparaît : Intégrer l’apprentissage dans la fiction ne fait pas sérieux ! Pourtant nous croyons que la fiction est un supplément important apporté par l’informatique didactique, un supplément dont on aurait tord de se priver, et ce quel que soit l’âge de l’utilisateur.
Organisation …
Nous proposons de découper l’évaluation de la fiction selon le niveau de récit auquel est intégré l’apprentissage, ainsi que le recours à des personnages et à une ambiance. Mon espoir est que ces notions soient très vite dépassées par d’autres plus complexes et issues d’une pratique réelle de la fiction en didactique informatique.
Critères d’évaluation …
 INCORPORER OrgPlusWOPX.4 

Du multimédia au polymedia
Problématique
Notion de relation …
Nous venons d’exposer les caractéristiques propres de chaque type de document et de leur scénarisation, les suppléments apportés par ceux-ci, les implications quant à la manière d’écrire et la manière de lire. Cependant un aspect fondamental a volontairement été ignoré jusqu’ici. En effet, en plus de leur usage indépendant, les documents prennent leur signification accompagnés par d’autres documents co-présents. Et l’ensemble tisse une toile de relations aussi essentielles dans la compréhension du didacticiel que la compréhension de chaque document.
Complémentarité et redondance …
Le cd-rom apporte un aspect profondément nouveau puisque qu’il permet de juxtaposer plusieurs formes d’appropriations différentes sur un même support numérique. L’utilisateur ne peut ignorer que plusieurs documents se manifestent en même temps, il cherche à les relier entre eux pour en dégager un sens global. La manifestation simultanée des documents peut avoir un effet de redondance ou bien de complémentarité. Dans le premier cas, plusieurs documents expriment des informations similaires afin d’aider l’utilisateur à comprendre par la répétition de la lecture sous des formes différentes. Dans le second cas, plusieurs documents expriment des informations complémentaires, chacun profitant au mieux de ses caractéristiques pour véhiculer chaque information.
Média et multi …
Le sens des informations véhiculées par le multimédia dépend donc des suppléments apportés par l’aspect média, puisque chaque forme d’appropriation est spécifique et que les choix effectués impliquent des interprétations différentes ; mais également des suppléments apportés par l’aspect multi, puisque le fait que les médias s’expriment simultanément est déterminant. Bruno Bachimont parle de l’évolution du multimédia dans lequel les documents sont juxtaposés les uns à côté des autres vers le polymédia dans lequel ils sont intégrés en un ensemble pensé et cohérent.
Organisation …
On propose d’étudier séparément les relations entre les documents eux-mêmes et les relations entre les documents et leur scénarisation.
 INCORPORER OrgPlusWOPX.4 
Relations Documents / Documents
Introduction
Exemples …
La redondance s’exprime par exemple lorsqu’un utilisateur visualise un texte écrit et qu’une voix off le lit en même temps.
Le problème de la complémentarité se pose lorsqu’un graphique accompagne un texte. Si le texte porte sur l’histoire d’un pays et qu’une carte l’accompagne, on voit bien que chaque document supporte une information différente, mais que ces deux informations participent à l’élaboration d’un même sens.
Symbiose …
La redondance et la complémentarité ne sont pas à séparer, au contraire. Généralement la juxtaposition des documents entraîne l’une et l’autre. Imaginons que nous visualisions une séquence vidéo, et que les instants importants soient doublés par des photographies accompagnées de texte : Il y a redondance puisque la même information est disponible sur le film et les photographies extraites ; mais il y a aussi complémentarité puisque le texte vient ajouter des informations à la séquence vidéo. On parlera de symbiose lorsque redondance et complémentarité sont réunies.
On propose une revue générale des principales relations entre les documents : Nous nous attacherons à celles ayant le plus de conséquences sur la symbiose recherchée.
Choix
Typologie …
L’utilisation d’un support multimédia impose de choisir entre les différentes formes de document disponibles, en fonction de l’objectif de communication. On retiendra les aspects suivants, devant conduire les choix:
Les choix d’adéquation, portant sur les modes de communication choisis (nous avons par exemple expliqué que l’on préfère le texte à la parole pour transmettre des informations complexes ou que les images didactiques permettent de transférer une information textuelle de façon plus rapide et plus efficace).
Les choix d’équilibrage, portant sur la sur ou sous utilisation d’une forme de document par rapport aux autres.
Les choix de sémantique, portant sur le pouvoir de représentation propre des documents (par exemple la photographie qui exprime le réalisme)
Eléments de choix …
Afin d’évaluer la pertinence des choix, on s’attache aux registres sur lesquels s’exprime le mieux chaque type de document [Pajon, Polloni 97] :
Ainsi les sons sont plutôt porteurs d’indicialité (ils désignent),
les images d’iconicité (elles montrent),
et les textes de symbolique (ils expliquent).
On peut également proposer d’associer les documents à l’utilisation pour laquelle ils sont le plus aptes, ainsi qu’à leurs divers avantages propres [Baticle 85] :
SupportUtilisationAvantageTextePour susciter la réflexion
Pour transmettre de l’information
Pour transmettre un messagePossibilité de relecture
Style au service du contenuParolePour transmettre de l’information (particulièrement rapide ou subjective)
Pour transmettre un messagePersuasion de la voixImagePour transmettre un messageGrande lisibilité
Pouvoir de l’imageDensité générale …
Le choix impose également une notion de sélection, il est important que les documents soient effectivement sélectionnés et non ajoutés les uns aux autres. Par exemple, indépendamment de la densité de chaque document pris séparément, il est bon de se demander si l’ensemble des documents simultanément présents ne représente pas trop d’informations distinctes pour l’utilisateur. Cette notion reste très subjective et dépendante du contexte pédagogique, on veillera néanmoins à garder une certaine vision de la densité informationnelle de l’ensemble.
Interactions
Une seconde approche des relations entre documents concerne celles qui existent au sein d’une même forme de document.
Interactions textuelles
Les interactions au niveau des documents textuels existent, nous les avons exprimées sous le terme de mise en page (voir «  RENV _Ref428701042 \h L’édition moderne », p. RENVOIPAGE _Ref428701044 \h 25). La mise en page peut-être vue comme un attribut du texte ou comme une façon de gérer les interactions textuelles, nous avons arbitrairement choisi la première solution.
Interactions visuelles
Les représentations visuelles doivent être gérées de façon spatiale et temporelle. Il faut définir une mise en page des images, qui permette de traiter leur présentation spatiale dans les meilleures conditions. De même, en ce qui concerne les images animées, il faut veiller aux interactions liées à la visualisation sur l’écran de plusieurs animations simultanées (on conseillera simplement de les éviter).
On peut enfin renvoyer à la sémantique des images pour rappeler que les images véhiculent des significations propres, il est donc important qu’elles ne se contredisent pas. Cela se manifeste par les choix de couleurs, de formes, mais également entre photographies (qui expriment réalisme et crédibilité) et dessins (qui laissent plus de possibilités d’interprétations, …).
Interactions sonores
Nous avons également déjà traité des interactions sonores (voir «  RENV _Ref428696274 \h Focalisation sonore … », p. RENVOIPAGE _Ref428696274 \h 50). La gestion de multiples sources sonores reste un élément difficile à maîtriser et les deux tendances actuelles sont le choix d’une seule source sonore à la fois (solution de facilité) ou bien inversement le bombardement inintelligible de multiples sons (solution technologiquement correcte).
On citera pour conclure la distinction entre les sons liés (c’est à dire convergeant pour former une même signification, relation de redondance) ou déliés (c’est à dire exprimant chacun une chose différente, relation de complémentarité) [Sorlin 92].
Texte et parole
L’abus de la parole …
La parole est beaucoup utilisée aujourd’hui dans les didacticiels, pour deux raisons principales :
Elle est une preuve de maîtrise technologique, liée au mythe de l’ordinateur qui parle
Elle permet de rendre le didacticiel moins rébarbatif
Néanmoins ces deux aspects ne sont pas valables, dans la mesure où la maîtrise technique de la parole n’est plus un exploit aujourd’hui (et l’effet de mode doit passer …) et le côté rébarbatif est susceptible de réapparaître très rapidement (il n’y a qu’à essayer pour s’en persuader !).
Notons toutefois que la parole est indispensable dans le cadre de l’enseignement aux jeunes enfants ou aux personnes ne sachant pas lire, dans le cadre de l’enseignement des langues, … Elle est donc tout à fait pertinente, en complément, dans des domaines particuliers, et non comme une généralité incontournable.
Le retour de l’écrit …
L’écriture est une représentation graphique de la parole, mais elle ne la reproduit pas, elle la rend visible, en s’appuyant pour cela sur deux modes complémentaires, le langage et le visuel [Christin 95]. « La communication par l’œil engendre des possibilités cognitives nouvelles par rapport à celles qu’offre la communication par la voix » [Goody 79]. Le texte n’est pas l’égal de la parole, en ce qui concerne le transfert d’informations complexes on peut même dire qu’il lui est supérieur.
La cohabitation texte / parole …
Le texte écrit est indispensable dans le cadre de l’apprentissage, et si le didacticiel repose sur le modèle du cours magistral ou de la présentation – indépendamment du fait que je pense que ce type de communication est très peu adapté aux didacticiels – il doit fournir à l’utilisateur un support papier complémentaire (le manuel scolaire) et lui permettre de prendre des notes pendant le cours. D’une façon plus générale, lors de l’évaluation on cherchera donc à savoir si des compléments écrits aux documents sonores sont disponibles.
Dans le cas où le didacticiel permet la lecture des documents écrits par une voix off, on cherchera à évaluer si l’utilisateur peut interrompre cette lecture et la reprendre quand bon lui semble (pour qu’il puisse réfléchir sur le texte quand il en a besoin). On appréciera également le fait de pouvoir contrôler la vitesse de lecture de façon à s’adapter au rythme de chacun.
Texte et images
Rôles …
Le texte et l’image reposent sur deux modes de communication différents qui se complètent. Leur usage est conditionné par des rôles propres [Cossette 83] :
ImageTexteLocalisationhémisphère droit du cerveau, siège du traitement des informations spatialesHémisphère gauche du cerveau, siège du langageExpressionEspaceTempsEtreAvoirUtilisationSynthétiqueAnalytiqueIntuitifLogiqueRedondance…
Dans le cadre de l’utilisation combinée de documents textuels et visuels, on préfère la relation de redondance à la relation de complémentarité. En effet les efforts combinés pour analyser la polysémie d’une image associée à la compréhension d’un texte sont peu souhaitables d’une façon générale (voir «  RENV _Ref428700504 \h Théorie des coûts », p. RENVOIPAGE _Ref428700504 \h 44). Afin de diminuer la densité d’information, il est donc préférable que le texte et l’image exprime le même message, afin de se renforcer et de s’expliquer mutuellement, formant ainsi une combinaison fortement communicative [Cossette 83].
Typologie des messages mixtes …
Les textes, tout comme les images, peuvent être soit connotatifs, soit dénotatifs. Il s’instaure des combinaisons particulières de connotation/dénotation entre textes et images, qui forment différents type de messages [Cossette 83] :
Image dénotativeImage connotativeTexte dénotatifMessage informatif
Information portée par les deux supports (exemple : notice technique)Message à légende
L’image est plus communicative (exemple : pubicité)Texte connotatifMessage à illustration
L’image est représentative, elle réalise le texte
(exemple : journalisme)Message poétique
Intervient sur un plan affectif (contre-exemple : images didactiques)Son et images
L’étude de l’audiovisuel (voir p. RENVOIPAGE _Ref428700739 \h 49) nous a montré l’importance d’une relation étroite entre son et image utilisés conjointement. L’approche cinématographique précise que le son doit illustrer l’image [Sorlin 92], et de toute façon rester en accord avec elle [Gaudreault, Jost 91]. Cette subordination du son à l’image reste discutable, néanmoins on conviendra de la nécessité de messages similaires entre les deux types de documents.
Un autre problème, plus technique, des didacticiels est la synchronisation entre le son et les animations. Ces deux documents ayant un caractère temporel, il est nécessaire qu’ils soient correctement calés, sans quoi la compréhension risque d’être rendue plus difficile.
Proposition
Les interactions entre les documents participent donc des potentialités de signification globale de l’information et l’écriture est conditionnée par la maîtrise, entre autres il est vrai, des concepts que nous avons exprimés. Si les documents sont trop redondants entre eux, ils risquent de générer un ennui de la part de l’utilisateur, et donc une perte d’attention. Inversement s’ils ne le sont pas assez, l’utilité du support numérique se perd, et la confusion tend à s’installer. De même la maîtrise de la complémentarité est nécessaire, afin de savoir dans quelle mesure le texte, l’image ou le son, sont plus appropriés à tel ou tel type d’information, dans tel ou tel type de contexte. On propose d’évaluer les relations document/document selon le schéma de critères suivants, en relevant principalement la présence de la complémentarité, de la redondance ou de la symbiose :
 INCORPORER OrgPlusWOPX.4 
Relations Documents / Scénarisation
Introduction
Le second type de relation que nous désirons traiter est d’une nature différente, et moins évidente que le relations entre les documents. La scénarisation représente l’agencement des documents selon les différentes approches que sont la navigation, l’interactivité, la personnalisation et la fiction, et en tant que telle ajoute des informations au didacticiel, et aux documents qui le composent. Néanmoins nous n’avons pas traité la relation directe entre ces documents et leur scénarisation.
Par exemple nous avons parlé de rythme au niveau de la gestion de la structure temporelle et de rythme des vidéo et des sons, mais pas de la relation entre ces deux formes de rythme.
C’est l’ensemble de ces aspects que nous aimerions aborder dans cette partie. Nous ne traiterons que quelques exemples (le rythme pour la scénarisation, l’ambiance pour la fiction et l’émotion pour l’interactivité), sur le même modèle que les relations entre documents. Notre ambition est plus de donner un aperçu de la problématique pour ces relations encore à définir, plutôt qu’une liste exhaustive.
Rythme
L’apport de l’audiovisuel…
Nous avons déjà évoqué l’exemple de la double rythmique de la gestion temporelle au sein de la navigation et des séquences animées et sonores. Nous utiliserons une nouvelle fois l’expérience du cinéma : Dans ce contexte les plans rapides, les séquences courtes sont généralement liés aux musiques rapides et aux évènements brusques [Sorlin 92]. Dans le cas des didacticiels on retiendra cette correspondance, en l’adaptant à la notion de correspondance avec le rythme de l’apprentissage : Par exemple une musique rapide peut contribuer à renforcer l’aspect temps limité d’un exercice, alors qu’une séquence d’animation très lente pourra exprimer le fait que la compréhension est difficile.
Un ensemble complexe …
Le rythme doit donc être géré comme un ensemble dépendant de nombreux paramètres et en tant que tel se charger d’une signification globale. Précisons que dans le cadre multimédia scénarisé le rythme se retrouve au niveau :
des séquences filmées
des sons (musique et parole essentiellement)
de la gestion du temps de navigation
mais aussi des couleurs, des formes, de la luminosité, … (voir «  RENV _Ref428728779 \h Sémantique de l’image », p. RENVOIPAGE _Ref428728807 \h 35)
de la rédaction du texte (longueur des phrases par exemple)
…
Ambiance
La fiction et les documents sont également en relation étroite. Au cinéma les bruitages et la musique, ainsi que des images particulièrement fortes, sont généralement utilisés au moment de la culmination ou des différentes montées dramatiques. En littérature les adjectifs les plus forts sont employés lorsque le récit rebondit, afin de renforcer le message auprès du lecteur. Il en est de même au niveau de la fiction dans les didacticiels : L’ambiance ainsi que les temps forts (des changements de chapitre du point de vue de l’apprentissage, mais également du point de vue de la quête) doivent être gérés en fonction des documents.
On citera les quelques éléments suivants :
Les connotations sémantiques du graphisme et des images doivent être en lien avec l’ambiance imposée dans le didacticiel (ainsi si le thème est futuriste, on préfèrera les images de synthèse aux photographies classiques)
Le son, et notamment les bruitages, sont évocateusr de l’ambiance (tout comme au cinéma, le tonnerre sera utilisé pour introduire une ambiance inquiétante et les violons pour plus d’intimité)
Le texte a également son importance, et sera plus proche de la fiction s’il y est adapté, que s’il est d’un style tout à fait classique (si le thème est médiéval, l’usage du vieux français n’est peut-être pas à conseiller, néanmoins l’introduction parcimonieuse de vocabulaire propre à l’époque peut contribuer à renforcer l’ambiance)
…
Interactivité
Choix de documents et activité …
L’interactivité est totalement dépendante des documents, dans le sens où c’est à travers eux que l’utilisateur agira. Mais on peut également considérer l’interactivité à un niveau inférieur : En effet, les documents sont plus ou moins passifs, et ceci influence l’implication de l’utilisateur. Par exemple le faite de lire est plus actif que le fait d’écouter, le choix entre parole et texte influe donc sur l’implication de l’utilisateur.
Emotion …
A titre d’illustration nous prendrons le cas de l’interactivité émotionnelle. Le rôle de la musique est avant tout déterminant sur l’émotion que ressent l’utilisateur [Kivy 90] (voir «  RENV _Ref428730575 \h Documents sonores », p. RENVOIPAGE _Ref428730576 \h 48). Mais le fait d’employer des images plus ou moins évocatrices (images choc), le fait d’interpeller l’utilisateur à travers des animations (clips), le style des textes (journalistique, romancé, …) participent également à l’instauration d’une émotion ressentie globalement dans le didacticiel.
Propositions
Critères d’évaluation …
Notons que la personnalisation n’intervient pas dans les relations, étant donné qu’il s’agit déjà d’un concept transversal : Il est question de personnaliser les documents, la structure navigationnelle, les modalités d’interaction ou la fiction. On propose d’évaluer redondance et complémentarité dans le cadre des relations entre documents et scénarisation selon le schéma suivant :
 INCORPORER OrgPlusWOPX.4 
Représentation générale …
 INCORPORER Word.Picture.8 On peut également utiliser la représentation ci-contre pour exprimer les relations dans l’ensemble du didacticiel

Rendre compte des impressions générales
Problématique
Introduction
L’existence d’impressions générales …
La prise en compte des documents et de la scénarisation, ainsi que de leur relations, est à la base de l’évaluation de la composition multimédia. Mais nous pensons qu’au-delà de ses rapports directs à l’information, le multimédia intègre un élément essentiel, qui tient fondamentalement de la forme, et qui se manifeste par des impressions générales qui s’imposent à l’utilisateur. Des expériences nous ont permis d’effectuer le constat suivant : Lorsqu’un utilisateur est placé en situation de découverte d’un didacticiel, il se forge une première impression sur une très courte durée d’utilisation (de l’ordre de quelques minutes).
On pourrait prendre l’analogie avec un professeur. Lorsque ses élèves entrent pour la première fois dans sa classe, ils le cataloguent immédiatement. Il a l’air sympa, dur, beau, intelligent, ennuyeux, … Ils n’ont pas même écouté son premier cours, ils ont déjà de nombreux qualificatifs à son égard. De la même façon un utilisateur qui découvre un logiciel didactique sera capable de le qualifier avant même de vraiment l’utiliser.
Objectif …
Après avoir constaté empiriquement l’existence de ces impressions, elles ont pu être mises en relation avec des théories les confirmant et les précisant, comme celle de Gibson, étudiée dans le paragraphe suivant.
Précisons dès à présent que notre objet n’est pas de déterminer quelles sont les bonnes impressions globales et quelles sont les mauvaises a priori, cela n’aurait pas de sens, mais de donner des moyens de mieux objectiver ces impressions pour ensuite qu’elles puissent être prises en compte de façon plus consciente dans un processus d’évaluation, en fonction d’un contexte pédagogique donné.
Organisation …
Les impressions globales découlent principalement de la composition du document (on pourrait les étendre aux thèmes ergonomique et didactique, mais dans une moindre mesure) et nous proposons la représentation suivante, qui avec les conventions adoptées jusque là permettent d’exprimer que ces impressions sont issues des documents, de la scénarisation et des relations, que nous avons étudiés jusqu’à présent.
 INCORPORER OrgPlusWOPX.4 
Intérêt de l’étude des impressions générales
Ces impressions générales sont fondamentales dans nos travaux, car elles influencent de façon notable l’utilisation des logiciels. Nous proposons une typologie des situations dans lesquelles elles interviennent particulièrement.
Dans une problématique de choix …
Les impressions générales sont instinctives et se manifestent rapidement, cela signifie que dans une problématique de choix, où beaucoup de logiciels doivent être évalués en peu de temps, les premières impressions auront une influence. Il est donc nécessaire de comprendre sur quoi elles se fondent, de comprendre ce qu’elles expriment, afin de ne pas porter de jugements trop hâtifs et trop personnels.
Dans une problématique d’utilisation …
Nous expliquerons que les impressions globales relèvent, en partie au moins, d’une certaine objectivité. Cela signifie que si elles se sont manifestées une fois, elles se manifesteront de nouveau à différents stades et joueront donc un rôle dans l’ensemble de la phase d’utilisation (Si le logiciel nous a paru une première fois « sombre », on aura tendance à éprouver ce sentiment chaque fois que le logiciel sera mis en marche).
Dans une problématique pédagogique …
Dans une situation d’apprentissage durable, les impressions étant persistantes, elles maintiendront leur influence tout au long de l’utilisation et ces impressions influenceront la façon dont l’utilisateur apprendra. Imaginons un très bon logiciel de formation, qui au début est apparu un peu « léger » à l’utilisateur (par exemple parce qu’il y avait trop d’images), celui-ci restera avec cette impression de simplicité même arrivé à des sections très complexes, ce qui peut porter entrave à son attention !
Approche Empirique
Introduction
Nous avons donc constaté, à travers quatre expériences distinctes (voir «  RENV _Ref428735215 \h Approche empirique » p. RENVOIPAGE _Ref428735212 \h 19, pour une description de ces expériences), que l’utilisateur développait des impressions générales à la découverte d’un logiciel multimédia didactique. Ce constat est à la base de notre réflexion, aussi convient-il de résumer les résultats obtenus lors de ces expériences.
Description des expériences
Première expérience …
Le corpus réalisé par les évaluateurs de Prisméo a été exploité en extrayant les différentes qualifications utilisées par les évaluateurs pour exprimer leurs impressions générales. Nous avons avant tout constaté :
L’utilisation d’un vocabulaire commun : Un ensemble relativement restreint de domaines sont invoqués par les évaluateurs pour exprimer leurs impressions (couleur, gaieté, originalité, agressivité, ennui, difficulté, …).
Une forte concordance des appréciations générales : Sombre (90%), triste (60%), agréable (40%), agressif (30%), … Avec bien entendu un certain taux de divergence entre les personnes prises une à une [Hû & al 98c].
Deuxième expérience …
La centaine d’évaluations du site québécois nous a permis les observations suivantes :
Les qualificatifs utilisés sont redondants et les domaines invoqués sont en nombre restreint, même dans le cas présent d’une centaine de logiciels différents et d’évaluateurs distincts.
Les impressions globales s’attachent beaucoup aux aspects média et scénarisation.
Cette analyse confirme la précédente, et nous permet de penser à la possibilité d’une description canonique des impressions globales dans notre domaine, puisque indépendamment des logiciels et des évaluateurs, les qualificatifs utilisés sont du même ordre.
Troisième expérience …
Les quatre évaluations courtes que nous avons menées ont permis de confirmer que les impressions générales sont concordantes, et ce malgré le court temps d’utilisation du logiciel.
Etudes de cas …
Les logiciels que j’ai testés m’ont appris que l’on se fixe une opinion rapidement, à partir des images, des sons, des couleurs, du style de l’application, et qu’il est difficile de sortir de ces impressions premières. Un logiciel qui paraît bon, le reste même après qu’on se soit effectivement rendu compte qu’il est mauvais et inversement.
Caractérisation
Ces résultats nous permettent de proposer la caractérisation empirique des impressions générales suivante :
Instinctives …
Les impressions générales ne sont pas fondées sur une réflexion de l’utilisateur. En général celui-ci répond « c’est bien » ou « ce n’est pas bien » (troisième expérience), sans immédiatement l’expliquer. De plus ces impressions sont ressenties très rapidement, avant que l’utilisateur puisse se poser des questions sur le logiciel, le comparer à d’autres, l’analyser. Elles semblent être instinctives.
Descriptibles …
Lorsque les utilisateurs sont amenés à détailler plus précisément ce pourquoi ils trouvent au premier abord un logiciel « bien » ou « pas bien », ils sont capables de qualifier leurs impressions de façon plus précise. Les termes utilisés sont relativement génériques (par exemple luminosité, chaleur, gaieté, modernité, complexité, …).
Homogènes …
Ces impressions, bien que subjectives, se recoupent très bien lorsque plusieurs utilisateurs (de contexte culturel similaire, même formation notamment) utilisent le même logiciel dans les mêmes conditions (première et troisième expérience). Des divergences peuvent bien entendu être observées, mais il est facilement possible de dégager des tendances fortes, et donc objectives. Ces tendances peuvent être exprimées par quantification des termes que nous avons cités plus haut (plutôt sombre, assez drôle, très complexe, …).
Persistantes …
Les impressions ressenties se maintiennent au cours de différentes utilisations. Elles peuvent se modifier néanmoins, à partir d’un certain temps, si la qualité du logiciel sur d’autres aspects (pédagogie, ergonomie, technique, …) vient en opposition avec ces impressions (études de cas). On peut donc distinguer deux niveaux dans les impressions globales : Un premier niveau correspond aux toutes premières impressions (qui persisteront pendant un certain temps), et un second correspond à une utilisation prolongée et à des impressions plus stables. Dans ce second niveau interviendront notamment l’ergonomie d’utilisation (l’utilisateur agacé par des manipulations difficile aura tendance à trouver le logiciel complexe, malgré peut-être une impression de simplicité au premier abord) et le contenu pédagogique (l’utilisateur qui ne comprend pas ce dont on lui parle ne pourra trouver le logiciel simple, malgré une éventuelle aisance d’utilisation).
Critères d’appréciation
Introduction …
Nous avons utilisé les deux principaux corpus dont nous disposions (issus des première et deuxième expériences), afin de déterminer les qualifications utilisées par les évaluateurs pour exprimer de façon instinctive les impressions générales. Concernant le premier corpus, nous ne disposions que des textes manuscrits, aussi nous nous sommes limités à une exploitation manuelle des résultats, à savoir la recherche, le regroupement et le classement des concepts voisins. Par contre, concernant le deuxième corpus, nous avons appliqué en plus un programme d’indexation automatique développé dans le laboratoire pour améliorer les processus de recherche d’informations sur Internet [Lamrous, Trigano 96]. L’indexation nous a livré la liste des mots du corpus regroupés par leur racine (simple, simplicité, simplement ( simpl) et triés en fonction d’un indice de pertinence lié aux statistiques d’apparition du mot dans le corpus. Nous avons enfin extrait manuellement de cette liste ce qui avait trait à la caractérisation des impressions générales.
Résultats …
Premier corpus
Exploitation manuelleDeuxième corpus
Exploitation manuelleDeuxième corpus
Exploitation semi-automatiqueTriste
Séduisant
Chaleureux
Simple
Coloré
Agréables
Original
Discret
Moderne
Pertinent
AdaptéGai
Agressif
Ennuyeux
Compliqué
Terne
Désagréable
Banal
Surchargé
Classique
Impertinent
InadaptéTriste
Sérieux
Adulte
Attrayant
Vivant
Stimulant
Positif
Clair
Coloré
Agréable
Pauvre
Organisé
Equilibré
Adaptable
Réaliste
Précis
Contrasté
SoignéGai
Drôle
Enfantin
Ennuyeux
Mort
Reposant
Négatif
Complexe
Terne
Désagréable
Riche
Désorganisé
Déséquilibré
Fermé
Irréel
Vague
Homogène
BâcléBon
Attrayant
Stimulant
Rapide
Dynamique
Actif
Objectif
Pertinent
Ordinaire
Original
Nouveau
Modifiable
Difficile
Simple
Clair
Enfantin
Coloré
Ludique
Particulier
Organisé
LogiqueMauvais
Fastidieux
Endormant
Lent
Monotone
Passif
Subjectif
Impertinent
Extraordinaire
Banal
Ancien
Rigide
Facile
Dense
Complexe
Intellectuel
Terne
Sérieux
Commun
Désorganisé
IllogiqueLes affordances selon Gibson
Préambule
James J. Gibson propose une théorie dans « the ecological approach to visual perception » [Gibson 79], que nous rapprocherons des constats que nous avons énoncés afin de proposer une analyse possible des impressions générales sur la base de la théorie des affordances. Les études de Gibson se situent dans un contexte écologique, c’est à dire de rapports entre les animaux, que nous restreindrons ici aux hommes, et leur environnement. Son étude est également centrée sur la perception visuelle, il ne traite presque pas les autres formes de perception : Il définit l’information comme relevant des champs sonores, odorants et surtout lumineux [p.307]. Nous discuterons quelque peu cette assertion en conclusion.
On notera enfin que Gibson définit lui-même son approche comme radicale et en rupture par rapport aux autres théories. Il réfute par exemple de nombreuses théories classiques de la perception de l’information [p.252].
Définitions
Environnement …
L’environnement est ce qui entoure l’homme qui perçoit et agit. On considère ici qu’il s’agit de ce que l’homme perçoit (visuellement), et non du monde physique. Ceci implique que l’homme et son environnement forment une paire complémentaire : l’environnement n’est que s’il entoure effectivement l’homme et l’homme ne perçoit que dans un environnement.
Affordances …
Les affordances représentent la vision de l’homme sur ce que l’environnement offre. Les affordances sont, dans le processus de perception visuelle, le lien entre l’homme et son environnement.
 INCORPORER Word.Picture.8 
Perception …
Le processus de perception consiste en la réception de certaines des affordances d’un environnement par un individu. Cela implique en outre que l’information reçue n’est pas purement visuelle, mais également signifiante.
Exemples
Gibson propose plusieurs exemples typiques pour préciser son point de vue, puis d’autres au travers de ses différentes définitions. Nous proposons ici d’en citer quelques-uns pour situer la notion d’affordance.
ObjetAffordancesL’airRespiration, vision à travers, …La terreSupport stable, …L’eauBoisson, humidité, …Le feuChaleur, lumière, …Surfaces horizontales (Sol)Equilibre, déplacement, …Surfaces verticales (Mur)Barrière, …Objet de taille raisonnable (Stylo)Prendre, déplacer, …Objet long et mince (Bâton)Frapper, …Objet aiguisé (Couteau)Couper, …Notons que les hommes aussi ont des affordances pour les autres hommes, l’attente d’une interaction notamment. Par exemple si je parle à un homme, j’attends qu’il me réponde (c’est l’affordance que je perçois de lui).
Propriétés
A travers les exemples que nos venons de citer, il est possible de dégager certaines propriétés caractéristiques des affordances.
Subjectivité et objectivit項
Les affordances sont à la fois objectives (liées à l’environnement) et subjectives (liées à la psychologie humaine). De par cette dualité, cela n’a pas de sens de vouloir les mesurer au sens physique, c’est à dire par une valeur objective, indépendante de l’observateur.
Il est donc important de noter que les affordances ne sont ni une réalité physique ou physiologique, ni un état issu de l’expérience de l’observateur. Selon Gibson : « La perception n’est pas un acte mental. Ce n’est pas non plus un acte corporel. Percevoir est un acte psychosomatique, pas de l’esprit ou du corps, mais d’un observateur vivant ». Les affordances existent de façon intrinsèque dans l’environnement, pas uniquement lorsque quelqu’un les perçoit, elles sont inscrites dans les objets qui composent l’environnement. Mais elles auront un sens pour un observateur qui les percevra.
Multiplicité et spécificit項
Un objet a une infinité d’affordances, chaque individu en perçoit une partie, qui dépend notamment de son espèce (humains, mammifères, poissons, …) et également de son individualité. Par exemple l’eau exprime la respiration pour les poissons, pas pour les mammifères ; ou encore une branche d’arbre exprimera la stabilité pour un oiseau, mais pas pour un animal lourd.
La notion de multiplicité implique qu’un environnement donné offre plusieurs interprétations, ou visions, fonctions des affordances qu’il propose et de celui qui les perçoit. Certaines affordances notamment peuvent ne pas être perçues par certains individus d’une espèce et perçues par d’autres.
Appréciation …
Les affordances peuvent être positives, négatives ou neutres pour un individu. Par exemple une corniche de montagne a pour affordance le fait de pouvoir avancer dessus (ce qui peut être neutre ou positif si l’on cherche justement à traverser la montagne) et le fait de tomber (ce qui est plutôt négatif).
Action …
La perception des affordances est en relation étroite avec l’action. En effet une affordance véhicule une propriété de l’objet qui propose des actions possibles liées à cet objet. Dans nos exemples nous avions vu que l’air avait pour affordance la respiration ou un objet le fait d’être pris. Les affordances agissent à un niveau inférieur à la connaissance, l’homme qui passe sur un pont ne pense pas que le pont est construit en métal, donc qu’il pourra supporter son poids et donc qu’il peut passer. Mais la surface horizontale de métal exprime le passage possible pour un homme. Les affordances contiennent directement les actions possibles, leur perception permet de déterminer ce qu’il faut faire et ne pas faire.
Différents niveaux d’affordances …
Les affordances s’expriment à différents niveaux : Au niveau du milieu (l’air par exemple), des substances (fluides, solides, …), des surfaces (horizontales, verticales, …), des objets (bâton, stylo, …) et enfin des autres individus. Selon le niveau les affordances sont plus nombreuses et élaborées, mais le mécanisme de perception reste le même.
Un processus continu et actif …
Les affordances existent indépendamment de l’observateur. L’environnement envoie donc un flux continu d’affordances, qui sont perçues ou non par des individus et l’individu ne cesse jamais de recevoir des affordances. De plus, percevoir est selon Gibson un processus actif de la part de l’individu : Ce n’est pas une « apparence dans le théâtre de sa conscience », mais une expérimentation des objets. D’ailleurs Gibson parle de « cueillir » l’information plutôt que la recevoir.
Désinformation …
Les affordances peuvent être mal perçues et conduire à des erreurs d’interprétation sur l’environnement. Par exemple la mauvaise perception des affordances d’une porte vitrée peut conduire à se cogner dessus. Inversement une plaque de glace en guise de pont pour passer un précipice risque de mal exprimer l’affordance du support pour un humain.
Les affordances n’expriment que ce qui est perçu et non ce qui est, et donc peuvent fausser le jugement d’un individu. Les deux exemples qui précèdent montre dans les deux cas une mauvaise perception des affordances du verre (barrière, support), assimilées aux affordances de l’air (déplacement libre). Gibson conclut que la mauvaise perception des affordances conduit à effectuer des actions inappropriées.
Autres notions
Lieu …
Le lieu est une partie de l’environnement dans laquelle se situe l’individu. L’ensemble des lieux forme l’environnement. Le lieu est un concept intéressant dans l’apprentissage de l’individu : C’est l’espace dans lequel il apprend à distinguer les affordances.
Niche …
Une niche est un lieu particulier dans lequel l’ensemble des affordances conviennent globalement à un groupe de personnes. Il ne s’agit pas d’un absolu, la totalité des affordances ne convient pas à chaque individu du groupe, mais globalement les mêmes affordances sont perçues par le groupe et globalement la même appréciation (positive) en est faite.
Substances …
Les objets et les lieux sont composés de substances (liquides, solides, gazeuses, …). Ces substances ont différentes affordances propres, qui dépendent de leur couleur, de leur texture, …
Evénements …
L’environnement est composé d’aspects persistants et changeants. Les événements marquent des changements (de substance, de surface, …) dans l’environnement.
Objets attachés …
Les objets attachés sont des éléments d’un lieu qui ne peuvent en être séparés, ce sont des objets situés. On les oppose aux objets détachés, qui peuvent être déplacés d’un lieu à l’autre [p.241].
Synthèse
Résum項
Les affordances sont donc une expression de ce que propose l’environnement à un individu. Ces affordances ne sont ni une manifestation objective du milieu physique, ni une représentation subjective de l’individu. Le processus de perception est composé par un flux continu d’affordances variées et plus ou moins riches, dont certaines seulement seront spécifiquement recueillies par un individu actif. Les affordances véhiculent des propriétés de l’environnement, et conduisent l’observateur à des actions corrélées à son appréciation des affordances. Notons enfin que les affordances sont des expressions visuelles qui peuvent être mal perçues par un individu et conduire à des réactions incorrectes.
Schéma récapitulatif …
 INCORPORER Word.Picture.8 
Imaginons une surface horizontale en verre : Elle propose de nombreuses affordances, le support pour la surface, le froid, la fragilité pour la substance, … Un individu donné, un homme en l’occurrence, recueille certaines de ces affordances, par exemple le support et la fragilité. Il perçoit les affordances et estime que le support est insuffisant pour son poids, il agit en conséquence (en contournant la surface par exemple). Notons qu’il peut y avoir désinformation puisque la surface est peut-être largement capable de soutenir son poids.
Application aux didacticiels
Introduction …
Nous avions recensé empiriquement l’existence d’impressions générales chez l’utilisateur de logiciels multimédia didactiques, qui influençaient son utilisation. Notre hypothèse de travail est que ces impressions découlent des affordances de Gibson. Nous pensons que les affordances du didacticiel proposent à l’utilisateur des impressions générales qui conditionnent son action, l’utilisation du logiciel. En premier lieu, les impressions que nous avions décrites étaient instinctives, ce qui correspond au niveau de la perception auquel se situent les affordances (et non au niveau de la connaissance). Nous les avions décrites comme subjectives, mais présentant une certaine homogénéité pour des personnes en situation similaire ce qui correspond à la nature même des affordances. Nous nous proposons dans cette partie d’approfondir l’analogie, afin de proposer une méthode de caractérisation des affordances dans le contexte du multimédia didactique.
Recensement de démarches équivalentes
La théorie des affordances est issue notamment des travaux effectués par les gestaltistes. Ces derniers posaient que les objets exprimaient ce qu’ils étaient (un fruit dit « mange-moi »). L’ergonomie des objets techniques, puis des interfaces graphiques, s’est inspirée de ces théories.
De même, de nombreux chercheurs se sont servis des propositions de Gibson pour leurs travaux. On citera quelques travaux récents, à titre d’exemple :
Chez Xerox, des travaux sont effectués sur les affordances du papier et des nouvelles technologies, notamment dans le but d’étudier pourquoi le papier reste le support de travail privilégié dans tous les secteurs, malgré la présence des nouvelles technologies.
John T. Sanders propose une vision écologique, au sens de Gibson, des sciences cognitives et de la philosophie.
George W. Grace, à l’University of Hawaii, propose l’utilisation des lieux et des affordances dans un contexte linguistique.
Bill Mitchell et Mitch Kapor, au MIT, utilisent les concepts d’affordances et de contraintes dans le cadre des nouvelles technologies (multimédia et réseaux).
Hypothèses
Proposition …
Le logiciel multimédia didactique propose des affordances à l’utilisateur. L’utilisateur perçoit les affordances, les apprécie (à travers des impressions générales) et agit en fonction.
Justification …
Nous avons tenté de montrer que ces impressions présentent des analogies avec les affordances de Gibson. Néanmoins le logiciel présente une singularité forte par rapport à l’étude de Gibson : Alors que ce dernier pose sa théorie sur les bases d’une étude écologique, composée d’environnements et d’animaux bien réels, nous proposons de l’utiliser dans un cadre dans lequel la perception s’applique à des objets virtuels, c’est à dire à des images d’objets. Néanmoins Gibson (avec notamment l’exemple du télescope) est d’accord sur le fait que la vision d’un objet ou de son image est soumise à la même forme d’interprétation [p.259]. Nous sommes donc en droit de penser que la théorie des affordances reste entièrement valable dans notre cadre.
Transposition des concepts …
Nous proposons d’appliquer la théorie des affordances de la façon suivante (en référence aux concepts déjà énoncés) :
L’interface du logiciel (c’est à dire sa partie visible par l’utilisateur, par opposition aux calculs internes que l’utilisateur ignore) est une partie d’un environnement. Une partie d’un environnement au sens informatique, mais également au sens de Gibson, c’est à dire un lieu.
Comme tout lieu, il propose des affordances. L’utilisateur perçoit ces affordances, agit en conséquence. La notion de lieu est intéressante dans la mesure où Gibson le pose comme un des théâtres fondamentaux de l’apprentissage. Dans notre cas particulièrement, l’utilisateur est en effet immergé dans un lieu pour réaliser un apprentissage.
Il est intéressant que le lieu, le logiciel, soit une niche, c’est à dire un lieu privilégié dans lequel l’ensemble d’une classe d’utilisateurs perçoit des affordances positives pour leur tâche.
Les images dispensées par le logiciel sont des objets attachés, qui n’existent que dans le lieu pour lequel ils ont été créés. La notion de substance est également conservée, les images sont composées de couleurs, de textures, analogues à celles des objets réels. En intégrant les autres médias (le son notamment), on conviendra que le didacticiel, le lieu, contient des objets attachés (virtuels) composés de substances.
L’événement est un changement de substance qui apporte également des affordances. Le logiciel multimédia est dynamique, les médias se succèdent, se complètent, se remplacent : Il existe également des événements qui marquent des transitions d’état. Nous avons appelé ce concept scénarisation dans notre contexte. Il consiste en l’agencement des média pour proposer à l’utilisateur une structure dynamique dans laquelle il est en mesure d’interagir. Nous avions également noté, qu’à l’instar de l’impact des média, la scénarisation influence les impressions générales. La notion d’événement chez Gibson nous paraît répondre à l’aspect scénarisation du didacticiel.
Apport des affordances à l’évaluation
Proposition …
Rappelons que notre objectif général est d’évaluer des didacticiel. Nous désirons donc caractériser les impressions générales de l’utilisateur afin de juger si elles correspondent à un objectif d’apprentissage. Afin de parvenir à nos fins nous proposons de transposer le problème au niveau des affordances.
Notre objectif devient alors la caractérisation des affordances pour l’évaluation d’une niche. L’apport est considérable dans la mesure où les impressions générales sont une expression subjective de l’état d’un utilisateur, ce qui n’est pas maîtrisable au niveau d’un logiciel destiné à une classe d’utilisateur. Par contre les affordances ont la propriété d’émaner de l’utilisateur, mais aussi de l’environnement, ce qui nous permet de proposer une évaluation utilisable pour la partie objective. De plus la notion de niche nous permet de gérer les affordances au niveau d’un groupe présentant des caractéristiques communes, et non plus d’un seul individu.
L’évaluateur …
Notre ambition n’est pas de présenter un système absolu, mais de proposer à l’évaluateur une approche à base d’affordances afin qu’il appréhende mieux le logiciel et afin d’objectiver son évaluation. Néanmoins l’évaluateur devra posséder certaines spécificités pour être valable dans le cadre de notre méthode :
Une capacité d’abstraction : Les affordances ne dépendent que partiellement de l’environnement, l’autre partie résultant de l’utilisateur. L’évaluateur doit donc être capable de s’abstraire de son appréciation personnelle pour se mettre au niveau de l’appréciation de l’ensemble de la classe d’utilisateurs. La perception des affordances est partielle et partiale pour chaque observateur, l’évaluateur devra donc chercher à cueillir au mieux les affordances afin d’accroître l’information et d’éviter les risques de désinformation. Ceci est possible dans la mesure où le processus de perception des affordances est actif, et dépend donc de la capacité et de la volonté de l’observateur.
Une connaissance approfondie du contexte pédagogique : L’objet de notre méthode est de permettre de caractériser les affordances de façon standardisée afin de permettre à un évaluateur de déterminer si elles concordent avec les objectifs pédagogiques. Nous n’avons pas su proposer un système indépendant de l’évaluateur, en effet il est impossible de caractériser l’ensemble des situations d’apprentissage et de déterminer pour chacune d’elles les affordances adéquates. Par contre un évaluateur qui connaît bien le public cible et la matière à enseigner sera en mesure de vérifier si les affordances recensées correspondent aux objectifs. C’est le cas par exemple d’un enseignant par rapport à ses élèves.
Représentation graphique …
 INCORPORER Word.Picture.8 
Conclusions
Résumé …
La théorie des affordances développée par Gibson nous a permis d’appréhender le problème posé par la caractérisation des impressions générales ressenties par un utilisateur devant un didacticiel. Le problème ne peut être totalement résolu dans la mesure où chacun dispose de son individualité et percevra des affordances différentes. Néanmoins nous pensons qu’il est possible de déterminer avec une certaine réussite l’adéquation des affordances d’une interface par rapport à des objectifs pédagogiques. Les expériences que nous mènerons à partir de notre questionnaire nous permettrons de valider ou d’infirmer ce pari.
Extension …
Gibson a centré son approche sur la perception visuelle, essentielle de son point de vue. Nous pensons que si la vision est certainement importante dans le cadre de la perception, d’autres sens, comme l’ouïe jouent un rôle qu’on ne peut ignorer. Les affordances d’un environnement sont certainement aussi sonores ou tactiles que visuelles.
Les aveugles par exemple fonctionnent sur un schéma de perception privé de la vision et appréhende néanmoins les choses selon une approche par affordances. Pour reprendre le contexte écologique de Gibson, il est également des insectes, comme les araignées, qui réagissent aux vibrations plutôt qu’à la lumière.
Notre proposition est donc d’étendre, dans le contexte du multimédia, la théorie des affordances à l’aspect sonore. La musique est un bon exemple dans la mesure où elle génère des réactions immédiates sur celui qui l’entend, et que ces réactions sont à la fois le fruit des caractéristiques intrinsèques de la musique et le fruit de l’état d’esprit dans lequel se trouve celui qui écoute [Kivy 89], schéma qui semble bien correspondre à celui des affordances. Par conséquent notre questionnaire évalue également les aspects sonores et les intègre dans la caractérisation des affordances.
Autres approches
Dernières considérations visuelles
Approche visuelle simplifiée …
Abraham Moles [Costa, Moles 90] propose un schéma simplifié de la perception visuelle, dans l’optique de proposer des solutions pour mieux construire les messages graphiques. Ce modèle est constitué d’une mémoire de travail (à court terme) alimentée par des images visuelles et une mémoire de stockage (à long terme) composée de la culture antérieure et des expériences du passé. La mémoire de travail est une machine à voir, tandis que la mémoire de stockage est une mémoire sélective, qui filtre la réalité selon un point de vue propre.
Ce modèle volontairement simple, est critiquable du point de vue philosophique ou psychologique, mais il possède une certaine correspondance avec la réalité et est opérationnel, ce qui justifie son emploi dans certains cas. Notons que dans des domaines tels que l’intelligence artificielle on utilise également des versions simplifiées de la représentation visuelle pour en permettre l’opérationalisation.
Critiques …
Pierre Livet [Livet 88] propose une typologie critique des approches dans le domaine de la représentation des connaissances et de la perception visuelle. Nous retiendrons les trois erreurs typiques qu’il énonce, ainsi que les critiques apportées à la théorie de Gibson :
Erreur de la représentation tableau : Elle exprime une confusion entre la notion de perception et l’image rétinienne que l’on obtient. Cette erreur est évitée par Gibson du fait que l’image n’est pas pour lui seulement physique, sinon un ensemble d’affordances.
Erreur de la représentation logico-linguistique : Egalement critiquée par Gibson, cette erreur est liée au fait que la perception ne procède pas nécessairement d’une réflexion, mais est directe et immédiate.
Erreur de l’image : Cette erreur masque les procédures de traitement (ce qui est perçu, pourquoi, comment), et donc n’explique pas l’ensemble du processus de perception.
Ces considérations permettent d’insister sur le fait que la perception visuelle relève de nombreuses théories, complémentaires et concurrentes. Notre volonté dans le cadre de l’évaluation était de mieux comprendre les phénomènes en jeu dans le cadre de la perception d’impressions générales. Il s’agit d’une application pratique de théories énoncées par ailleurs, nullement une prétention à faire avancer lesdites théories.
Approche esthétique
Origines …
Selon Platon le Beau est un idéal que l’artiste doit s’efforcer d’atteindre, sans visées utilitaires. Aristote adopte une vision plus rationnelle et logique de l’esthétique et propose notamment une analyse basée sur quatre causes : La cause matérielle, la cause efficiente, la cause formelle, la cause finale. La catharsis notamment œuvre dans ce sens. Le christianisme apporte une vision subordonnée à la foi de l’art. La renaissance propose la laïcisation de l’art, en le rapprochant de la Nature et en exaltant les techniques. Kant pose les bases d’une esthétique subjective, et nie la possibilité de trouver des règles qui imposeraient la beauté d’un objet. Le plaisir désintéressé est alors le seul critère du beau, néanmoins le jugement esthétique n’est pas strictement personnel dans la mesure où certains groupes de population disposent de facultés de juger similaires et trouveront beaux les mêmes objets.
(non-)Définition …
Le Beau est indéfinissable, sauf peut-être en comparaison avec une norme (ce qui reflèterait une approche fasciste) ou un idéal (mais cette comparaison ne nous donne pas beaucoup d’informations, l’idéal n’existant pas par définition). De plus il apparaît que le Laid peut être esthétique également, ce qui complique la problématique. La discipline de l’esthétique n’est donc pas une approche visant à donner des solutions concrètes, mais bien à proposer des réflexions abstraites.
Caractéristiques …
Le jugement esthétique sollicite moins l’intelligence que la sensibilité, il peut plus précisément être considéré comme une intuition, en ce sens que, alors que la perception conduit à l’action, l’intuition conduit à l’émotion [Sorlin 92]. En liant l’esthétique à la notion d’intuition, on retrouve les notions d’impressions ressenties immédiatement. On peut alors définir le Beau comme ce qui plaît à chacun. On peut relier cette approche aux affordances, l’esthétique dépend de ce qui est ressenti (qui dépend des affordances), et lorsqu’un ensemble d’individu ayant des caractères communs (correspondant à la niche) éprouvent une intuition commune positive, on considère que c’est beau.
Proposition …
Nous ne pouvons donc définir des canons de beauté et vérifier qu’ils sont respectés, mais nous pouvons aider à définir ce qui tient de l’esthétique ( que son origine soit sonore, visuelle, textuelle ou structurale ( et ensuite aider un évaluateur ayant des connaissances sur le contexte culturel à prévoir si le public appréciera cette esthétique. Cette approche culturelle et objectivante de l’esthétique nous rapproche d’ailleurs de la sémiologie [Gordies 91].
Approche photographique …
Le ton de l’œuvre photographique est dépendant de l’atmosphère qui en résulte. Cette atmosphère est la conséquence de la transposition d’aspects physiques (chaleur, brouillard, pluie, soleil, …) en émotions (gêne, tristesse, joie, peur, …) [Alekan 84]. Les effets physiques provoquent des réactions psychologiques, et inversement le photographe est capable de traduire des états psychologiques par des représentations physiques.
Cette théorie provenant de la photographie vient renforcer notre point de vue, en liant les aspects réels du support (les documents et la scénarisation dans notre cas) aux impressions subjectives ressenties.
Apports de la sémantique de l’image
Introduction …
Ayant appliqué la théorie visuelle de Gibson (et s’étant inspiré d’autres approches), notre démarche a ensuite été de définir des critères permettant de décrire les impressions générales ressenties en utilisant le didacticiel. Outre les critères que nous avions déjà relevés empiriquement, nous proposons ici des démarches issues d’autres disciplines. Le domaine de la sémantique de l’image nous apporte notamment des critères définis et validés concernant la qualification des images par des observateurs en situation.
Exemples …
On propose de recenser certains de ces critères issus de la sémantique de l’image appliquée à des domaines divers :
Cinéma
Baticle
[Baticle 85]Publicité
Piaget
[Cossette 83]Images
Osgood
[Cossette 83]Documentation
Bléry
[Cossette 83]Sémiologie
Saint-Martin
[Saint-Martin 87]Modernité
Rythme
Erotisme
Violence
PolitiqueLuxuriant
Vibrant
Doux
Passif
Insensé
Simple
Evident
Sérieux
MasculinAustère
Inerte
Rude
Actif
Sensé
Complexe
Subtil
Drôle
FémininBon
Agréable
Positif
Fort
Lourd
Dur
Rapide
Actif
ViolentMauvais
Désagréable
Négatif
Faible
Léger
Doux
Lent
Passif
CalmeAbstrait
Actif
Ancien
Apaisant
Artificiel
Beau
Sérieux
Chaud
Coloré
Gai
Comique
Décontracté
Erotique
OrdonnéSensuel
Passif
Moderne
Stimulant
Naturel
Laid
Frivole
Frais
Terne
Triste
Tragique
Angoissé
Froid
DiscordantBeau
Droite
Actif
Positif
MasculinLaid
Gauche
Passif
Négatif
FémininRemarque …
Ces propositions appellent notre attention sur deux points essentiels :
Les propositions sont fournies sous forme de couples antagonistes, ce qui correspond à la démarche que nous avions adoptée empiriquement.
Les couples proposés sont en corrélation étroite entre eux et avec ceux de nos propres expériences.
Proposition
Introduction
Nous pensons que la prise en compte des impressions générales est fondamentale et doit être intégrée à notre méthode d’évaluation, dans la mesure où elles interviennent de façon très lourde dans de nombreux cas. On remarquera aussi que leur importance échappe à certains réalisateurs, qui les négligent à tort, mais pas à d’autres qui les utilisent à mauvais escient. Les impressions générales ne sont pas insignifiantes (chacun à l’expérience de bonnes affordances le poussant à chercher plus loin, et d’autres le rebutant avant que d’avoir commencé), elles ne sont pas inutiles (le multimédia est une nouvelle technologie qui peut offrir, si elle est bien utilisée, de nouveaux outils, plus attractifs pour certains, dans le processus pédagogique), mais elles peuvent être mal utilisées (la désinformation, volontaire où accidentelle, liée à des impressions trompeuses est un risque qu’il faut maîtriser), la finalité reste et restera la réalisation effective d’un apprentissage donné.
Critères …
Méthodologie employée …
Notre proposition est constituée par une série de critères, composés par paires antagonistes, qui permettent de caractériser le logiciel. Ces critères sont issus de la sémantique de l’image, du cinéma et des observations empiriques.
Propriétés …
Voici quelque unes des spécificités qui ont été recherchées pour ces critères :
Parité : Nous avons opté pour une représentation par paires, non seulement parce que c’était la forme employée dans les expériences que nous avons décrites, mais également parce ce que c’était celle observée empiriquement.
Simplicité : Nous avons procédé à une mise en commun des différentes approches utilisées, et à une simplification. En effet pour être utilisables, les critères doivent rester peu nombreux (On notera que dans les exemples que nous avons cités, le maximum était quatorze paires).
Globalité : Pour obtenir un nombre raisonnable de critères, nous avons dû les regrouper sous des concepts communs, ce qui supposait d’employer des critères suffisamment généraux.
Neutralité : Notre objectif pour l’évaluation est simplement de caractériser les impressions générales, et non de porter un jugement direct. Nous voulons laisser à l’évaluateur le soin de juger en dernier ressort, et en fonction de sa connaissance du contexte pédagogique, aussi nous avons essayé de choisir des termes neutres : Par exemple on a préféré calme à passif et sobre à austère.
Description …
Déroutant
Luxuriant
Original
Décontracté
Actif
Complexe
Abstrait
RéalisteRassurant
Sobre
Classique
Sérieux
Calme
Clair
Concret
ExtravagantUn exemple de caractérisation à l’aide de ces critères serait : Le logiciel est « plutôt rassurant » et « très sobre » et « original » et « extrêmement sérieux » et …Précaution d’emploi …
L’hypothèse forte qu’impose l’utilisation de ces critères est qu’il est possible de mettre sous une forme canonique les impressions générales ressenties. Cette approche ne peut pas être exacte, néanmoins l’utilisation de cette méthode, si elle est nécessairement réductrice, nous permet d’exprimer de façon systématique les impressions générales. L’utilisation de critères fixés est indispensable dans notre problématique d’évaluation, malgré ces limites.
Apports à la méthode EMPI
Introduction
Cette avant-dernière partie a pour vocation de présenter les travaux effectués sur la méthodologie d’évaluation elle-même. La méthode que nous proposons n’est pas sur un schéma identique à celle utilisée par EMPI pour le moment (bien que s’en inspirant fortement), pour deux raisons essentielles :
Des lacunes ont été recensées par différents travaux et appelaient des modifications
EMPI étant encore à un stade expérimental, il m’avait été demandé de présenter des réflexions pour l’améliorer
Nous proposons une revue des expériences qui nous ont permis d’aboutir à nos propositions, ainsi que quelques approches plus théoriques.
MEDA versus EMPI
Préambule …
Des travaux critiques ont été menés depuis la version de la méthode proposée par Reithmuller. Ces travaux [Caillat & al 97], [Gallouet, Sarrazin 97] ont permis de faire progresser la méthode EMPI, jusqu’à sa version actuelle, mise en œuvre par Olivier Hû.
J’ai quant à moi procédé à l’étude comparative de cette méthode d’évaluation avec la méthode MEDA, utilisée dans le cadre des logiciels de formation. Voici un résumé de cette étude, ainsi que les implications quant aux propositions que nous évoquerons.
Présentation
Description …
Le collectif européen Joanna MEDA propose en 1990 une méthodologie permettant d’évaluer des logiciels de formation en entreprise, à partir d’un questionnaire basé sur des critères pédagogiques, ergonomiques, commerciaux, techniques, … [MEDA 90]. Une étude comparative entre MEDA et EMPI nous a permis de mettre en évidence les points communs et les divergences entre les deux méthodes. Nous avons utilisé MEDA 97 sur cd-rom, ne prenant en compte que la partie concernant l’ergonomie pour notre étude, EMPI ne maîtrisant à ce stade que cet aspect. La comparaison s’est effectuée grâce à l’évaluation de trois logiciels éducatifs multimédia, deux pour enfant (Atout Clic et Tim 7) et un pour adulte (Formation à Word 6).
MEDA …
L’évaluation par la méthode MEDA se décompose en deux étapes distinctes :
Une phase de personnalisation de la grille qui permet de créer un questionnaire en fonction de son propre contexte d’évaluation. Ceci s’effectue par un filtrage lié à ses pôles d’intérêt et ses préoccupations, puis par le choix parmi les aspects et les questions présélectionnés de la composition finale de la grille.
Une phase d’évaluation effectuée en répondant aux questions successives que l’on a déterminées dans la phase précédente. La qualification utilise une notation « ( ( », « ( », « + », « + + ». Les résultats sont présentés sous forme de pourcentages de chaque réponse, qui laissent le choix de l’interprétation à l’évaluateur.
 INCORPORER Word.Picture.8 
Conclusions
Voici quelques unes des remarques qui ont pu être faites à la suite de cette étude.
Mode de réponse …
Alors que MEDA propose une notation en amplitude ( en qualifiant directement le critère par une appréciation « mauvais », « bon », « très bon », … ( EMPI propose une notation en fréquence, c’est à dire qu’elle qualifie indirectement les critères en fonction de la fréquence des problèmes relevés. En pratique, on est souvent amené à vouloir répondre par des formulations du type « souvent bien ET exceptionnellement très mauvais », comme par exemple pour exprimer qu’au sein de l’homogénéité globalement bonne de telle interface, le fait d’avoir inversé sur un écran le bouton « quitter » et le bouton « aide » s’est avéré lourd de conséquences. Ceci nous conduit à penser que sur ce point les deux méthodes sont complémentaires.
La personnalisation des grilles …
On distingue l’approche asynchrone de MEDA qui sépare en deux phases la sélection des questions puis la réponse effective, de l’approche synchrone de EMPI qui offre de répondre ou non au fur et à mesure des questions. L’avantage de la première approche est qu’elle permet de contextualiser le questionnaire, et d’avoir une vision globale sur ses objectifs d’évaluation. La seconde, quant à elle, est plus applicable pratiquement, dans la mesure où c’est souvent en répondant effectivement qu’on se rend le mieux compte de la pertinence des questions par rapport à son logiciel. Cette fois encore les deux approches se complètent, et nous proposons une solution fondée sur une personnalisation guidée dans un premier temps, permettant de proposer un questionnaire type modifiable a priori, puis de laisser à l’utilisateur la possibilité d’ignorer les questions et les aspects en fin de compte inutiles ou inapplicables.
La présentation des résultats …
Nos travaux ont permis de mettre en valeur la bonne exploitabilité de la notation exponentielle proposée par EMPI. On invite également à la pondération des critères et des questions, de façon à mettre en valeur les points importants pour tel ou tel contexte pédagogique. Enfin on suggère la représentation des critères sous forme de pareto (voir ci-contre). INCORPORER MSGraph.Chart.8 \s Représentation des disparités à l’intérieur d’un critère …
Il peut être intéressant de rendre compte sur une représentation graphique de la disparité des réponses aux questions d’un même critère. En effet il est important de marquer la différence entre un aspect ergonomique moyen dans le sens ou toutes les questions obtiennent une réponse moyenne ; et un aspect moyen c’est à dire comportant de très bonnes et de très mauvaises choses. Notons que la représentation exponentielle a déjà tendance à sanctionner cette disparité, les points négatifs étant plus pris en compte que les points positifs. INCORPORER Word.Picture.8 Réutilisation des questions …
Dans MEDA certaines questions sont affectées à plusieurs aspects. Nous pensons que cette hypothèse peut se révéler très utile. En effet il paraît juste par exemple que des menus disparates selon les écrans gênent à la fois la navigation et l’homogénéité.
Il est donc certainement utile de garder cette notion, bien évidemment sans reposer plusieurs fois la question, mais en se contentant d’affecter la réponse à plusieurs critères (éventuellement avec une pondération d’importance, ou bien en divisant l’impact de la question par le nombre de critères, …)
L’importance de l’aide à l’évaluation …
Un autre des éléments importants de la méthode est sa capacité à fournir des explications à l’évaluateur. On peut remarquer trois niveaux d’information différents potentiellement utiles à l’évaluation, et qui peuvent justifier chacun un niveau d’aide différent.
Explicitation de la question : « Qu’est ce que ça veut dire ? »
Théorie sous-jacente : « Pourquoi me pose-t-on cette question ? »
Exploitation de la question : « Comment ma réponse est-elle utilisée par la méthode ? »
Il est important que ces aides soient les plus neutres possible, de façon à aider à choisir sans influencer le choix. Enfin il paraît également intéressant d’introduire le multimédia dans l’aide explicative. En effet certaines questions pourraient être clarifiées si elles étaient correctement illustrées (par exemple en opposant exemples et contre-exemples d’interfaces, en proposant des tests, …).
Recensement de méthodes d’analyse
Une autre approche a été l’étude de différentes méthodes proposées dans d’autres domaines, on citera :
Les méthodes d’analyse ergonomique [Hû 97]
Une méthode d’analyse de la mise en page et de la typographie [Parker, Thérien 91]
Une méthode d’analyse des images et de leur sémantique [Cossette 83]
Une méthodes d’analyse de film [Baticle 85]
Une méthode d’analyse des cd-rom culturels [Pognant, Scholl 96]
Méthode d’analyse des CD-I [Bourron & al 95]
L’enquête sociale
Introduction
La dernière approche que nous aimerions mettre à profit est celle adoptée par les études socio-économiques : Aujourd’hui de nombreuses études, enquêtes et autres sondages sont menés pour connaître le point de vue de la population sur tel ou tel aspect. Cette discipline est largement rodée et nous propose certains enseignements, certaines recommandations, dont nous pouvons nous servir pour construire notre méthode. Nous proposons dans cette partie quelques notions liées au cas plus particulier des études basées sur des questionnaires, qui correspondent mieux à notre propre approche [Singly 93], [Blanchet & al 87], [Mucchielli 71].
Dangers liés à l’utilisation du questionnaire
Phénomènes psychosociaux
On observe des phénomènes psychologiques et sociologiques propres aux réactions d’une personne devant un questionnaire, on pourra citer quelques observations générales :
Des réactions générales de défense, de conservation (on ne cherche pas à s’engager profondément dans la réponse) : Il faut donc faire attention à ne pas mettre en porte-à-faux.
Une volonté de prestige (on répond en fonction de ce qui est mieux pour son image sociale) : Il faut donc poser les questions de façon à ne pas favoriser ce genre de réponse.
Différentes peurs qui interviennent et guident les réponses : La peur du changement (par exemple le problème de la mobilité en entreprise) ; la peur d’être jugé (recherche de conformité sociale, volonté d’aller dans le sens des attentes de l’enquêteur) ; la peur de l’inconnu (recherche de repères et de cadres familiers).
L’évitement de l’effort, ou recherche de facilité : Le questionné ne s’attardera pas sur des énoncés complexes, renoncera rapidement devant un questionnaire trop long (bien que ceci dépende également de sa motivation)
Motivation
Notons que le questionné cherche un certain profit en répondant au questionnaire, on propose de découper ses objectifs en trois catégories:
Motivation cognitive : Il cherche à connaître de nouvelles informations
Motivation opérationnelle : Il cherche à réaliser une action particulière.
Motivation de confiance : Il cherche la réalisation de son moi relationnel, de son image sociale.
La rédaction du questionnaire doit prendre en compte ces motivations afin de les mettre en exergue et rendre le questionnaire plus attractif.
Biais introduit par l’agencement
L’organisation des questions doit être soigneusement étudiée, car l’agencement général du questionnaire a une influence sur la façon de répondre, dont voici quelques exemples caractéristiques :
Effet de halo …
L’ordre des questions a une grande importance, dans la mesure où s’instaure un effet de comparaison, de contamination, entre des questions séquentielles, que l’on appelle effet de halo.
Par exemple la réponse négative à une question entraîne un a priori négatif sur la suivante. De même la logique de réponse à une question est réutilisée pour une question suivante : Si on pose une question positive (« Est-ce que les images sont agréables ? »), puis une question négative (« Est-ce que la musique est désagréable »), la réponse risque de suivre la même logique (si musiques et images sont agréables, on risque de répondre « oui » et « oui », alors qu’il aurait fallu dire « oui » et « non »).
Longueur des questions …
Le rythme du questionnaire est également important et il dépend de la longueur et du nombre de questions. Il faut étudier le temps de réponse en fonction de la motivation et de la disponibilité du questionné. D’une façon générale les questions longues, ou impliquant la réflexion, invitent à la démission et sont donc à proscrire.
Il est également conseillé de prévoir des plages de repos, des questions sympathiques, saugrenues, originales qui permettent à l’utilisateur de se détendre.
Considérations diverses …
Il faut décentrer le questionné, pour qu’il adopte une vision extérieure, et donc plus objective, dans ses réponses.
Il faut être progressif et éviter les changements brusques de thème qui engendre la rétraction
On peut permettre d’ajouter des commentaires personnels, qui mettent en confiance le questionné dans sa prise de décision (« je réponds ceci, mais comme je précise cela, donc ma réponse est atténuée »)
Techniques de rédaction
Face aux observations que nous venons de citer et aux problèmes plus généraux recensés dans le cadre de l’enquête sociale par questionnaire, différentes techniques sont proposées pour la rédaction du questionnaire.
Ne pas effrayer …
Il faut mettre le questionné en confiance, de façon à lutter contre les différents phénomènes liés à la peur :
Les questions fermées rassurent, et au contraire les questions ouvertes déroutent
Utiliser les questions bipolaires qui permettent des réponses assez larges, bien que cadrées
Laisser la possibilité de choix neutres, pour ne pas trop forcer la réponse
Présenter des questions et des réponses socialement désirables qui n’influent pas sur le prestige
Ne poser qu’une seule question par question, sinon le questionné hésite, et l’analyse des réponses est incertaine
Ne pas désavantager certaines réponses par rapport à d’autres a priori (c’est notamment la technique qui a été appliquée à l’évaluation des impressions générales)
Distinguer les questions de caractérisation objective et d’évaluation subjective
Ne pas impliquer …
Il faut faire attention à ne pas impliquer trop directement le questionné dans ses réponses, sous peine de voir ressortir les phénomènes dont nous venons de parler :
Attention aux questions trop personnalisées qui sollicitent l’engagement du questionné
Découper les questions pour éparpiller les points sensibles
Technique du thème noyé : Avoir recours à des formulations impersonnelles, détourner la question, cacher les questions sensibles au milieu d’autres moins sensibles, …
Technique de l’entonnoir : Poser des questions de plus en plus précises pour parvenir à la réponse attendue, en évitant d’agir brutalement
Proposer de juger d’autres personnes dans la situation à évaluer, plutôt que de demander un avis personnel
Prendre garde aux questions chargées de sens affectif fort, de connotations, de tabous,  …
Gérer les réponses …
Les possibilités qui sont laissées pour répondre ont également des implications qu’il convient de maîtriser, on citera :
La façon de mesurer une quantité subjective (on propose généralement l’échelle de thermomètre)
L’ordre des réponses (on propose d’évoluer du négatif vers le positif, car les questionnés ont tendance à positiver, et d’une façon générale, de présenter les réponses dans l’ordre inverse de ce qui sera répondu le plus facilement)
Proposition
Documents, scénarisation, relations
Introduction
Structure des questions …
Nous proposons la même forme d’évaluation pour ces trois aspects, selon les critères que nous avons énoncés dans chacune des parties correspondantes. Cette évaluation se fait par l’intermédiaire d’un questionnaire dont chaque question est composée d’une caractérisation et d’une évaluation. La question de caractérisation permet de décrire la situation selon une typologie ou une fréquence, tandis que la seconde permet l’évaluation proprement dite.
Exemples …
Exemple 1
Question
Potentialités de parcours liées à la structure navigationnelle interne du logiciel.
Caractérisation
Caractériser le type de parcours prédominant dans l'application évaluée :
Linéaire
Arborescent
Réseau
Evaluation
Evaluer la qualité de ce parcours :
Très bonne
Bonne
Mauvaise
Très mauvaise
Exemple 2
Question
Gestion de la structure à travers les outils de balisage de la lecture.
Caractérisation
Le logiciel propose-t-il à l'utilisateur des d'outils qui aident à baliser la lecture et lui permettent de se repérer au cours de la navigation ?
Toujours
Souvent
Parfois
Jamais
Evaluation
Evaluer la qualité de ces outils :
Très bonne
Bonne
Mauvaise
Très mauvaise
Exemple 3
Question
Gestion du rythme.
Caractérisation
Caractériser le rythme adopté par le scénario :
Rapide
moyen
Lent
Evaluation
Evaluer la pertinence de ce rythme :
Très bonne
Bonne
Mauvaise
Très mauvaise
Justification …
Nous avons choisi ce modèle pour deux raisons :
Il nous permet de caractériser une situation avant de la noter (dans l’exemple 1 cela nous permettra de noter différemment une mauvaise structure arborescente d’une mauvaise structure réseau)
Il nous permet une notation en fréquence et en amplitude (exemple 2)
Il nous permet une caractérisation en vue de la détermination des impressions générales, indépendamment de l’évaluation (exemple 3)
Il permet de décomposer l’approche de l’évaluateur, et donc d’augmenter son objectivité (dans l’exemple 3, il ne sanctionne pas le rythme par ce qu’il est rapide, ce qui peut dépendre de sa subjectivité, mais parce que ce rythme rapide n’est pas adapté au contexte pédagogique, ce qui est plus objectif)
Notation
Caractérisation et évaluation …
La notation est déterminée par l’évaluation et éventuellement la caractérisation. Dans l’exemple 2 le fait de disposer d’outils de balisage de la lecture est déjà un point positif en soit, qui sera confirmé ou diminué par la qualité de ces outils. Dans l’exemple 3 par contre, que le rythme soit élevé ou faible ne permet aucune conclusion quant à la qualité de ce rythme, et c’est uniquement la question d’évaluation qui permet de noter la question.
Matrice de notation exponentielle …
Nous avons conservé la notation exponentielle proposée et validée par Olivier Hû [Hû 97]. Rappelons cette notation :
Réponse très bonne +10
Réponse bonne 0
Réponse mauvaise -6
Réponse très mauvaise -10
Dans les cas où la caractérisation n’influe pas sur la notation (exemple 3), nous avons pu appliquer directement ce barème. Par contre dans les autres cas, nous avons dû adapter cette échelle, pour obtenir la matrice suivante :
 INCORPORER Word.Picture.8 
Cette matrice possède les propriétés suivantes :
Pour chaque influence de la caractérisation, la notation de l’évaluation est exponentielle
La diagonale garde les propriétés de la notation sans influence de la caractérisation, ainsi :
Très bon + Très bon : +10
Bon + Bon : 0
Mauvais + Mauvais : -6
Très mauvais + Très mauvais : -10
La notation est commutative et par exemple :
(Caract : Bon) + (Eval : Mauvais) = (Caract : Mauvais) + (Eval : Bon)
Critères …
La notation des critères est effectuée par moyenne des questions correspondantes. La moyenne est pondérée en fonction que les questions sont jugées essentielles ou secondaires. Les critères pères sont calculés par moyenne des critères fils, toujours avec une pondération possible, et ainsi de suite, par exemple :
la structure sera la moyenne des questions relatives aux potentiels de la structure interne et aux potentiels de la structure externe
la navigation sera la moyenne de la structure, de la gestion spatiale et de la gestion temporelle
La scénarisation sera la moyenne de la navigation, de l’interactivité, de la personnalisation et de la fiction
Impressions générales
Matrice d’influence
Introduction …
La notation des impressions générales est délicate étant donné qu’elle dépend de tous les aspects de la composition multimédia du didacticiel. Nous faisons la proposition suivante, qui ne prendra sa vraie dimension qu’adjointe à la méthode d’évaluation mixte que nous expliquons dans le paragraphe suivant.
Description …
Nous proposons d’ajouter à chaque question une matrice mettant en relation la réponse de caractérisation avec les critères d’impressions générales.
Exemple …
Matrice des impressions générales en fonction des réponses de caractérisation pour l’exemple 1 :
Déroutant
RassurantLuxuriant
SobreOriginal
ClassiqueDécontracté
SérieuxActif
CalmeComplexe
ClairAbstrait
ConcretRéaliste
ExtravagantEn réseauDérOriActComArborescenteRasClaClaLinéaireT.RasT.ClaCalClaLa matrice se lit de la façon suivante :
Les trois lettres correspondent au critère influencé par la réponse
Si les trois lettres sont précédées de « T. » cela exprime une forte influence
Si la case est vide, la réponse n’a pas d’influence sur ce critère
Une structure linéaire sera donc très rassurante et très classique et calme et claire.
Notation
Matrice de notation …
La notation exponentielle a été abandonnée pour cet aspect, étant donné qu’on ne cherche pas à évaluer, mais à caractériser. Pour chaque matrice on associe la notation suivante :
Déroutant
RassurantLuxuriant
SobreOriginal
ClassiqueDécontracté
SérieuxActif
CalmeComplexe
ClairAbstrait
ConcretRéaliste
ExtravagantEn réseau+1 x 1+1 x 1+1 x 1+1 x 1Arborescente-1 x 1-1 x 1-1 x 1Linéaire-1 x 3-1 x 3-1 x 1-1 x 1Les influences sont donc binaires (-1 ou +1), +1 exprimant une influence sur le premier élément du couple, -1 sur le second.
Elles ont par défaut un poids de 1, les fortes influences ont un poids de 3
Calcul des valeurs moyennes …
En fin de compte les impressions générales sont calculées pour chaque critère par moyenne pondérée des influences issues de chaque question :
Chaque couple obtient donc une valeur moyenne telle que (Déroutant, Rassurant) ( [-1,+1] ; (Luxuriant, Sobre) ( [-1,+1] ; (Original, Classique) ( [-1,+1] ;  …
+1 caractérisa le logiciel par le premier élément du couple, -1 par le second, 0 ne caractérisera ni l’un ni l’autre et toutes les valeur intermédiaire des tendances vers l’un ou l’autre.
Par exemple si (Déroutant, Rassurant) = +0,9 ; (Luxuriant, Sobre) = -0,2 ; … : Le logiciel est fortement déroutant, plutôt sobre, …
La valeur finale est accompagnée d’une valeur de variance pour chaque critère permettant d’évaluer la convergence de l’ensemble des influences, ou au contraire leur disparité autour de la valeur moyenne exprimée.
Evaluation mixte …
Problématique …
Le principe de la notation mixte a été inspiré par l’évaluation des impressions générales, puis étendu à l’ensemble du questionnaire. L’évaluation des impressions générales ne pouvait se faire uniquement par le principe que nous venons de décrire, car la somme des influences peut ne pas bien correspondre avec l’impression générale. Aussi nous avons pensé utiliser le système de notation mixte, c’est à dire :
une notation instinctive des critères selon une échelle de valeurs « + + », « + », « 0 », « – », « – – ».
Le système de calcul par matrices d’influence que nous avons décrit dans le paragraphe précédent. La confrontation entre ces deux approches permet finalement à l’évaluateur de décider de la pertinence.
Description
Les impressions générales …
Le principe d’évaluation mixte repose sur le schéma suivant :
Evaluation instinctive : Dans un premier temps, après utilisation du logiciel, l’utilisateur caractérise les impressions générales qu’il a perçues, directement à partir des critères :
Le logiciel est « plutôt rassurant » et « très sobre » et « original » et « extrêmement sérieux » et …
Evaluation discrète : Puis il répond à l’ensemble des questions qui permettent de décrire le logiciel de façon plus précise au niveau de la composition multimédia. Ces descriptions permettent de déterminer les impressions générales de façon automatique, toujours dans le cadre des critères proposés :
La couleur dominante est « verte » donc le logiciel est « calme » ; La structure est « linéaire » donc le logiciel est « clair » et « classique » ; …
Consolidation : L’évaluateur confronte les résultats des deux évaluations et les synthétise en proposant une note finale des critères :
Critère 1 : Evaluation instinctive : Très Rassurant
Evaluation discrète : Plutôt Rassurant
Conclusion ?
Critère 2 : Evaluation instinctive : Très Rassurant
Evaluation discrète : Plutôt Rassurant
Conclusion ?
 …
Evaluation finale : A partir de ses connaissances du contexte pédagogique, l’évaluateur détermine si les impressions générales sont ou non appropriées
Le logiciel est trop troublant par rapport à l’enseignement des mathématiques, sa sobriété est par contre bien adaptée au public des élèves-ingénieurs, son originalité est un atout,  … : Les impressions générales du logiciel sont moyennement adaptées au contexte pédagogique.
Extension …
Nous avons ensuite pensé que cette méthode était également applicable à l’ensemble des critères (de façon optionnelle, dans ce cas). Nous proposons ainsi à l’évaluateur de donner une opinion instinctive avant de répondre aux questions correspondantes. Nous avons ainsi ajouté à chaque critère et à chaque question l’échelle de notation instinctive suivante :
Exemple 1
Navigation + + + = - - -
Structure + + + = - - -
Structure interne + + + = - - -
Structure externe + + + = - - -
Gestion spatiale + + + = - - -
[…]
En pratique la notation instinctive et la réponse aux questions peut se faire simultanément, au fur et à mesure du parcours des critères.
Ensuite de la même façon que pour les impressions globales nous proposons une consolidation des résultats et une évaluation finale.
Outils d’analyse
Indices …
Il est nécessaire de fournir des outils statistiques à l’évaluateur pour réaliser sa consolidation. Nous avons introduit l’indice de cohérence et l’indice de corrélation, tout deux issus de l’indice de divergence proposé par Olivier Hû [Hû 97] :
 INCORPORER Equation.3 
L’indice de cohérence permet de rendre compte de la logique des évaluations instinctives : Par exemple si l’évaluation instinctive indique que la navigation est bonne, puis que chacune de ses composantes (structure, gestion spatiale et gestion temporelle) est mauvaise, il y a un problème …
L’indice de corrélation permet de rendre compte de la correspondance entre les résultats de la notation instinctive et ceux de la notation par la réponse aux questions.
Réaction en chaîne …
L’exploitation des données permet de répercuter les moyennes instinctives de chaque critère sur les niveaux supérieurs. On obtient finalement le schéma suivant :
 INCORPORER Word.Picture.8 
Note finale proposée …
En outre, on propose à l’utilisateur une valeur afin de fixer son évaluation finale. Cette proposition est calculée de la façon suivante :
Si l’évaluation instinctive est cohérente, on propose une moyenne entre l’évaluation instinctive et l’évaluation discrète
Sinon, moins l’évaluation instinctive est cohérente, moins elle est prise en compte dans la note finale
Si l’évaluation instinctive est totalement incohérente, elle est simplement ignorée
Bien entendu, l’utilisateur dispose de la liberté de la notation finale.
Représentation finale …
Note IntuitiveMoyenne niveau inférieurMoyenne deux niveaux inférieursCohérenceNote Intuitive MoyenneNote CalculéeCorrélationPropositionNavigation54,333,6794%4,333,594%3,9+/-0,2Structure44,596%4,256,587%5,4+/-0,4Question 1333100%Question 2661080%Gestion spatiale2-1,571%0,250,598%0,5+/-0,0Question 1-1-1182%Question 2-2-2083%Gestion temporelle7895%7,53,578%5,5+/-0.6Question 166275%Question 21010575%Cet exemple nous permet d’illustrer l’ensemble des données mis à la disposition de l’utilisateur pour mener son évaluation. Il est probable que ces chiffres soient un peu nombreux, on pourra donc proposer un système permettant de n’afficher que les données désirées.
Profondeur variable
L’utilisation de la notation mixte nous permet un avantage supplémentaire, qui est l’obtention d’un questionnaire à profondeur variable. En effet l’évaluateur peut décider de ne pas répondre aux questions concernant tel critère s’il estime maîtriser suffisamment bien celui-ci pour se fier à sa seule évaluation instinctive.
De même cela permet des évaluations plus rapides. On aura conscience que ces évaluation seront moins précises, néanmoins ce genre d’évaluation peut répondre à certaines demandes, et guider tout de même un évaluateur ayant de nombreuses évaluations en un temps limité.
Logiciel et essais
Logiciel d’aide à l’évaluation
Introduction
Une informatisation nécessaire …
Nous proposons de réaliser une version informatique de la méthode que nous venons de présenter. Outre que l’utilisation d’un logiciel rend le questionnaire plus maniable, cela ouvre des possibilités plus évoluées, tels que les aides contextuelles, les exemples multimédias, les questions à profondeur variable, … De plus le traitement des réponses tel que nous le proposons (avec les matrices d’influence, le calcul des indices de cohérence et de corrélation, …) n’est effectivement possible que suppléé par un traitement informatique.
Réalisation d’un prototype …
Notons que les travaux précédents avaient déjà été transférés sous un tableur Excel, qui permettait le traitement automatique des notations et la présentation des résultats sous forme d’histogramme. Nous proposons au terme de ce DEA un prototype sous la forme d’une base de données réalisée avec le SGDBR Access.
Une telle base de données présente des possibilités accrues par rapport à un tableur, notamment le fait de pouvoir proposer une interface graphique, de pouvoir programmer des macro-commandes plus facilement, de pouvoir effectuer un traitement plus libre des résultats, … Mais ce qui a décidé notre choix est qu’un tel prototype, une fois la structure de données figée, est extrêmement dynamique et permet de modifier le questionnaire sans avoir besoin de rééditer les documents correspondants. Ainsi chaque élément du questionnaire (critères, questions, matrices d’influence des impressions générales, systèmes de notation, …) est un champ d’une table. Ce caractère dynamique est fortement appréciable dans la phase de mise en place. Bien entendu à terme il sera préférable de programmer l’ensemble, un fois totalement figé, sous un langage tel que Visual Basic, plus puissant et plus souple.
Compléments à apporter …
Le prototype que nous proposons ne reprend pas l’ensemble des recommandations que nous avions remarquées, notamment car il n’était pas utile de les intégrer à ce stade de la réflexion. Mais nous soutenons que les aspects non encore intégrés (tels que l’aide multimédia, la possibilité d’ajouter des commentaires, la création de questionnaires personnalisés a priori, …) sont autant d’éléments très enrichissants pour le logiciel final.
Description
Nous proposons une rapide description du prototype que nous avons mis en place. Toutes les informations supplémentaires sont disponibles en Annexe A.2 et A.3.
Interface
Le reflet de la méthode …
L’interface que nous proposons se veut très proche de la méthode, ainsi le menu initial propose (outre les informations destinées à repérer l’évaluation) :
La caractérisation instinctive des impressions générales
Le questionnaire (évaluation instinctive et réponse aux questions)
La notation finale des critères en fonction des différentes informations extraites des phases précédentes
Un système à profondeur variable …
Le questionnaire est progressif et permet de naviguer entre les différents critères. Chaque fois, il est possible de procéder à une évaluation instinctive et/ou d’appro-fondir le critère par l’évaluation de ses sous critères puis la réponse aux questions correspondantes.Le questionnaire …
Le questionnaire se présente sous la forme de trois fenêtres permettant l’évaluation instinctive, la caractérisation et l’évaluation.
La notation finale …
Enfin, après avoir pris connaissance des résultats instinctifs et calculés, agrémentés des indices de corrélation, de divergence, et des propositions du système, l’évaluateur peut fixer les notes finales pour chaque critère.
Explications
Une aide contextuelle …
La méthode s’accompagne d’une aide explicative contextuelle. Elle permet de fournir des précisions théoriques et pratiques sur chaque critère, sur chaque question et chaque proposition de réponse. L’aide reprend l’ensemble des considérations développées dans ce mémoire, séparée en blocs d’une page maximum, accessibles directement depuis le questionnaire et contextualisées au critère, ou à la question. Nous ne l’avons donc pas jointe à ce mémoire, proposant simplement les extraits suivants à titre d’illustration.
Exemple …
Critère
Navigation

ExplicationsProblématique
Le support numérique offre une conception nouvelle du document, de par la délinéarisation de l’information : Alors que les documents classiques (comme les livres) offrent une information linéaire dans l’espace et séquentielle dans le temps, le numérique peut offrir une structure spatiale de type réseau et une structure temporelle aléatoire. La difficulté est que l’on observe une dualité entre la richesse de la structure (croissante avec la délinéarisation) et la confusion induite (décroissante avec la linéarité) […]
Définition
On appelle navigation le processus de parcours du didacticiel. On évalue la navigation par le potentiel de départ offert par la structure, et les moyens donnés pour la parcourir et l’assimiler.Critère
Structure

ExplicationsProblématique
Le support numérique permet de délinéariser la structure du document, c'est à dire de passer du texte à l'hypertexte. Les didacticiels multimédia utilisent cette possibilité de délinéarisation à des niveaux différents. De plus, et quel que soit leur degré de linéarité, les structures sont plus ou moins bien organisées […]
Définition
[…]
Exemple
La structure du didacticiel est représentable par un graphe dont chaque nœud est un espace du logiciel et dont les arcs sont des transitions entre ces espaces.
 INCORPORER OrgPlusWOPX.4 Question
générale

ExplicationsDescription
Cette question a pour but de déterminer le potentiel offert par le logiciel en terme de parcours interne. Elle évalue la richesse et l’organisation de la structure.
Evaluation
On considère que la structure réseau est la plus appropriée au support numérique, puisqu’elle permet à chaque utilisateur de se forger son propre apprentissage. Néanmoins une mauvaise structure de type réseau sera pire qu’une structure plus linéaire, car l'utilisateur sera désorienté et ne pourra plus en comprendre la logique.Question de
Caractérisation

IndicationsDescription
L’objet de cette question est de caractériser le type de parcours utilisé dans le didacticiel évalué, afin d’en déduire le niveau de structure. On distingue trois grandes familles de structures, fonction de leur niveau de linéarité : La structure linéaire, la structure arborescente et la structure réseau.
Précisions
La structure linéaire est une structure dans laquelle l'utilisateur ne peut intervenir que sur le flux d’informations, c’est à dire pour arrêter ou reprendre le déroulement du logiciel. C'est le cas d'un livre ou d'une bande. […]
 INCORPORER Word.Picture.8 
Le structure arborescente […]Question
d’évaluation
(Réponse linéaire à la question précédente)

IndicationsDescription
Toutes les structures linéaires ne sont pas du même niveau, on distingue parmi elles quatre sous-niveaux qui permettent de les hiérarchiser : Les structures linéaires pures, les structures multi-linéaires, les structures linéaires orientées et les structures multi-linéaires orientées […]
Précisions
La structure linéaire peut être enrichie par la possibilité d’effectuer des retours arrières ou bien de sauter des chapitres (structure linéaire orientée). Une autre façon d'augmenter le potentiel de la structure linéaire est de disposer de plusieurs parcours linéaires différents que l'utilisateur peut suivre tour à tour (structure multi-linéaire).Présentation des résultats
Trois niveaux de visualisation …
L’évaluateur peut finalement visualiser ses résultats sous forme de Pareto. On propose des graphiques de différente précision, représentant :
Les thèmes : documents, scénarisation et relations
Les critères : documents textuels, visuels, sonores, navigation, interactivité, …
Les sous-critères : rédaction, mise en page, typographie, images didactiques, …
Exemple …
 INCORPORER MSGraph.Chart.8 \s 
 INCORPORER MSGraph.Chart.8 \s 
 INCORPORER MSGraph.Chart.8 \s 
Application à l’évaluation de trois logiciels
Introduction
Préambule …
Nous avons voulu à travers cette partie témoigner de l’utilisation que nous avons faite de la méthode, et plus particulièrement du logiciel. Nous rendrons compte de trois des évaluations expérimentales que nous avons menées (de façon résumée, les évaluations complètes étant disponibles en annexe A.4). Notons que ces travaux ne sont pas présentés à des fins de validation, mais à des fins de démonstration, pour étayer notre description.
Description …
Nous avons appliqué notre méthode à l’évaluation de trois logiciels didactiques pour adultes :
Prisméo : Un didacticiel concernant l’apprentissage de la technologie du lecteur de disques laser. Il s’agit d’un produit universitaire, relativement ancien (1994), que nous avions par ailleurs évalué ergonomiquement dans le cadre de la validation de EMPI.
Conception Multimédia : Un didacticiel de formation à la conception de logiciels multimédia, réalisé en collaboration avec l’UTC en 1997.
Dicit, session 1, Les fondamentaux : Version beta (1.0-17/09/97) d’un cd-rom proposé dans le cadre du programme Dicit expérimenté à l’UTC pour la formation à distance à la rédaction de notices techniques multimédia.
Notre approche a été chaque fois l’utilisation du logiciel pendant une durée d’environ une à deux heures, puis le recueil de l’ensemble des considérations recueillies concernant leurs aspects multimédia, et enfin l’utilisation de notre logiciel d’aide à l’évaluation.
Considérations instinctives
Dans ce paragraphe nous résumons brièvement les principales remarques que nous avons faites naturellement après l’utilisation de chaque logiciel.
Prisméo …
Prisméo est un logiciel très peu multimédia, essentiellement textuel en dehors de quelques séquences animées, très peu scénarisé. Il se distingue néanmoins par une charte graphique assez particulière plutôt adaptée au public des élèves-ingénieurs qu’il vise, en dépit de décors un peu sombres. On remarque également les efforts qui ont été fournis pour délinéariser la structure, en proposant des parcours particuliers.
Conception Multimédia …
Conception Multimédia est une application essentiellement linéaire, non scénarisée, qui tient plus de la Présentation Assisté par Ordinateur que du didacticiel. On remarque néanmoins une utilisation des différents média assez juste, ainsi que l’instauration d’une charte graphique et d’une atmosphère assez calme et chaleureuse, à travers le thème des éléments naturels.
Dicit …
Ce cd-rom proposé dans le cadre de Dicit n’est pas vraiment un didacticiel, mais plutôt une agrégation de divers éléments afin de conduire l’apprentissage. Il n’y a pas de structure claire, ni de charte graphique, du fait que les documents sont parfois lus par le programme, parfois transférés à Acrobat Reader, tandis que les simulations se lancent à partir d’un autre exécutable, … On regrettera également la mauvaise lisibilité générale. Néanmoins cette application se distingue du point de vue multimédia par le module d’étude de cas qui utilise une mise en page adaptée au support et fait appel à des vidéo introductives basées sur un personnage ajoutant une note de fiction.
Résultats d’évaluation
Les résultats que nous avons obtenus par la méthode rejoignent globalement les considérations que nous avions repérées instinctivement. Nous ne présentons ici que les aspects caractéristiques et illustratifs.
Prisméo …
La méthode permet de mettre l’accent sur les nombreux défauts de Prisméo, mais il est intéressant de remarquer que les points positifs sont également repérés, tels que la qualité du design graphique ou la gestion spatiale (liée à la possibilité de prendre des notes, et à la carte des modules déjà étudiés et restant à étudier). On notera également la note de 0 en structure, qui témoigne de l’utilisation d’un réseau, que nous ne jugeons pourtant pas mauvais. Néanmoins le système de notation que nous avons adopté est relativement draconien, et indique, à juste titre dans ce cas d’ailleurs, qu’un réseau doit être très bon pour ne pas générer un sentiment de perte.
La fiction, entièrement absente est reléguée aux derniers rangs, et d’autres aspects tels que la typographie, particulièrement mauvaise, sont également soulignés.
Conception Multimédia …
On remarque au premier abord que l’atmosphère reposante et rassurante du didacticiel a été notée parfaitement par les impressions générales, aussi bien instinctives que calculées. On remarque ensuite que la scénarisation est très lourdement sanctionnée, alors les documents obtiennent une note positive, ce qui correspond à la vision que nous en avions. Enfin les bonnes notes concernant les documents textuels, ainsi que les relations sont également concordantes.
Les quatre critères composant la scénarisation occupent les quatre dernières places, ce qui confirme le caractère présentation non scénarisée du didacticiel.
Dicit …
Les impressions générales sont relativement parlantes, et ainsi le logiciel est à juste titre considéré comme original, décontracté et actif (par contre on sera moins d’accord avec l’aspect rassurant …). La mise en page, les personnages et les illustrations mettent en valeur les qualités multimédia que nous avions recensées pour le logiciel. Tandis que les mauvaises notes en typographie et en design graphique témoignent des défauts principaux (en dehors des aspects totalement absents, tels que la personnalisation ou les images didactiques).
Remarques
Mise en garde …
Nous le précisions déjà en introduction, les résultats que nous venons de présenter ne constituent pas une validation : En premier lieu, parce qu’ayant effectué moi-même les évaluations, j’étais totalement imprégné du domaine, et absolument pas dans la situation d’un évaluateur typique. Ensuite parce que le panel des logiciels évalués et trop faible, alors qu’il faudra beaucoup d’expériences pour valider l’objectivité (relative) des évaluations. Enfin parce que les logiciels évalués se sont révélés trop faibles dans leur scénarisation (ce qui témoigne d’une tendance actuelle générale d’ailleurs …).
Proposition …
Nous proposons de mettre en œuvre le semestre prochain, avec le concours des étudiants de l’UTC, plusieurs évaluations, sur le modèle de celles qui avaient été menées concernant la partie ergonomique de EMPI. Ainsi il est nécessaire que plusieurs logiciels (dont certains de qualité) soient évalués, et que plusieurs évaluateurs se consacrent au même logiciel, pour pouvoir juger de la stabilité des résultats.
Conclusion
Considérations générales
Une informatique pluridisciplinaire …
Tout au long de ce mémoire nous nous sommes appuyés sur des domaines très divers, humains, artistiques et techniques pour les appliquer au domaine de l’informatique. Le secteur occupé par la réalisation des didacticiels et en effet à la frontière d’autres disciplines, mais s’inscrit plus que jamais dans une problématique humaine, artistique et technique.
L’utilisation des nouvelles technologies, de logiciels auteurs de plus en plus complexes, de supports de plus en plus puissants, de documents de plus en plus volumineux, n’est pas une réponse suffisante à la demande actuelle. La maîtrise du multimédia n’est pas un problème que sait résoudre l’informatique classique et il est nécessaire de mettre en œuvre des approches nouvelles et innovantes pour réaliser, effectivement, la révolution multimédia tant annoncée et pourtant encore si discrète.
Je pense que là où les mathématiques, l’électronique ou la logique ont permis l’évolution vers une informatique plus performante et mieux optimisée, la philosophie, la narratologie ou la photographie nous permettront une informatique plus multimédia et plus didactique.
Un champ illimité …
Les points qui ont été abordés au long de ce mémoire ne sont qu’une petite partie du vaste territoire des disciplines qui peuvent être mises à profit. J’invite à l’étendre significativement, et ce mémoire a pour vocation à servir de base à de telles extensions :
Les domaines abordés sont relativement variés, nul doute que de nombreux autres sont à considérer.
L’approche qui a été faite de chaque domaine est minimaliste (du fait de la volonté de variété), des études plus spécifiques pourront être envisagées sur chaque domaine plus particulier.
L’application concrète de ces domaines à l’informatique, n’a été envisagée que du point de vue de l’évaluation de didacticiels, restent des applications à d’autres besoins que l’évaluation, restent d’autres domaines que la didactique.
Ambition …
L’ambition de ce mémoire n’est donc pas de proposer une revue complète des possibilités liées à la composition multimédia, mais simplement :
une brique supplémentaire sur l’édifice en travaux nommé « multimédia »
une brique supplémentaire à la construction de la méthode EMPI
Vieillissement …
Nous sommes conscients que les aspects proposés sont fonctions de la situation informatique actuelle. Les critères définis sont amenés à évoluer en fonction des avancées effectuées dans les domaines logiciel et matériel. Par exemple :
A plus ou moins courte échéance on peut imaginer que certains aspects seront intégrés de façon systématique et ne mériterons plus d’être évalués
On peut penser que certains critères aujourd’hui considérés comme bons pourront être amenés à être dépassés
A plus long terme des avancées dans les modalités d’interaction avec la machine (réalité virtuelle) modifieront profondément certaines de nos visions
Néanmoins on peut parier que des valeurs stables émergeront de nos propositions, évolueront mais se maintiendront globalement (les théories aristotéliciennes du récit sont toujours utilisées dans le cinéma moderne …).
L’aide à l’évaluation
Intégration …
La méthode que je propose sera fusionnée avec l’ensemble des travaux actuels et passés menés dans le laboratoire, de façon à réaliser une méthode d’aide à l’évaluation unique et regroupant les quatre approches, technique, ergonomique, didactique et multimédia. Ainsi certains des critères proposés seront regroupés pour n’appartenir plus exclusivement à la composition multimédia et certains points de notre questionnaire seront réutilisés dans d’autres approches.
Nous n’avions pas voulu coller de trop près au passé de la méthode EMPI, afin de proposer une vision originale, et par la même enrichissante. Je souhaite que ce soit effectivement le cas.
Cahier des charges …
Une fois la méthode finale établie, et solidement positionnée sur l’ensemble des critères, nous procèderons à la rédaction d’un cahier des charges précis pour le logiciel final. Ce sera l’occasion de reprendre l’ensemble des considérations énoncées depuis le début de la création de la méthode, et qui avaient été ignorées jusque là, ne trouvant pas leur place dans les différents prototypes.
Renforcements et validations …
Bien entendu l’ensembles des domaines que nous avons explorés pourront être approfondis, de façon à comprendre les faiblesses éventuelles de la méthode sur certains points. De même la rédaction de l’aide sera un passage délicat qui nécessitera une connaissance parfaite des concepts maniés. Enfin, les validations que nous aurons l’occasion de mener nous permettront de fixer la terminologie utilisée, autre point très sensible.
Ouvertures
L’aide à la conception comme suite logique …
Après nous être attachés à décrire ce qui semblait nécessaire à un didacticiel multimédia, après avoir donné les moyens de discriminer les didacticiels mettant effectivement en œuvre des procédés pertinents, nous pensons qu’il est intéressant de profiter de cette expérience pour proposer une méthode permettant de concevoir directement de meilleurs didacticiels. On passera d’une approche de critique à une approche d’accompagnement de la conception. Voici quelques-uns des objectifs qu’une méthode d’aide à la conception pourrait recouvrir :
des moyens pour la caractérisation préalable du contexte pédagogique
des recommandations ergonomiques
des propositions de schémas pédagogiques adaptés au contexte
des techniques d’écriture multimédia pour le support numérique
des outils pour scénariser l’apprentissage de façon évoluée
des méthodes de gestion et d’évaluation de la conception à différents stades
…
L’aide à l’évaluation et à la conception comme apprentissage du multimédia …
Nous affirmons notre objectif de participer à une meilleure maîtrise du multimédia, en particulier dans le domaine didactique, l’aide à l’évaluation et à la conception sont des atouts majeurs de ce programme. Elles permettront de tirer vers le haut les réalisations, en favorisant plus justement la qualité des didacticiels avant leurs prouesses commerciales. Mais elles seront également de pertinents outils d’information. En effet les utilisateurs des méthodes se formeront au fur et à mesure au maniement des concepts liés aux didacticiels multimédia et acquérront un œil plus critique sur les nouveaux produits. Au moins je le suppose à partir de ma propre expérience …
J’invite néanmoins à réaliser un didacticiel permettant de présenter de façon plus explicite les concepts émergeants de nos recherches, un didacticiel pour apprendre à lire et à écrire le multimédia.




Bibliographie
[AAM 98]AAM, « La production et l’édition multimédia », AAM, 1998.[Alekan 84]Henri Alekan, « Des lumières et des ombres », Le sycomore, 1984.[Aumont 90]Jacques Aumont, « L’image », Nathan, 1990.[Auroux 95]Sylvain Auroux, « La révolution technologique de la grammatisation », Mardaga, 1995.[Bachimont 92]Bruno Bachimont, « Le contrôle dans les systèmes à base de connaissances : Contribution à l’épistémologie de l’intelligence artificielle », Hermes, 1992.[Bachimont 93]Bruno Bachimont, « Les fondements de la psychologie cognitive », Cours de second cycle, UTC, 1993.[Bachimont 98]Bruno Bachimont, « Les supports de la connaissance  », Cours de DEA, UTC, 1998.[Bachimont 98]Bruno Bachimont, « Sémantique et ontologie : Textes, Images, Son », Séminaire, INA, mai 1998.[Baker 98]Michael Baker, « Système d’EIAO distribué », CAPS’98, Université de Caen, juin 1998.[Balacheff 98]Nicolas Balacheff, « Formalisation des connaissances et modélisation des environnements informatiques pour l’apprentissage humain » , Assises du GDR-PRC I3, juin 1998.[Baron, Bruillard 96]Georges Louis Baron EX "Baron, Georges-Louis" , Eric Bruillard, EX "Bruillard, Eric"  « Informatique et éducation : Regards cognitifs, pédagogiques et sociaux », INRP EX "INRP" , 1996.[Barthes 53]Roland Barthes, « Le degré zéro de l’écriture », 1953.[Barthes 73]Roland Barthes, « Le plaisir du texte », Seuil, 1973.[Barthes 80]Roland Barthes, « La chambre claire : Note sur la photographie », Editions de l’Etoile, Gallimard, Le Seuil, 1980.[Barthes 85]Roland Barthes, « L’aventure sémiologique », 1985.[Baticle 85]Yveline Baticle, « Clés et codes de l’image : L’image numérisée, la vidéo, le cinéma », Magnard, Paris, 1985.[Bazin 75]André Bazin, « Ontologie de l’image photographique », Cerf, 1975.[Bertin, Barbut 67]Jacques Bertin, Marc Barbut, « Sémiologie graphique : Les diagrammes, les réseaux, les cartes », Gauthier-Villars, Mouton, 1967.[Béville 77]Gilbert Béville, « Images à méditer », Maloine S.A., 1977.[Blanchet & al 87]Alain Blanchet, Rodolphe Ghiglione, Jean Massonnat, Alain Trognon, « Les techniques d’enquête en sciences sociales », Dunod, 1987.[Blondel, Schwob 97]François-Marie Blondel, Monique Schwob, « Aide en EIAO : Application à un environnement d’apprentissage en chimie », EIAO’97, Hermes, 1997.[Bonsiepe 93]Gui Bonsiepe, « The role of design in human user interfaces », Design Recherche n°3, février 1993.[Bottéro 87]Jean Bottéro, « Mésopotamie : L’écriture, la raison et les dieux », Gallimard, 1987.[Boullier 1998]Dominique Boullier, « Anthropologie des échanges hommes-machines », Cours de DEA, UTC, 1998.[Boullier 97a]Dominique Boullier, « Les usages comme ajustements : services propriétaires, moteurs de recherche et agents intelligents sur Internet », Penser les usages, Bordeaux, mai 1997.[Boullier 97b]Dominique Boullier, « L’ajustement technique entre les êtres et les choses : entre compétence et objet », Séminaire Costech, octobre1997.[Bourdieux 65]Pierre Bourdieux, « Un art moyen : Essai sur les usages de la photographie », Les Editions de Minuit, 1965.[Bourron & al 95]Y. Bourron, J.P. Chapuis, J.L. Ruby « pédagogie de l’audiovisuel et du multimédia », Les Editions d’Organisation, 1995.[Bruillard 97]Eric Bruillard, EX "Bruillard, Eric"  « Les machines à enseigner », Hermès EX "Hermès" , 1997.[Caelen, Henry 98]Jean Caelen, C. Henry, « Communication interactive : Quelle prospective ? », Assises du GDR-PRC I3, juin 1998.[Caillat & al 97]Stéphanie Caillat, Etienne Delobel, Salima Dib, Edouard Villeneuve, « Analyse des méthodes d’évaluation de logiciels multimédia éducatifs », Rapport interne GI, UTC, 1997.[Caradot 98]Isabelle Caradot, « Nouvelles technologies et formation : Quelles stratégies ? », Colloque Journal du Multimédia, Paris, mai 98.[Carrière 93]Jean-Claude Carrière, « Raconter une histoire », FEMIS, 1993.[Carrière, Bonitzer 90]Jean-Claude Carrière, Pascal Bonitzer, « Exercice du scénario », FEMIS, 1990.[Chion 94]Michel Chion, « Musiques : Médias et technologies », Flammarion, 1994.[Christin 95]Anne-Marie Christin, « L’image écrite : Ou la déraison graphique », Flammarion, 1995.[Cocula, Peyroutet 86]Bernard Cocula, Claude Peyroutet, « Sémantique de l’image : Pour une approche méthodique des messages visuels », Delagrave, 1986.[Cornu 90]Geneviève Cornu, « Sémiologie de l’image dans la publicité », Les Editions d’Organisation, 1990.[Cossette 83]Claude Cossette , « Les images démaquillées », Riguil Internationales, 2ème édition, Québec, 1983.[Costa, Moles 91]Joan Costa, Abraham Moles, « La imagen didáctica », Ceac, Barcelone, 1991.[Crozat 98a]Stéphane Crozat, « Veille technologique : L’évaluation des applications éducatives », Rapport interne GI, UTC, 1998.[Crozat 98b]Stéphane Crozat, « MEDA versus EMPI », Rapport interne GI, UTC, 1998.[Cucca 82]Antoine Cucca, « L’écriture du scénario », Editions Dujarric, 1982.[Debray 94]Régis Debray, « L’œil naïf », Seuil, 1994.[Deleuze 83]Gilles Deleuze, « L’image mouvement », Les Editions de Minuit, 1983.[Donay 91]Bernadette Donay, « Mise en page et typographie », Presses Pocket, 1991.[Drocourt 98]Cyril Drocourt, « Sites éducatifs et écriture multimédia », Rapport interne GI, UTC, 1998.[Dubois 83]Philippe Dubois, « L’acte photographique », Edition Labor, Bruxelles, 1983.[Duplan, Jauneau 94]Pierre Duplan, Roger Jauneau, « Maquette et mise en page », Editions du Moniteur, 1994.[Durand & al 97]Alain Durand, Jean-Marc Laubin, Sylvie Leleu-Merviel, « Vers une classification des procédés d’interactivité par niveaux corrélés aux données », H²PTM’97, Hermes, 1997.[Durand 94]Régis Durand, « Habiter l’image : Essais sur la photographie, 1990-1994 », Marval, 1994.[Eco 92]Umberto Eco, « Les limites de l’interprétation », Grasset, 1992.[Escarabajal 98]Marie Escarabajal, « La maquette blanche : Nouvelle démarche pédagogique pour l’appropriation des concepts et des outils du multimédia pour la formation », Colloque Journal du Multimédia, Paris, mai 98.[Farah 98]Jamil Farah, « L’importance de la dimension pédagogique dans la détermination d’architectures pédagogiques », Colloque Journal du Multimédia, Paris, mai 98.[Feat 97]Jym Feat, « Pour une navigation intuitive », H²PTM’97, Hermes, 1997.[Ferrières, Bouhot 91]Michel de Ferrières, Gérard Bouhot, « Eléments de technologie pour comprendre la photographie », editions V.M., 1991.[Fraïssé 97]Sylvain Fraïssé, « Une approche systématique pour la conception de documents hypermédias », H²PTM’97, Hermes, 1997.[Gallouet, Sarrazin, 97]Sophie Gallouet, Sébastien Sarrazin, « Evaluation de l’interface homme-machine de cd-rom multimédia éducatifs », Rapport interne GI, UTC, 1997.[Garcia 98]Frederick Garcia, « Apprentissage par renforcement pour l’élaboration d’un comportement rationnel chez un agent autonome » , Assises du GDR-PRC I3, juin 1998.[Gardier 91]André Gardies, « 25 ans de sémiologie », CinémAction-Corlet, Télérama, 1991.[Gaudreault, Jost 90]André Gaudreault, François Jost, « Le récit cinématographique », Nathan, 1990.[Gaussens & al 97]David Gaussens, Robert Parise, Nadine Vigouroux, Jean-Pierre Macchion, « L’Enseignement Assisté par Ordinateur : Le facteur ‘D’istance », EIAO’97, Hermes, 1997.[Gervereau 94]Laurent Gervereau, « Voir, comprendre, analyser les images », La Découverte, 1994.[Gibson 79]James J. Gibson, « The ecological approach to visual perception », LEA, Londres, 1979.[Glikman, Baron 96]Viviane Glikman, Georges-Louis Baron, EX "Baron, Georges-Louis"  « Technologie nouvelles en éducation », INRP, 1996.[Gombrich 60]Ernst H. Gombrich, « L’art et l’illusion », Gallimard, 1960.[Goody 79]Jack Goody, « La raison graphique : La domestication de la pensée sauvage », Les Editions de Minuit, 1979.[Helbo 75]Andre Helbo, « Sémiologie de la représentation : Théâtre, télévision, bande dessinée », PUF, 1975.[Hennion 93]Antoine Hénnion, « La passion musicale : Une sociologie de la médidation », Edition Métailié, 1993.[Hû 97a]Olivier Hû, « Méthodologie d’évaluation du multimédia pédagogique », Mémoire de DEA, UTC, 1997.[Hû, Trigano 98a]Olivier Hû, Philippe Trigano, « Proposition de critères d’aide à l’évaluation de l’interface homme-machine des logiciels multimédia pédagogiques », IHM’98, Nantes, septembre 1998.[Hû, Trigano 98b]Olivier Hû, Philippe Trigano, « Evaluation de l’interface homme-machine de logiciels multimédia éducatifs », Multimédia et Education, Paris, octobre 1998.[Hû & al 98c]Olivier Hû, Philippe Trigano, Stéphane Crozat, « E.M.P.I. : une méthode pour l’Evaluation du Multimédia Pédagogique Intéractif », NTICF’98, INSA Rouen, novembre 1998.[Hû & al 98d]Olivier Hû, Philippe Trigano, Stéphane Crozat, « Evaluation du multimédia pédagogique : La méthode E.M.P.I. », IN-TELE, Strasbourg, décembre 1998.[Husserl 50]Edmund Husserl, « Idées directrices pour une phénoménologie », Galimard, 1950.[Hutchins 95]Edwin Hutchins, « Cognition in the wild », MIT Press, 1995[Hutchins 94]Edwin Hutchins, « Comment le cockpit se souvient de ses vitesses », Sociologie du travail, Dunod, avril 1994.[Illich 91]Ivan Illich, « Du lisible au visible : la naissance du texte : Sur l’art de lire de Hugues de Saint-Victor », Le Cerf, 1991.[Inhelder & al 74]Bärbel Inhelder, Hervine Sinclair, Magali Bouet, « Apprentissage et structure de la connaissance », PUF, 1974.[Jacquenet, Brenot 97]François Jacquenet, Patrice Brenot, « Apprentissage des préférences utilisateurs pour l’aide à la navigation sur le Web », H²PTM’97, Hermes, 1997.[Kellner 98]Catherine Kellner, « Vers une nouvelle médiation pédagogique avec l’outil cd-rom », Colloque Journal du Multimédia, Paris, mai 98.[Kivy 89]Peter Kivy, « Sound sentiment : An essay on the musical emotion », Temple University Press, Philadelphia, 1989.[Kivy 90]Peter Kivy, « Music alone : Philosophical reflections on the purely musical experience », Cornell University Press, Ithaca, 1990.[Kolski 97]Christophe Kolski,  EX "Kolski, Christophe " « Interfaces homme-machine », Hermès EX "Hermès" , 1997[Labeke, Bernat 97]Nicolas Van Labeke, Philippe Bernat, « Conception d’un environnement d’apprentissage adaptable : une étude en géométrie de l’espace », EIAO’97, Hermes, 1997.[Latour 93]Bruno Latour, « La clef de Berlin et autres leçons d'un amateur de sciences », La Découverte, 1993. [Léglise 98]Michel Lèglise, « Un logiciel en situation dans un dispositif d’apprentissage de la conception », CAPS’98, Université de Caen, juin 1998.[Leman & al 97]Stéphane Leman, Pierre Marcenac, Sylvain Giroux, « Un modèle multi-agents de l’apprenant », Sciences et techniques éducatives volume 3 - n°4, Hermes, 1996.[Livet 88]Pierre Livet, « Image, perception et représentation », Intellectica n°5, 1998.[Livet 94]Pierre Livet, « La communauté virtuelle : Action et communication », Editions de l’Eclat, 1994.[Maillot 91]Pierre Maillot, « L’enseignement du scénario », CinémAction-Corlet, Ecole Louis Lumière, INA, 1991.[Mathien 92]Michel Mathien, « La physique des sciences de l’homme : Mélanges pour Abraham Moles », Oberlin, 1990-1992.[McAdams, Deliège 88]Stephen McAdams, Irène Deliège, « La musique et les sciences cognitives », Pierre Mardaga, Belgique, 1988.[MEDA 90]MEDA, « Evaluer les logiciels de formation », Les Editions d’Organisation, 1990.[Metz 77]Christian Metz, « Essais sémiotiques », Klincksieck, 1977.[Moles & al 66]Abraham Moles, Bernard Vallancien, M. Arslan, « Phonétique et phonation », Masson, 1966.[Moles 72]Abraham Moles, « Théorie de l’information et perception esthétique », Denoel, 1972.[Moles 90]Abraham Moles, « Art et ordinateur », Blusson, 1990.[Moles 69]Abraham Moles, « L’affiche dans la société urbaine », Dunod, 1969.[Moles, Massé 80]Abraham Moles, Marie-Pierre Massé, « La lisibilité du monde comme projet du design graphique », Cours de second cycle, UTC, 1980.[Moles, Rohmer 81]Abraham Moles, Elisabeth Rohmer, « L’image, communication fonctionnelle », Casterman, 1981.[Mucchielli 71]Roger Mucchielli, « Le questionnaire dans l’enquête psyco-sociale », Les Editions ESF, 1971.[Muller, Pesty 98]Jean-Pierre Muller, Sylvie Pesty, « Interaction, coopération et émergence dans les systèmes multi-agents » , Assises du GDR-PRC I3, juin 1998.[Murch 87]G.M. Murch, « Colour graphic – blessing or ballyhoo », Readings in human computer interaction, Morgan Kaufman Publishers, California, 1987.[Nigay, Vigouroux 98]Laurence Nigay, Nadine Vigouroux, « Multimodalité : Pour plus de naturel et de flexibilité dans l’interaction homme-machine » , Assises du GDR-PRC I3, juin 1998.[Pajon, Polloni 97]Patick Pajon, Olivier Polloni, « Conception multimédia », cd-rom, CINTE, 1997.[Parent-Altier 97]Dominique Parent-Altier, « L’approche du scénario », Nathan, 1997.[Parker, Thérien 91]
Roger C . Parker, Lise Thérien, « Mise en page et conception graphique », Reynald Goulet, 1991.[Patterson & al 97]Garry Patterson, Roisin Donnelly, Maureen Murphy, « Hypermedia for intelligent multimedia systems », H²PTM’97, Hermes, 1997.[Peeters 86]Benoît Peeters, « Autour du scénario : Cinéma, bande dessinée, roman-photo, vidéo-clip, publicité, littérature », Editions de l’Université, 1986.[Perrin, Bonnaire 98]Hélène Perrin, Richard Bonnaire, « Un logiciel pour la visualisation de mécanismes de gestion des processus du système UNIX », NTICF’98, INSA Rouen, novembre 1998.[Perrousseaux 96]Yves Perrousseaux, « Mise en page et impression : Notions élémentaires », Yves Perrousseaux, 1996.[Piaget 67]Jean Piaget, « La psychologie de l’intelligence », Armand Colin, 1967.[Piaget 69]Jean Piaget, « Les mécanismes perceptifs : Modèles probabilistes, analyse, génétique, relation avec l’intelligence », PUF, 1969.[Piaget 77]Jean Piaget, « La naissance de l’intelligence chez l’enfant », Delachaux et Niestlé, 1997.[Piché & al 98]Patrick Piché, Claude Frasson, Esma Aimeur, « Amélioration de la formation au moyen d’un agent perturbateur dans un système tutoriel intelligent », NTICF’98, INSA Rouen, novembre 1998.[Pognant, Scholl 96]Patrick Pognant, , Claire Scholl « Les cd-romculturels », Hermès EX "Hermès" , 1996.[Poinot 91]Rémy Poinot, « Photo numérique et micro informatique », Dunod, 1991.[Poynor 91]Rick Poynor, , « Typography Now : The next wave », Edward Booth-Clibborn, 1991.[Raffenel 98]Yannig Raffenel, « Nouvelle méthodologie de conduite d’un projet de création de ressources multimédia formatives », Colloque Journal du Multimédia, Paris, mai 98.[Rastier 87]François Rastier, « Sémantique interprétative », PUF ,1987.[Rastier 91]François Rastier, « Sémantique et recherches cognitives », PUF ,1991.[Reithmuler 96]Vincent Reithmuller, « Méthodologie d’évaluation de l’interface homme-machine », Mémoire de DEA, UTC, 1996.[Richman & al 87]Robin Richman, Stephen G. Hyslop, Ray Jones, David S. Thomson, « Les premières civilisations : 3000-1500 av.J.-C. », France Loisirs, Paris, 1987.[Rouillard, Caelen 97]José Rouillard, Jean Caelen, « Etude de la propagation au sein du Web à travers les liens hypertextes », H²PTM’97, Hermes, 1997.[Rüegg, Fröhlich 72]Ruedi Rüegg, Godi Fröhlich, « Bases typographiques: Manuel pour technique et conception », Edition ABC, Zurich, 1972.[Sabry-Ismail & al 97]Loay Sabry-Ismail, Cécile Roisin, Nabil Layaïda, « Navigation in structured multimedia document using presentation context », H²PTM’97, Hermes, 1997.[Saint-Martin 87]Fernade Saint-Martin, « Sémiologie du langage visuel », Presses de l’Université du Québec, Canada, 1987.[Salesse 97]Olivier Salesse, « Méthodologie d’évaluation pour le multimédia pédagogique : Etat de l’art et critères d’évaluation », Mémoire de DEA, UTC, 1997.[Sanchez, Lumbreras 97]Jaime Sanchez, Mauricio Lumbreras, « Hyperstories : Interactive narrative in virtual worlds », H²PTM’97, Hermes, 1997.[Scapin, Bastien 97]Dominique Scapin, J.M.Christian Bastien, « Ergonomic criteria for evaluating the ergonomic quality of interactive systems », Behaviour & Information Technology, n°16, 1997.[Scapin, Bastien 98]Dominique Scapin, J.M.Christian Bastien, « Ergonomie du multimédia et du Web : Question et résultats de recherche » , Assises du GDR-PRC I3, juin 1998.[Schoeffer 87]Jean-Marie Schoeffer, « L’image précaire », Seuil, 1987.[Sely 98]Gérard De Selys, « L’école grand marché du XXIème siècle », Le Monde Diplomatique, juin 1998.[Singly 93]François De Singly, « L’enquête et ses méthodes : Le questionnaire », Nathan, 1992.[Sorlin 92]Pierre Sorlin, « Esthétiques de l’audiovisuel », Nathan, 1992.[Sperandio 93]Jean-Claude Sperandio, « l’ergonomie dans la conception des projets informatiques », Octares, 1993.[Stiegler 94]Bernard Stiegler, « La technique et le temps : 1, la faute d'Epiméthée », Galilée, 1994.[Stiegler 96]Bernard Stiegler, « La technique et le temps : 2, la désorientation », Galilée, 1996.[Strong 98]Gary Strong, « Human centered systems research and development in the United States » , Assises du GDR-PRC I3, juin 1998.[Theureau 1998]Jacques Theureau, « Anthropologie cognitive située », Cours de DEA, UTC, 1998.[Trigano 97a]Philippe Trigano, « Quelques critères d’évaluation de l’interface homme-machine de logiciels éducatifs multimédia », ITC’97, Paris, janvier 1997.[Trigano 97b]Philippe Trigano, « Evaluation de l’interface homme-machine de logiciels éducatifs multimédias », Le Journal du Multimédia, n°18, janvier 1997.[Type, Frommer 85]J.H. Mc Type, W.D. Frommer, « Effects on character / background colour combination on CRT character lisibility », HFS’85, proceedings of human factor society, 1985.[Valentin & al 93]A. Valentin, G. Vallery, R. Lucongsang, « l’evaluation ergonomique des logiciels », Anact, 1993.[Vanderdonckt 98]Jean Vanderdonckt, « Conception ergonomique de pages WEB », Notes de cours, Vesale, 1998.[Vanoye 91]Francis Vanoye, « Scénario modèles et modèles de scénario », Nathan, 1991.[Vanoye, Goliot-Lété 92] Francis Vanoye, Anne Goliot-Lété, « Précis d’analyse filmique », Nathan, 1992.[Varela 88]Francisco J. Varela, « Connaître les sciences cognitives : Tendances et perspectives », Seuil, 1988.[Varela 89]F.J. Varela, « Connaître : Les sciences cognitives », Seuil, 1989.[Vivet 96]Martial Vivet, « Evaluating educational technologies : Evaluation of teaching material versus evaluation of learning ? », CALISCE’96, San Sebastian, juillet 1996.[Vivet, Lehuen 98]Martial Vivet, Jérôme Lehuen, « Allons nous apprendre avec des machines qui apprennent ? », CAPS’98, Université de Caen, juin 1998.[Winkin 96]Yves Winkin, « Anthropologie de la communication: De la théorie au terrain », DeBoeck Université, Belgique, 1996.[Winnykamen 90]Fayda Winnykamen, « Apprendre en immitant ? », PUF, 1990.[Winograd 87]Terry Winograd, « A language/action perspective on the design of cooperative work », Human-Computer Interaction, 1987.Lexique
Affordances : Terme introduit par Gibson pour décrire la perception (visuelle) de l’animal sur ce que l’environnement lui offre. Ce terme a été utilisé dans notre cadre pour maîtriser les impressions générales.
Composition multimédia : Ensemble regroupant la forme multimédia des documents, leur scénarisation, les relations entre ceux-ci et les impressions générales qui en découlent.
Contexte pédagogique : Ensemble des caractéristiques concernant l’utilisateur et son apprentissage (âge, niveau, disponibilité, matière étudiée, situation d’apprentissage, …)
Didacticiel : Logiciel ayant pour vocation de conduire un apprentissage. Dans notre contexte les didacticiels sont également multimédia, c’est à dire utilisant conjointement des documents textuels, visuels et sonores.
Documents : Ensemble d’informations cohérentes utilisant la même forme d’appropriation (son, texte ou image).
Empattement : Dans le domaine de la typographie, désigne certaines polices qui agrémentent le prolongement des caractères pour donner un aspect de continuité (r / r).
EMPI (Evaluation du Multimédia Pédagogique Intéractif) : Méthode mise au point sous le direction de Philippe Trigano, et dont l’objectif et l’aide à l’évaluation de didacticiels multimédia.
Impressions générales : Ensemble des impressions ressenties instinctivement par un utilisateur devant un didacticiel.
Jambage : Dans le domaine de la typographie, désigne le franchissement de la ligne normale de texte par certains caractères (p,q,g, …)
NTE (Nouvelles Technologies Educatives) : Ensemble des techniques modernes de l’information mises en œuvre dans le cadre de l’aide à l’apprentissage.
Objectif pédagogique : Ensemble de savoir et de savoir-faire à maîtriser à la fin d’un l’apprentissage.
Pareto : Histogramme particulier dont les valeurs sont triées par ordre décroissant.
Réalisateur : Dans le cadre de ce mémoire le terme de réalisateur désigne le concepteur d’un didacticiel en vue de son utilisation dans un apprentissage.
Relations : Dans le contexte du multimédia, les documents ne sont pas indépendants entre eux. Dans ce mémoire le terme de relation fait référence aux influences qu’ils exercent les uns sur les autres.
Scénarisation : Ensemble des techniques d’écriture utilisées pour agencer et présenter les documents dans le didacticiel.
Sessions : Unités de temps utilisées dans le cadre de l’apprentissage par didacticiel. Une session est un laps continu passé à utiliser le logiciel.
Tuteur : Dans le cadre de ce mémoire le terme de tuteur désigne l’utilisateur d’un didacticiel, en vue d’appuyer un apprenant dans son apprentissage.
Utilisateur : Dans le cadre de ce mémoire, le terme d’utilisateur désigne un utilisateur de didacticiel ayant un objectif d’apprentissage. Le terme apprenant est également parfois employé.
Liste complète des critères
 INCORPORER OrgPlusWOPX.4 
 Par exemple, l’association FIRST, à Compiègne, propose des didacticiels orienté vers des personnes handicapées ou en situation de grande difficulté. Le didacticiel peut dans ces conditions être particulièrement utile, au delà des frontières des formes d’apprentissage classiques.
 Pour le moment probablement un cd-rom
 Nouvelles Technologies Educatives
 Information Interaction Intelligence
 Précisons que cet aspect est né au cours des recherches et non initialement.
 Les besoins concernent également largement le domaine de l’apprentissage de l’enfant, et EMPI pourra être adapté dans ce but, dans un second temps.

 Nous entendons par évaluation instinctive une évaluation sans méthode précise.
 Ce corpus est disponible sur le site Internet « http://www.cyberscol.qc.ca/BD/MEQ » et a été réalisé par des évaluateurs canadiens.
 Nous avons pour cela utilisé le logiciel développé par Sid Lamrous au sein du Laboratoire Heudyasic.
 Version informatisée de la méthode présentée dans [MEDA 90].
 Notons que d’autres documents numériques, odorants ou tactiles par exemple, verront peut-être le jour dans le cadre de didacticiels très multimédia …
 Notons que ces résultats concerne le texte commun, pas nécéssairement les textes gras, de corps élevés, …
 A titre indicatif l’indice de ce mémoire est de 55 (20 mots par phrase et 1,9 syllabes par mot)
 Nous présenterons tout au long de ce mémoire les différentes parties de l’organigramme hiérarchique des critères d’évaluation que nous proposons. On consultera l’organigramme complet (« Liste complète des critères », p. RENVOIPAGE _Ref429575037 \h 137) et le questionnaire dans le document technique.
 On notera que cette approche s’est révélée fausse, mais néanmoins les principes énoncés restent eux valables [Aumont 90].
 Potentiellement, car certaines applications proposent des structures classiques sans profiter des spécificités du support.
 C’est une des raisons qui a poussé à regrouper les numéros de téléphone par paires lors du passage à huit chiffres.
 On citera également les travaux de Dominique Boullier sur les problématiques de conception [Boullier 97a], [Boullier 97b].
 Cet expert pouvant être le tuteur par exemple.
 Ce qui est un des cas que nous souhaitons traiter à travers nos travaux sur l’évaluation : Par exemple le choix entre plusieurs logiciels dans une démarche d’achat.
 Et ce malgré la totale liberté dont les évaluateurs disposaient
 Les références à « The ecological approach to visual perception » seront simplement faites à travers le numéro de page, sans rappeler l’ouvrage ou l’auteur, dans l’ensemble de cette partie.
 Le terme affordance a été introduit par Gibson à partir du verbe anglais to afford. Nous avons conservé le même terme en français par peur de perdre dans la traduction le sens que Gibson met dans ce terme.
 Dans tous les exemples que nous citerons, les affordances exprimées ne sont que quelques-unes parmi l’ensemble (nous verrons plus tard que les affordances sont multiples) et sont perceptibles pour des hommes (chaque individu perçoit des affordances différentes), voir «  RENV _Ref425247320 \h Propriétés » p. RENVOIPAGE _Ref425247322 \h 96.
 C’est à dire un élément de l’environnement.
 Les définitions suivantes sont rappelées en Annexe I de « The ecological approach to visual perception » [p.307-308]
 www.rxrc.xerox.com/research/affordances/what/what.html
 www.phil.indiana.edu/ejap/1996.spring/sanders.1996.spring.html
 nic2.hawaii.edu/usr-cgi/ssis/~grace/ eln7.html
 loohooloo.mit.edu/arch/4.207/lecture-notes/wk2.html
 Ayant défini que le logiciel était un lieu dans lequel l’utilisateur apprenait, on suppose l’utilisateur suffisamment concentré sur son travail pour ignorer les affordances venant du reste de l’environnement.
 On entend par classe d’utilisateurs un ensemble d’utilisateurs disposant d’un contexte pédagogique commun (mêmes objectifs, même formation, même disponibilité, …)
 Système de Gestion de Bases de Données Relationnelles
 Dominique Boullier pour ne pas le citer …

Auteur Stéphane Crozat Directeur Philippe Trigano
DEA Contrôle des Systèmes Laboratoire d’accueil Heudiasyc
UTC Ecole doctorale Projet effectué de Mars à Août 1998
UNIVERSITE DE TECHNOLOGIE DE COMPIEGNE













Méthode d’évaluation de la composition multimédia des didacticiels p. PAGE \* FUSIONFORMAT 96/ NBPAGES \* FUSIONFORMAT 137









Spirituel


PasséSpirituel


FuturPassé


MatérielFutur


Matériel










Le schéma ci-contre résume graphiquement notre point de vue, et met notamment en valeur un caractère essentiel de notre découpage : Les aspects que nous venons d’énumérer ne sont pas indépendants entre eux et se recoupent fréquemment.