Sommaire - Exercices corriges
John Jackson, Mémoire et subjectivité romantiques, Corti, 1999. .... Il ne s'agit en
aucun cas de passer en revue la totalité des ?uvres qui ..... possible de l'
allemand authentique, soit en regardant des films ou des séries en .....
accompagnés d'exercices d'application (mais les corrigés sont vendus dans un
livret annexe !)
part of the document
PAGEREF _Toc27574038 \h 41
HYPERLINK \l "_Toc27574039" Partie 2 Émergence dune politique de la mémoire : quelques repères PAGEREF _Toc27574039 \h 47
HYPERLINK \l "_Toc27574040" 2.1 - Mémoires, écritures distribuées et normalisation PAGEREF _Toc27574040 \h 52
HYPERLINK \l "_Toc27574041" 2.1.1 - Le procès de normalisation dans le domaine numérique PAGEREF _Toc27574041 \h 53
HYPERLINK \l "_Toc27574042" 2.2 - Normalisation et communautés de recherche PAGEREF _Toc27574042 \h 55
HYPERLINK \l "_Toc27574043" Partie 3 La montée en puissance du document numérique : nouvelles caractéristiques et différenciation(s) PAGEREF _Toc27574043 \h 59
HYPERLINK \l "_Toc27574044" 3.1 - Repères PAGEREF _Toc27574044 \h 61
HYPERLINK \l "_Toc27574045" 3.2 - Le processus dhypertextualisation PAGEREF _Toc27574045 \h 64
HYPERLINK \l "_Toc27574046" 3.3 - Sur les pratiques décriture-lecture. PAGEREF _Toc27574046 \h 67
HYPERLINK \l "_Toc27574047" 3.3.1 - Les activités de lecture-écriture dans les uvres littéraires ou artistiques PAGEREF _Toc27574047 \h 70
HYPERLINK \l "_Toc27574048" 3.4 - Un des apports possibles des sciences de linformation PAGEREF _Toc27574048 \h 78
HYPERLINK \l "_Toc27574049" Partie 4 Problèmes de lédition électronique PAGEREF _Toc27574049 \h 85
HYPERLINK \l "_Toc27574050" 4.1 - Les études concernant lédition électronique PAGEREF _Toc27574050 \h 92
HYPERLINK \l "_Toc27574051" 4.1.1 - Logiciel Open Source, Licences Open Source PAGEREF _Toc27574051 \h 95
HYPERLINK \l "_Toc27574052" 4.1.1.1 - HyperNietzsche : un exemple de modèle contractuel PAGEREF _Toc27574052 \h 99
HYPERLINK \l "_Toc27574053" 4.2 - Sur le projet HyperNietzsche : Paolo dIorio et William Turner PAGEREF _Toc27574053 \h 105
HYPERLINK \l "_Toc27574054" 4.2.1 - À propos des archives ouvertes PAGEREF _Toc27574054 \h 108
HYPERLINK \l "_Toc27574055" 4.3 - Édition électronique et E-Learning PAGEREF _Toc27574055 \h 114
HYPERLINK \l "_Toc27574056" Partie 5 Numérisation, Édition électronique et Droit PAGEREF _Toc27574056 \h 121
HYPERLINK \l "_Toc27574057" 5.1 Les travaux du Pôle Droit du PNER PAGEREF _Toc27574057 \h 123
HYPERLINK \l "_Toc27574058" 5.2 Réflexion prospective PAGEREF _Toc27574058 \h 129
HYPERLINK \l "_Toc27574059" Partie 6 Des outils aux usages PAGEREF _Toc27574059 \h 137
HYPERLINK \l "_Toc27574060" 6.1- Sur quelques outils, instruments : les exerciseurs PAGEREF _Toc27574060 \h 139
HYPERLINK \l "_Toc27574061" 6.2 - Symposium Technologies informatiques en éducation PAGEREF _Toc27574061 \h 143
HYPERLINK \l "_Toc27574062" 6.2.1 - Les technologies informatiques en éducation PAGEREF _Toc27574062 \h 146
HYPERLINK \l "_Toc27574063" 6.3 - La question des usages PAGEREF _Toc27574063 \h 151
HYPERLINK \l "_Toc27574064" 6.3.1 - Chercheurs à luvre, Étude qualitative des usages du système documentaire de lInathèque de France PAGEREF _Toc27574064 \h 157
HYPERLINK \l "_Toc27574065" 6.3.2 - Méthodes et outils pour lobservation et lanalyse des usages PAGEREF _Toc27574065 \h 160
HYPERLINK \l "_Toc27574066" 6.3.3 - Les communautés délocalisées denseignants : les listes étudiées PAGEREF _Toc27574066 \h 173
HYPERLINK \l "_Toc27574067" 6.3.4. - Les communautés délocalisées denseignants PAGEREF _Toc27574067 \h 175
HYPERLINK \l "_Toc27574068" Conclusion Recommandations PAGEREF _Toc27574068 \h 189
HYPERLINK \l "_Toc27574069" Annexes PAGEREF _Toc27574069 \h 197
HYPERLINK \l "_Toc27574070" Quelques ressources complémentaires PAGEREF _Toc27574070 \h 209
HYPERLINK \l "_Toc27574071" 1 - Notes du colloque Open Source PAGEREF _Toc27574071 \h 209
HYPERLINK \l "_Toc27574072" 2 - Notes : Culture et numérisation PAGEREF _Toc27574072 \h 209
HYPERLINK \l "_Toc27574073" 3 - Ressources concernant les standards PAGEREF _Toc27574073 \h 211
HYPERLINK \l "_Toc27574074" 4 - Notes : Copyleft/Open Source PAGEREF _Toc27574074 \h 214
HYPERLINK \l "_Toc27574075" 5 - Une communauté savante face aux nouvelles instrumentations numériques PAGEREF _Toc27574075 \h 214
HYPERLINK \l "_Toc27574076" 5.1 - Documentation satorienne PAGEREF _Toc27574076 \h 214
HYPERLINK \l "_Toc27574077" 5.2 - Ressources en ligne PAGEREF _Toc27574077 \h 216
HYPERLINK \l "_Toc27574078" 6. Sources complémentaires PAGEREF _Toc27574078 \h 216
HYPERLINK \l "_Toc27574079" 7 - Notes : Les communautés délocalisées denseignants PAGEREF _Toc27574079 \h 217
HYPERLINK \l "_Toc27574080" 7.1 - Les communautés délocalisées denseignants : ( suite ) PAGEREF _Toc27574080 \h 226
HYPERLINK \l "_Toc27574081" 8 - Notes : Observation et analyse des usages : méthodes et outils PAGEREF _Toc27574081 \h 232
HYPERLINK \l "_Toc27574082" 9 - Inathèque de France : usages du système documentaire PAGEREF _Toc27574082 \h 236
HYPERLINK \l "_Toc27574083" 10 - Références sur les fondateurs de lhypertexte PAGEREF _Toc27574083 \h 237
HYPERLINK \l "_Toc27574084" 11- Notes : Édition numérique PAGEREF _Toc27574084 \h 246
Avant-propos
Jean-Luc Lory
Directeur du programmeAdjoint de lAdministrateur de la MSH
Cest en janvier 1999 que le Ministère de léducation Nationale, de la Recherche et de la Technologie confie à la Maison des Sciences de lHomme la conduite et lanimation du Programme Numérisation pour lEnseignement et la Recherche - PNER.
Cette initiative est un des reflets de la réflexion des pouvoirs publics sur limpact des recours aux nouvelles technologies dans le domaine de léducation, de lenseignement supérieur et de la recherche. Analyser les évolutions des usages et de nouvelles normes, qui rapidement se faisaient jour - en bénéficiant dune réflexion associant enseignants, chercheurs, décideurs publics et privés et spécialistes de ces nouvelles technologies - simposait comme une priorité.
Ainsi, dès sa mise en place, le pner se dote dun Comité Scientifique large regroupant des acteurs des domaines que lon vient dévoquer mais aussi dun Comité de Pilotage où, aux côtés de représentants de léducation et de la Recherche, siègeront ceux de la Culture, des Affaires étrangères puis de la Mission dAccès Public à lInternet (MAPI).
Simultanément un réseau dexperts se constitue ; il ne cessera de sélargir tout au long du programme. Ces experts seront sollicités pendant toute la durée de nos activités pour les orienter, les évaluer et les animer ; ils viennent de laboratoires de recherche du cnrs ou des universités, de grands organismes ou de structures ministérielles. Ils sont aussi issus du privé : du milieu de lédition classique, numérique ou multimédia. Enfin, ces experts sont français mais aussi étrangers.
En constant accroissement tout au long du programme, le nombre de ces experts du réseau pner atteignait fin 2002 environ 130 personnes.
Cest grâce à limportance de ce groupe et à sa qualité que nous avons pu exploiter la compétence de nombre dentre eux dans des programmes détudes, (notamment notre Programme dActions concertées de Recherche ), de conférences, de séminaires, dexpertises tout au long des activités du PNER, activités dont les résultats vous sont proposés dans les pages qui suivent ou sur les sites dinformations en ligne qui ont été constitués.
Ce programme a également largement bénéficié de lindispensable dialogue avec les représentants des ministères qui lont accompagné et spécialement les membres de la Direction de la Technologie au sein de laquelle je remercie particulièrement Alain Costes son Directeur, mais aussi sa collaboratrice Françoise Thibault et Martine Comberousse (qui a travaillé à nos côtés pendant la première année et demi du programme). Merci également à la Direction de la Recherche à Michel Eddi, et à Pierre-Cyrille Hautcoeur en charge des Sciences de lHomme et de la Société dans cette direction. Ces remerciements vont également à : Alain Giffard en charge de la mapi et Jean-Pierre Dalbéra, Chef de la Mission de la Recherche et de la Technologie au Ministère de la Culture et de la Communication qui a impliqué son ministère dans ce programme et qui nous a fait profiter de ses grandes compétences dans les domaines auxquels nous nous sommes consacrés.
Je tiens aussi à saluer léquipe des permanents qui mont accompagné pendant plus de trois ans et demi : Marie-Thérèse Cerf pour son inestimable travail de coordination, à laquelle Catherine Ficat a apporté son concours, Laure Mosli et Philippe Chevet tous deux juristes qui se sont beaucoup investis dans le développement qua pris le Pôle Droit du pner (Philippe Chevet sest non seulement acquitté de ce travail de suivi avec beaucoup de talent mais il a également réalisé un travail de chercheur et danimateur scientifique dont ses publications témoignent) et Olivier Pinte qui a eu la responsabilité de la production en ligne du pner sur les sites pner.org et le mag.org.
Enfin ma reconnaissance sadresse aux principaux responsables scientifiques de ce programme qui mont apporté leur concours :
Isabelle de Lamberterie, Directrice de recherche au cnrs en charge du Pôle Droit du programme. Animatrice infatigable de séminaires, de colloques et de nombreux ateliers de travail, elle est également co-auteur et éditeur scientifique de louvrage Numérisation pour lenseignement et la recherche Aspects juridiques septembre 2002, que nous publions en même temps que ce rapport de synthèse.
Jacques Perriault, professeur à Paris X-Nanterre, animateur du Pôle Normes, qui a mis en place un cycle de séminaires-débats qui a mobilisé un grand nombre dacteurs et de chercheurs.
Serge Pouts-Lajus, responsable de lote (Observatoire des Technologies de léducation), animateur du Pôle Usages. Il a coordonné à ce titre léquipe de chercheurs réunis dans le volet Usages de notre Programme dActions Concertées de Recherche .
Jean-Max Noyer, enseignant chercheur à Paris VII et auteur du présent ouvrage, qui sest consacré à cette entreprise délicate avec beaucoup de patience et de compétence.
Au terme de ces trois années et demi, la Fondation Maison des Sciences de lHomme ne tire pas un trait sur les thématiques du programme. Dores et déjà plusieurs initiatives concernant, notamment, les publications électronique en Sciences de lHomme et de la Société ou un site dinformations en ligne sur la recherche dans le domaine des Technologies de lInformation et de la Communication pour léducation, lenseignement supérieur et la recherche ainsi que lorganisation conjointe de cycles de séminaires et de conférences sont initiés avec les moyens qui ont été mis à disposition du PNER. Ces initiatives futures bénéficieront des compétences du réseau dexperts dont les membres ont accepté de continuer à nous accompagner.
Présentation des objectifs initiaux du PNER
Les buts du PNER étaient de prendre la mesure des comportements, transformations et enjeux portés par lirruption relativement brutale du processus de numérisation des signes, du développement des réseaux électroniques ainsi que par lévolution de léconomie politique des savoirs.
Ses missions, au nombre de trois, consistaient à donner un éclairage sur les modes dadoption, de dissémination des nouvelles technologies de linformation communication, des nouvelles technologies intellectuelles au cur du système éducatif et de la recherche en général.
Lobservation et lanalyse des dynamiques à luvre au sein de ces nouveaux milieux se déployant à partir de trois pôles : le pôle Normes, le pôle Usages, le pôle Juridique. Ces trois pôles ayant été identifiés, choisis comme points où semblaient sappliquer un certain nombre de forces majeures, expression et exprimé suffisamment riche, des processus en cours. Sans pouvoir faire lexamen des conditions et de la critériologie ayant présidé au choix de ces pôles, il est apparu très rapidement quils étaient des fils dAriane, des lieux particulièrement intéressants pour comprendre plus profondément les transformations en cours.
Le pôle Normes devait permettre de questionner un enchevêtrement de forces et de réseaux dacteurs-réseaux techno-politiques, économiques, de mettre en perspective un ensemble de transformations affectant les pratiques intellectuelles, les pratiques décriture-lecture, les processus socio-cognitifs ainsi que lémergence de nouveaux agencements collectifs dénonciation à luvre au sein du système éducatif et de recherche. Dans ce cadre, un intérêt particulier devait être porté aux problèmes liés à lédition numérique ainsi quaux normes et standards.
Le pôle Usages devait sattacher à étudier les processus dadoption plus ou moins complexes des nouvelles médiations, les modes dobservation et de formalisation des diverses pratiques cognitives, éducatives, impliquées dans lapprentissage, ainsi que les nouvelles caractéristiques des communautés denseignants.
Le pôle Juridique du Programme Numérisation pour lEnseignement et la Recherche devait aborder les questions liées à lutilisation de documents numériques en milieu scolaire, universitaire et au sein de la recherche. Enfin, les travaux réalisés dans chacun de ces pôles devaient être porteurs de dynamiques transversales, riches en chevauchements, passerelles, traductions.
Dans la formulation initiale et institutionnelle, les objectifs annoncés étaient les suivants.
Le pôle Normes devait donc engager une réflexion générale sur les normes et standards impliqués par le processus de numérisation des signes. Les propositions de travail formulées dans le cadre de ce pôle devaient aussi prendre très largement en compte la question des usages. Ces propositions englobaient :
les dispositifs dutilisation et les équipements correspondants, notamment les équipements collectifs, en termes darchitecture, dorganisation du travail, de ressources humaines,
les politiques publiques des décideurs, nationaux, territoriaux
les stratégies de marché.
Ces travaux devaient favoriser la réflexion sur la question de la normalisation de la numérisation afin daboutir à la formulation dune position française plus efficace. Cette réflexion devant sarticuler autour de trois axes :
les normes et standards de lapprentissage en ligne
les espaces publics et les politiques publiques daccès au numérique
létude de communautés de pratiques sur Internet, autour de lécriture et de la lecture.
Normes et standards de lapprentissage en ligne
Il sagissait dexaminer comment les utilisateurs des réseaux se représentaient la question des normes internationales de numérisation pour lapprentissage en ligne et lenquête ayant révélé à quel point les communautés concernées étaient peu préparées à maîtriser la question des normes et à avoir une position dans un contexte international plusieurs séances de travail sur ces questions ont été organisées.
Trois priorités avaient été dégagées :
stimuler une action de coopération et de réflexion destinée à alimenter la négociation ISO dans le cadre du SC 36,
étendre la réflexion, au-delà des activités directement concernées par la numérisation, à lorganisation des sites collectifs de réception, à la conception ou à la réorganisation des équipements publics, à lorganisation du travail dans ces sites et aux qualifications et compétences requises,
élaborer une position commune, afin de donner plus de poids aux propositions et recommandations de normalisation aux instances nationales et européennes.
Espaces publics et politiques publiques daccès au numérique
Cet ensemble de séminaires devait concerner lorganisation de la demande et de laccès aux fonds mis en ligne, dans les contextes denseignement, de formation et de recherche.
Trois priorités, là encore, avaient été dégagées :
la mise en place dune médiation entre les usagers et les nouveaux outils de communication, lanimation de ces lieux publics comme éléments essentiels de leur pérennisation et de leur inscription dans le tissu local,
la conception et la diffusion de contenus numériques personnalisés afin de favoriser lexpression par les acteurs locaux de leur identité culturelle. Dores et déjà certaines initiatives, relayées significativement par les collectivités territoriales, comme la mise en place de portails daccès, ainsi que la mise en ligne du patrimoine culturel et scientifique, peuvent sinscrire dans cet objectif,
laccessibilité et linteropérabilité comme éléments incontournables liés aux besoins de lusager et du producteur fournisseur de services NTIC lorsquil sagit dobtenir une information structurée, de la classer, de lintégrer dans un parcours de connaissances.
Communautés de pratiques décriture, lecture sur Internet
Il sagissait, au-delà des premiers effets dus à une transposition, sur le réseau, des fonctions traditionnelles des organisations culturelles, des dispositifs éditoriaux, des modes denseignement
, détudier les transformations souterraines en cours, dexaminer les nouvelles formes organisationnelles émergentes... Pour percevoir ces nouveaux comportements, ces nouvelles pratiques distribuées, les multiples communautés éditoriales, éducatives, de recherche, en train de se développer à partir et sur les réseaux devaient être identifiées et étudiées au moyen dune veille stratégique, ainsi que par des enquêtes auprès des internautes.
Trois priorités avaient été dégagées :
les procédures individuelles de téléchargement de textes sur livres électroniques ou agendas électroniques : thèmes, modalités de lecture,
les communautés décriture et de lecture dans un contexte hypertextuel ,
le livre électronique dans laccès à linformation.
Le pôle Usages avait lui pour objet de réaliser des études portant sur les contenus numériques ou sur une observation des usages et des pratiques en cours, dans le domaine de lenseignement et de la recherche. Il était prévu que les thèmes de travail proposés soient traités, non pas dans toute leur généralité, mais à travers des sujets constituant, en quelque sorte, des thématiques transversales, mais non exclusives.
Quatre types détudes avaient été retenus pour ce pôle :
des études sur les contenus numériques,
des études sur les usages et les pratiques dans le domaine de lenseignement scolaire,
des études sur les usages et les pratiques dans le domaine de lenseignement supérieur,
des études sur les usages et les pratiques dans le domaine de la recherche.
Étude sur les contenus numériques
Cette étude devait être articulée autour de lanalyse des processus dhypertextualisation dans le contexte numérique.
Lhypertextualité numérique est généralement définie par un ensemble de propriétés : laccroissement des capacités associatives entre des documents ou parties de documents (un hypertexte est un agrégat déléments dinformation textuelle, sonore, visuelle entretenant des connexions diverses, à divers niveaux déchelle), linformatisation (le contenu dun hypertexte est installé sur support électronique ou en ligne (propriétés évolutives), lapparition de nouvelles pratiques décriture-lecture, le développement de nouveaux rapports de vitesse et de lenteur affectant les pratiques cognitives ainsi que de nouvelles aides à lorientation (logiciels de cartographies) dans un univers conjuguant de façon parfois complexe, schémas arborescents et rhizomatiques. Enfin, lhypertextualité numérique ouvre à un espace fractal, vivant, dans lequel le travail des documents est rendu plus visible et dans lequel les notions de linéarité, non-linéarité deviennent secondes pour laisser la place à des écritures et pratiques hybrides de type connexionniste.
Cette étude visait donc, de manière critique la notion dhyperdocument. Cette dernière désignant tout contenu informatif constitué dune nébuleuse de fragments dont le sens se construit au moyen doutils décritures informatiques et à travers différents types de parcours : écritures, lectures, citations, associations, réécritures, commentaires
Dans ce contexte, les nouveaux usages du texte devaient être scrutés dans deux directions.
Dune part, sur un plan quantitatif, il sagissait daborder les problèmes induits par la puissance fonctionnelle de loutil électronique et de délimiter, par exemple dans lespace des textes interconnectés un sous-ensemble homogène et susceptible dune exploitation raisonnée.
Dautre part, au plan qualitatif, il sagissait de mener de front une réflexion théorique et une évaluation pratique. Comment sinterroger sur le rendement sémantique, cognitif et informationnel des structures et des fonctionnalités décriture-lecture qui caractérisent lhypertextualité. numérique ? En sintéressant très précisément aux logiques daccès, daffichage et denregistrement des données était visée la mise à jour des pratiques de lecture que ces trois logiques, dans leurs interactions, déterminent.
Quels contenus ?
Il sagissait de développer des réflexions appuyées sur un certain nombre dexpérimentations permettant de prendre la mesure des différentes communautés duvre en tant quelles sont de plus en plus des incomplétudes en procès de production , et de définir de nouvelles critériologies et méthodes permettant de valider, travailler à lintérieur et à partir de grands corpus documentaires numériques plus vastes, plus hétérogènes.
Les questions majeures devant orienter la recherche étaient les suivantes :
Quest ce quun corpus et quels sont ses critères de légitimité ?
Comment construire un corpus et où arrête-t-on les frontières de constitution dun grand corpus ?
Pour quels objectifs ? Quelles applications ? Et quels lectorats uniques ou multiples ?
Quels outils logiciels dorientation, de recherche, de traitement ?
Quelles lectures ?
Semblaient demeurer alors deux inconnues : à partir de quelle masse critique un corpus sera-t-il reconnu comme valide ? Quelles formes de lecture sont elles alors supposées ?
La structure fonctionnelle des dispositifs électroniques paraissant favoriser certaines mises en forme des textes (multifenêtrage, variations typographiques, réduction en icône
) et certaines opérations sur les textes (activation de liens, recherche doccurrences, de co-occurrences, accès multiples, production de graphes
).
Ainsi, des pratiques de lecture qui se trouvent bridées par la pesanteur du support imprimé trouvent dans lappareil électronique les moyens de leur accomplissement.
La mise à disposition de contenus évolués et ciblés sur Internet est reconnue de plus en plus nécessaire. La question des modes de construction des corpus numérisés (choix des domaines, types de délimitations, prises en compte des nouvelles capacités dassociation, des nouvelles pratiques cartographes) demeure capitale car encore peu explicitée et ne faisant guère lobjet danalyses approfondies. De même, le développement de nouveaux modes éditoriaux incluant la mise à disposition de nouvelles technologies intellectuelles permettant de travailler dans des espaces collaboratifs riches, daccéder de manière plus développée aux réseaux constitutifs de la production, dissémination, circulation, reprise des savoirs, occupe une place centrale. Linterrogation sur la notion dhypertexte et les types décriture-lecture ainsi induits sur Internet est encore plus cruciale et pourtant, les réflexions sur les modes de navigation, citation, altération-création, restent parcellaires, souvent pauvres en développement.
Études sur les usages et les pratiques dans le domaine de lenseignement
Les objectifs des études étaient les suivants :
Mettre en place une approche des usages par les ressources, qui permettrait de considérer séparément les ressources produites par les enseignants et les chercheurs, souvent dans une perspective de mutualisation, des ressources produites par des institutions publiques et privées suivant la démarche éditoriale classique et donnant lieu à une exploitation commerciale, ainsi quune analyse de la continuité croissante entre lespace institutionnel et lespace domestique.
Parallèlement observer et analyser des effets des politiques publiques de généralisation des équipements sur les usages (qui ne sont plus ceux des pionniers ).
Pour percevoir ces nouveaux comportements culturels, les multiples communautés de pratiques apparues sur les réseaux seront identifiées et étudiées au moyen dune veille stratégique et de lexploration du Web ainsi que par des enquêtes auprès dinternautes.
Étude proposée dans le domaine de lenseignement scolaire : les communautés délocalisées denseignants.
Lun des effets les plus frappants de la diffusion des usages dInternet dans lenseignement est lapparition de communautés délocalisées qui se constituent autour de listes de diffusion ou de sites Web qui se consacrent à la mutualisation de ressources didactiques proposées par les membres eux-mêmes.
Létude devait appréhender les questions posées par lémergence des communautés délocalisées de multiples façons : typologie des comportements des colistiers (actifs, passifs, etc.), étude des ressources mutualisées, de leurs producteurs, de leurs contenus et des usages auxquelles elles donnent lieu, effets de lappartenance à une liste sur les représentations et les pratiques, effets sur le fonctionnement de linstitution, cas particulier des communautés territorialisées, etc.
Les usages pédagogiques des hypermédias et des exerciseurs
Lusage pédagogique de ressources structurées comme des hypertextes ou des hypermédias a été lobjet de nombreuses recherches au cours des dernières années. Ce qui est connu des usages dans les établissements et dans les familles montre que des ressources de type exerciseurs (logiciels parascolaires, ludo-éducatifs, daccompagnement scolaire, de re-médiation, suivant les appellations) connaissent un grand succès mais sont beaucoup moins connus et étudiés que les hypertextes.
Létude devait conduire à faire dune part, un état de lart synthétique de ce champ de connaissances et dautre part, à placer conjointement la problématique des usages pour chacune de ces deux catégories (exerciseurs, hypertextes) de produits éducatifs, sous le regard dune même analyse critique.
Méthodes et outils pour lobservation et lanalyse des usages
Les dispositifs et équipements techniques daccès à des ressources numérisées hors-ligne et en ligne sont en voie dêtre déployés, partiellement dans les familles, mais beaucoup plus largement dans les espaces publics comme les établissements scolaires.
Il était suggéré, pour cette étude, de réunir les différents points de vue reconnus, de faire linventaire des méthodes et des outils pratiqués par les chercheurs, quelles soient liées aux traditions sociologique ethnologique, clinique ou statistique.
Études dans le domaine de lenseignement supérieur : usages et pratiques de ressources numérisées pour la formation ouverte à distance
Ce thème devait être traité au travers de trois études. Il devait selon la spécificité des enseignements supérieurs et des fonctions des enseignants-chercheurs, permettre de penser larticulation entre lutilisation des ressources numérisées pour la recherche et pour lenseignement, et la production des documents pédagogiques, stricto sensu.
En distinguant usages et pratiques il avait été souhaité prendre acte de la distinction établie dans le champ des sciences de linformation et de la communication entre ce qui est de lordre du rapport aux outils et techniques (usages) et ce qui englobe les représentations et valeurs associées aux dites technologies (pratiques).
Les études qui devaient être engagées étaient les suivantes :
Premièrement,
comment constituer et gérer des corpus documentaires numérisés et/ou des ensembles cohérents de ressources pédagogiques multimédias au sein des universités ?
comment repérer, comment choisir, délimiter (souvent liée, en un premier temps, au statut du document libre de droit ?)
comment penser, réaliser lindexation du corpus de référence, le développement doutils logiciels, de recherche et de navigation avancée, dorientation, danalyse
éléments de base de la bibliothèque numérique sont des opérations qui nécessitent un travail déquipe et exige une mutualisation des compétences.
comment ce travail et cette mutualisation sactualisent au sein des universités ? La même question se posant pour ce qui est de lintégration de ressources pédagogiques multimédia, quelles soient éditées ou fabriquées localement.
Deuxièmement, il paraissait urgent de réfléchir au développement dune discipline spécifique destinée à promouvoir lensemble de ces réflexions et expérimentations, ainsi quau moyen douvrir lespace de ces débats à des publics quantitativement et qualitativement diversifiés.
En effet, dans le cadre de la formation ouverte , en raison de lactualisation rapide des informations et connaissances, et la possibilité de mise en relation directe des apprenants avec le spécialiste ou lexpert, nécessitant la mise en uvre de différents outils, modalités de médiation, et guides daccès, avec des solutions techniques correspondantes (mode image dans le cas de la communication à distance, plein texte pour les travaux de recherche sur les textes..) et plus généralement des modalités de diffusion sélective de linformation, le besoin de travaux de recherche semblait plus que jamais nécessaire.
Troisièmement, lexamen des modalités de lapprentissage distribué dans les conditions des mémoires numériques (quels outils, services ou situations pourraient être mis en place pour remplir cette fonction ?) était un objectif majeur.
En termes pédagogiques, lapprentissage distribué devait non seulement tenter de répondre à des attentes vis-à-vis des possibilités offertes par les technologies, mais devait être menée de façon parallèle une réflexion sur les manières de remonter vers les problèmes fondamentaux de léducation, cest-à-dire : écrire, lire, mémoriser, citer, voir, écouter
Il devait aussi être accordé une attention particulière aux nouveaux problèmes portés par la constitution de ces collectifs éducatifs de plus en plus en plus hybrides. Un certain nombre de priorités avait été formulé, tantôt de façon très générale ou elliptique, comme la prise en compte croissante dun désir dindividualisation, de sur-mesure, comme la demande grandissante dautonomisation de lapprentissage ; tantôt de façon plus précise, du côté de la recherche en vérité, comme la nécessité de développer des approches et équipes transversales entre des pôles tels que les sciences de la cognition, la cognition distribuée, les sciences de linformation communication, les sciences de léducation, linformatique, mais aussi léconomie politique, la linguistique, lingénierie linguistique, la documentation
Enfin une réflexion épistémologique forte était souhaitée.
Dun point de vue plus concret, laccès aux sources, le cheminement pédagogique, le but de la formation et les stratégies pour y parvenir devaient pouvoir sadapter à la diversité des publics, de leurs besoins et de leur démarche. Les services daccompagnement et en particulier le tutorat (présentiel et/ou virtuel) étaient perçus comme des éléments essentiels au dispositif de formation et devaient être intégrés en amont, dans lingénierie du système.
Études sur les usages et les pratiques dans le domaine de la recherche
Ces études visaient à mener une exploration des différentes situations dans lesquelles un chercheur se trouve confronté au numérique.
Un groupe déquipes de chercheurs avait été choisi afin de représenter une large palette de pratiques scientifiques, dans le domaine des supports, produits et instruments de travail numériques (hypertextes savants, bases de données littéraires, fac-similés déditions anciennes reproduites sur e-book, portails littéraires, revues électroniques, listes de discussion).
En prenant comme études de cas un ensemble déquipes internationales, cette recherche devait se situer dans une dimension de comparaison entre différentes disciplines et différents pays, parmi lesquels, la France, lItalie, lAllemagne, les Pays-Bas, le Canada, les États-Unis, le Maroc, lEspagne, le Brésil, etc.
Dans le paysage actuel de la recherche en environnement numérique, trois mouvements fondamentaux pouvaient être repérés. Dune part, la constitution progressive de communautés savantes sur Internet, rassemblant autour dune base de données ou dun hypertexte savant lensemble des spécialistes qui travaillent sur un même objet de recherche, puis une tendance générale des chercheurs vers lautogestion interactive des ressources documentaires appartenant à leur discipline, enfin un mouvement vers le stockage des produits de la connaissance sur des supports de plus en plus mobiles et interactifs (transition qui conduit du CD-Rom à le-book, du portable au pocket-PC).
Autre thème détude : analyser les mouvements fondamentaux dans la recherche en sciences humaines en environnement numérique
Ce thème devait être traité au travers de trois projets, et visait à mener une exploration des différentes situations (décrites ci-dessous) dans lesquelles un chercheur se trouve confronté au numérique. Un groupe de chercheurs avait été retenu, afin de représenter une large palette de pratiques scientifiques, dans le domaine des supports, produits et instruments de travail numériques (hypertextes savants, bases de données littéraires, fac-similés déditions anciennes reproduites sur e-book, portails littéraires, revues électroniques, listes de discussion).
En prenant comme études de cas un ensemble déquipes internationales, cette recherche devait permettre une approche comparée des différentes disciplines et différents pays.
Ces études étaient les suivantes :
Les communautés savantes sur Internet
Il sagissait danalyser les pratiques déquipes de recherche qui travaillent dans un environnement numérique éminemment interactif, de comprendre et de mettre en évidence les nouvelles dimensions collectives du travail intellectuel, et leurs effets sur les modes traditionnels de légitimation, validation.
La formation et la gestion des ressources en ligne
Le but était dobserver et danalyser les pratiques de constitution et de gestion des ressources numériques, en particulier de décrire les modalités dautogestion dans ces nouveaux contextes. Une attention particulière devait être consacrée à limportance des instruments statistiques mesurant les accès au site qui permettent un profilage des usagers et une connaissance fine de leurs pratiques.
Lusage dynamique de la connaissance scientifique numérique
Là encore le but était danalyser les modalités selon lesquelles les produits consacrés au stockage numérique de la connaissance scientifique évoluent vers un contexte dutilisation extrêmement mobile. Repérer les modifications induites dans les usages lorsque lon passe dune maquette de CD-Rom à un e-book.
Le pôle Juridique du Programme Numérisation pour lEnseignement et la Recherche avait pour mission de traiter les questions liées à lutilisation de documents numériques en milieu scolaire, universitaire et de recherche. À lissue des travaux de ce pôle au cours des années 1999 et 2000, les orientations suivantes ont été proposées pour un programme de recherche.
Il apparaissait que les raisonnements sur les questions juridiques liées à la numérisation et à la diffusion de données culturelles restaient, la plupart du temps, confinées dans un cadre franco-français. Une telle approche, à lère de lInternet, savérait insuffisante. Cela semblait exiger, par exemple, un certain nombre dapprofondissements en droit européen et droit international (quelles exceptions au droit dauteur dans les pays étrangers ?, quelles conditions contractuelles pour exploiter une uvre sur Internet ?). Il existe en effet des difficultés pour utiliser des données étrangères (quelles en sont les conditions ?) et pour exporter les nôtres (question de la protection des données).
La question des exceptions au droit dauteur, notamment dans le cadre dune utilisation à des fins denseignement et de recherche, nayant pas été véritablement réglée, il simposait de la travailler à nouveau.
Autre question importante qui méritait dêtre posée : la titularité des fonctionnaires sur leurs créations. Elle était posée de façon régulière depuis de nombreuses années déjà, sans quune réponse claire (ni du législateur ni de la jurisprudence) ne soit intervenue.
Il existait et existe toujours, un fort besoin de travailler sur du concret, sur quelques cas pratiques.
Enfin, une question était perçue comme fondamentale, celle du domaine public . Un ensemble de définitions claires était attendu, concernant quelques notions clés : données publiques, données essentielles, domaine public.
Les propositions du groupe privilégiaient en effet la mise en uvre et la réalisation détudes spécifiques, sur des questions juridiques concrètes qui, faute de solutions clairement définies, demandaient un réel approfondissement. Ces études, au nombre total de sept, devaient sappuyer sur létat du droit français, et intégrer des éléments de droit comparé. Ces études concernaient :
létat du droit des bases de données (la création des fonctionnaires et contractuels de lÉducation nationale, de la Recherche, de la Culture statutaire),
lexception au droit dauteur à des fins denseignement et de recherche,
la collecte, lutilisation et la diffusion des données nominatives à des fins denseignement et de recherche (la collecte pour les besoins de la recherche, les garanties appropriées, la diffusion des résultats des traitements), lutilisation par les chercheurs de fichiers existant constitués pour dautres finalités (questions concernant la transposition en France de la directive données personnelles de 1995, et la transposition dans dautres pays européens ; état des lieux de la législation, sur cette question, dans certains pays non membres de lUnion européenne),
la notion de données publiques dans lenseignement et la recherche (exemples des thèses de doctorat, des rapports publics
),
le droit de prêt dans les bibliothèques scolaires et universitaires,
la création duvres multimédias dans les écoles, universités et centres de recherche (exemples des CD-Roms et sites Internet produits en classe : quel statut juridique ?)
Une étude complémentaire devait porter sur la numérisation et la diffusion des fonds et des productions de lÉducation nationale, de la Recherche, et de la Culture. Ce qui était visé : les questions juridiques liées à la numérisation des fonds et des productions de chercheurs et denseignants (respect des droits dauteur - droit moral et droits dexploitation -, des droits de propriété en jeu, des droits de la personne
) ; lexamen dexemples précis de fonds et de productions dhistoriens, darchéologues, dethnologues ; létude des droits sur le produit numérisé (création, titularité, propriété) ; lanalyse des aspects contractuels (rédaction de clauses types : cession des droits, diffusion et utilisation des données
).
Un rapport de synthèse concernant lensemble des questions juridiques devait être élaboré.
Partie 1Introduction générale
1 - Mise en perspective 25
1.1 - Transformation du procès de travail 27
1.1.1 - Nouvelle économie politique (NEP), numérisation et enjeux stratégiques 29
1.2 - Les dimensions collectives de la production des savoirs 36
1.3 - Le modèle associationniste 41
1 - Mise en perspective
À loccasion du processus de numérisation des signes, du déploiement de vastes réseaux électroniques de transmission et de communication, enfin du développement de nouvelles mémoires et interfaces décriture-lecture, il apparaît de plus en plus nettement que les modes hérités dapprentissage, les dispositifs déducation, les modes recherche sont soumis à de fortes tensions.
Nous sommes à nouveau dans une situation loin des équilibres, où dantiques et archaïques problèmes qui ne cessent de venir donc au-devant de nous sont à nouveau ouverts, repris, travaillés. Les formes archaïques dénonciation reposaient, pour lessentiel sur la parole et la communication directe, tandis que les nouveaux agencements, ont de plus en plus recours à des flux informatifs médiatiques, portés par des canaux machiniques (les machines dont il est ici question nétant pas seulement dordre technique, mais aussi scientifique, sociale, esthétique, etc.) qui débordent de toute parts les anciens territoires subjectifs individuels et collectifs.
Alors que lénonciation territorrialisée était logo-centrique et impliquait une maîtrise personnalisée des ensembles quelle discurvait, lénonciation déterritorialisée, qui peut être qualifiée de machino-centrique, sen remet à des mémoires et à des procédures non humaines pour traiter des complexes sémiotiques échappant pour une large part, à un contrôle conscientiel direct .
De nouveaux acteurs émergent, qui viennent contester parfois jusquaux plus anciens. Des forces instables se développent. Présentes en des lieux multiples et souvent enchevêtrées, elles opèrent au milieu des agencements actuels de façon complexe. Tantôt de manière souterraine, tantôt de manière brutale selon des rapports de vitesse et de lenteur spécifiques. Mais leurs activités sont encore peu compréhensibles, même si, ici ou là, localement, singulièrement, on commence à entrevoir ce qui se passe, de toute façon dune manière toujours décalée et pour une part aveugle.
Pourtant, les problèmes que nous avons à étudier ont une longue histoire.
Ces problèmes qui affectent les sphères de lapprentissage, de la production des savoirs, plusieurs fois dans lhistoire, ils ont déjà surgi. En effet, quil sagisse de lémergence de lécriture, de la constitution du réseau des moines copistes, de linvention de limprimerie, de linvention-fabrication de lécole publique laïque obligatoire, ont été affectés les procédés mnémotechniques, les systèmes de la mémoire et leur économie politique, les modes de production, transmission, circulation des savoirs. Nous savons, du moins pour partie, quà loccasion de tels événements, aux temporalités très différentes, de nouvelles morphogenèses plus ou moins vastes se mettent en place. Ces morphogenèses, il convient donc den saisir lampleur, danalyser et de comprendre leurs effets, la manière dont elles se propagent - et se propageant se transforment, changent les textures des mondes dont elles et nous, sommes lexpression et lexprimé.
Dune certaine manière cela implique une remontée vers la question des problèmes que nous nous posons, que nous sommes capables de nous poser. Dune autre manière cela implique que nous examinions les conditions de ladoption de ces morphogenèses et ce à partir dexpériences limitées, singulières.
Les processus en cours affectent nos manières de mémoriser, décrire, de lire, de transmettre, de répéter et citer, dassocier, de naviguer, daltérer, commenter, interpréter, traduire. Ils affectent aussi nos manières de voir, entendre. Ils affectent les relations entre le visible et linvisible, les temporalités, les rapports de vitesse et de lenteur, les représentations des savoirs Ils affectent les modes de constitution et de fonctionnement des collectifs. Ils affectent encore les imaginaires. Autrement dit, ce qui constitue et définit dans leurs variations mêmes, pour une part essentielle, nos socles anthropologiques. De nouveaux percepts et affects émergent et de nouvelles subjectivités se déploient. De nouveaux acteurs ou groupes dacteurs apparaissent, qui se constituent en nouant des alliances avec les innovateurs technologiques et qui opèrent comme de nouveaux attracteurs. Ils viennent troubler de leur disruption les agencements hérités et jusqualors dominants. Des conflits naissent, des résistances se manifestent, des négociations sengagent, qui dans le monde de la formation par exemple sexpriment ou sincarnent à travers le statut du signifiant linguistique, les modèles logiciels, la nouvelle alliance image texte son, les capacités de simulation, lapparition de nouvelles instances de légitimation des savoirs, etc.
Il nous faut donc en revenir à cette évidence simple, mais combien lourde de conséquences, à savoir que les agencements sociaux concrets, (
) mettent en cause bien dautres choses que des performances linguistiques : des dimensions éthologiques et écologiques, des composantes sémiotiques économiques, esthétiques, corporelles, fantasmatiques, irréductibles à la sémiologie de la langue, une multitude dunivers incorporels de référence, qui ne sinsèrent pas volontiers dans les coordonnées de lempiricité dominante
.
Ces processus sont donc anciens. Quest-ce qui aujourdhui diffère ? Quelles sont les nouvelles forces dans lhomme, les nouveaux problèmes concernant les collectifs hommes-machines, les nouveaux modes dapprentissage, qui sont activées par ces nouvelles forces du dehors ?
1.1 - Transformation du procès de travail
Depuis un demi-siècle, le procès de travail dans les sociétés technologiquement avancées, subit de profondes évolutions. Ces évolutions se sont développées à partir dun ensemble de constats, de difficultés et problèmes rencontres à loccasion du maintien dans un état métastable des dynamiques internes aux sociétés. Parmi ces dynamiques, celles qui concernent les systèmes éducatifs, les modes de production, dissémination des savoirs, occupent une place centrale. Dune manière plus générale, la question des moyens de pilotage sémiotique nécessaire au fonctionnement des sociétés de marché(s) technologiquement avancées, des multiples organisations et institutions qui les constituent se pose chaque jour avec de plus en plus de force. Dans ce contexte, le développement de nouvelles formes de mémoires et dintelligences distribuées attachées au processus de numérisation du signe constitue un milieu et un enjeu stratégique.
Dune manière générale, les principaux constats sont les suivants.
Il y a, pour commencer, un mouvement profond, tout à la fois, dintégration et de différenciation, fragmentation des dispositifs de production, transmission, dissémination des savoirs. Les acteurs dont ils sont lexpression et lexprimé ne cessent de se différencier. Des acteurs nouveaux voient le jour. Deuxièmement, il y a une croissance exponentielle de la quantité de documents, dinformations. Quil sagisse des secteurs privé ou public, des instances étatiques ou non, cette croissance est non seulement quantitative mais aussi qualitative. Une hétérogénéité de plus en plus grande de traces est produite, collectée au terme de cascades de trans-formations toujours plus élaborées, complexes. Plus linformatisation (numérisation) se répand, plus nous pouvons pister ce qui nous attache les uns aux autres . Ces transformations impliquent des collectifs hybrides de systèmes hommes-machines, des couplages individus-médiations, des mémoires très variées.
Les agencements qui les collectent, les traitent, cest-à-dire les classent et les trient, déploient une critériologie toujours plus complexe, voire opaque. Déjà très engagé au cours du XIXe siècle, avec la co-émergence de lÉtat et de la production et la collecte de traces et de la statistique, ce processus na fait que samplifier jusquà habiter lensemble des dispositifs constitutifs des sociétés.
Enfin il y a, sinon une espèce de déliquescence, du moins une contestation croissante fondée sur des motifs tant politiques que cognitifs, des systèmes traditionnels de contrôle et de régulation centralisés, de types hiérarchiques et descendants.
Cela se traduit entre autres par des demandes accrues, souvent contradictoires dans leurs dimensions politiques et économiques, de mises en visibilité toujours plus poussées de ce qui nous lie, attache, nous fait être éléments de communautés diverses et variées. Cela ne va pas sans poser de sérieux problèmes, dès lors que ces mises en visibilité, portées par des intérêts très différents, souvent opposés, ouvrent parfois vers de nouveaux modes de contrôle, immanents aux processus de production mêmes, aux processus de production de subjectivité. Sur ce passage en cours des sociétés disciplinaires vers des sociétés de contrôle Gilles Deleuze et Felix Guattari ont développé un certain nombre danalyses pertinentes .
Mais cette déliquescence et cette contestation des systèmes de régulation et de contrôle est en vérité plus complexe quil ny paraît. Là encore différenciation et fragmentation sont à luvre et la multiplication de ces systèmes, dispositifs, va de pair avec les nouveaux actants générant des nouveaux modes de production, de transmission et dissémination des savoirs. Ces modes dynamiquement et hiérarchiquement enchevêtrés définissent de nouveaux rapports différentiels entre les modes hérités et entre ces derniers et les nouveaux.
Parmi ces nouveaux dispositifs, certains visent des strates locales, dautres encore opèrent à plusieurs niveaux déchelles voire à tous les niveaux. Ces dispositifs de régulation et de contrôle peuvent prendre des formes très variées et mettre en uvre des processus de normalisation multiples. Pour aller à lessentiel, nous avons à faire face à un enchevêtrement complexe de formes centralisées et a-centrées, de formes descendantes et ascendantes, arborescentes et rhizomatiques , dirigistes et auto-organisationelles. Mais nen a-il pas été toujours ainsi ?
Certains dispositifs opèrent comme boucles de réflexivité, instances-boîtes noires complexes, centrales et surplombantes dont la performativité repose sur la connexion et la mise en procès de longues chaînes dactants hétérogènes. Ainsi en est-il, par exemple, des institutions étatiques, des administrations qui sont comme autant de systèmes auto-simplifiants qui permettent à des agencements hypercomplexes (une nation, une entreprise) de sutiliser, pour reprendre lexpression de N. Luhmann, comme instance de leurs propres opérations. Dautres opèrent localement par contagion et proximité, voisinage. Ces derniers permettent dappliquer des contraintes locales, distribuées de manière plus ou moins large. Ces dispositifs sont très variés : interfaces, systèmes décritures, normes, logiciels décriture, de recherche
Sur le plan social, les trente dernières années ont été aussi marquées par une différenciation croissante des groupes sociaux ainsi que par un affaiblissement des dispositifs sur lesquels reposaient la définition et le contrôle des épreuves de sélection sociale (grilles de classification des conventions collectives, syndicats de salariés, déroulements des carrières) . Ces divers mouvements ont contribué à la mise en place progressive (se poursuivant toujours) dune multitude de nouveaux dispositifs et de nouvelles épreuves de sélection, (mobilité, passage dun projet à un autre, polyvalence, aptitude à communiquer au cours dun stage de formation) relevant dune autre logique que (lon peut) appeler connexionniste. .
Enfin, et ce nest pas le moins important, la prolifération de nouveaux acteurs humains et non humains, a rendu plus complexe le fonctionnement des procédures délibératives et décisionnelles, plus incertaine la légitimité des instances politiques héritées. Aux parlements des êtres qui tenaient relativement à distance et prétendaient dominer les choses, surgissent ça et là mais avec une force croissante de nouveaux parlements des êtres et des choses qui tentent de faire émerger, à travers une bio-techno-politique renouvelée, des formes démocratiques émergentes . Les critiques et les contestations des modes représentatifs de la démocratie, sont ainsi depuis au moins trois décennies sans cesse amplifiées et confortées.
1.1.1 - Nouvelle économie politique (NEP), numérisation et enjeux stratégiques
Sur le plan de léconomie politique, cette instabilité brouille le jeu classique des actants en en introduisant de nouveaux dans le jeu et en offrant des légitimités inédites à la remise en cause de formes organisationnelles qui tenaient jusqualors le haut du pavé, et à travers lesquelles et par lesquelles étaient fondés les termes des relations structurales des conflits politiques.
Les systèmes dinformation distribuée, la constitution de grands fonds documentaires sont donc lenjeu de batailles redéfinissant les rapports de force de léconomique et de la politique, de même que les nouvelles formes organisationnelles et les systèmes coopératifs de travail, servent de substrats à la redéfinition des rapports de production.
Cette redéfinition se fonde sur des motifs techno-politiques plus ou moins avoués. Ils sinscrivent, en effet dans un vaste mouvement de contestation et de critique des modes dorganisation néo-marxistes et sociaux-démocrates, dune critique de leurs systèmes de régulation et daxiomatisation. Portés par le devenir complexe des sociétés techniquement avancées, leffondrement des grands récits de légitimation, des moyens de pilotage sémiotique qui vont avec ainsi que par une transformation (de type anthropologique), des sémio-politiques et bio-politiques héritées, cette critique va sattaquer à un certain nombre de bastions conceptuels tels entre autres, celui marxiste de pratique , va introduire la notion de performativité liée à celle dinnovation, des systèmes homme(s)-machine(s)-interface(s), et mettre à mal la question politique des fins, de la réflexivité.
Le développement des sémio-politiques et des bio-politiques en cours, parce quelles frayent la voie à une expérimentation qui fait règle, qui est à soi-même sa propre règle, expérimentation généralisée qui a pour objet les pouvoirs agençant la vie plutôt que des propriétés globales ou spécifiques du vivant, (...) mais engendre de manière immanente ses propres critères , à une expérimentation généralisée qui a pour objet les pouvoirs agençant lécriture, la mémoire, ce développement tend donc à masquer la différenciation des forces politiques mises en mouvement, la redistribution, encore souterraine, des rapports de production.
Et ce dautant que les réseaux dactants qui en sont les maîtres duvre dominent les représentations techno-idéologiques qui en donnent ou sont susceptibles den donner les lisibilités générales.
Une politique devient réellement expérimentale et lexpérimentation relaie enfin le concept marxiste de la pratique, lorsque la distinction des objets, des moyens, des matières premières et des produits sefface dans celle différentielle, des méthodes, dans la généralisation et le triomphe des moyens, lorsquon a compris quil ny a plus de contradictions dans les choses. Une stratégie généralisée met en rapport différentiel et détermine lun par lautre dans une chaîne machinique continue, mais en dehors de toute fin éthique ou scientifique les procédés théoriques ou non du pouvoir .
Sous les conditions de cet horizon, qui serait selon certains indépassable, mais qui selon nous rate la différenciation anthropologique, politique en cours et qui, en contrepoint, ne peut penser à son tour la question des fins cest-à-dire la question du politique que sous les conditions de la transcendance et dun universel totalisant et totalitaire, les uns pleurent la disparition des schèmes et dispositifs de régulation hérités du marxisme, les autres célèbrent lavènement du libéralisme auto-organisationnel héritier dA. Smith.
Plus que jamais, en effet, lensemble des réseaux capitalistes aujourdhui est au cur dun vaste système de couplages hétérogènes et hiérarchiquement enchevêtrés entre les divers types de machinismes : machines techniques, machines décriture économiques, mais aussi machines conceptuelles, machines religieuses, machines esthétiques, machines perceptives, machines désirantes... .
Cest dans ce cadre que lensemble des acteurs-réseaux, constitutifs des sociétés avancées, contraints de faire lexpérience deux-mêmes, sous les conditions des nouveaux systèmes décritures, de communications quils ont eux-mêmes développés, remettent sur le métier la question du caractère hautement socialisé du procès de travail intellectuel et ce, loin des équilibres historiques. Plus que jamais donc, les grands dispositifs capitalistiques sont porteurs de forces qui tentent de ne contrôler que les diverses composantes qui concourent au maintien de son caractère processuel .
Ce qui est exploré, ce sont dautres modes coopératifs de production, circulation, consommation (modes qui sont dune manière générale, artificiellement séparés) des savoirs, dautres modes de gestion des compétences, dautres modes de contrôle continu des acteurs humains, non-humains, de façon à maîtriser les processus de capitalisation sémiotique. Les nouvelles technologies intellectuelles et les nouveaux modes dorganisation du travail développés et mis en place, définissant alors les conditions matérielles-idéelles, à la fois dune « sorte dordinateur collectif du socius et de la production, et une tête chercheuse des innovations adaptées aux pulsions internes », elles-mêmes, expression et exprimé des conditions de co-émergences des êtres et des choses, impliquant limmense feutrage à n dimensions des chaînes dacteurs-réseaux de plus en plus hétérogènes....
À partir de ce procès, sont donc abordés les problèmes liés à la question politique de la mémoire, aux variations affectant les intelligences collectives productrices de nouveau, de richesse, aux approches auto-organisationnelles du procès de travail intellectuel, à la place et au statut des nouveaux outils et boîtes noires permettant à ces nouveaux dispositifs de sutiliser comme instances de leurs propres opérations. Les réseaux électroniques, documents numériques, les nouvelles capacités décriture et de simulation, prenant alors sur et avec eux, la charge processuelle de la création continuée des êtres et des choses, des organisations et des dispositifs humains, non humains quelconques.
Les processus dintégration et de différenciation en cours sont appréhendés à partir dune critique des schèmes arborescents et téléologiques dominants. Ces schèmes se sont développés sur les bases dune conception représentationniste, par délégation , négociée ou non, et principalement descendante, des organisations. Bien évidemment, si lon examine plus attentivement les modes dorganisation hérités et leur fonctionnement, nous constatons, suivant les niveaux déchelle et le point de vue de description considérés, une hybridité profonde des schèmes de travail et de production. Nous pensons toutefois que le modèle de lauto-organisation est suffisamment puissant pour servir de fil conducteur à toute analyse visant les processus démergence à luvre, dans le passé et... aujourdhui. La prise en compte et le dévoilement, par de nouveaux traitements des traces de ce qui nous attache, circule et nous lie, de ce qui est décrit par ce qui attache et circule, que la création et le développement de systèmes métastables complexes ne reposent pas seulement sur des principes et dispositifs descendants et hiérarchiques, sur limposition plus ou moins régalienne de contraintes et de normes, mais aussi sur des processus auto-organisationnels variés, étendent lespace des formes organisationnelles possibles.
Cela ne signifie pas pour autant que ces systèmes de travail et de fonctionnement impliquent labandon de procédures normalisées, de systèmes décriture et de représentation puissante ! Bien au contraire ils supposent lapprentissage et ladoption de normes, de programmes, de routines et dispositifs décriture, dinterfaces à la plasticité très grande, ils supposent que soient développés et appropriés des modes de représentation et navigation dans des espaces-temps coopératifs complexes, distribués. Doù le renouvellement de la notion de formation continue et la remise en cause des systèmes de formation figés dans le temps comme dans les contenus . Cest à ces conditions que des dispositifs coopératifs impliquant des agents hybrides, hétérogènes, asynchrones, porteurs de temporalités et de subjectivités très différenciées, sont susceptibles de fonctionner de manière performante selon des schèmes ascendants, rhizomatiques , favorisant les pratiques auto-organisationnelles.
Loin donc de nous satisfaire de lidéologie de limmatériel, nous plaidons avec force, pour une approche matérialiste des systèmes auto-organisateurs, enracinée dans lexamen des conditions de production politico-cognitives des systèmes décriture, des programmes, des interfaces, des hybrides, des normes. De la même manière, lefficacité des dispositifs hypertextuels qui sont déployés pour la gestion des divers agencements coopératifs suppose une appropriation, dissémination de technologies matérielles et idéelles relativement complexes.
On comprend mieux à présent limportance des enjeux politiques et économiques attachées au développement des technologies intellectuelles numériques. Leur dissémination et leur exploitation locale bien conçue, constituant une des conditions dun accroissement de la performativité des intelligences collectives. Nous avons montré ailleurs la manière dont ceux qui ont en charge le devenir de lempire américain conceptualisaient ces enjeux . Il suffit pour linstant de dire que linfrastructure informationnelle et communicationnelle mondiale se présente comme mélange dynamique, ouvert et relativement instable de réseaux de type rhizomatique, déterritorialisé, inventant un espace topologique, relationnel de densité variable et de réseaux de type arborescent, centré, transcendant. Pour reprendre les termes de M. Hardt et A. Negri le premier étant un mécanisme démocratique et le second un mécanisme oligopolistique . Internet et le modèle hérité du système de radio diffusion.
Les modèles arborescents et représentationnistes de la gestion des connaissances, des savoirs, des informations, la coupure information-action, le schème moyens-fins, les modes du faire fondés de manière dominante sur une conception transcendante du plan, sur la notion dunivers clos, sont donc remis en cause. Et la notion de coopération, identifiée par Grice comme composante de base des interactions communicatives, a largement évolué et sest progressivement éloignée du simple mécanisme initial de reconnaissance des plans de lémetteur envisagé dans un univers clos. Le travail coopératif, le procès de travail doivent donc être repris à partir dun examen critique de la notion de médiation , et à partir dun abandon radical de la substantialisation de la réalité individuelle. Là encore lopposition individuel et collectif, dans sa figure héritée, se révèle être néfaste.
Nous devons donc nous interroger sur les manières dont les nouvelles technologies décriture, les dispositifs processuels de la mémoire, permettent dappréhender le travail coopératif à partir des différents espaces-temps individuels, à partir dune agrégation ouverte et métastable des comportements singuliers, des événements productifs , pour favoriser la résolution de problèmes dans un système ouvert. Il est en effet difficile de déterminer a priori (dès sa conception et son utilisation) le répertoire complet des comportements du système.
Dans un univers productif complexe, sont convoqués non seulement diverses expertises et disciplines, mais aussi un grand nombre de dispositifs communicationnels-informationnels, des activités langagières, des procédures sémiotiques et des médiations très hétérogènes. Dans ce cadre de référence, tout agent ou ensemble dagents doit pouvoir se représenter le dispositif processuel à lintérieur duquel il est inclus et dont il est, encore une fois, lexpression et lexprimé. Il doit aussi pouvoir agir sur les moyens de pilotage sémiotique locaux et/ou globaux qui sont nécessaires au procès de travail. Linteraction, en tant quelle est processus et médiation, en tant quelle est encore compréhension du monde à lépreuve des conceptions que lon a de soi et dautrui, suppose donc de nouveaux modes de production et de représentation des savoirs attachés au procès de travail lui-même.
Doù limportance du mapping , des nouvelles pratiques cartographes aujourdhui, au cur, non seulement des analyses concernant les réseaux socio-techniques, les mémoires numériques collectives en acte, mais encore des pratiques coopératives. Cartographier, selon diverses métriques et niveaux déchelles les dynamiques dactants, à partir dun nombre croissant de traces, dont les nouvelles traces processuelles que sont les liens et hyperliens, devient primordial, afin daméliorer lactivité coopérative des agents humains, non humains. La mise en jeu socio-cognitive de ces pratiques cartographes , au sein des intelligences collectives émergentes, posant certains problèmes, dont un des plus délicats est la renégociation politique du partage des savoirs transversaux, des légitimités institutionnelles acquises au cours de la longue histoire techno-politique, passionnelle, des savoirs protégés, des opacités cognitives et informationnelles héritées, de la construction et du partage des secrets.
Cest à ces conditions, en effet que la coopération peut être maintenue, augmentée , dans des systèmes métastables, complexes, ouverts, selon une approche émergente, bottom-up . Les savoirs et les aptitudes, les comportements des agents sont alors ancrés dans lexploitation concrète de lenvironnement coopératif dévoilé, la communication nétant quun des aspects de la contextualisation puisque laction de chacun des agents senracine dans lexploration de lespace-temps du procès de travail, la manipulation des objets, des sémiotiques, dont elle est lémanation toujours locale et singulière, fragmentaire et événementielle.
Cet environnement coopératif dévoilé, ouvrant vers de nouvelles formes dindétermination, daltération-création où se renégocient entre autres les rapports politiques, les légitimités sociales. Dans ces systèmes coopératifs complexes, linteraction locale des agents (humains, non humains) devient prépondérante. Le comportement collectif émergeant du système, réagissant en retour sur les agents qui le composent, selon des causalités et des voies très diverses et toujours singulières. Ce problème est complexe dès lors que le comportement collectif émergent doit être lui aussi représenté, discuté, aménagé, dans un contexte humain, social conflictuel, passionnel, et quil nest pas transparent de soi à soi et ne se donne, de lui-même, à personne. La notion de fonction globale à atteindre réintroduisant la question des fins comme désir individuel-collectif de se perpétuer dans son être , entrant en conflit avec dautres désirs...
Mais loin de la rigidité hiérarchique des modèles représentationnistes, les nouvelles approches coopératives relient émergence, fruit des processus auto-organisationnels, et interaction contextualisée par lindexicalité et la spatialité dans un environnement où toute norme est ressource et tout agent-objet, un support potentiel daction signifiante.
Comment négocier dans lespace des passions et désirs politiques les nouvelles formes organisationnelles possibles, tel est pour les différents acteurs la question.
Nous avons conscience que ces constats ne sont pas les seuls possibles.
Les trois grandes lignées technologiques en cours dactualisation et qui déterminent pour partie les variations des conditions sous lesquelles nous ne cessons de faire lexpérience de nous-même, affectent les socles anthropologiques constitutifs de notre humanité . Numérisation du signe et les politiques de la mémoire, de lécriture que ce procès engendre, biotechnologies et les bio-politiques associées, enfin la Nanotechnologie, remodèlent si profondément la question du gramme et des pro-grammes , du corps, que lensemble des dispositifs religieux, esthétiques, éthiques, économiques... est travaillé, troublé par lévolution actuelle du couplage structurel technogenèse-sociogenèse . Et plus que jamais notre tâche intellectuelle, notre action politique, notre vie sont traversées par la question de savoir donc quelles sont les nouvelles forces qui en nous, sont activées par ces nouvelles forces du dehors .
Toutefois les constats que nous sélectionnons ici sont suffisants pour permettre de mettre en perspective des schèmes et des forces qui portent des transformations importantes du procès de travail intellectuel .
Car, lon ne saurait appréhender de manière correcte ce qui se passe dans les mondes de léducation, de la production des savoirs à loccasion du développement des technologies numériques sans prendre la mesure des transformations qui affectent le procès de travail en général.
Depuis une vingtaine dannées, un nombre important de travaux insistent sur les nouvelles formes politiques voire anthropologiques de ce procès. Les questions ouvertes, de lintellectualité de masse (pour reprendre lexpression de Karl Marx), des Intelligences Collectives , des Infrastructures Informationnelles, Communicationnelles , des Mémoires Hypertextuelles, Hypermédias, du Capital Cognitif, Social ), sont au cur de nouveaux enjeux, de nouveaux affrontements.
Toutes ces évolutions sont lexpression et lexprimé , de la montée de nouvelles représentations et formes dorganisation réticulaires du monde en général et du monde socio-politique en particulier. Elles sont encore lexpression et lexprimé dune transformation de léconomie monétaire. M. Lazzarato sappuyant sur G. Tarde indique avec justesse que si, pour (ce dernier), léconomie est une économie essentiellement monétaire, elle ne tient pas sa puissance de création, de diffusion et daccroissement delle-même, mais de relations intercérébrales. Toutes les tentatives de sortir de la domination de largent-capital par le travail ne font que confirmer la puissance et les formes dappropriation et de dépouillement de la monnaie. Cest seulement lorsque le cerveau collectif et les relations intercérébrales sexpriment comme production de connaissances , cest-à-dire quelles ne se manifestent plus sous la forme du travail, mais comme composition différentielle de linvention et de limitation, que largent-capital se montre comme une forme pauvre et étriquée dorganisation des relations économiques. .
1.2 - Les dimensions collectives de la production des savoirs
Plus que jamais la question de la formation de collectifs dédiés à la production de savoirs, aux moyens de pilotage sémiotique sophistiqués, plus que jamais, la question de la cognition distribuée, qui est au cur de la montée en puissance du capital cognitif et transformationnel ne sont apparues aussi décisives. Et donc avec elles, les processus de formation, les types de contenus, de savoirs, de savoir-faire, les capacités à sorienter au milieu du système technique mondial et des processus de subjectivation, des savoirs dont il est porteur.
Car et cela a été moins bien noté, (
) cette inscription des technologies de linformation au cur du dispositif industriel (constitue) aussi une rupture sans précédent par rapport à lhistoire des systèmes techniques depuis leur origine, dans la mesure où jusquà présent les mnémotechniques avaient toujours constitué un domaine singulier par rapport aux systèmes techniques qui se succédaient à travers le temps. (
) Or, cette indépendance de la mnémotechnique par rapport au système technique de production nest plus vraie aujourdhui : le système technique devenu planétaire est aussi en premier lieu un système mnémotechnique mondial, et il y a en quelque sorte fusion du système technique et du système mnémotechnique et du même coup mondialisation .
Cette transformation entraîne laffaiblissement, laltération des modes traditionnels de dissémination des savoirs, des processus de normalisation hérités, des modes traditionnels des moyens de contrôle et de régulation, de formation et de sélection enfin dorientation.
De même, la perception quil est possible, en sappuyant sur la croyance dune métastabilité toujours plus grande de systèmes socio-politiques complexes et différenciés, non-totalisables, davoir la possibilité dêtre, plus que le passé, à soi-même fondateur de sa propre loi , de pouvoir négocier plus aisément cette sorte dautonomie relative dans les micro-interstices intra-communautaires et inter-communautaires et de pouvoir participer à des émergences créatrices de niveaux supérieur favorables à lenrichissement général, cette perception donc favorise lapparition dune philosophie et dune économie politique générale fondées plus ou moins radicalement sur des principes ascendants et associationnistes forts.
De ce point de vue, lontologie du réseau a été en grande partie établie de façon à libérer les êtres humains des contraintes de justification que faisaient peser sur eux laction des métaphysiques à deux niveaux : lune occupée par des êtres dispersés, lautre par des conventions permettant de les rapprocher sous équivalence et donc de les soumettre à des jugements qui caractérisent les philosophies politiques du bien commun doù a été dérivé le concept de cité. Contre ces constructions à deux niveaux, le réseau se présente comme un plan dimmanence selon lexpression de Deleuze, dans lequel lépreuve est entièrement définie comme épreuve de force ou simplement comme composition de rapports ou encore rencontre de façon à faire léconomie des boucles de réflexivité passant par un jugement moral .
La question de la Loi, de lAutorité est donc travaillée de manière tourmentée. Ce travail pose à nouveau la difficile question de la sélection dans le système éducatif : (et) celle-ci ne peut être traitée que depuis une pensée de la sélection en général qui constitue évidemment le cur des dispositifs rétentionnels, et à travers eux, des pratiques et théories de la science et de la technoscience .
Ces évolutions tendent à réévaluer la place des modes auto-organisationnels de production des formes, des savoirs et les modes dorganisation en réseau. La question générale de la morphogenèse, à partir de positions immanentistes, occupe donc le devant de la scène avec force. De quels types détat métastables, les forces qui la porte lincarne, sont-elles capables ? Pourrons-nous passer comme le souhaite P. Sloterdijk, de lallotechnique à lhoméotechnique ? Dans cette perspective, de quels types de technologies intellectuelles, associées et conçues à partir et en vue, dune sortie de la domination de la logique bivalente et de lontologie monovalente avons-nous besoin ?
à chaque ébranlement anthropologique, à chaque variation affectant les modes décriture, de lecture, de voir, de répéter-imiter, transmettre-copier-altérer, mémoriser, à chaque fois quune émergence sactualise, quun saut en complexité sincarne, resurgit donc le problème de la production-constitution du collectif, stable-métastable. Resurgit encore la question, au sein de linépuisable multiplicité du réel en sa création de nouveau (émergences) du statut des singularités, des processus dindividuation, altération-création. Statut qui induit à poser la dynamique de la différence à la racine des choses et de leurs devenirs, qui conduit à identifier la fin et lessence de tout être avec sa différence caractéristique, cest-à-dire à donner la différence pour but à elle-même .
Mais cest toujours sur le fond de collectifs de plus en plus hybrides, hétérogènes, composites , de milieux au milieu dautres milieux, que vont opérer les processus dindividuation psychique et collective pour reprendre lexpression de G. Simondon .
Dans ce cadre, la question de lorientation au sein de ces nouveaux milieux, du positionnement et du type de niches éco-cognitives, subjectives au sein de ces nouvelles mémoires et chaînes de transformations, est primordiale. Le creusement intensif des espaces-temps, encore une fois, des rapports de vitesse et de lenteur au cur et à tous les niveaux déchelle, des dispositifs dapprentissage, déducation, de formation et bien au-delà, appelle et fait surgir de nouvelles pratiques cartographes, de nouveaux modes de modélisation, simulation.
Allons plus loin. Au cur de la question anthropologique, politique des écritures numériques, se trouve la question des technologies dorientation, des technologies cartographiques permettant dhabiter ces lieux, pour linstant encore, incertains et dotés dune inquiétante et pourtant familière étrangeté. Si nous avons, comme lécrivait en 1945 Vannevar Bush , à créer des technologies intellectuelles capables daccroître nos capacités associatives et analogiques, dans un monde de plus en plus différencié et porteur dune masse toujours plus pesante dinformations , il nous faut aussi, au cur de ces intelligences distribuées, entre elles, pouvoir disposer de dispositifs cartographiques nouveaux, prenant en compte les nouvelles traces, leur grande hétérogénéité. Apprendre à se mouvoir, à lire, à écrire, à gérer des points de vue multiples, des modes de légitimation et de mise en acceptabilité des énoncés très divers, à utiliser des modes de représentation et des matières dexpression à la plasticité parfois déroutante, va de pair avec la mise en visibilité des dynamiques, des incomplétudes en procès de production en quoi consiste les communautés duvre les plus diverses. Il faut développer des modes cartographiques qui rendent compte du caractère toujours plus processuel des modes de production des savoirs, de leurs modes de dissémination, de leurs modes dappropriation.
Cela signifie aussi quil faut développer des modes selon les représentations, selon des niveaux déchelle variables, des formes de textualité en acte, des conditions, cest-à-dire des réseaux dactants, qui définissent et fondent leur stabilité, métastabilité, leur mode de réplication, validation.
Cela signifie encore quil faut développer des modes décriture, au-delà de limperium du signifiant linguistique et en prenant appui sur les dimensions hypermédias et les capacités de simulation, modélisation des systèmes complexes, permettant daccéder, autant que faire se peut, au vaste agencement de relations transductives à luvre au sein des pratiques cognitives, des pratiques associatives et interprétatives (lecture-ré-écriture) constitutives des agencements collectifs dénonciation, en général .
Cest à partir de ce point de vue que dès les années 90, des recherches se sont développées et des propositions ont été faites visant à favoriser lémergence de systèmes décritures non-exclusivement linguistique, à base dicônes, dimages, de diagrammes capables dexprimer et de représenter des processus intellectuels, cognitifs complexes.
Pourquoi, en effet, se demandait P. Lévy dans son ouvrage intitulé LIdéographie dynamique, ne pas concevoir des technologies intellectuelles à partir de ce que nous ont appris les recherches empiriques sur la langue et la cognition ? Ces nouveaux types décritures étant intrinsèquement dynamique(s) et interactif(s) plutôt que statique(s), lié(s) à limagerie interne, aux modèles mentaux et aux structures narratives de niveau supérieur . (
) Le projet de lidéographie dynamique est précisément de mobiliser et de multiplier, grâce aux nouveaux pouvoirs de l informatique, toute la scénographie à base dimages, de diagrammes, de métaphores et de récits, qui anime notre vie mentale .
Dune manière qui peut paraître étonnante et à certains paradoxale, les systèmes décritures hypermédias font donc monter au premier rang, tout ce qui dans la communication déborde de toutes parts ses composantes linguistiques et force ainsi les systèmes éducatifs à composer avec un plus grand nombre de modes, de matières dexpression, à prendre en compte un nombre toujours plus grand dacteurs-réseaux participant de lenrichissement des niches éco-cognitives. Dans cette perspective, les figures du signifiant, au même titre que les figures du signifié, auront à concourir à ce quune matière dexpression féconde un contexte et, réciproquement, quun contexte imprime ses impulsions, ses perversions paradigmatiques, aux chaînes discursives quelles soient ou non dordre linguistique .
Il sagit là dun pan considérable que les sciences de léducation, et dune manière générale tous ceux qui sinterrogent sur la formation et les moyens daccéder à la maîtrise des points de vue dans un univers sémiotique complexe, à la maîtrise de la prolifération des images, des modèles, des représentations doivent privilégier. En ce sens les enjeux attachés à lappréhension analytique de limage objet sont dune grande importance .
Revenons à présent à la désorientation / orientation.
La question donc des nouvelles techniques assistances à lorientation est capitale, quelle que soit la pragmatique considérée, parce que calendarité et cardinalité sont les trames élémentaires des rythmes vitaux, des croyances, du rapport au passé et à lavenir .
Au plan éducatif, cette question prend une importance particulière dès lors que la question de lorientation est couplée à la question de lapprentissage des modes décriture-lecture numérique, des manières de mettre en mouvement les savoirs et les modèles les uns par rapport aux autres, des façons dappréhender, de sapproprier et de critiquer les critériologies associées aux mémoires numériques distribuées et aux mémoires héritées.
Lenjeu est dimportance et il ne fait pas de doute que sannonce un véritable conflit des cultures, cest-à-dire une lutte pour tenter dimposer des modèles comportementaux, des programmes collectifs par lesquels dominer les marchés
. Nous reviendrons sur ce point plus loin.
1.3 - Le modèle associationniste
Au cours de la deuxième moitié du XXe siècle, la manière dont, dans des domaines et des activités très divers, à partir de la formulation de problèmes locaux et de leurs tentatives de résolution, la re-montée vers la question de la constitution du collectif se fait à partir dun certain nombre de positions théoriques et dattitudes pragmatiques relativement proches.
Ces positions et ces attitudes ont en commun dopter principalement pour une approche associationniste issue de la grande tradition empiriste avec comme figure emblématique David Hume, doublée dune conception immanentiste de la genèse des formes avec comme figure flamboyante dans la tradition philosophique occidentale, Spinoza. La monadologie leibnizienne, comme pensée des multiplicités et de lhétérogénéité donnant le contrepoint : il nest que des substances individuelles , avec en écho puissant, la néo-monadologie de G. Tarde. Cest en effet ce problème de constitution collective que ce dernier reprend de Leibniz en rétablissant la force active des monades dans le fait de son droit
Il y a chez G. Tarde un pouvoir constituant du socius dont la base est le fait dassociation (un associationnisme généralisé) et la manifestation une philosophie de lavoir . Tout cela suppose dabord que toute chose est une société, que tout phénomène est un fait social . Et lon ne comprend son individualisme que par son sociologisme en ce quil engage une constitution collective ou matérialiste des individus .
Dans ce contexte et en dépit de profondes divergences, ces positions et attitudes tentent sinon de résoudre du moins de relancer, deux types de questions. À travers la critique du discours des essences et de la transcendance, la question politique de la création continuée et ouverte du monde est sans cesse relancée contre les conservatismes héritées et à travers une conception générale immanentiste de la morphogenèse la possibilité de penser lhistoire de la vie dans une perspective non-linéaire, hypercomplexe, dans lesquelles la diversité des conditions démergence du nouveau, des processus, loin des équilibres et de lhomogène est non seulement possible, mais fondée .
Partir, selon des perspectives souvent très éloignées, des conditions de possibilité, matérielles et idéelles des associations, des percolations , des traductions, à des niveaux déchelles très variés, entre des actants infiniment différents, appréhender les divers types de contraintes participant de la genèse des formes en général et de la constitution des collectifs, tel est le socle commun des approches associationnistes. Cest sur ce socle que la question de la constitution du collectif et de lémergence du nouveau, va évoluer et se radicaliser.
Dans cette perspective, la question du collectif est double.
Tout dabord il sagit, afin de prendre la mesure de la croissance de complexité, de sortir de la séparation traditionnelle individu-collectif. Puis détendre, aussi loin quil est possible, en toute rigueur, les effets des affirmations de G. Tarde évoqué précédemment .
Pour ce qui est du premier problème, il sinscrit dans la lignée des travaux qui tentent de sortir de ce que Bruno Latour, à la suite de quelques autres, à appeler le grand partage. Ce vaste courant recouvre un certain nombre dapproches qui se sont exprimées dans les champs théoriques les plus divers.
Pour donner quelques repères : dans le domaine de la philosophie, A.N. Whitehead, G. Simondon, G. Deleuze et F. Guattari, A. Negri, B. Stiegler, P. Levy, dans les domaines de la sémiotique, de lanthropologie et de lécologie cognitive, C.S. Pierce, G. Bateson, M. Douglas, dans le domaine de la sociologie des sciences, B. Latour, M. Callon, dans les domaines des sciences de la cognition et plus particulièrement de la cognition distribuée, E. Hutchins, Norman, P. Levy, G. Bowker. Ce ne sont là que références et bornes grossières. Certes. Ce quelles expriment et privilégient est cependant semblable. Elles pensent, avec des réussites variées, lémergence du nouveau comme co-émergences de processus dindividuation et de différenciation, de niveaux multiples, mettant en jeu les éléments les plus hétérogènes. Et si nous devons considérer que toute chose est une société, que tout phénomène est un fait social total , ce nest pas parce que le social viendrait les surdéterminer, les surplomber, de lextérieur, mais bien parce nous navons à faire quà du collectif et à différentes instanciations des pragmatiques qui vont avec. Tout être, toute chose sont du collectif. Et cest parce quil y a une pragmatique interne des multiplicités métastables constitutives de toute entité quil peut y avoir articulation avec une pragmatique externe engageant, sur la base de processus associationnistes complexes, multiformes et du développement de médiations, les choses entre elles, les êtres entre eux, les choses et les êtres entre eux.
Lindividu nest (
) ainsi ni substance, ni simple partie du collectif : le collectif intervient comme résolution de la problématique individuelle, ce qui signifie que la base de la réalité collective est déjà partiellement contenue dans lindividu, sous la forme de la réalité préindividuelle qui reste associée à la réalité individuée ; ce que lon considère en général comme relation à cause de la substantialisation de la réalité individuelle est en fait une dimension de lindividuation à travers laquelle lindividu devient ; la relation au monde et au collectif est une dimension de lindividuation à laquelle participe lindividu à partir de la réalité individuelle qui sindividue étape par étape .
Penser lévolution de ce couplage structurel en actualisation-différenciation permanente donne à la question de la médiation en général, de la médiation technique et des conditions matérielles des mémoires externes une place centrale dans lanalyse des agencements techno-politico-cognitifs impliqués dans tout procès de travail. Comme lécrit Éric Alliez, la question nest plus celle de la dépendance méthodologique de lobjet par rapport au sujet mais celle de lauto-constitution ontologique du sujet à partir de ses objets .
Milieu au milieu des choses et des êtres, traversé par et à la traversée du monde qui est notre milieu associé, pris dans un procès sans fin de plissements-associations, de traductions enchevêtrées, nous sommes en tant quagencement collectif , (Deleuze-Guattari), acteur-réseau , (Latour), entités connaissantes essentiellement par la vertu des contraintes épiphylogénétiques.
Ces contraintes sont pour une part de plus en plus large techniques. Mais depuis la nuit des temps noués lun à lautre par une relation transductive (une relation qui constitue ses termes, où un terme ne peut exister sans lautre, où les termes sont constituants) , nous savons quhomme et technique sont indissociables . Dit autrement il y a une dynamique du quoi irréductible à celle du qui (la logique du supplément nest pas seulement anthropologique) mais qui a besoin de celle du qui comme pouvoir danticipation .
Conduire lanalyse du procès de travail intellectuel, au sens large demande donc déchapper à une conception individualiste, identitaire de lactivité de connaître, de produire des énoncés, des savoirs.
Les couplages structurels cerveau-monde, hommes-machines, activités cognitives-médiations ainsi que leurs différenciations, doivent être examinés avec attention., sous les conditions nouvelles des modes dinscription, de répétition, dissémination.
Toutefois depuis quarante ans, le processus de numérisation du signe (les virtualisations et effets dont il est porteur) semble poser certaines difficultés et nous éprouvons quelques résistances face à cette nouvelle programmatique en tant quelle est un processus dindividuation psychique et collective et quelle suspend, inquiète, travaille les programmes comportementaux hérités par lesquels une société fait corps .
Il convient donc danalyser les spécificités des technologies mises en uvre. Cette analyse doit senraciner au plus prés dans les choses mêmes, au cur des procédures matérielles les plus fines qui sont encore une fois, issues des temporalités et des différenciations, des couplages structurels hiérarchiquement et dynamiquement enchevêtrés entre le qui et le quoi, entre le cortex et les médiations.
À ignorer les complexités de ces couplages, lon risque par exemple, daffaiblir considérablement les avancées parmi les plus fortes des sciences de la cognition, telle par exemple celle de lautopoïèse .
Lintelligence est toujours déjà machinée, distribuée, lunité réelle minima est lagencement et cest toujours un agencement collectif qui met en jeu en nous et hors de nous des populations, des multiplicités, des territoires... . Ces agencements prennent les formes les plus variés, ainsi que les mécanismes associatifs et les processus dindividuation au terme desquels ils deviennent métastables et continuent de sactualiser-différencier.
Faire lanalyse du procès de travail aujourdhui cest donc faire pour une large part, lanalyse des nouvelles formes du couplage structurel hommes-machines. Cette analyse doit porter sur les conditions matérielles-idéelles et techniques de la production. Pour suivre Karl Marx, lanalyse du procès de travail doit prendre en considération : Lactivité personnelle de lhomme, ou travail proprement dit, lobjet sur lequel le travail agit, le moyen par lequel il agit et les moyens de travail sont non seulement les gradimètres du développement de la force de travail mais aussi les indices des rapports sociaux dans lesquels on produit .
Partie 2 Émergence dune politique de la mémoire : quelques repères
2.1 - Mémoires, écritures distribuées et normalisation. 52
2.1.1 - Le procès de normalisation dans le domaine numérique. 53
2.2 - Normalisation et communautés de recherche. 55
Les mémoires numériques, les nouveaux logiciels et les nouvelles formes organisationnelles, affectent sérieusement ce procès.
Parmi les textes et programmes de recherches fondateurs qui expriment lémergence, par exemple aux états-Unis, dune nouvelle économie politique de la mémoire et la mise place progressive de réseaux dinformation-communication distribués quatre repères nous semblent importants.
Au sortir de la Seconde Guerre mondiale, Vannevar Bush, qui avait, au milieu des années trente, proposé avec le Memex un premier dispositif de séléction-association de documents mis sur microfilm et dirigé le projet Manhattan, publie un texte programmatique dans la revue Atlantic Monthly Review . Ce texte à partir des deux premiers constats relevés en introduction, exprime lidée que nous sommes mis en demeure davoir à inventer de nouveaux outils, techniques intellectuelles capables daccroître les capacités analogiques et associatives du cerveau humain . Et il inscrit demblée sa démarche à la suite des grandes traditions humienne et leibniziennne.
Un des problèmes notés par Bush était le suivant : Our inaptitude in getting at the record is largely caused by the artificiality of systems of indexing. When data of any sort are placed in storage, they are field alphabetically or numerically, and information is found (when it is) by tracing it down from subclass to subclass. It can be only one place, unless duplicates are used ; one has to have rules as to which path will locate it, and the rules are cumbursome. Having found one item, morever, one has to emerge from the system and re-enter on new path
Mais la caractéristique majeure du Memex de Bush ne résidait pas seulement dans ses capacités de recherche et dannotation mais plus fondamentalement dans le caractère associatif de son indexation. Ce qui constituera la base des systèmes hypertextuels numériques sous la forme de capacités à créer des liens entre documents.
Pour revenir au texte de V. Bush As we may think , texte largement diffusé, à partir de mai 1945, il va irriguer la réflexion dun nombre important de chercheurs, de politiques, de dirigeants dentreprises, de documentalistes et susciter un certain nombre de programmes de recherche et dexpérimentation. Ces programmes concernent, entre autres, la réorganisation des programmes R&D, civils ou militaires, publics ou privés, des grands fonds documentaires, des dispositifs innovants. Les constats et propositions de V. Bush co-habitent avec la naissance de linformatique, laube de la guerre froide et des grands programmes liés à la course aux armements, à la machinerie de la dissuasion nucléaire en cours de développement. Ils et elles sont repris sur fond de développement de la première cybernétique qui va triompher lors du colloque de Hixon en 1948. La décennie 50 verra la croissance informatique prendre de lampleur, la question du temps partagé occupant un des centres de la scène. À la fin des années 50 et au tout début des années 60, les grandes bases de données numérisées commencent à simposer et dans le domaine scientifique et technique en particulier, la mise ne service de lISI et de ses deux bases principales le SCI (Science Citation Index) et le SSCI (Social Science Citation Index) expriment la conscience quont une partie des élites américaines de se doter de nouveaux moyens de mise en visibilité des activités de recherche. Cette mise en visibilité étant destinée à une meilleure évaluation-gestion de la recherche, tant dun point de vue cognitif que du point de vue dune politique (impériale ?) de la technoscience. Cest aussi à cette époque que le programme dune science de la science va se développer, programme dédié à la mise en visibilité des fronts de recherche, des collèges invisibles et quexprimera dans ses ouvrages par exemple, avec brio, D. de Solla Price .
Pendant cette période, le vaste système de commandement nucléaire se met en place et la gestion des ressources informationnelles et communicationnelles en réseau, se trouve mise au cur des préoccupations. Le début des années 60 se trouve aussi être dominé, dans ces domaines par la constitution de programmes de recherche concernant laugmentation de capacités intellectuelles.
Relativement éloignés des imaginaires naissants et hérités de la robotique et du fantasme du cerveau humain par un cerveau artificiel le mimant (si possible de manière plus performante), ces travaux concentrent leurs efforts sur les manières daccroître la performativité des dispositifs hybrides que sont par exemple les laboratoires de recherche. Sous limpulsion de D. Engelbart (linventeur un peu plus tard, de la souris) et de Licklider (Man-Computer Symbiosis) ces travaux se donnent pour tâche essentielle de réfléchir aux diverses manières de faire coopérer efficacement les différents actants impliqués, étant entendu que, parmi ces derniers, les actants non-humains se mettent à proliférer. Nouvelles mémoires, réseaux, ordinateurs, logiciels, interfaces et médiations numériques de toutes sortes posant de nouveaux problèmes, suscitant de nouvelles résolutions de problèmes anciens. Les travaux dans les domaines du Computer-Supported Cooperative Work, (CSCW), du Groupware, de lIntellectual Teamwork (Social and technological foundations of Cooperative Work), des Sociomedia (Multimedia, Hypermedia and the social construction of Knowledge), prenant sans cesse de lampleur.
Ce sont dans ces équipes que se mettent donc en place, en nen pas douter, les fondements des réflexions et expérimentations actuelles concernant le caractère coopératif, collectif du procès de travail, les nouvelles intelligences collectives, ce que lon appelle à présent la cognition, lintelligence distribuée.
En parallèle, les réflexions engagées autour du document électronique, numérique et de la textualité vont converger et sincarner dans les programmes de recherche de T. Nelson qui au milieu des années 60 a donc proposé un nouveau schème décriture et de gestion non-linéaire, associatif, des mémoires numériques émergentes, schème quil va appeler hypertextuel . Cette notion dhypertextualité qui va dans les 25 ans suivants imprégner nombres de recherches resurgira avec succès au tout début des années 90 en sincarnant dans le Web, développé par les chercheurs du CERN, à Genève.
Lhypertextualité dans un contexte numérique sinscrivant au plus près du programme de Bush, afin de permettre le développement de systèmes décritures capables de favoriser les modes fondamentalement associationnistes, analogiques, de lactivité intellectuelle.
Du côté des réseaux, le rapport Baran va ébranler, contre lestablishment des grandes entreprises de communication, en particulier téléphonique, les schèmes traditionnels et introduire la notion de réseau distribué, a-centré, cest-à-dire fonctionnant indépendamment dune instance centrale.
Loin de nous de faire ici une histoire précise, complexe de cette période. A. Serres dans sa thèse Histoire dun système dinformation : lémergence dArpanet décrit avec finesse, lentrelacs des convergences, des problématiques théoriques, des intérêts hétérogènes qui sont alors convoqués. Cybernétique, problème du Time-Sharing, émergence de linformatique interactive, constitution de groupes et de micro réseaux ad hoc... Ces repères, bien que légitimes, nexprimant que très imparfaitement les enchevêtrements des influences, des traductions, des chaînes dactants, des schèmes conceptuels mis en jeu. Toutefois ils représentent les principaux pôles à partir desquels lessentiel de ce qui touche à la question politique et cognitive de la mémoire dans le contexte des réseaux capitalistes américains va sorganiser, être organisé.
Ces repères, ces programmes affirment un certain nombre de positions et de postures. Tout dabord, ils pensent les mondes comme unités à construire. Deuxièmement, ils sont demblée hors du grand partage, en ce sens quils conçoivent, peu ou prou, les activités cognitives, les activités innovantes, les processus de création-altération comme co-émergences à partir du creusement intensif du couplage structurel cortex-techniques, cortex-systèmes décritures, cortex-mémoires externes. Troisièmement ils pensent la constitution des collectifs à partir de positions associationnistes ouvertes. Quatrièmement, ils proposent un ensemble de formes organisationnelles prenant en compte des dimensions jusque-là, sinon négligées du moins sous-estimées, cest-à-dire les dimensions émergentes, a-centrées voire auto-organisationnelles.
Au terme de ces quarante années, nous sommes pour partie dans cette postérité-là. Sous légide de Tim Berners Lee , la convergence de ces quatre virtualisations va sincarner dans lavènement du second réseau Internet à savoir le World Wide Web. Les technologies et les systèmes décriture, de transmission, (Http, Sgml-Html, Url...) développées pour créer le W3, lont été dans le cadre conceptuel, technique voire philosophique, hérité que nous venons brièvement de décrire.
Le premier Internet et plus encore le second peuvent être considérés comme un nouveau système décriture, un nouveau système distribué de la mémoire, un nouveau mode de transmission distribué et en tant que tel porteur de technologies favorisant des nouveaux modes de travail coopératif, de nouveaux modes de pensée associationnistes, de traitements documentaires, enfin de nouvelles traces et des modes de représentation des activités cognitives en général et des activités socio-politiques en particulier.
Dans le document intitulé Information management : A proposal , au milieu des années 89 et 90, Tim Berners-Lee justifiait ainsi le choix dune approche hypertextuelle en vue de développer les technologies de base du W : il sagit de mettre au point un vaste système de mémoire distribuée, au sein du CERN, permettant de créer des conditions favorables au travail collectif, à la création de nouvelles communautés émergeant au plus prés des travaux et des intérêts des équipes de chercheurs .
2.1 - Mémoires, écritures distribuées et normalisation
Dans cette évolution, les processus de normalisation occupent une place majeure, dès lors que la nouvelle infrastructure informationnelle est incorporée et totalement immanente aux nouveaux processus de production . Ces processus de normalisation ont comme points de visée, les dimensions socio-cognitives et politiques des activités intellectuelles en général. Ils fournissent un certain nombre de repères, principalement autour et à partir de la notion de document numérique textuel , dédiés à la relance du débat critique sur les nouvelles formes dintelligences collectives, les pratiques qui les habitent.
Plus particulièrement ils mettent en évidence, au-delà de lévolution documentaire stricto sensu, les effets de formatage et de performation que lutilisation des nouvelles normes du document numérique textuel engendre et ce au sein de multiples communautés.
Dans les domaines de la formation, de la recherche, de la diffusion, lappropriation des univers socio-cognitifs émergents est relativement avancée. Ces communautés, en sappuyant sur les nouvelles normes, ont développé et continuent de développer de nouveaux outils, de nouvelles mémoires, ont exploité et continuent dexploiter diverses dimensions liées à lhypertextualité numérique, aux modes de représentations émergents des caractères de plus en plus distribués, coopératifs, différenciés des dispositifs de production et de circulation des savoirs.
Il apparaît de plus en plus nettement à présent que les communautés duvres, de chercheurs, tentent dexploiter plus fortement que par le passé, les multiples incomplétudes en procès de production dont elles sont lexpression et lexprimé. Et ce en particulier, au moyen de la prise en compte des nouvelles traces (nuds, liens, hyperliens...) exprimant de manière plus précise et complète que par le passé, la vie des univers de référence, de co-production, répétition, altération-création, dissémination des uvres, travaux divers... Mais aussi au moyen des nouvelles pratiques cartographes permettant la mise en visibilité des modes collectifs de co-émergence des activités, des productions de telle ou telle communauté. Au cur de ces nouvelles pratiques, les possibilités offertes par les normes et standards émergents affectent ainsi lévolution de lédition électronique scientifique, des bases de connaissances en réseaux.
De plus, ces normes ouvrent des possibilités dexploitation renouvelées de la plasticité numérique , et ce de manière toujours plus singulière, en favorisant la différenciation des pratiques décritures(s)-lecture(s), des éthologies socio-cognitives.
Le débat sur les normes émergentes du document numérique est un débat complexe et ouvert. Dans lhistoire de lécriture, il est sinon un des plus important, en tout cas un des plus sophistiqué quant aux politiques de la mémoire et de lécriture quil met en jeu.
2.1.1 - Le procès de normalisation dans le domaine numérique
Ces processus de normalisation, répartis sur près dun demi-siècle à présent, ont été engendrés par un ensemble dacteurs, de réseaux dacteurs hétérogènes, uvrant aux marges ou sur des fronts de recherche ayant pour but lamélioration des intelligences collectives, les capacités innovantes, la maîtrise économique et politique des sociétés complexes. Ces marges, ces fronts ont consisté et consistent toujours, à partir du procès de numérisation, à définir des modes décritures rendant possible lexploitation intelligente des ressources documentaires en croissance exponentielle dès avant la Seconde Guerre mondiale et à développer la maîtrise autant que faire se peut, des processus de fragmentation-différenciation affectant les multiples sphères de production des savoirs, dinformations nécessaires à la bonne marche de sociétés, dorganismes de plus en plus complexes.
Les caractéristiques du document numérique, sur lesquelles nous allons revenir, ont généré et génèrent un grand nombre de problèmes. Ces problèmes concernent tous les aspects de la vie des documents, cest-à-dire de leur production, de leur circulation, de leur diffusion, de leur conservation, de leur protection. Les systèmes qui rendent possible la réalisation du plus grand nombre des modes de chacune de ces fonctions reposent entre autres sur la création de standards, de normes qui correspondent donc à des objectifs, des intérêts extrêmement variés et parfois variables.
Ces objectifs et intérêts peuvent être conflictuels voire contradictoires selon par exemple quils visent le partage le plus large possible des ressources, ou bien la protection maximale dun certain nombre de ressources, selon quils visent la production de savoirs complexes dans et par des espaces socio-cognitifs eux-mêmes complexes, ou bien laccès simple et largement partagé à un type particulier, limité de ressources. Les dispositifs numériques, hypertextuels, en réseau étant composés dun emboîtement complexe décritures, de programmes, la définition de nouvelles normes et la manière dont elles vont saffronter, simposer, sont affaire complexe. De plus, chaque norme spécifique, bien quopérant, au sein dun système demboîtement, dune combinatoire de systèmes de traduction et dinteropérabilité complexes, à des places-niveaux-strates spécifiques, nen produit pas moins des effets de création-altération à des niveaux supérieurs. Le protocole HTTP, la norme HTML par exemple, venant à la suite de normes antérieures (ces dernières en étant pour une large part, conditions de possibilité) comme des axiomes supplémentaires dans le vaste système décritures, des normes héritées, créés des conditions de production et de créativité nouvelles en appelant à son tour lémergence de nouvelles normes, selon des rythmes et des temporalités divers.
À partir donc des normes fondamentales (TCP / IP, HTTP, HTML, XML, JAVA
), les problèmes posés par lappropriation cognitive, socio-économique, politique, des documents numériques en croissance rapide, prennent forme et consistance, ou bien si lon préfère, sactualisent à travers linvention et la définition de nouveaux modes déchange, de nouvelles capacités critiques.
Ces inventions-définitions répondent à des problèmes qui répondent eux-mêmes à des séries spécifiques de conditions portées par des ensembles dactants plus ou moins hybrides.
Ce processus de standardisation/normalisation est complexe. Il met en connexion des acteurs hétérogènes, des disciplines et des intérêts divers.
Pour Ghislaine Chartron, les technologies de linformation et de la communication ont brouillé les frontières alors existantes entre des métiers, des acteurs économiques et de fait entre les processus normatifs associés. Lintersectorialité domine les enjeux intriqués de la numérisation, du multimédia, des fournisseurs de contenu, des services en ligne... Prenons lexemple des articles scientifiques accessibles sur Internet : les normes du multimédia, les normes documentaires, les normes liées au commerce électronique y sont convoquées. Alors que le support-papier donnait aux normes documentaires une certaine autonomie, le support électronique en réseau conduit le monde des bibliothèques et de la documentation, comme beaucoup dautres secteurs, à une forte convergence avec le secteur transverse des technologies .
Ceci na pas été sans influence sur les institutions de normalisation ont subi de plein fouet cette complexité : réorganisation, coopération entre groupes de travail, nouveau comité stratégique dorientation... .
Dans ce contexte, les intérêts économiques et les intérêts documentaires liés à la pédagogie et à la recherche sont à mettre en harmonie. Les débats juridiques prennent là toutes leurs dimensions., les éditeurs et les producteurs (ayant) notamment la ferme volonté de faire appliquer et respecter la question juridique et économique des droits attachés aux documents dans les processus normatifs didentification et de description.
La traçabilité quoffre lélectronique leur permettrait de gérer au mieux les revenus associés et la vente directe au consommateur (pay per view) .
2.2 - Normalisation et communautés de recherche
Dun autre point de vue, dans divers domaines, les communautés de recherche sapproprient, adaptent progressivement les normes selon les représentations quelles se font de leurs propres pratiques cognitives. Ainsi, autour de lécriture XML, les chercheurs sorganisent afin déchanger plus facilement des théories, des calculs et des résultats expérimentaux. Le succès de XML se fonde en grande partie sur la capacité de structurer les documents dès leur création, en leur donnant un caractère processuel, dynamique, et une capacité de transformation dans le temps relativement grande.
Depuis longtemps, par exemple, les mathématiciens étaient frustrés par linaptitude des navigateurs à afficher les expressions mathématiques autrement que sous forme dimages. Le langage MathML, opérationnel depuis le printemps 1999, leur permet de couper des équations dans les pages Internet et de les coller directement dans leurs logiciels de calcul formel, en vue de les utiliser pour des calculs ou pour des graphiques . Il en va de même pour les chimistes avec CML (Chemical Markup language), les astronomes avec AIML et les généticiens avec BSML (Biosequence ML). Dans le même ordre didées, XLink (XML Linking) Language développe le système décriture des liens et accroît la plasticité associative dont on besoin nombre de communautés. Mais ces évolutions touchent à présent dautres champs disciplinaires comme celui de lhistoire avec HyTime, ou bien encore la sociologie, larchéologie, la philosophie, la littérature, etc
Ces formes dadoption vont de pair avec lexpression des besoins et des formes dauto-organisation spécifiques à ces communautés. Dune manière générale, la diversité des besoins de chaque communauté, de chaque domaine dapplication renforce cette logique dominante pour la standardisation (au moins vérifiée pour les métadonnées et les langages structurés) : normes ou standards génériques ouverts dont lappropriation se traduira par des spécialisations locales adéquates. Ainsi le nouveau standard RDF (Resource Data Framework) pourrait bien aussi résoudre les formes multiples de métadonnées en proposant un cadre général de schémas sémantiques.
Il convient donc daccorder une très grande importance aux processus de normalisation dans le domaine des technologies de linformation /communication appliquées à léducation et à la recherche.
La question de la standardisation des produits informationnels revêt aujourdhui une importance fondamentale du fait de leur numérisation en cours, de lélaboration naissante de corpus de connaissances induisant des choix quant aux codifications et formalisations associées, aux procédures déchange, de diffusion et de reproduction. Nous sommes aux débuts dune nouvelle ère économique; les questions que nous nous posons aujourdhui rejoignent très certainement en bien des points celles que se posaient les ingénieurs du début du siècle face aux industries naissantes mais le degré de complexité qui simpose (
) tient, en partie, à la convergence nouvelle de différents secteurs économiques, les télécommunications, linformatique, les réseaux et les différentes industries culturelles... .
Dans le cas des secteurs éducatifs et des principaux domaines de recherche de la recherche, les problèmes sont complexes. Ils présentent toutefois des différences notables par rapport aux domaines des télécommunications.
Cest notamment le cas pour la diffusion des articles scientifiques, domaine qui voit saffronter les acteurs marchands en place, consolidant leur espace par linitiation de nouveaux standards (par exemple le standard Digital Object Identifier DOI ) et des acteurs lecteurs-producteurs liés au monde créatif .
Parmi les réactions de ce monde créatif, citons par exemple, les standards en cours pour linteropérabilité des bases de preprints, et dun statut plus mixte le standard Dublin Core et Text Encoding Initiative. Quelle en sera lissue ? Des standards propres à chaque sphère ? Une absorption progressive... Le rôle important du W3C (World Wide Web Consortium) dans la standardisation de lInternet, sa composition hybride où sont présents et actifs les acteurs économiques de poids dans cette nouvelle industrie laissent présager des rapports de force de plus en plus difficiles pour le monde créatif .
De plus en plus, les enjeux des processus de normalisation sont directement liés aux capacités décriture-lecture, des fonctionnalités émergentes, des traitements de corpus et de gestion collaborative, que ce soit dans le domaine de la recherche ou de léducation.
Les débats actuels sur les métadonnées traduisent cette logique, les données sur les données doivent permettre un usage pour une finalité donnée dans un contexte donné. Laccès au contenu pour lutilisateur, le référencement pour un professionnel, la gestion des droits pour un éditeur
Priorité est donc donnée à lapproche sémantique, à la prise en compte des pratiques socio-cognitives, la capacité décriture-lecture, le travail et la capitalisation rendu possible à partir des textes, la capacité herméneutique, et aux normes/standards associés. Cest dans ce contexte que la pertinence des standards doit être évaluée.
Doit-on faire par exemple, évoluer les formats MARC pour y intégrer les ressources électroniques ou doit-on adopter de nouveaux standards comme le Dublin Core pensé dans cette logique de laccès en ligne ? Lexemple de la norme MPEG-7 converge aussi vers cette tendance : alors que les normes MPEG précédentes visaient principalement à codifier les représentations des contenus audiovisuels, MEPG-7 a pour objectif de fournir un jeu complet doutils standardisés pour décrire le contenu multimédia (métadonnées).
Cette co-émergence des normes et des pratiques, les phénomènes qui conduisent à leur stabilisation ne vont pas sans conflits et tension, en raison de la diversité des processus et des acteurs qui les portent. Intérêts économiques, intérêts liés à la recherche publique ou privée, conceptions politiques différentes des dispositifs éducatifs, de la production scientifique, tout cela fait quil est parfois difficile daboutir à une perception claire du champ de bataille .
Partie 3 La montée en puissance du document numérique : nouvelles caractéristiques et différenciation(s)
3.1 - Repères 61
3.2 - Le processus dhypertextualisation 64
3.3 - Sur les pratiques décriture-lecture. 67
3.3.1 - Les activités de lecture-écriture dans les uvres
littéaires ou artistiques 70
3.4 - Un des apports possibles des sciences de linformation 78
Le processus de numérisation du signe engagé depuis ces dernières décennies, a atteint aujourdhui un niveau de développement tel, que lensemble des activités, des productions humaines sen trouve grandement affecté, du moins dans le monde technologiquement développé . Parmi ces productions subissant les effets de ce processus, ce que lon appelle un document et en amont, les notions de trace(s), décriture(s) et de mémoire(s).
Ce que lon rassemble sous le terme document est non seulement devenu plus vaste, mais nous avons à faire à présent à une population de plus en plus dynamique, ouverte, qui ne cesse de se différencier et de participer à dautres différenciations à luvre, à des niveaux déchelles variés, par exemple, au cur des pratiques socio-cognitives les plus diverses.
3.1 - Repères
Déjà P. Otlet avait en son temps étendu très loin, ce qui sous ce terme de document devait être subsumé : hyperdocument. Lévolution de la documentation se développe en six étapes. (...) Au sixième stade, un stade de plus et tous les sens ayant donné lieu à un développement propre, une instrumentation enregistreuse ayant été établie pour chacun, de nouveaux sens étant sortis de lhomogénéité primitive et sétant spécifiés, tandis que lesprit perfectionne sa conception, sentrevoit dans ces conditions, lHyper-intelligence. Sens-Perception-Document sont choses, notions soudées.
Les documents visuels et les documents sonores se complètent dautres documents, les tactiles, les gustatifs, les odorants et dautres encore. À ce stade aussi linsensible, limperceptible, deviendront sensible et perceptible par lintermédiaire concret de linstrument-document. Lirrationnel à son tour, tout ce qui est intransmissible et fût négligé, et qui à cause de cela se révolte et se soulève comme il advient en ces jours, lirrationnel trouvera son expression par des voies encore insoupçonnées. Et ce sera vraiment alors le stade de lHyper-documentation. .
Lémergence des normes numériques nous rappelle, donc, limportance des humbles pratiques décritures et denregistrements et de ce qui les affecte mais aussi des résistances que certains ont à reconnaître le rôle des inscriptions, à sintéresser au rôle de la pratique instrumentale et à ce qui les affecte .
En ce sens, ce qui se passe aujourdhui est aussi ancien que lhistoire de lécriture et donc pour partie essentielle, de lhistoire de lhomme. Lémergence de lécriture est émergence dune stabilisation créatrice, (supposant donc divers procès de standardisation), de modes de production de traces répétables et combinables, transportables, quels que soient les milieux associés où ces traces sont répétées, dupliquées, combinées, transformées, déplacées, où quelquun répète, duplique, transforme... Ainsi lhistoire de lécriture revient à dire une double décontextualisation: des pictogrammes sumériens à lalphabet consonantique sémitique, de là à lalphabet grec, autrement dit à partir de lunion première entre le signe, le langage et le monde que réalise lunivers cunéiforme, via lénigme du mot dans les alphabets sémitiques, pour aboutir à lillusion sonore de lalphabet grec, lécriture sest détachée du contexte; dans cette distanciation, diversement réalisée par les différentes cultures graphiques, elle a fini par rendre visible, en lhomme, les choses du langage et les choses du monde .
Premier et lent processus de normalisation autour et à partir de Sumer, autour et à partir de Sarde, qui conduit respectivement à lémergence de lÉcriture, de la Monnaie .
Plus près de nous, entre lan mille jusquà nos jours, langages, systèmes décritures, dispositifs de réplication-dissémination, nont cessé dévoluer, de se différencier selon des processus complexes, impliquant des chaînes dactants (au sens latourien) très variés. Ces processus, fruit du vaste creusement du couplage originaire cortex-silex , sont pour une large part de type associationniste et autopoïétique. Nous renvoyons, pour un exposé brillant de ces problèmes, à la deuxième partie (intitulée Memes and Norms) de louvrage de Manuel de Landa ; A Thousand Years of Non-linear History .
Parmi ces systèmes décritures, les plus importants, les plus connus, sont à la suite du procès de numérisation lui-même, le code ASCII, les normes et standards de réseau et de protocoles de télécommunications (Ethernet, ATM, TCP-IP, Http...), les normes de balisage des textes et documents, (Sgml, Html, Xml, TEI, HyTime...), les normes déchanges industriels, institutionnels et commerciaux, (EDI), les normes MPEG, les normes et standards spécifiant les supports et formats logiques et matériels de linformation (disquettes, CD-Rom, DVD, ZIP...), les standards de traitement de textes, etc. .
Ces documents donc, qui viennent à lexistence aujourdhui, présentent un certain nombre de caractéristiques générales, caractéristiques qui sont comme autant de problèmes à explorer, comme autant de questions à questionner.
Examinons rapidement ces principales caractéristiques.
La première qui a été très rapidement exploitée, renvoie au problème du stockage du document numérique. Dès lors que lon dispose de moyens de stockage adéquats, complexes, il est en effet possible de collecter et de rassembler de vastes quantités de documents dans des espaces relativement réduits. Les bases de données émergeant à la fin des années 50 et au début des années 60 ont les premières, incarnées cette possibilité.
La seconde caractéristique du document numérique cest sa grande plasticité , cest-à-dire les possibilités étendues que ce dernier offre, de traitements automatiques (quil sagisse de textes, dimages de sons), de types de manipulations, de transformations. La troisième caractéristique, très vite perçue par exemple par Ted Nelson, ce sont les possibilités dassociation(s) des documents entre eux, de parties de documents entre elles et ce quelle que soit la nature des documents associés, liés. On a évoqué à ce propos, selon nous de manière parfaitement justifiée, une nouvelle alliance images/textes/sons. Cette caractéristique est au cur de la problématique des écritures et des mémoires hypertextuelles , hypermédias .
Dautres caractères expriment cette plasticité.
Pour aller à lessentiel, très rapidement, lextrême transformabilité des formats de stockage, par exemple, mais aussi létendue des modes de recherche, danalyse, dinterprétation des documents ainsi quune grande capacité de duplication, de circulation via des réseaux électroniques, dans un espace-temps pour partie déterritorialisé, et impliquant entre autres choses, des nouvelles temporalités, des nouveaux rapports de vitesse et de lenteur concernant les pratiques décriture(s)/lectures
Ces caractères affectent lhistoire des traces, de lécriture, de la pensée, les modes de répétition et de combinaison de ces traces, des signes, les modes de production et de dissémination des documents et des effets de ces modes de dissémination (ce qui, au passage, hantait déjà Platon) . Sont donc transformées les conditions nouvelles de la cognition.
3.2 - Le processus dhypertextualisation
Les deux notions centrales de lhypertextualité à savoir celle de nud et celle de lien sont ici, au cur des dimensions processuelles et collectives du document numérique. Cette dimension processuelle, à dire vrai, est depuis toujours, présente, dès lorigine. Il ny a pas de texte qui ne soit par et au milieu dun collectif de pratiques décritures-lectures, de duplication-circulation-dissémination de textes ou fragment de textes, de leur reprise, itération, citation, altération... dans des agencements divers et ouverts. Noublions pas quitérabilité ne signifie pas simplement, (...) répétabilité du même, mais altérité de ce même idéalisé dans la singularité de lévénement .
Procès sans fin...
Dès les années 60, en France par exemple, plusieurs travaux prennent en compte ce procès.
Chacun à leur manière, Roland Barthes, Michel Foucault, Julia Kristeva, Jacques Derrida définissent et pensent le texte comme productivité. Pour reprendre les termes dOswald Ducrot et Tzvetan Todorov une écriture textuelle suppose quait été tactiquement déjouée la vection descriptive du langage et mise en place une procédure qui, au contraire, fasse jouer à plein son pouvoir génératif . Dans le même cadre théorique, la notion dauteur est questionnée et contestée pour ouvrir aux processus textuels et aux incessants travaux de ré-écriture, daltération-création en amont, qui vont finir par se stabiliser dans une autre forme qui à son tour va être reprise et se diffracter en direction dautres écritures. Tout texte se construit contre mais tout contre un ensemble dautres textes. Il est un feuilletage complexe (contexte interne) constitué dun tissu de citations, de références explicites ou incorporées, assimilées (boîtes noires) qui renvoie vers dautres textes (contexte externe) qui eux-mêmes sont lexpression et lexprimé dautres textualités, dautres réseaux dactants. Nous reviendrons plus loin sur ce point.
Cette conception de lintertextualité, comme fondement du travail socio-cognitif ouvre la voie dune certaine manière au vaste mouvement de la pensée déconstructiviste et rencontre à partir dun point de vue critique des philosophies du sujet, à partir de la contestation des ontologies monovalente et des logiques bivalentes, ce qui de lautre côté de lAtlantique se met en place sous la forme de nouveaux systèmes décriture permettant daccéder à des modes plus processuels et ouverts, à des modes démultipliant les capacités décriture lecture associative de type non-linéaire. Toujours pour suivre J. Kristeva nous appelons réseau paragrammatique, le modèle tabulaire (non linéaire) de lélaboration du langage textuel. Le terme réseau remplace lunivocité (la linéarité) en lenglobant, et suggère que chaque ensemble (séquence) est aboutissement et commencement dun rapport plurivalent .
Jacques Derrida , dans De la Grammatologie publié en 1967 , en proposant de renverser le primat de la parole sur lécriture, ce quil nomme le logocentrisme, va radicaliser la réflexion sur la textualité et engager une critique de la communication comme communication des consciences.
Dans le même temps, il étend la notion de texte, jusquà la porter à son point dincandescence.
Précisons donc ce que nous entendons par texte. Deux sens. Le premier renvoie au texte écrit et à son opposition non seulement à limage, au son mais encore à tous les autres référents possibles, à toutes les sémiotiques, à tous les agencements collectifs dénonciation existants.
Lorsque nous parlons habituellement dhypertexte nous prenons le texte dans ce sens. Le second sens est radicalement extensif, suivant en cela Jacques Derrida. Une fois de plus (pour la millième fois peut-être, mais quand acceptera t-on de lentendre et pourquoi cette résistance), le texte nest pas le livre, il nest pas enfermé dans un volume, lui-même enfermé dans la bibliothèque. Il ne suspend pas la référence à lhistoire, au monde à la réalité, à lêtre surtout pas à lautre puisque dire de lhistoire du monde, de la réalité quils apparaissent toujours dans une expérience, dans un mouvement dinterprétation qui les contextualise selon un réseau de différences et donc renvoie à de lautre, cest bien rappeler que laltérité, la différence est irréductible . Je voudrais rappeler que le concept de texte que je propose ne se limite ni à la graphie, ni au livre, ni même au discours, encore moins à la sphère sémantique, représentative, symbolique, idéelle ou idéologique. Ce que jappelle texte implique toutes les structures dites réelles, économiques, historiques, socio-institutionnelles, bref tous les référents possibles. Autre manière de rappeler une fois encore quil ny a pas de hors-texte. Cela ne veut pas dire que tous les référents sont suspendus, niés ou enfermés dans un livre, comme on feint ou comme on a la naïveté de le croire et de men accuser. Mais cela veut dire que tout référent, toute réalité à la structure dune trace différentielle et quon ne peut se rapporter à ce réel, que dans une expérience interprétative .
Ce qui est véritablement nouveau aujourdhui, cest la mise en visibilité, toujours plus riche, de ce procès, entre autres grâce aux capacités à écrire et à inscrire une partie importante des processus associationnistes et collectifs de la cognition en acte, à des niveaux déchelle potentiellement indéfiniment ouverts.
La nature profonde du livre est à nouveau dévoilée : il nest pas image du monde, suivant une croyance enracinée. Il fait rhizome avec le monde, il y a une évolution aparallèle du livre et du monde, le livre assure la déterritorialisation du monde, mais le monde opère une reterritorialisation du livre qui se déterritorialise à son tour en lui-même dans le monde (sil en est capable et sil le peut). .
Le procès de numérisation rend possible une nouvelle traversée, un nouveau travail des textes ( au premier sens évoqué précèdemment) en tant quils sont des textes non-clos sur eux-mêmes.
Ce procès qui est porteur dune extension considérable des modes associatifs, de leur inscription met en évidence, un plus profondémment, que les textes sont sans intérieur, ni extèrieur, ramifiées, feuilletés, opérant sans cesse des branchements et des mises en relation
réseaux qui se connectent sur dautres textes-réseaux.
Cest parce que la linguistique elle-même nest pas séparable dune pragmatique interne qui concerne ses propres facteurs (que) la pragmatique externe des facteurs non linguistiques doit (et peut) être prise en considération .
Cest la raison pour laquelle la scientométrie, linfométrie, telles quelles sexpriment dans le cadre de la sociologie de la traduction de Michel Callon et Bruno Latour est fondée à traiter les inscriptions littéraires de toutes sortes comme système de traces pertinent, permettant de repèrer lactivité des actants opérant, sexpérimentant et sexprimanat par et à travers des agencements sémiotiques qui peuvent être très hétérogènes.
Si nous disposons dun nombre croissant de traces numériques produites par les acteurs, alors il devient possible daccéder à partir de ce qui circule, à ce qui est décrit par ce qui circule. Le verbe décrire est à prendre dans son double sens : des cription littéraire du réseau inscrit dans lintermédiaire considéré, quil sagisse de textes, de dispositfs, de compétences incorporées
; description-circulation de lintermédiaire (dans le sens où lon dit quun missile décrit une trajectoire) qui nest possible (
) que si le réseau coïncide avec le rencontré, éprouvé
.
Visée à partir des inscriptions littéraires numériques, (texte au premier sens) la mise à jour des agencements collectifs dénonciation (texte au second sens) se trouve, par la production même de ces mémoires, renforcée.
3.3 - Sur les pratiques décriture-lecture.
Le déploiement et le creusement de lhypertextualité numérique on la vu se fait du côté technologique. Ce déploiement et ce creusement sont théoriques, épistémologiques du côté dune réflexion sur la textualité, sur laffirmation du primat de lécriture et contre, mais parfois tout contre, la domination du logocentrisme. Ils ont aussi une dimension socio-cognitive du côté dune réflexion sur les dimensions collectives et distribuée du procès de travail intellectuel. Ce creusement se fait enfin du côté des nouvelles pratiques de lecture-écriture.
Cette approche sinscrit au plus prés de nous dans une histoire récente de la littérature et de la linguistique ainsi que dans la longue histoire du livre.
La littérature numérique, note J. Clément, était déjà dans le livre et le papier. Il y a eu, sur ce support des tentatives de saffranchir des contraintes du papier et des dispositifs traditionnels de lecture-écriture pour inventer autre chose. La littérature numérique prend (pour partie, commentaire de lauteur) ses racines dans une littérature qualifiée parfois dexpérimentale et marginale qui portait en germe les travaux daujourdhui .
Trois dimensions sont abordées par cet auteur. Tout dabord la catégorie du lisible (au sens commun), puis la catégorie du visible, enfin la catégorie du scriptible placée ici sous le signe de R.oland Barthes.
Le lisible cest dabord la combinatoire, cest lidée que le texte pourrait être produit par une simple combinaison de ses éléments
Quelques exemples le Yi-King, lart du centon , les grands rhétoriqueurs, les poètes baroques allemands, Queneau, Pérec, Butor . Cette combinatoire prend diverses formes : combinatoire simple, totale (factorielle), restreinte ; combinatoire complexe par exemple la grammaire générative de Chomsky, le structuralisme appliqué au récit (Propp, Greimas, Barthes) . Ces formes dépendent des éléments combinables et des types de contraintes. Une autre lignée historique se situe du côté de la génération automatique.
La seconde catégorie le visible concerne plus la poésie que la fiction
la surface de lécran est une surface dinscription qui se donne à regarder plus quà lire. (
) Cette poésie va sappuyer sur la matérialité du signe, sur sa visibilité sur son aspect sonore . Cette catégorie sinscrit là encore dans une longue histoire : les poésies figurées de lépoque carolingienne, les calligrammes du Moyen âge jusquà Apollinaire et le futurisme, Dada et les avant-gardes ; enfin lécriture animée
.
Cette montée du visible pose un certain nombre de problèmes théoriques, pratiques majeurs.
La catégorie du scriptible est, dun certain point de vue, au cur de la question hypertextuelle.
Elle est porteuse dinterrogations qui concernent directement le support de lecture, les arborescences et les graphes de parcours, les narrations, du narrateur et du narrataire, linteractivité, le pacte générique, les dimensions fractales et le rapport aux processus probabilistiques et chaotiques, aux temporalités
Dès la fin des 90, plusieurs travaux sétaient déjà inscrits dans ces cadres théoriques. J. Pomian et E. Souchier sattachant à explorer les enjeux et à dévoiler les mythes de lécrit combinatoire, les vertiges de lhypertextualité numérique écrivaient : ainsi la double activité du lecteur combinatoire, la construction dun texte traditionnel est en soi un acte de lecture différé et différent de lacte de lecture habituel, dans le sens où il construit une forme avant délaborer un sens. Le manipulateur dune console informatique nagit pas autrement ; pour accéder au texte, il lui faut avant tout donner forme à larborescence, concrétiser les virtualités de la combinatoire. Mais nest-ce pas là, le propre de toute lecture, de toute écriture : actions consistant à transformer les grandes virtualités de la grande combinatoire en réalités finies ou, en dautres termes, action qui consistent à passer dune compétence à une performance ? .
Les textes, les pratiques décritures et de lectures dont ils sont lexpression et lexprimé, sont toujours des machines labyrinthiques, à n dimensions, qui ne cessent de créer les conditions de leur propre démantèlement, cest-à-dire de ré-écriture, re-lecture, de travail interprétatif, qui ne cessent douvrir vers un nombre toujours plus grand de trouées, percées, chemins virtuels dont seul pourtant certains sactualiseront. Ils ne sont jamais blocs denses et pleins, ils sont comme le cube de Serpienski ou léponge de Menger, territoires à la superficie potentiellement infinie, ouverts et connectables vers le hors-champ de chacun de nos mondes, des textes qui constituent notre milieu associé, notre niche éco-cognitive. Ils sont des architectures différAn(t)ielles hypercomplexes créant les conditions matérielles et idéelles dune tension permanente au milieu des coupures, des limites, des zones frontières, des trous et des vides. Pleines et entières positivités de ces machines à vides, à fractures, brisures, par qui le mouvement de la pensée sengendre, contre, tout contre les combinatoires et leurs contraintes, des signes, des traces. Pleine et entière positivité des processus de chaotisation doù émergent (auto-organisations souveraines), sous les conditions de production de ces machines textuelles, les ordres locaux, les formes métastables de la pensée. De la lecture-écriture donc comme art(s) complexe(s) des cartographies réelles et imaginaires pour un territoire étrange qui ne lui préexiste pas, sinon comme milieu virtuel associé des textualités non encore connectées, entre léclatante et noire positivité de lécriture, des inscriptions répétées et lobscure, tantôt glaciale et volcanique positivité des vides, des espaces deux fois troués qui leur sont couplés .
Tel est donc le travail de la lecture : à partir dune linéarité ou dune platitude initiale, cet acte de déchiffrer, de froisser, de tordre, de recoudre le texte pour ouvrir un milieu vivant où puisse se déployer le sens ? Cest en le parcourant, en le cartographiant que nous lactualisons. Mais pendant que nous le replions sur lui-même, produisant ainsi son rapport à soi, sa vie autonome, son aura sémantique, nous rapportons aussi le texte à dautres textes, à dautres discours, à des images, à des affects, à toute limmense réserve fluctuante de désirs et de signes qui nous constitue. Ici, ce nest plus lunité du texte qui est en jeu, mais la construction de soi, construction toujours à refaire, inachevée (
) Cette fois-ci, le texte nest plus froissé, replié en boule sur lui-même, mais découpé, pulvérisé, distribué, évalué selon les critères dune subjectivité accouchant delle-même .
Cest la raison pour laquelle, face à ces processus, on risquerait de manquer lenchevêtrement des logiques, types de causalités, et couplages, des jeux combinatoires et associatifs, des rapports différentiels entre pleins et vides si lon ne prenait la mesure des niveaux déchelle des pratiques décriture-lecture indéfiniment ouverts, de la granularité complexe et mouvante des ensembles de documents et dacteurs-auteurs associés, des cartographies et aides à lorientation en devenir, de la métastabilité et processualité des hyperdocuments, ainsi que des communautés duvres
Dans ce contexte, on ne peut penser lauteur, que comme multiplicité. Les nouvelles écritures rendent de plus en plus visible le fait quil est (seul ou à plusieurs) agencement collectif dénonciation, milieu au milieu dautres agencements collectifs, à leur traversée et les traversant. Inscription partielle donc de cela , cest-à-dire de cet agencement collectif, de cette mémoire collective en acte, distribuée selon des diagrammes spécifiques, des réseaux hétérogènes, hybrides, mais aussi de cet attracteur complexe des traces, trajectoires conceptuelles ou autres, entrelacées, quest le texte (dans ces deux sens), attracteur négociant vis-à-vis dautres, sa puissance de capture et de traduction des sémiotiques en mouvement.
La pensée se déploie alors dans et à partir de cette zone incertaine formée à la jointure des mouvements de subduction et de convection engendrés par les couplages entre la productivité des contraintes combinatoires neuronales et la productivité des contraintes combinatoires liées aux modes décritures, aux modes linguistiques, sémiotiques
et aux modes sociaux de transmission de ces contraintes.
Mouvements de subduction par lesquels vont se déployer en une alchimie noire les combinaisons chaotiques des pensées les plus frêles, des trajectoires les plus incertaines, des rapports de vitesse et de lenteur les plus subtils. Mouvements de convection par lesquels, contre et tout contre la matérialité des traces, de leur répétition, de leur combinatoire, vont se déployer coupures, failles, fractures, anfractuosités, lignes de fuites et entres elles des liens, des connexions, des ponts
Contre la pâte étouffante de lhomogène, contre léther anesthésiant du chaos, toute détermination est négation.
3.3.1 - Les activités de lecture-écriture dans les uvres littéraires ou artistiques
(Extraits : Jacques Perriault)
Plusieurs types de réalisations dans les espaces numériques sont en cours dexpérimentation et semblent se dégager, telles les expériences décriture à luvre dans les images interactives (Samuel Bianchini), les logiciels de génération automatique de texte (poésies ou romans de Jean-Pierre Balpe), les écritures collaboratives de fictions en ligne, sans que lon sache comment elles vont évoluer ni quel sera leur avenir. Cette écriture en mouvement paraît être en train de se déliter, de se décomposer, de se réformer, au cours de son passage sous une forme de fluidité, doralité, dans des espaces en trois dimensions
.
Les environnements hypermédias paraissent aussi placer au premier plan les aspects de modélisation, la notion de dispositif dengendrement des objets devenant beaucoup plus présente que les objets (textes, images) produits par ce dispositif. La part de créativité
semble sêtre déplacée des objets eux-mêmes vers la conception dun logiciel et dun dispositif qui puisse les générer .
Samuel Bianchini retrace son évolution personnelle théorique depuis limage actée jusquaux outils dart ; il évoque à cet égard un système de lecture, qui devient surtout système décriture, micro-système de production et se réfère à léchantilloneur de Pierre Schaeffer. Linteractivité est mise au premier plan, mais fait aussi lobjet dune interrogation et dune remise en cause avec le manipulateur manipulé. En effet, cette interactivité, qui semble a priori impliquer un partage dautorité de lauteur au profit du lecteur, peut entraîner ce dernier, à son insu et par le biais dun objet interactif, dans un processus de manipulation et de conditionnement de ses choix et gestes .
Luvre multimédia nest plus le produit dune seule personne mais bien dun ensemble dauteurs, y compris les auteurs de logiciels (
), et le producteur. Le statut juridique de luvre collective ou de luvre de collaboration (
) met en exergue les questions financières de droit des auteurs et leur rémunération associée . (
)
Quapportent réellement les hypermédias et les réseaux interconnectés au savoir et à son appropriation par le lecteur ?
Les liens édités (renvois, corrélats à la fin des articles), ont une fonction dorganisation du savoir dans les encyclopédies / dictionnaires sur le support papier.
En revanche, le plein texte des environnements informatisés, en donnant accès à tous les mots à lintérieur dun texte numérisé, génère une forme de désordre du savoir. Dune part, le lecteur dispose de toutes les occurrences dans un texte, avec les problèmes dindexation qui y sont liés mais, dautre part, cest à lui de lui donner une cohérence. Or, sil cherche une information, cest que, forcément, il lui en manque et quil ne connaît pas tout de la discipline ou du thème de recherche quil souhaite approfondir. Les caractéristiques du rassemblement, de lorganisation et de laccès à linformation sur Internet, évoquées ci-dessus, vont dans la même direction: laccès à tout, cest laccès non pas à rien, mais à limmensité des ressources, à la difficulté, au désordre. Ces moyens techniques ne sont-ils pas en train de mettre à distance le sujet qui cherche des informations et les connaissances elles-mêmes ? La nature de la difficulté a changé et un principe de rareté sest déplacé de la quantité dinformations disponibles à la capacité de filtrage par la personne qui les recherche pour les organiser, puis les intégrer dans son système de connaissance. Paradoxalement, les réseaux et les hypermédias mettent à distance, du fait même de leur performance technique, le sujet connaissant et les données. Si lon défend le point de vue encyclopédique, comme la fait François Demay, on pourrait dire quune encyclopédie se voudrait le moyen de formation et loutil, le guide sélectif et organisateur permettant de tirer parti de toute la richesse dInternet
La vision universalisante du savoir encyclopédique est finalement impossible car elle ne rejoint pas lindividu et le lecteur localement. François Demay souligne à cet égard : Une encyclopédie est un projet globalisant et totalisant; or ce projet est mis en cause juste au moment où lon aboutit à la globalisation et au libéralisme absolu aujourdhui. Est-ce un paradoxe ou pas ? Peut-être pas justement.
Cette universalité impossible nous conduit à considérer la part de subjectivité incontournable présente dans tout discours. Cette subjectivité se trouve au cur même de nos ontologies et de nos modes de classification, comme la étudié Georges Vignaux. Cette subjectivité était assumée, revendiquée même par Diderot, dans son projet douvrir le peuple à la raison et de mettre le savoir à la portée de tous, qui était lidéal des Lumières, ou encore par Pierre Larousse, républicain militant. Beaucoup plus proche de nous, Universalis même annonçait et revendiquait, avec le symbole de ses épées croisées, le droit aux prises de position et à la polémique dans certains articles. Mais cette subjectivité qui était assumée semble aboutir aujourdhui à un discours neutralisant dans des produits culturels électroniques prévus dès leur conception pour un marché international, dans la négation de leurs spécificités historiques et culturelles . (
)
Ces interrogations nous ont amenés à aborder la transculturalité, la prise en compte dautres cultures et dautres regards dans lentreprise encyclopédique. Laccès à linformation, souligne Pierre Varrod, est encore très ethno-centré, voire européo-centré, donc encore limité, et ne prend pas en compte dautres regards. Cette remise en cause porte sur linterrogation de notre mode même de questionnement et de vision du monde, sur le type de réponse à apporter aux questions de notre temps, éthiques, morales et politiques, au-delà des simples données factuelles. Ce travail implique la collaboration de plusieurs auteurs travaillant sur le même texte et sur le même mot, ce qui remet en cause une fois de plus la conception de lauteur unique responsable de son uvre, et place question du choix du support (papier ou électronique) sur un plan très secondaire par rapport à linterrogation sur la nature des contenus constitutifs de louvrage. Lencyclopédie ou le dictionnaire peuvent-ils mettre en uvre la réflexion du savoir par des corrélats hypertextuels et la prise en compte dautres cultures autres quoccidentale ? Cest bien le lien entre la captation dun certain nombre déléments et sa mise en relation qui est essentielle. Or le lieu de ce travail, impossible à réaliser dans louvrage, se trouve dans lesprit du lecteur car il détient linitiative des questions de compréhension, même si lencyclopédie peut tout de même linterpeller, lui demander son avis, lui poser des questions, tout comme le faisait Diderot . (
)
Toutefois, la modélisation des constructions scientifiques sur support électronique mise en uvre, par Valentine Roux, à partir du remodelage logiciste des publications savantes élaboré par Jean-Claude Gardin, propose, tout en utilisant les mêmes outils, une alternative décriture complètement différente qui ramène au premier plan le rôle clé du concepteur et des auteurs. Au sein dun dispositif hypermédia, qui optimise lutilisation de lhypertexte et du multimédia, une construction très rigoureuse met en place un environnement spécifique utilisé à la fois pour une lecture de consultation et un apprentissage à la construction de la pensée scientifique. Ce dispositif est conçu pour aménager un accès rapide aux noyaux cognitifs ainsi quà lensemble des données mobilisées par la construction, en proposant au lecteur un écrit à consulter et une base de connaissances où sont archivées tant les règles dinférence que les bases de données . (
)
Dans ce contexte, le travail mené par Valentine Roux a consisté à modéliser sur CD-Rom un ouvrage archéologique, Cornaline de lInde. Des pratiques techniques de Cambay aux techno-systèmes de lIndus (Éditions de la MSH, Paris, 2000).
La modélisation permet un accès rapide aux noyaux cognitifs de la construction ainsi quà lensemble des données mobilisées par la construction. Elle livre ainsi au lecteur à la fois un écrit qui se consulte et une base de connaissances où sont archivées tant les règles dinférence que les bases de données. Trois autres ouvrages sont actuellement en cours de modélisation selon le même modèle.
Loriginalité de louvrage est de comprendre à la fois des études archéologiques et tous les référentiels construits pour interpréter les termes archéologiques. Ces études font appel à des disciplines très différentes, qui sont les sciences du mouvement, les sciences des matériaux et de léconomie. En outre, nous sommes dix chercheurs a avoir participé à lélaboration de ce livre.(
) La modélisation repose sur les principes du logicisme préconisé par J.-C. Gardin car, à lheure actuelle, cest la seule proposition pratique que lon ait de schématisation de larchitecture des constructions scientifiques . En un premier temps, il a été question de faire une réécriture logiciste de louvrage et, dans un deuxième temps, dadopter une ergonomie permettant, sur multimédia, une consultation facile de cette réécriture. Quatre niveaux décriture ont été retenus, correspondant à quatre niveaux de consultation et à quatre écrans, avec la volonté de ne pas perdre le lecteur dans des cascades de renvois où très rapidement, on peut perdre de vue à quel niveau de la construction est-ce que lon se situe. Le sommaire comporte les corpus archéologiques et les référentiels qui servent à linterprétation des perles archéologiques.
Le premier écran est un écran de Plan des études , qui déclare explicitement les opérations intellectuelles qui ont été suivies pour traiter du matériel archéologique (analyse des données archéologiques, application du référentiel économie, du référentiel habiletés, du référentiel histoire). Lapplication du choix dun référentiel, disons économie, va tenter de retrouver le nombre et le statut des artisans. Sur ces écrans de Plan des études , le lecteur doit pouvoir saisir rapidement les grandes lignes méthodologiques de lauteur, ses objectifs ainsi que lunivers disciplinaire auquel correspond létude en question Les référentiels sont organisés de telle manière que le lecteur puisse voir très rapidement où se trouve la mise en place du référentiel et quelle est la règle dinférence que lauteur dégage (et que le lecteur pourra appliquer clé en main sur les perles archéologiques).
Le second écran est un écran de propositions relatives à chaque plan détude. Chaque étape va comporter un certain nombre de propositions de nature différente selon létape elle-même. On peut avoir des propositions parfaitement descriptives, soit une description périphérique à la construction mais, dont on a besoin pour la compréhension générale de létude, soit une proposition descriptive qui sinscrit directement dans la construction elle-même. On peut avoir des propositions de type méthodologique, si létape est de cet ordre. Pour ce qui est par exemple des étapes analyse comme nombre et statut des artisans, on trouve en revanche tous les résultats qui sont annoncés. Cest un écran intitulé Lecture rapide . Lobjectif est, avec deux écrans, les étapes et les propositions relatives à chaque étape, de saisir rapidement larchitecture de la construction et les principaux résultats de lanalyse.
Le troisième écran est un écran Arguments . Une fois le résultat avancé, il sagit dêtre en mesure de pouvoir en vérifier la pertinence (pour savoir sur quels types darguments reposent les analyses)
Ce sont des arguments au sens fort du terme, où lon a une proposition préalablement démontrée dans la construction, un référentiel appliqué et les résultats analytiques.
La sélection de lun des arguments mène à la base de données (quatrième écran : Données , où le lecteur va trouver toutes les données de type quantitatif, qualitatif, avec lavantage du multimédia de mettre les bases de données in extenso et de manière variée (graphiques, films, photos
). Ces données constituent les arguments.
Les avantages de ce type de consultation sont de plusieurs ordres :
Un avantage dordre épistémologique puisque, demblée, on a affaire au noyau cognitif des différentes constructions. On peut vérifier tout de suite le bien fondé des propositions qui sont avancées car les raisonnements des différents auteurs ont été dépouillés de toute rhétorique. Ce travail a été mené sur des chapitres extrêmement différents dans leur nature et, que ce soit de la psychologie, de léconomie ou de larchéologie, nous navons rencontré aucun problème de modélisation.
Un avantage de consultation: avec les deux premiers écrans, le lecteur saisit lintégralité de linformation principale à retenir dune étude, non dans un résumé mais dans les cheminements du raisonnement des différents chercheurs, ce qui est très riche au niveau de linformation que lon perçoit. Cest une solution possible à la crise de consommation des écrits scientifiques parce que, selon son intérêt, le lecteur peut évidemment naviguer de façon variable dans ces différents niveaux décriture.
Un autre grand avantage est davoir pu livrer la base de données in extenso. Lun des gros problèmes rencontrés à lheure actuelle avec les publications scientifiques sur papier est que lon ne peut plus vérifier les données mobilisées par les chercheurs pour pouvoir avancer une proposition. Énorme problème aussi par rapport à ce que représente les archivages de ces données scientifiques qui nont jamais été organisées pour être ensuite consultées. Dans le type de publication proposé ici, les données elles-mêmes sont organisées en fonction de la construction scientifique de lauteur et, à lissue de la publication, lensemble des données relatives à une étude a été archivé. De ce point de vue-là, on participe ainsi directement à lélaboration de bases de connaissances, cest-à-dire que lon est en train, à lheure actuelle, de pouvoir livrer des raisonnements qui sont schématisés avec lensemble des données qui y sont relatives. On peut donc commencer à les envisager ces bases de connaissance qui, pour linstant, nexistent pas en sciences humaines. Ceci est dautant possible que lon se trouve sur un standard de publication.
Cette modélisation présente enfin un intérêt en termes pédagogiques car loutil propose une double formation possible: une formation détudiants au raisonnement car on leur apprend à démontrer des propositions; une formation à des outils analytiques.
Quel est lapport du CD-Rom par rapport au livre ? Pour ce qui est des constructions scientifiques, lintégralité de ce qui est publié dans le livre se trouve sur le CD. Néanmoins, si on met en écrit tout le texte que lon peut lire dans le CD, il y a 70 % de gain en quantité par rapport aux 550 pages du livre. Plusieurs éléments nont pas été modélisés dans la construction: le contexte des études en général (lhistoire de la ville où sest passée lexpérimentation, les différentes études, des histoires économiques); les effets de style (présentation de ce que lon va dire, de ce que lon a voulu dire, des répétitions), des considérations méthodologiques qui renvoient le plus souvent à des précautions dusage pour traiter dun problème; des évocations théoriques pour expliquer un phénomène étudié, que lon trouve souvent dans le livre en introduction sous lappellation de cadre théorique, ou bien dans la discussion qui renvoie à des positions théoriques où lon discute des résultats en fonction des ces autres positions théoriques. Ces différents écrits nont pas été modélisés pour plusieurs raisons : il sagissait dinformations qui ne rentraient pas du tout dans les constructions scientifiques (comme lécrit historique qui relatait des choses écrites dans dautres livres et ne faisait pas lobjet dune étude en soi) ; les considérations méthodologiques correspondant aux choix effectués pour étudier les perles dune manière plutôt que dune autre nétaient pas nécessaires car les constructions fonctionnent et sont explicites; les évocations théoriques qui expliquent les phénomènes étudiés (le balayage du champ des possibles) et qui renvoient à des débats théoriques dans lesquels sinscrivent les recherches résultant des constructions scientifiques ne sont pas inclus dans la modélisation, car ils ne font pas lobjet eux-mêmes dune construction scientifique. Il ne sagit pas dune volonté dévacuation de ces textes dans le futur, mais darriver à séparer les deux genres, le genre récit où lon raconte la problématique, le cadre théorique, le contexte intellectuel dans lequel se passe létude, et les constructions elles-mêmes qui sont modélisées de telle manière que lon puisse avoir un accès à la connaissance qui soit effectivement rapide et efficace.
La technologie dynamique hypermédia permet-elle réellement au lecteur de reprendre une partie de lautorité organisatrice ? Il est vrai que lauteur ne dispose plus de lautorité suprême totale sur le plan de la structuration du discours (au-delà des considérations sur la pluralité dauteurs dune uvre multimédia), puisquil est impossible danticiper toutes les combinaisons de choix possibles du lecteur, mais cette forme de liberté surveillée génère-t-elle pour autant lévolution dune approche centralisatrice vers une approche décentralisatrice ? La navigation par les liens sémantiques ne va pas forcément dans le sens dune autonomisation du lecteur, dans la mesure où ce type de liens a été prévu par linstance conceptrice. En revanche, les possibilités navigationnelles liées à lhypertexte total rendent les corpus accessibles en tout point et selon une multiplicité de critères, que ce soit à lintérieur dun texte par les liens internes, quà lextérieur, par les liens externes des sites stockés sur des serveurs en réseau, qui repoussent les limites de lintertextualité jusquà lextrême stade de dissolution des textes. Ces spécificités techniques et daccès via les interfaces logicielles affranchissent le lecteur dune organisation prédéfinie en rendant accessibles une infinité de possibilités de choix de textes, de parcours, de sources dinformation. Mais les compétences de ce type de lecteur ont évolué : ce nest plus un lecteur qui prend connaissance et assimile une partie des informations proposées au sein dun contenu pré-sélectionné et organisé. Non que le lecteur dun texte ait un rôle passif ; nous avons à lesprit lindispensable initiative interprétative du lecteur pour aider le texte à fonctionner, car tout texte postule la coopération du lecteur comme condition dactualisation (Umberto Eco, Lector in fabula. Le rôle du lecteur ou La coopération interprétative dans les textes narratifs). Nous voulons dire que les dispositifs du livre et du disque compact limitent le champ des informations au corpus sélectionné et validé par les éditeurs, concepteurs, auteurs de luvre ; de plus, les données y sont pré-construites selon un plan, un ordre, un cheminement déterminé par léditeur et lauteur puis proposé au lecteur. Dans un dispositif hypermédia en réseau, le lecteur est confronté à un environnement international et marchand réunissant dans des espaces virtuels une multiplicité de sources les plus hétérogènes. Il doit donc développer un autre type de lecture pour apprendre à se situer en dehors de la sphère culturelle, historique, géographique, sociale, etc., au-dehors de tout contenu pris dans sa particularité et sa subjectivité incontournables, en vue dadopter un regard distancié, plus critique et un comportement autonome en fonction des ses objectifs de recherche.
Dans les environnements des dispositifs hypermédias en réseau, le lecteur est amené à reconstruire du sens à partir du contenu mis à disposition ou potentiellement disponible, sil ne veut pas être submergé par un excès de communication qui porte le danger de limplosion du sens. Il se voit proposer une grande quantité de données et de fonctionnalités, en tant quoutils de navigation et de manipulation de contenu, qui constituent autant dincitations à agir sur ce contenu pour inférer du sens. Les interfaces véhiculent un message dont lénoncé transforme la position et le rôle du lecteur qui, en se trouvant ainsi interpellé, devient un énonciataire engagé dans une relation, non pas avec un énonciateur, mais avec un logiciel lui donnant lillusion de sadresser à lui dune manière particulière. Cette intervention active du lecteur modifie son rôle : il nest plus le lecteur dun livre dont le discours est à lire, comprendre et assimiler mais auquel il reste fondamentalement extérieur (du moins au moment où il entame sa lecture). Il se trouve placé au centre dun texte et dun dialogue à construire entre lui-même et les données de son choix, dans lequel il est sollicité à sengager selon un processus de reconstruction dun sens quil doit découvrir. Il ny a plus un unique chemin vers la connaissance, il en existe désormais une multiplicité, à charge au lecteur de tracer lui-même celui qui lui correspond, résultat dune navigation et dune agrégation de données (de sources souvent diverses) toujours singulière, ponctuelle et locale. Car la technologie interactive ne peut en aucune manière remplacer lactivité intellectuelle du lecteur et du sens quil donne à sa démarche de recherche. Le rôle de lenseignant devient plus important que jamais dans cet apprentissage de la pensée et dans la construction dune réflexion personnelle à partir des fragments de textes lus .
3.4 - Un des apports possibles des sciences de linformation
Il est à noter que les sciences de linformation, communication, prenant appui entre autres sur les sciences non-linéaires et la théorie du chaos, peuvent apporter, à côté des sciences de la cognition de léducation, leur contribution à la définition des problèmes portés par cette complexité. Comment décrire et se représenter de telles pratiques cognitives distribuées ? Comment décrire et penser le statut des nouvelles médiations ?
Les sciences de linformation, communication (et plus encore ce qui se regroupe sous lexpression information science ) se sont en effet appliquées depuis une dizaine dannées au moins, à exploiter, dans leur partie fortement mathématisée les modèles et algorithmes de la géométrie fractale en particulier et de la théorie du chaos. Les travaux produits, par exemple, par la scientométrie et linfométrie , ont ainsi commencé à tirer parti des possibilités daméliorer les analyses quantitatives, qualitatives concernant les relations dynamiques qui unissent des collectifs dobjets et - ou dactants au sein des diverses communautés de recherche, et leurs modes de représentations graphiques. (Analyse des communautés, des fronts de recherche, etc
) Des évolutions proches sont perceptibles aussi du côté de lingénierie documentaire, renforcées par lapparition des gigantesques mémoires numériques portées par Internet. Limportance croissante en effet, des méthodes danalyse statistiques et la nécessité de décrire et de discriminer les phénomènes démergence de formes stables, métastables, de formes fluides et instables au cur de corpus hétérogènes ont renforcé lusage de ces modèles. (Graphes conceptuels, mises en évidence des phénomènes de convergence, divergence participant de la création des réseaux dacteurs réseaux complexes et dynamiques, mais aussi dattracteurs) . Lespace des mémoires numériques portées par Internet a déjà suscité des approches montrant que lon pouvait considérer ce dernier comme un puissant système auto-organisateur. Les hypertextes numériques en réseau sont en effets caractérisés par de multiples niveaux dorganisation systémiques, reliés par des boucles récursives de rétroaction. Par lintermédiaire des multiples interfaces, logiciels, mémoires, mécanismes de répétition et de redondance dont ils sont porteurs, ils sont marqués par une utilisation de structures hautement récursives. Ils se caractérisent aussi par un nombre important de règles et de pratiques locales, qui, par leur application répétée, favorisent lémergence de structures plus vastes, plus complexes. Et les boucles de rétroaction agissent à lintérieur et entre les niveaux de codes, de sémiotiques, de mémoires, de textes et ce, parce quils sont habités par une grande variété de commandes et de modes décriture
, largement distribuées sur un niveau déchelle important, voir à tous les niveaux déchelles. Ces dispositifs donnent aux méthodes, pratiques ascendantes, une place prépondérante.
Dans le même ordre didées, les pratiques, les comportements, les usages se développent en interaction directe avec lenvironnement plutôt que par lintermédiaire de modèles abstraits. Enfin, les dispositifs de type hypertextuel, inclus les utilisateurs dans leurs diverses boucles et les processus daltération / création, dassociations, peuvent se produire en des lieux multiples et ouverts. Pour aller à lessentiel : à lintérieur / extérieur des textes, des mémoires, à lintérieur / extérieur des programmes, des logiciels, des interfaces enfin à lintérieur / extérieur des pratiques collectives singulières et spécifiques ou de ce que lon pourrait appeler les cheminements synaptiques liés aux multiples pratiques décriture- lecture, pratiques singulières et / ou collectives. Pour finir entre les multiples niveaux de production de sens et de représentation et les niveaux des codes, algorithmes utilisés pour produire ce sens, ces représentations.
Notons encore une fois, que ces caractéristiques montrent que lon touche à un point critique lorsquon se concentre sur les phénomènes collectifs et sur ce fait que des savoirs, des connaissances peuvent être présents à un niveau déchelle tout en étant absents au niveau inférieur. Cela est pour nous dune importance majeure. Dans le cadre de la cognition distribuée cela signifie que lon ne peut faire limpasse sur la multiplicité des logiques, des usages impliqués et que le statut des médiations, des technologies intellectuelles, les possibilités de connexion, de filtrage, de représentation quelles permettent, létendue de leur dissémination, jouent un rôle essentiel. Et ce dautant que ces phénomènes collectifs mettent en jeu des hybrides comme agencements complexes de couplages déléments humains et non-humains. Certains travaux qui sont à luvre dans le domaine des formes organisationnelles et sinterrogent sur les dispositifs informationnels communicationnels, leur statut au cur des pratiques socio-cognitives, socio-techniques, sont de ce point de vue, radicalement concernés et impliquées.
Autre secteur important des sciences de linformation communication, la théorie mémétique , principalement développée aux États-Unis propose, dun point de vue néo-darwinien, une approche prometteuse quant à la compréhension des phénomènes de transmission duplication, propagation, répétition altération des unités de sens (au sens large memes ). Cette posture pose un certain nombre de problèmes, en raison principalement de deux facteurs. Premièrement, la question des échelles nest pas clairement posée et deuxièmement, les concepts utilisés viennent en droite ligne se loger sous lautorité non questionnée du programme fort de la génétique.
Programme dont le dogme central sinscrit dans le fil du discours des essences et sappuie sur laffirmation que la transmission dinformation est unidirectionnelle selon le schéma classique émetteur-récepteur ; point de processus ouverts, reprise classique du débat entre déterminisme biologique et environnementalisme, renoncement au modèle hasard-sélection dans le contexte général dune émergence statistique du sens, des formes .
Au-delà de ces remarques, les théoriciens de la mémétique offrent une ouverture vers les approches auto-organisationnelles et participent au développement des nouvelles technologies intellectuelles permettant dexplorer les problèmes complexes de la morphogenèse du sens.
Enfin ils participent au développement dune activité de simulation particulièrement intéressante sur le plan cognitif où la notion dattracteur vient approfondir par exemple la notion dintentionnalité.
Ces modèles et ces algorithmes de simulation qui font appel pour une large part aux ressources des sciences non-linéaires permettent de mieux comprendre les divers types de mécanismes, de couplages impliqués dans les phénomènes interactionnels participant à lémergence de formes organisationnelles plus ou moins stables et se révèlent de plus, être des outils décriture porteurs de nouvelles formes et pratiques cognitives.
Dans ce contexte, les questions et problèmes de la morphogenèse du sens, des processus dinscription, de répétition, de transmission, de traduction, les modèles non-essentialistes de la communication, la critique des schèmes traditionnels de la théorie de linformation (menée par la cybernétique de seconde génération (autopoïésis) , et les nouvelles conceptions de la biologie) se déploient à cheval sur les frontières disciplinaires. Et la migration traduction, percolation des concepts et outils théoriques, qui nest en aucune manière une transgression (cest-à-dire une installation dans un au-delà radicalement nouveau, ou le dépassement illégitime de norme(s)), sopère de manière plus forte et créatrice dans des régimes de discours, décritures très variés.
Ce qui semble le plus manifeste, cest, tout dabord, la prise de conscience davoir à penser autrement la question du collectif, de lui faire une place prépondérante, centrale et ce quel que que soit le niveau déchelle où lon considère les phénomènes.
Deuxièmement, cest lintroduction au cur des multiplicités hétérogènes, comme conditions de leur émergence plus ou moins stables, dune grande variété de type de couplages permettant la prise en compte de la participation permanente de phénomènes collectifs, hybrides au cours desquels de nombreux micro-événements, micro-actants, médiations sans rapport les uns avec les autres, ne cessent de se produire de manière plus ou moins désordonnée, de converger diverger au cours de processus dactualisation et différenciation complexes.
Troisièmement, cest la tentative de penser lemboîtement de ces couplages, des modes ascendants et descendants et les divers modes de processus qui en découlent, avec des régimes de redondances et daltération création spécifiques. Quatrièmement ce sont les efforts menés pour étendre ces réquisits et axiomes dans un nombre toujours vaste de phénomènes et processus conçus comme incomplétudes en procès de production .
Il sagit dappréhender le domaine des dynamiques et dispositifs informationnels communicationnel, comme champ processuel, toujours ouvert, où les notions, de stabilité, métastabilité morphogenétique prennent la place des essences.
De ce point de vue tous les modèles interactionnistes hérités et encore dominants fondées sur le grand partage et les ontologies monovalentes sont de plus en plus fortement contestés.
Nombreux sont donc les associationnismes impliqués dans cette vaste hyperpragmatique au sein de laquelle la multiplicité des pratiques et dispositifs communicationnels sont des instanciations singulières de cette hyperpragmatique généralisée selon les actants, médiations et niveaux déchelles.
Ces apports, qui ne sont pas les seuls, sont loin dêtre négligeables afin dappréhender les évolutions en cours du projet encyclopédique numérique . Et ce dautant plus quun grand nombre de travaux réalisés se situent dans une perspective constructiviste .
Cest là un ensemble de raisons pour lequel les caractères du document numérique doivent être creusés , dès lors que lon considère les ensembles de mémoires numériques associées en réseau de type hypertextuel, et que lon veut en comprendre les modes dexploitation en devenir.
Pierre Lévy a, au tout début des années 90 caractérisé afin den préserver les chances de multiples interprétations le modèle hypertextuel, par six principes abstraits :
Le principe de métamorphose : le réseau est sans cesse en construction et en renégociation... Son extension, sa composition et son dessein sont un enjeu permanent pour les acteurs concernés, que ceux-ci soient des humains, des mots, des images...
Le principe dhétérogénéité : les nuds et les liens dun réseau hypertextuel sont hétérogènes... Le processus sociotechnique mettra en jeu des personnes, des groupes, des artefacts, des forces naturelles de toutes tailles, avec tous les types dassociation que lon peut imaginer entre ces éléments.
Le principe de multiplicité et demboîtement des échelles : lhypertexte sorganise sur un mode fractal , cest-à-dire, que nimporte quel nud ou nimporte quel lien, à lanalyse, peut lui-même se révéler composé dun réseau, et ainsi de suite indéfiniment, le long de léchelle des degrés de précision...
Le principe dextériorité : le réseau ne possède pas dunité organique, ni de moteur interne. Sa croissance et sa diminution, sa composition et sa recomposition permanente dépendent dun extérieur indéterminé...
Le principe de topologie : dans les hypertextes, tout fonctionne à la proximité, au voisinage. Le cours des phénomènes y est affaire de topologies, de chemins...
Le principe de mobilité des centres : le réseau na pas de centre, ou plutôt, il possède en permanence plusieurs centres qui sont comme autant de pointes lumineuses perpétuellement mobiles, sautant dun nud à lautre, entraînant autour delles une infinie ramification de radicelles, de rhizomes ; fines lignes blanches esquissant un instant quelque carte aux détails exquis, puis courant dessiner plus loin dautres paysages du sens.
Ces dimensions du document numérique, dans les espaces-temps des mémoires numériques ne cessent donc de se creuser de manière intensive, suivant les niveaux déchelle considérés. Aussi doit introduire pour penser ces nouvelles textures la notion de granularité. En effet, la processualité des documents numériques se définit entre autres, par les divers types, les diverses formes et tailles des documents eux-mêmes, ainsi que par les caractéristiques des nuds et des liens, autrement dit par les modes dassociation et par cela même qui est associé. Ces modes dassociations sont très ouverts, potentiellement infiniment ouverts, dans lespace du réseau. Toutefois, les liens entre des nuds très variables, ouvrent un espace de jeux décriture asymétriques et complexes, un espace interprétatif très ouvert. De plus les états successifs (états métastables) des documents, parties de documents, fragments de documents mis en jeu au cours du processus décriture deviennent plus visibles. Les modes éditoriaux sen trouvent donc affectés, transformés, étendus. Ils ne consistent plus à mettre en forme stable, finie, les résultats dun travail, quels que soient les dispositifs de validation, légitimation qui disent la limite et la norme, qui annoncent larrêt suspensif du procès de recherche, figent le mode dexposition et enfin disent : ceci est achevé et donc peut être mis en jeu, exposé comme texte de référence .
À présent, en étant en mesure, dexhiber de manière relativement stable, les éthologies amont , conceptuelles ou autres, qui convergent, enveloppent le travail des textes et auxquelles les formes traditionnelles dédition avaient renoncé, en étant en mesure de montrer les éthologies aval qui se développent à travers lincessant travail de re-prise, de commentaire, de citation, de nouveaux modes éditoriaux voient le jour.
Ces nouveaux modes éditoriaux expriment de plus en plus précisément les dynamiques de construction des textes, le caractère de toute façon toujours transitoire des formes stables, leur fonction dattracteur-transformateur, à la durée variable. En rendant donc plus visibles les sociologies qui sont à luvre au cours des processus décriture vers et à partir des formes textuelles métastables, ils engagent un mouvement de contestation des dispositifs éditoriaux hérités et donc aussi des modes de fonctionnement des communautés, des liens qui les font être. Ils opèrent au cur même de lÉconomie Politique des Savoirs. Ils élargissent le mouvement déconstructif en ce quils déplacent de manière concrète, le concept décriture, le généralise et larrache dun certain point de vue à la catégorie de communication si du moins on lentend (cette dernière) au sens restreint de communication de sens .
Partie 4 Problèmes de lédition électronique
4.1 - Les études concernant lédition électronique 92
4.1.1 - Logiciel Open Source, Licences Open Source 95
4.1.1.1 - HyperNietzsche : un exemple de modèle contractuel 99
4.2 - Sur le projet HyperNietzsche : Paolo dIorio et William Turner 105
4.2.1 - À propos des archives ouvertes 108
4.3 - Édition électronique et E-Learning 114
Les études menées dans le cadre du programme sont autant de lieux dexpertise permettant de rendre compte des perspectives et problèmes ouverts par lédition numérique en réseau. Nouveaux acteurs, rapports avec les maisons dédition héritées, les bibliothèques et les archives, évaluation, légitimation et leur évolution, statut des pairs, nouveaux outils de travail et nouvelles pratiques cognitives, nouvelles temporalités, constitution de communautés savantes en réseau, nouvelles pratiques associatives, nouveaux statuts et vie des divers types de publication, nouveaux types de documents, nouveaux types dintertextualité
Les questions sont donc nombreuses et parfois complexes. Dun certain point de vue, elles mettent en évidence la transformation profonde des dimensions socio-cognitives de la recherche et de léconomie politique de lédition.
Avant daller plus loin, il convient de rappeler dans quelles conditions sest actualisé le débat concernant lédition électronique. Au début des années 90, sous limpulsion de Paul Ginspar, se crée une base de pre-print dédiée aux physiciens des hautes énergies. La création de cette base de pre-print est le signe dune contestation et dune remise en cause des modèles éditoriaux dominants. En dévoilant certaines des potentialités techniques et économiques offertes par la matière numérique, Ginsparg amène les chercheurs à sinterroger sur leur lien de dépendance vis-à-vis des éditeurs traditionnels, sur les possibilités de contester dans un premier temps puis de négocier de nouveaux modes dévaluation. Il propose, dans le même temps de mettre à la disposition des chercheurs de nouvelles visibilités concernant la structure socio-cognitive des communautés, daccéder à certaines des composantes des collèges invisibles. Dautres communautés commencent, à la même époque, lexploration des modes proposés, suggérés par les mémoires numériques en réseaux. Plusieurs idées fortes organisent le mouvement dexpérimentation et de contestation. La première, conformément au projet des membres fondateurs du Web, consiste à exploiter les potentialités associatives dans la mise en commun des ressources. La seconde consiste à exploiter le faible coût de fabrication eu égard à la capacité de dissémination des uvres. La troisième consiste à rendre visible, aux yeux dun plus grand nombre, les différents états, à différentes étapes, de la production dun document, et de permettre ainsi un plus large éventail de la critique. Ce point est important car il intervient en amont de la stabilisation et légitimation finale et traditionnelle par les pairs dont le système de filtrage est largement dominé par les éditeurs et un nombre relativement réduit et stable dévaluateurs.
En accroissant la mise en visibilité du procès amont du travail de production et décriture, est ouvert à un plus grand nombre, le travail dinterprétation et dévaluation. La quatrième est que laccroissement des documents disponibles, des réseaux de liens amont et aval appelle le développement de nouvelles fonctions éditoriales permettant de travailler sur le processus décriture lui-même, ses conditions de production et ses conditions de re-prise, citation etc
Filtrage, navigation, gestion des mondes associés, des points de vue, recherche avancée, devant rendre possible une meilleure appréhension de la vie du document ou bien de la communauté des uvres comme incomplétude en procès de production.
Il est à noter que le mouvement à luvre dans lédition électronique sest organisé autour de deux lignes de force. Dun côté, un processus de basculement des revues papiers vers le Web, de lautre création et exploration des capacités offertes par la plasticité numérique. Dans le premier cas, il sagit dune réplication des modes classiques avec une exploitation élémentaire de la possibilité de créer des liens vers des ressources numériques disponibles sur le Web ainsi que la mise à disposition darchives, en profitant de leffet de visibilité très important offert par le réseau. Dans le second cas, il sagit, de favoriser la mise en scène des documents par une meilleure exploitation des ressources hypermédias, de favoriser le travail à partir dun ou dun ensemble de documents. Comme on la déjà dit, travail sur les gros corpus, dévoilement à des niveaux déchelle variés et variables des réseaux dactants constitutifs des documents : graphes conceptuels et thématiques, graphes dauteurs, réseaux de citations et co-citations, graphes de liens, analyses linguistiques, sémiotiques, capacités de simulation et de modélisation multiples
Ces lieux dexpertise sont le Projet HyperNietzsche comme modèle dun hypertexte de recherche en Open Source, le projet SATOR qui se présente comme une base de données littéraire en ligne, constituée depuis 1989 par la Société Internationale dAnalyse de la Topique Romanesque et comme première liste de discussion littéraire en France (1994), le projet Cromohs qui est la première revue européenne dhistoriographie en ligne, depuis juillet 1995, le projet Fabula qui se présente comme le premier portail en langue française consacré à la recherche littéraire et rassemblant linformation scientifique, enfin le projet Revue.org, et la Maison des revues électroniques : du projet associatif en faveur dune édition électronique scientifique innovante au projet public décentralisé .
À ces lieux dexpertise, on peut ajouter le programme COLIS , ce dernier se trouvant situer à la charnière entre les problèmes portés par lédition électronique stricto sensu et les problèmes portés par la production de corpus de type hypertextuel, dans ce cas dun corpus de littérature scientifique ayant en vue une approche hypertextuelle de lhistoire des idées en sciences du vivant au XIXe siècle . Il sagit là de donner au public un accès matériellement facile à un ensemble raisonné de textes de biologistes et naturalistes français (
) du XIXe siècle. (
) Colis se présente comme un laboratoire de lhypertexte. Il sert à évaluer ce que peut être un hypertexte, comment il fonctionne, ce quon peut en attendre, etc. dans la perspective éducative, il donne les moyens den montrer les vertus pédagogiques lorsquil sagit dexposer des ensembles de connaissances hétérogènes et difficiles, telles que les notions constitutives dune science .
Le projet Colis pose la question générale des contenus de type hypertextuel.
Quest-ce quun corpus et quels sont ses critères de légitimité ? Comment le construire, et où arrête-t-on les frontières
? Quels sont les mots clés choisis pour organiser laccès au corpus ? Quels modes de croisements va-t-on établir ? Quels types dordre va-t-on alors imposer dans larticulation entre entrées et unités lexicales ? Quels croisements entre entités lexicales va-t-on stabiliser en vue détablir des données sémantiques de niveau plus élevé ?
Enfin, quels types de lectures ? Les nouveaux usages du texte
sont à scruter dans deux directions : dune part, sur un plan quantitatif, il est nécessaire daborder les problèmes induits par la puissance fonctionnelle de loutil électronique essentiellement : comment délimiter, dans lespace des textes interconnectés, un sous-ensemble homogène et susceptible dune exploitation raisonnée. Dautre part, au plan qualitatif, menant de front une réflexion théorique et une évaluation pratique, il importe de sinterroger sur le rendement sémantique, cognitif et informationnel des fonctionnalités de lecture qui caractérisent lhypertextualité .
Lapproche de lhypertextualité privilégiée ici, porte principalement sur la détermination des modalités dentrée, de navigation et dappréhension des idées, des arguments, des lexiques dans un texte, ou un ensemble de textes .
Dans le même ordre didées, J.C. Chirollet écrit que la spécificité de ce type de lecture (hypertextuelle)
cest précisément de mettre en corrélation des fragments textuels puisés dans tous les registres dune même uvre ou dun texte séparé. La convocation des parties dun même texte, dune même uvre, à dessein dinstaurer des comparaisons sémantiques et linguistiques généralisées, implique une certaine mise en pièce de ce texte ou de cette uvre. Il ne faut pas y voir un sacrilège, cest une médiation supplémentaire de notre relation interrogatrice au texte ou à luvre dans son ensemble
. Le philosophe en quête dinformations objectives sur la structure dun texte devient ainsi capable de préciser techniquement ses requêtes : quelle est la relation contextuelle privilégiée entretenue par tel ou tel terme avec une séquence dautres termes jugés importants pour linterprétation philosophique dun texte ? Existe-t-il des hapax (mots employés une seule fois) ou des termes rares, et comment peut-on leur donner sens dans léconomie de luvre intégrale (
) ? Certaines structures syntaxiques sont-elles fréquentes, alors que dautres seraient très sporadiques ? (
) Peut-on détecter une relation signifiante entre certaines expressions appartenant à un registre de langage et des termes appartenant à un autre registre de langage ? (
) On peut constater que les deux versants de lanalyse hypertextuelle, quantitatif ou structural dune part, qualitatif dautre part, sont au demeurant complètement interdépendants et que la finalité de toute analyse quantitative ou structurale réside dans linterprétation qualitative des textes. Mais cette dernière nest pas autosuffisante et fait appel alternativement à la première .
Selon cette perspective générale, lhypertexte nest pas seulement la juxtaposition en un lieu informatique dune multitude de textes, mais leur intégration en un système articulé, permettant lextraction de connaissances qui, sans ce dispositif, seraient restées probablement inertes parce quinvisibles dans la masse textuelle .
Le programme COLIS est de ce point de vue un exemple particulièrement intéressant concernant les difficultés rencontrées lors du passage dun système décriture à un autre. À ne pas vouloir affronter les questions fondamentales qui portent sur les schèmes hérités et qui concernent dans le présent cas la façon décrire lHistoire , dont se constituent et se transmettent les narrations, de ne pas prendre en compte le développement des nouvelles normes décriture hypertextuelles (HyTime par exemple), de ne pas tenter de relier les problématiques épistémologiques actuelles et lémergence des nouvelles technologies intellectuelles, on risque dans un premier temps de renforcer les modèles mentaux hérités, à loccasion du basculement rapide vers les mémoires numériques. Johndan Johnson Eilola a particulièrement bien étudié et attiré lattention sur ces phénomènes dans son ouvrage Nostalgic Angels : Rearticuling Hypertext Writing .
Éric Bruillard identifie ainsi, de son côté, certains obstacles. Pour commencer, la conception actuelle dominante de lhypertexte, plus axée sur laccès à des informations et à des documents quà leur organisation et leur structuration. Ensuite, sur le manque dinstrumentation réellement disponible pour aider à cette structuration.
Le risque est de se restreindre à de simples tâches de recherche dinformations dans un cadre éducatif, séloignant de lintérêt fort de lhypertexte en éducation. (
)
Pour en revenir à lhypertexte, les différentes manières daccéder à des fragments de texte, à reconstituer des développements, en suivant et/ou en créant des parcours multiples doivent être prises en compte et non cachées, dans une transparence favorisant la traçabilité et lintelligibilité . Il convient donc de créer et structurer des chemins.
Les environnements actuels de traitement de linformation permettent de conduire des activités nouvelles de type empirique voire quasi expérimental, de confronter des théories et des données même dans des disciplines sans rapport historique avec lexpérimentation (comme la littérature ou les langues étrangères). Parce que le système permet de mémoriser de grands ensembles de données et des suites dactions, il devient possible de faire des manipulations complexes sur de grands corpus, de faire varier de manière volontaire et réversible certains paramètres et dobserver les résultats de différents points de vue. Un des risques de ce type dapproche est évidemment celui du zapping , de la randonnée aléatoire dans une masse confuse de données dont le sens ne pourrait être construit faute dobjectifs réalistes ou de représentations adéquates (Baron et Bruillard, 2001). Cest dans ce domaine que la maîtrise des concepts liés à lhypertexte savère certainement essentielle.
Si on saccorde sur lidée que lhypertexte ne peut se limiter à faciliter laccès à des ressources, il faut essayer didentifier ce qui permet daller plus loin. Pour cela, il sagit sans doute de favoriser des processus de compréhension et danalyse en multipliant les objectivations, les représentations, notamment sous forme graphique. Pour cela, deux éléments sont à prendre en compte :
faciliter toutes les possibilités de visualisation globale du corpus
aider à garder, représenter et organiser les parcours en essayant de traduire le dynamique (temporel) par du spatial .
De ce point de vue, et encore une fois convient-il de le répéter, la question des cartographies et des nouvelles pratiques cartographes et de simulation sont essentielles. Des travaux recensés par Martin Dodge, aux diverses conférences organisées par le laboratoire Paragraphe de luniversité Paris VIII, depuis plusieurs années sur les hypertextes et les hypermédias, cette question est centrale.
Et cela dautant plus que le paradigme transdisciplinaire de la fractalité tend à simposer de plus en plus fortement.
4.1 - Les études concernant lédition électronique
HyperNietzsche, Fabula.org, Revues.org, SATOR, et Cromohs explorent des dimensions différentes. Numérisation des revues et constitution de communautés de recherche sont ici liées, à partir de modèles éditoriaux innovants.
À défaut de commencer par un état des lieux des modèles éditoriaux en développement ainsi que par un état de lart des nouvelles fonctionnalités éditoriales qui leur sont plus ou moins associés, ces études font un certain nombre de constats et posent un certain nombre de problèmes majeurs.
Leur idée de base est que (dans le domaine des sciences humaines) les revues en ligne actuelles, constituent le point de passage entre les revues savantes dhier et lInternet savant de lavenir . Ce mouvement est complexe puisquil inclut la numérisation des revues existantes, le développement des nouvelles formes de publications numériques ainsi que leur rapport avec les portails et les centres de services électroniques ainsi quavec les revues savantes en ligne et les hypertextes de recherche. Le projet SATOR sattache principalement à la question de la création dune intelligence collective favorisant le repérage des topoi littéraires et pose le problème du choix et du développement de logiciels adaptés. La constitution déquipes interdisciplinaires (littéraires et informaticiens) se révélant difficile et incertaines. Pourtant dans dautres domaines et disciplines, la mise au point de logiciels de repérage, danalyse automatique de citations voire de co-citations, (logiciels assurant des fonctionnalités de base, toutes disciplines confondues), danalyse de gros corpus documentaires, sest réalisée sur la base de critères épistémologiques, de modèles théoriques complexes : sociologie, informatique, physique, chimie, mathématique, génomique, histoire, archéologie, philosophie, économie, langues anciennes
)
Le projet Revues.org tente de sortir de lapproche qui consiste à faire basculer les revues existantes sur le réseau Internet. Certes, cette approche intègre donc la question du développement des communautés à partir de ressources scientifiques et communicationnelles étendues et acentrées.
Lédition électronique soppose à la simple numérisation qui est conversion de documents conçus pour le papier. Lédition électronique est une édition au sens propre. Les qualités de lédition électronique scientifique sont les suivantes : très grande rapidité daccès, (
) coûts de production et plus encore de diffusion radicalement différents ; ce qui coûte désormais ce nest plus le transport ou le papier, cest-à-dire la matérialité de lédition, mais lajout de sens, cest-à-dire l intelligence de lédition ; disponibilité dun nouveau public pour les revues ; disponibilité permanente
.
Ses potentialités sont les suivantes : indexabilité interne (moteur de recherche interne
, indexabilité externe (moteurs de recherche classique, moteurs scientifiques de sites équivalents), indexabilité raisonnée (thesaurus dressés par les scientifiques eux-mêmes), semi-automatique et vivante, hypertextualité (
), rapidité de la publication
.
Toutefois, la façon dont sont abordées les questions décisives de lintéressement des chercheurs et des étudiants et donc des ouvertures intellectuelles nouvelles offertes, des outils permettant des visibilités et des capacités de simulation, modélisation
des choix des standards décriture accroissant, entre autres, linteropérabilité, et les potentialités de lintelligence distribuée, léconomie politique des savoirs et les rapports avec les éditeurs commerciaux nous semble insuffisante.
De plus, la profession de foi, consistant à affirmer quaucune édition électronique scientifique sérieuse et adaptée ne peut être assumée par dautres acteurs que les éditeurs eux-mêmes
, ferme la porte à une réorganisation des rapports de force internes à léconomie politique et socio-cognitive de lédition. Il ny a aucune raison selon nous de ne pas ouvrir les boîtes noires qui expriment les processus dévaluation, les sociologies de légitimation, les économies sur lesquelles reposent le mode actuel. Cela est dautant plus important que la question dun renouvellement de lespace public, dun accès démocratique et ouvert aux savoirs, est posée.
Le Projet Cromohs, quant à lui, sattache à lexamen des usages émergents. Ce projet développé par la Société Mnemosine a, de plus, conçu une interface qui peut être activée pendant la navigation de lusager sur le site, (tenant compte) des actions par lui effectuées, et qui lui pose de simples questions, en général à réponse fermée : une interface rendue le moins intrusive possible du fait que lusager et prévenu de la possibilité de ses apparitions lorsquil se connecte au site
Il peut choisir de le désactiver complètement
Cependant, son caractère interactif, létroite corrélation temporelle avec les activités sur lesquelles elle enquête et la correspondance précise des questions quelle pose
sont la garantie de résultats cognitifs dun grand intérêt .
Enfin le projet HyperNietszche se présente comme un véritable modèle alternatif de division cognitive du travail distinct de la division du travail héritée dAdam Smith et de Durkheim. Ce modèle nommé production cognitive en réseau est généralisable techniquement et conceptuellement à dautres auteurs et à dautres disciplines scientifiques, artistiques. Lon nommera ce modèle la production cognitive en réseau spécifié. Par réseau spécifié, on signifie que ce réseau en open source et open share est soumis dans lélaboration de son contenu en ligne à un comité scientifique. Nimporte quel article, document portant sur Nietzsche, nest pas mis en ligne automatiquement. Ce point soulève la question des modalités de désignation ou de sélection de lautorité régulatrice du site en ligne. Mais du point de vue de lanalyse formelle de ce type de modèle, il est important de souligner ses particularités par rapport au réseau de lInternet en général, que nous nommons lInternet générique . Ce projet aborde enfin de manière précise les questions de la viabilité économique et la question juridique. En ce qui concerne la viabilité économique, le retour sur investissement public est formé de plusieurs composantes qui se renforcent
a) ce mode dorganisation de la mise en ligne des connaissances active la formation sans coût de transaction de réseaux scientifiques à léchelle internationale
b) il a un effet sur la qualité de linformation mise en ligne et sur la pertinence des réseaux créés
c) il permet détablir à très faible coût, de nouveaux critères objectifs pour lévaluation de la production de recherche .
Il est à noter quil existe dautres projets, de même type, en cours de développement. Tel, celui, par exemple, du centre de recherche Kolb-Proust, qui se présente comme un projet hypertexte dans les humanités. Il est développé par la bibliothèque de luniversité dIllinois, depuis 1994. Cet outil hypertexte rassemble des sources secondaires sur la vie littéraire, artistique et mondaine en France, pour la période 1870-1925, à partir de 40 000 fiches de recherche constituées par le professeur Kolb pour son édition de la correspondance de Marcel Proust. Au-delà dune simple mise à jour des données nécessitée par la production constante de nouveaux savoirs dans ce domaine, le choix du métalangage SGML et de DTD TEI pour la réalisation de ce projet permet, par le jeu des métadonnées et des liens hypertextes, de diversifier les points daccès et denrichir le contenu original. Par exemple, une liste dautorités établie pour une catégorie de fiches se transforme en nouveau fichier biographique complétant et élargissant le fichier original conçu par Kolb .
Quant à la question juridique, elle est dimportance dès lors que la généralisation de laccès libre et quasiment gratuit à des bases dhypertextes renvoie à un problème général qui est la redéfinition des droits de la propriété en fonction des NTIC et de la transformation de la nature de la valeur et de ses mécanismes de captation .
Là encore, deux options soffrent aux développeurs de ces modes éditoriaux : soit un aménagement, à partir de létat actuel, largement hérité du passé, du fonctionnement des financements publics daide à la recherche et des règles régissant la propriété intellectuelle ; (
) soit de façon volontariste, une approche novatrice affrontant la question des revenus des producteurs de connaissance et de recours à un fond de connaissance patrimonialisé, rendu gratuit daccès, quitte à ce que les compensations financières pour les auteurs ou les ayant droits recourent à des solutions juridiques différentes du droit dauteur ou du brevet telles que les licences du copyleft en donné lexemple dans le domaine des logiciels .
4.1.1 - Logiciel Open Source, Licences Open Source
Pour Philippe Chevet , il faut en premier lieu toujours garder à lesprit, ce qui sera notre point de départ, que les concepts de copyleft (le plus ancien) puis dOpen Source puisent directement leurs origines dans le monde du logiciel libre . Cette précision est fondamentale, notamment en raison de ses répercussions sur le plan juridique.
Ce mouvement du logiciel libre a été lancé dans les années 1980, notamment sous limpulsion de Richard Stallman, et de son projet GNU . On parle ainsi de logiciel libre (en loccurrence, il sagissait dun système dexploitation), car son utilisation nest soumise à aucune contrainte: la copie, la modification et la transformation, la distribution,
ne relèvent que de la seule volonté de lutilisateur.
Ce mouvement est apparu de façon concomitante à la première vague de protection des logiciels. Cette protection était inévitable à partir du moment où le logiciel est devenu, très vite, une valeur économique importante. Mais avant lapparition de cette protection, il était déjà dusage que tous les programmes pouvaient être modifiés et être réutilisés de façon personnalisée. En réaction à cette appropriation des programmes informatiques, R. Stallman lança la licence GPL, intitulée Copyleft, par opposition à copyright ), censée permettre de modifier, copier, diffuser, et reproduire les logiciels sans entrave . Le mouvement copyleft est ainsi né.
Nous pouvons donc relever plusieurs aspects intéressants dans ce mouvement copyleft :
laccès au code source du logiciel, et sa diffusion, est libre, ce que le droit dauteur, par principe, interdit pour la France . La décompilation du logiciel libre, notamment, est possible pour étudier son code source.
la circulation du logiciel est libre. Pour ce qui concerne la copie, la distribution,
aucune contrainte nest formulée par ces licences. Lauteur cède donc ses droits patrimoniaux sur sa création à chaque utilisateur
la modification, la personnalisation,
du logiciel est libre. Il est même possible de diffuser la version modifiée du logiciel au public.
lutilisation du logiciel est libre. Ainsi, le logiciel est conçu comme un fonds commun et les créateurs de logiciel pourront puiser dans ce fonds pour leurs futures créations. Se développent dailleurs sur internet des réseaux de travail en commun, cest à dire que des informaticiens, de différentes entreprises, institutions,
échangent de façon permanente afin de résoudre des problèmes pratiques.
Le mouvement Open Source est quant à lui arrivé plus tardivement, et a donné lieu au développement de lOpen Source Software (OSS), qui forme aujourdhui, avec le copyleft, le deuxième volet du logiciel libre. Ce terme Open Source renvoie directement au monde du logiciel, car le logiciel, par principe protégé par le droit dauteur , voit son code source également soumis à protection. Doù la réaction de certains informaticiens et le développement de ces nouvelles pratiques, autorisées par le mouvement des logiciels libres .
Actuellement, ces mouvements Open Source dépassent le cadre étroit des créations informatiques pour sétendre progressivement à lensemble des créations artistiques et de la production scientifique.
Art libre est ainsi un exemple de mouvement Copyleft , dérivé directement du logiciel libre, mais qui a pour vocation de promouvoir lemploi dune licence dans tous les domaines littéraires et artistiques . Il sagit ici, toujours, de favoriser la création collective dobjets numériques, qui peuvent être librement copiés, donnés et modifiés.
Lobjectif affiché de la licence Art Libre est le suivant : Avec cette Licence Art Libre, lautorisation est donnée de copier, de diffuser et de transformer librement les uvres dans le respect des droits de lauteur. Loin dignorer les droits de lauteur, cette licence les reconnaît et les protège. Elle en reformule le principe en permettant au public de faire un usage créatif des uvres dart. Alors que lusage fait du droit de la propriété littéraire et artistique conduit à restreindre laccès du public à luvre, la licence Art Libre a pour but de le favoriser. Lintention est douvrir laccès et dautoriser lutilisation des ressources dune uvre par le plus grand nombre. En avoir jouissance pour en multiplier les réjouissances, créer de nouvelles conditions de création pour amplifier les possibilités de création .
De ce fait, avec cette licence, lauteur :
autorise toute reproduction, de façon libre et gratuite, de son uvre (article 2-1),
autorise toute diffusion, à titre gratuit ou onéreux, de son uvre (article 2-2), à condition toutefois de respecter son droit de paternité,
autorise toute modification de son uvre (article 2-3), et son incorporation dans une uvre seconde (article 2-4).
Ainsi, et comme indiqué dans le texte de la licence Art libre, ce système vise à :
- mettre à disposition luvre au plus grand nombre,
- la laisser diffuser librement,
- lui permettre dévoluer en autorisant sa transformation par dautres.
Linitiative lancée en 2002, et baptisée Creative commons , conserve et étend ces principes Art libre. Concrètement, Creative Commons proposera dès lautomne 2002 une série de licences, permettant aux créateurs de diverses disciplines artistiques, littéraires et scientifiques dindiquer lusage qui pourra être fait de leurs uvres publiées sur Internet. Un photographe cherchant à se faire connaître pourra, par exemple, autoriser toute reproduction et distribution de ses clichés, à la seule condition que son nom soit systématiquement mentionné. Ou il pourra seulement interdire les reproductions faites à des fins commerciales. Et décider sil souhaite, ou non, que ses photos puissent être modifiées de façon à inspirer dautres uvres, composites ou dérivées . Comme nous le voyons, linitiative Creative commons sest fortement inspirée des licences du logiciel libre (de tendance copyleft et Open Source), et sinscrit, sur le plan international, dans la lignée de ce qui est prôné par le mouvement Art libre. Il est ainsi proposé, à travers cette initiative, aux auteurs de diffuser leurs uvres, dans tous les domaines, sous le modèle de licences bâties exclusivement à lorigine pour les créations informatiques. Ces modèles de licence seront diffusés à la fin de lannée 2002.
Il est ainsi indispensable de se poser la question de la validité de telles licences dans notre système de droit dauteur, où cest la personne même de lauteur qui est lobjet de protection .
Si en effet de telles licences peuvent prétendre sappliquer aux logiciels notamment, peut-on les étendre aux autres formes de création ? Le respect impératif des droits moraux de lauteur nest-il pas un frein à cette extension ? De ce fait, ces licences ne représentent-elles pas un nouveau danger pour notre droit dauteur à la française , dans la mesure où elles ont comme origine commune le système du copyright anglo-saxon ?
Quen est-il plus précisément des productions scientifiques ? Les nombreux mouvements de chercheurs qui sinspirent de lOpen Source ont-ils conscience de ces enjeux ?
Toutes ces questions méritent dêtre posées .
Dans le même esprit Paolo dIorio et Nathalie Ferrand notent que la nécessité dutiliser des formats libres pour le stockage des informations scientifiques devrait saccompagner de logiciels libres, régis par la licence GPL ou similaires, pour les produire et les partager. À ce propos, notre étude représente un échantillon assez représentatif, parce que quatre lieux dexpertise (HyperNietzsche, Fabula, Sator et Cromohs), deux affichent une démarche radicalement Open Source, lun est basé plutôt sur Mac et lautre sur Windows. Il est évident que le besoin dautonomie de la part de la communauté scientifique saccorde mal avec lutilisation de logiciels propriétaires, pour ne pas parler du fait que le budget, normalement assez serré des projets en sciences humaines peut tirer grandement profit du coût-zéro de ces logiciels. Dautre part, lutilisation des logiciels libres et de lOpen Source représente la seule chance possible pour toute tentative de créer et de diffuser un modèle de publication savante sur Internet .
Létude de licences juridiques aptes à garantir la diffusion et la libre circulation des textes scientifiques publiés sur le Web, avec le respect de la paternité intellectuelle, semblerait être une conséquence logique des entreprises de numérisation et de publication sur le Web. Et pourtant, notre étude témoigne plutôt quil y a en sciences humaines un manque de réflexion juridique, ou une volonté de ne pas innover dans ce domaine .
4.1.1.1 - HyperNietzsche : un exemple de modèle contractuel
Extraits : Philippe Chevet
LHyperNietzsche est un exemple dhypertexte savant pour la recherche en sciences humaines.
Il sagit plus précisément à travers ce projet :
dune part, de proposer en ligne des ressources dune grande variété (textes, images, sons
) relatifs à Nietzsche : manuscrits originaux, (brouillons, lettres
) uvres publiées
et commentaires de ces écrits par les chercheurs. Ces ressources sont donc de deux types : elles concernent dune part les sources primaires (archives) et dautre part les productions scientifiques réalisées à partir de ces sources primaires (articles, ouvrages, thèses
) ;
dautre part, de mettre en relation une communauté de chercheurs, et instaurer ainsi de nouvelles pratiques dans la recherche en sciences humaines.
LHyperNietzsche est influencé par le mouvement Open Source dans la mesure où lidée principale qui anime ce projet est doffrir un accès large et gratuit à un fonds culturel et scientifique spécifique, en loccurrence concernant un philosophe allemand.
Lun des mérites de Paolo dIorio est dailleurs davoir associé dès le départ des juristes à son projet, ce qui est plutôt rare, hélas, dans ce milieu.
En effet, nous constatons une grande différence entre le lawyer américain et le juriste européen (et plus encore français).
Le premier est clairement associé à la prise de décision. Il est dusage quau départ de tout projet denvergure (ou non dailleurs
), un lawyer soit consulté. Dès lors, il est aisé pour les concepteurs du projet (et nous avons ici essentiellement en vue les projets de numérisation et de diffusion de contenus scientifiques et culturels sur le web) didentifier très tôt les problèmes futurs qui vont se poser, et quil va falloir régler. Les questions juridiques sont à entrer dans cette catégorie : il peut paraître plus sage de déterminer quels sont les inévitables points juridiques quil va falloir aborder, voir comment les traiter et anticiper déventuelles difficultés (qui peuvent se traduire par un procès
), que dattendre et docculter ces points. Le juriste, via notamment le contrat, sert précisément à cela.
Le second malheureusement intervient très souvent bien après la prise de décision, et lorsque des problèmes, déjà, se posent. Parfois, il est trop tard : les précautions juridiques nayant pas été prises (autorisations préalables non obtenues
), le projet est menacé, et le site doit fermer. Aucune anticipation na été effectuée.
Cette présentation nest pas théorique : elle a été, hélas, maintes fois confirmée en pratique. De nombreux projets de numérisation ont vu le jour et sont aujourdhui menacés, faute davoir traité au préalable les questions juridiques. Nous verrons par exemple quune revue papier ne peut numériser et surtout diffuser ses articles publiés sur le net que si elle reçut des auteurs (par contrat) les droits de reproduction numérique . Sans cela, lassise juridique dun tel projet est bien faible, voire nulle
Rien nempêche un auteur de venir se plaindre de la mise en ligne de ses travaux, et si dautres suivent, le projet, à terme, devra être enterré
Nous y reviendrons.
Cest pourquoi selon nous, le juriste doit être consulté dès le départ, au moment de la prise de décision : il doit savoir en effet préciser ce qui est possible, ce qui doit être entrepris au préalable (rédaction de contrats
) et, éventuellement, ce qui doit être abandonné (faute de droits, dautorisations
).
Cest ce qui a été fait avec lHyperNietzsche et ce projet, maintenant, détient une base solide.
La notion dOpen Source
Quest-ce donc que lOpen Source ? (
) Il faut évidemment se tourner vers les logiciels libres pour en comprendre parfaitement le sens.
Cette notion de partage , daccès libre et gratuit qui sous-entend ces mouvements ne nous paraît pas contradictoire avec les principes du droit dauteur si lon a bien en tête :
- Le fait que faute dexception générale et reconnue par tous les États au droit dauteur pour lenseignement et la recherche, les auteurs restent libres de fixer les conditions dans lesquelles leurs uvres vont être diffusées. Notamment, rien nempêche un auteur dautoriser les utilisations gratuites de ses uvres, lorsque ces utilisations sont à des fins denseignement et de recherche. Après tout, le site Napster naurait pu être inquiété si les auteurs avaient donné leur accord pour que leurs uvres (musicales) soient échangées en ligne. Même si ce cas reste un cas décole (nous sommes, dans ce domaine de lindustrie du disque, sur un autre terrain).
- Noublions pas que les uvres tombées dans le domaine public peuvent circuler librement (à condition de respecter la mémoire de lauteur, et les prérogatives morales transmises aux héritiers). En principe, 70 ans après la mort de lauteur, cette liberté de numérisation et de diffusion est pleinement reconnue. Des difficultés se posent lorsque les uvres originales sont détenues par des archives ou des bibliothèques, et lorsque ces dernières entendent faire payer des droits avant la diffusion des dites uvres : on se trouve là dans un conflit entre droit de propriété et droit dauteur, mais dans ce cas, cest le principe de liberté qui doit jouer ;
- Le droit moral est absolu (le droit dauteur est avant tout un droit de la personne de la personnalité et non un droit de propriété) et doit être respecté. Dans le domaine du logiciel libre, on trouve certaines conditions dans lesquelles un utilisateur pourra modifier un logiciel afin den créer un second. Mais ces conditions ne sont pas acceptables pour nous, car une uvre de lesprit (et malheureusement, il faut garder en mémoire quun logiciel est également considéré comme une uvre de lesprit, de la même façon quun livre, une peinture ou une sculpture) fait naître certains droits, dont le droit à lintégrité, que lon ne peut ignorer. Les licences de lHyperNietzsche, comme nous le verrons, respectent les droits moraux des auteurs.
Cest la vision de lOpen Source (favoriser la diffusion libre et gratuite des contenus scientifiques sur le web respecter le droit des auteurs) que défend lHyperNietzsche et cest cette vision que, pour notre part, nous défendons. LOpen Source façon Napster, donc illégale, voire façon logiciel libre, faut-il le rappeler, ne nous convient évidemment pas.
Cest donc le principe même du droit dauteur qui sert de fondement à notre concept dOpen Source. Certes, on trouve, très largement, largument selon lequel les chercheurs universitaires sont déjà rémunérés par les contribuables, et dès lors quils sont payés par lÉtat, pourquoi faire ensuite payer laccès à leur production critique ? On estime ainsi normal que laccès aux productions scientifiques soit gratuit. Un tel argument sort du cadre du droit dauteur, nous ne le prenons donc pas à notre compte. Cependant, on peut trouver curieux que lÉtat se déclare titulaire des droits sur les uvres créées par ses fonctionnaires (au motif que ces derniers sont, par définition, rémunérés par de largent public) et que dun autre côté (fut-ce au regard des principes du droit dauteur), on dénigre au contribuable le droit daccéder à ces mêmes uvres.
LOpen Source reste une philosophie, mais, pour la transcrire sur le plan juridique sans contredire le droit dauteur, nous ne pouvons trouver un autre moyen que le terrain contractuel. Nous allons prendre en ce sens lexemple de lHyperNietzsche.
La présentation des licences de lHyperNietzsche
LHyperNietzsche publie une contribution à partir du moment où elle a été évaluée par le comité scientifique. Cette évaluation se déroule de façon anonyme, dans un délai minimum de deux semaines (et de deux mois au maximum), après soumission de la contribution sur le site .
En soumettant sa contribution scientifique à lHyperNiezsche, en ligne, lauteur donne dores et déjà son accord pour sa publication (éventuelle) sur le site Internet. De ce fait, plus concrètement, lauteur adhère à la licence HyperNietzsche, par laquelle il cède lusage (non exclusif) de ses droits numériques sur son uvre à lassociation HyperNietzsche.
Cette cession est valable pour dix ans : lauteur sengage donc à laisser sa contribution scientifique sur le site HyperNietzsche, pour une durée de dix ans, éventuellement renouvelable.
Bien entendu, cette licence, dite HyperNietzsche, ne sera valablement conclue que si le comité scientifique donne un avis favorable au terme de la procédure dévaluation (la licence est donc conclue sous condition suspensive, cette condition étant laccord du comité pour publication).
Si le comité évalue positivement la contribution, lauteur recevra un courrier électronique, et il devra alors répondre à ce courrier pour sceller définitivement laccord avec lHyperNietzsche.
Une attention toute particulière a donc été prise pour informer au mieux lauteur :
- Concernant le contenu du contrat, disponible (et expliqué) en ligne, dans plusieurs langues. Lauteur sait exactement ce sur quoi il sengage. Il connaît également (il est vrai quil doit lire ces quelques pages sur le site mais ces informations ont été volontairement raccourcies et il a le choix entre le détail et un résumé) la politique éditoriale de lHyperNietzsche, cest-à-dire sous quel modèle contractuel ses écrits vont être diffusés (ce que lon appelle parfois les conditions dutilisation ).
- Concernant la conclusion même du contrat. Lauteur ne signe pas sans le savoir (linformation est clairement disponible lors de la procédure en ligne de soumission dun essai). Et le courrier électronique envoyé après la réponse du comité scientifique est une précaution de plus : si la gestion de ces contrats se fait automatiquement et électroniquement (via le serveur de lHyperNietzsche), donc de façon très simple, lauteur demeure très bien informé.
La licence HyperNietzsche est rédigée dans la logique de lOpen Source, que défend lassociation HyperNietzsche, et qui se donne comme objectif tout à la fois de favoriser la numérisation, la diffusion et lutilisation des travaux scientifiques, dans un but denseignement et de recherche, et de préserver les droits de lauteur, notamment lorsque lutilisation des travaux du chercheur est destinée à des fins commerciales.
De ce fait, la licence que propose lHyperNietzsche porte cession des droits, à titre non exclusif et gratuit, de la contribution scientifique (évaluée positivement par le comité scientifique) à lassociation HyperNietzsche, pour sa diffusion sur son site web.
Cette cession, éventuellement renouvelable, a une durée de dix ans. Elle est non exclusive, cest-à-dire que lauteur peut tout à fait, par exemple, publier son texte dans une revue scientifique, en ligne ou papier ou sur son site personnel. En participant à lHyperNietzsche, lauteur renonce seulement à offrir lexclusivité de son travail à une personne en particulier, physique ou morale : si cette exclusivité a été donnée (par exemple à un éditeur), le texte ne peut plus dès lors circuler. La licence OpenKnowledge (
) ne peut également sappliquer, et dans ce cas, lHyperNietzsche nest plus intéressé pour diffuser un texte dont lutilisation, pour des fins denseignement et de recherche, serait restreinte voire nulle (en dehors des exceptions au droit dauteur prévues dans le CPI).
Lauteur, en donnant son consentement à la licence HyperNietzsche, autorise également lassociation HyperNietzsche à diffuser son texte sous le modèle de la licence OpenKnowledge. Cest cette licence qui constitue le modèle original et propre à lHyperNietzsche.
Concrètement, en contribuant à lHyperNietzsche, lauteur accepte que lassociation HyperNietzsche puisse conclure auprès de chaque utilisateur une licence OpenKnowledge précisant les conditions dutilisation de son uvre. Cette licence autorise chaque tiers qui téléchargera un écrit à partir du site HyperNietzsche de lutiliser à des fins (exclusivement) denseignement et de recherche.
Cette licence en effet sera conclue de façon électronique entre lassociation et, individuellement bien sûr, chaque utilisateur qui va reproduire un texte (une contribution) depuis le site HyperNietzsche.org. Par reproduction, on entend un téléchargement (sur disque dur, disquette
), une impression, etc, soit un acte teinté dune certaine permanence.
En bref, si un utilisateur reproduit sur son disque dur un texte diffusé sur lHyperNietzsche, il contracte la licence OpenKnowledge. Bien entendu, il est au préalable tenu informé, via le site Internet de lHyperNietzsche, à la fois du contenu et du mode de formation de cette licence, si bien quil est parfaitement conscient de contracter lorsquil reproduit luvre depuis le site.
Cette licence OpenKnowledge lie les deux parties, et notamment :
- Elle autorise toute utilisation des contributions scientifiques diffusées sur lHyperNietzsche, à des fins denseignement et de recherche, en plus de ce que prévoit déjà le Code français de la propriété intellectuelle (copie privée, courte citation, etc). La reproduction intégrale du texte concerné par la licence (un utilisateur = une licence, et un texte = une licence), puis sa diffusion seront possibles par ailleurs, si le but de lutilisation est non-commercial. Le sens donné à lexpression utilisation à des fins denseignement et de recherche est donc volontairement restreint : on part du principe que le texte diffusé sur un site payant, dans un ouvrage (y compris un manuel scolaire polycopié) payant (lauteur sera rémunéré par des royalties) sort du cadre de la licence Open Knowledge ;
- Le droit moral des auteurs devra en tout cas être respecté, et notamment le droit de paternité : le nom de lauteur (accompagné de ses coordonnées électroniques) devra, comme il se doit, être cité de façon systématique avec son écrit. Nous pouvons également mentionner le droit à lintégrité de luvre ;
- Elle interdit en revanche toute utilisation des contributions scientifiques de lHyperNietzsche, à partir du site Internet, à des fins commerciales, sauf accord bien entendu de la part de lauteur. Le futur utilisateur devra, dans ce cas, prendre directement contact avec lui : lassociation HyperNietzsche ne joue pas le rôle dintermédiaire ou de société de gestion. Les coordonnées électroniques des auteurs seront, de toute façon, systématiquement communiquées avec leurs écrits. Toute utilisation des uvres diffusées sur lHyperNietzsche, et non tombées dans le domaine public (reproduites à partir du site Internet de lassociation), à des fins commerciales, et sans accord préalable des auteurs concernés, constituera une contrefaçon.
La généralisation des licences (type HyperNietzsche dans la philosophie Open Source) peut être une solution. Ces licences entrent très bien dans le cadre du droit dauteur (elles respectent, je le crois, les dispositions assez strictes du CPI) (19), et se posent comme un réel palliatif à labsence dexception pour lenseignement et la recherche dans certains droits : si les auteurs (chercheurs, professeurs, thésards
) prenaient lhabitude et la précaution de diffuser leurs uvres sous le modèle de la licence OpenKnowledge (un usage libre (20) pour lenseignement et la recherche, un usage maîtrisé pour les autres utilisations, et notamment les utilisations commerciales (21), laccès libre et gratuit des fonds culturels et scientifiques sur Internet serait dans une large mesure assuré (22). Il est vrai quil faudrait également pour cela que les centres de recherche et les universités jouent le jeu, et publient sous le modèle de ce genre de licence les productions des enseignants et chercheurs quils emploient.
Faute dexception au droit dauteur, le contrat reste le seul outil disponible. Il faut savoir lutiliser.
4.2 - Sur le projet HyperNietzsche : Paolo dIorio et William Turner
Extraits : Solaris n°5
Les collaborations médiatisées par ordinateurs caractérisent de plus en plus le monde de la recherche. Loin dêtre inactifs, les chercheurs français expérimentent de nouveaux modes de diffusion et de production des connaissances. Cependant, peu de dispositifs dobservation et de capitalisation des expériences en cours existent à lheure actuelle, ce qui explique la rédaction de ce texte. Au lieu de présenter des résultats de recherche, il sagit dune contribution conceptuelle et méthodologique à létude des relations entre conceptions techniques et pratiques scientifiques. En effet, linterprétation de ces relations oscille le plus souvent entre deux pôles extrêmes : celui dun raisonnement orienté technologie qui préconise lexportation des solutions techniques confirmées vers des champs dapplication nouveaux en minimisant la difficulté de tels transferts de technologie ; celui du raisonnement contraire, un raisonnement orienté usages, qui défend lindépendance nécessaire des communautés scientifiques vis-à-vis des solutions toutes faites et préconise, donc, une politique de laisser faire en matière dexpérimentation des nouvelles infrastructures de la science.
Si le premier type de raisonnement est critiqué pour les résistances individuelles et organisationnelles quil engendre, celui qui sinspire du marché et des solutions sur mesure quoffrent des prestataires de services informatiques passe sous silence le gaspillage de ressources résultant dun manque de coordination des investissements collectifs. Pis encore, de notre point de vue, ces deux types de raisonnement empêchent une compréhension des rétroactions qui sont en jeu : le mouvement nest pas de la technique vers les usages, ni des usages vers la technique ; il est un mouvement qui boucle constamment. Les pratiques scientifiques façonnent les techniques de communication scientifique et technique, lesquelles conditionnent en retour lintérêt davoir recours à des nouvelles technologies de linformation et de la communication. Cela dit, ces rétroactions récurrentes varient en fonction des situations de recherche examinées.
La cognition située est un enjeu scientifique et industriel puisque la conception et la mise en uvre des nouvelles infrastructures de la recherche dépendent dune compréhension approfondie des dynamiques dinterdéfinition décrites ci-dessus. Si la technique façonne les projets socio-cognitifs, elle est façonnée en retour par ces derniers. Ce texte présente une méthodologie dobservation des pratiques scientifiques médiatisées par ordinateur. Elle doit permettre de repérer, analyser et comparer la production des connaissances qui sont à luvre dans des contextes précis. Lobjectif est de tirer profit de lobservation des expériences en cours afin daméliorer la conception des infrastructures techniques de la science, sans tomber dans le double piége dun laissez-faire social ou dun déterminisme technologique. Cette démarche méthodologique a été bâtie autour de la notion de forums électroniques .
Un forum électronique est un système technique de gestion de linformation scientifique et technique conçu pour soutenir une activité de recherche. Un projet de création dun forum électronique est actuellement en cours de réalisation par lInstitut des Textes et Manuscrits Modernes du CNRS, intitulé HyperNietzsche (P. DIorio, 1998 et 1999). Ce projet vise à expérimenter des nouvelles formes de collaborations médiatisées par ordinateur dans la recherche philosophique et littéraire et en particulier dans lanalyse et la critique des textes et des manuscrits. Son étude est intéressante à plusieurs titres :
le projet démarre et peut donc être suivi depuis ses débuts ;
les forums électroniques ont surtout été expérimentés dans les sciences expérimentales comme la physique, locéanographie ou les sciences de la vie, et il est facile dadmettre la difficulté de transférer directement les infrastructures de ces sciences vers celle de lérudition ;
les problèmes posés par lorganisation du lien entre les pratiques de communication et les pratiques scientifiques peuvent être formulés en termes généraux, dépassant le seul champ de recherches sur les textes et les manuscrits et débouchant sur des conceptions globales.
Largument est le suivant : les forums électroniques sont des systèmes techniques de gestion de lIST ; leur adoption définitive par une communauté scientifique suppose que soit gérée de manière efficace la rétroaction récurrente de la conception sur les usages et inversement. Nietzsche sur Internet permettra danalyser les conditions de cette gestion. Cette analyse sinscrit dans le cadre général des recherches visant à mieux comprendre les processus de fabrication sociale des connaissances scientifiques et techniques, et concerne plus particulièrement :
les pratiques de communication en vigueur dans des réseaux de recherches ;
lorganisation de leurs systèmes particuliers de fabrication des connaissances ;
les incitations à expérimenter des nouvelles formes de structuration de la recherche (
) .
En dépit de la richesse des études, il convient de noter, quune analyse comparée des développements de lédition numérique dans divers pays aurait été très utile. Bref, un état des lieux et de lart. Depuis 10 ans, en effet, lédition numérique a profondément évolué. Des archives de Ginsparg , en passant par Perseus et les Principia Cybernetica jusquau basculement sur le réseau des grands éditeurs scientifiques, dune partie des presses universitaires (surtout de langue anglo-américaine), les évolutions ont été rapides. De même, lapparition et lexploration de nouvelles fonctionnalités éditoriales (des logiciels de repérage automatique des citations , aux systèmes dauto-archivage et danalyse automatique des réseaux dactants), ont accentué la prise de conscience dun changement de paradigme. Lédition numérique tend, à présent, à passer du paradigme de laccès au paradigme de la production des savoirs dans des conditions renouvelées de visibilité sémantique, dassociation, de navigation.
De ce point de vue, des travaux remarquables ont été menés en France par G. Chartron , G. Gallezot , J.M. Salaün
, sur ces questions.
De même les remarques de J.C. Guédon , concernant les incertitudes du projet Revues.org nous semblent intéressantes. J.C. Guédon note que ce projet demeure un peu trop laconique sur cette véritable édition numérique , tout en offrant une présentation fortement orientée vers le côté technique de lentreprise
. Bien que le projet demande aux textes édités électroniquement dincorporer les caractéristiques suivantes : indexabilité poussée
et structuration souple décrite ici comme hypertextualité
, ce dernier remarque que ces deux caractéristiques népuisent pas lensemble des questions que lon peut se poser au sujet de la publication électronique .
4.2.1 - À propos des archives ouvertes
Extraits : Gabriel Gallezot, Ghislaine Chartron, Jean-Max Noyer
Les modes de publication des résultats de la recherche ou rendant compte de létat davancement de la recherche sont multiples. Articles, rédaction de projets, monographies, communications à des colloques et séminaires (ces derniers ayant eux-mêmes des statuts et fonctions différents)
et ce, sous forme papier et à présent sous forme numérique. Ces objets éditoriaux sont de forme et de nature variables, leurs modes de légitimation et de validation très différents. Leur fonction dans le processus de production des savoirs, leurs usages collectifs ou singuliers sont aussi multiples, suivant les communautés, leur taille, leur épistémologie, leurs us et coutumes. Larrivée du numérique et le développement des nouvelles mémoires entraînent aussi un certain nombre de transformations et soulèvent à la fois des difficultés et certaines opportunités.
Dans le débat qui nous préoccupe, il nous semble déceler quatre questions fondamentales.
La première concerne la représentation des revues constitutives des disciplines. Quels sont les critères qui permettent leur identification, leur évaluation, leur positionnement réelle ou supposée des revues dans lespace institutionnel, leur charge symbolique
? La discussion concernant ces critères, la nécessité de parvenir à une connaissance plus fine du travail des revues entre elles nous semblent particulièrement importantes, dautant plus que lhétérogénéité des champs sont souvent grandes. Rendre donc visible selon des niveaux déchelles à déterminer les organisations internes des dynamiques, des échanges, des références est donc souhaitable. (
).
Cela nous conduit à la deuxième question. Est-il possible de créer les conditions permettant de faire émerger, à partir des revues existantes et éventuellement plus en amont, à partir des propositions dauteurs (sous forme par exemple de pré-publications) une représentation plus fidèle de lactivité collective et donc daméliorer la mise en visibilité et peut-être de susciter une évaluation plus collective, des dynamiques entre auteurs, entre thématiques, entre laboratoires ?
Dans la perspective numérique, existe-t-il de nouveaux modes éditoriaux qui pourraient contribuer à un tel objectif, à rendre visibles jusquà un certain point les dynamiques amont et aval dun texte qui contextualisent (ne serait-ce que pour partie) le travail et la vie des articles ?
Il sagit donc de développer des visibilités (en partie mesurables) plus vastes, rendant compte des processus amont et aval des productions de savoirs à travers les articles (post-publications et pré-publications), du nombre approché de lecteurs, des réseaux de citations, de co-citations
Ces nouveaux modes éditoriaux, quels sont-ils ? Cest là notre troisième question. Ils sont essentiellement recouverts par le vocable archives ouvertes et ont tous en commun de permettre un archivage numérique offrant des modes dexploitation de ces fonds documentaires en vue de nouvelles pratiques et notamment de nouvelles pratiques cartographes (conceptuelles, dauteurs, (auteur cité, auteur citant) de revues (revue citée / revue citante).
Notre quatrième question interroge les diverses manières dont nous pouvons mettre en place et utiliser ces dispositifs porteurs dune grande valeur ajoutée éditoriale, cest-à-dire rendant visibles les structurations dynamiques du champ, améliorant le système hérité du peer-review (en lui donnant des moyens accrus de fonder sa pertinence, tout en ne pénalisant pas les options minoritaires, marginales ou émergentes).
Cest donc à partir de cette réflexion générale et sous les contours dune archive ouverte construite avec les revues que nous vous proposons de dresser ensemble un projet intellectuel favorisant le développement de notre communauté.
Le mouvement des archives ouvertes dans la communication scientifique : ses origines
La création des archives ouvertes est née en réaction au paradoxe de lédition scientifique : alors que le chercheur offre ces résultats, la communauté scientifique trouve un certain nombre dobstacles pour lire ces publications, revues non présentes dans les bibliothèques de proximité, sélection restrictive effectuée par les bibliothèques contraintes par leurs budgets, dispersion des revues...
Pourtant la majorité des chercheurs accèdent aujourdhui à Internet et pourraient saisir cette opportunité pour partager plus facilement les résultats de leurs travaux.
De plus, linflation des écrits et la nécessité dune validation dans un temps plus court pour certains résultats (souvent expérimentaux) se heurtent aux limites du modèle traditionnel de publication. Aussi nexiste-t-il pas une solution qui permettrait de faire circuler de façon plus ouverte la littérature scientifique, un moyen daccéder à un corpus exhaustif de textes évalués, téléchargeable et disponible à tout moment, corpus où les articles pourraient être reliés et recherchés quelque soit le comité dévaluation ayant travaillé en amont ?
Ce modèle nest plus une utopie, il est déjà à luvre dans certaines communautés, supporté par le mouvement des archives ouvertes réunissant des chercheurs de différentes disciplines et des informaticiens désireux dexpérimenter ces nouveaux modes de circulation des savoirs (voir en particulier S. Harnad).
Quest-ce quune archive ouverte ?
Une archive ouverte est la traduction littérale dOpen Archive. Le terme archive est communément employé pour désigner la préservation de documents sur une longue durée et par extension la conservation de documents anciens, ici il désigne des archives vivantes, un entrepôt dinformations. De même le terme ouverte , bien quil renvoie aussi à la notion de consultation libre et gratuite, a pour sens dans ce contexte louverture de larchitecture technique, des protocoles communs qui facilitent laccès au contenu.
Si lacception française de lexpression archive ouverte nest pas exempte dambiguïtés, son signifiant repose sur des réalisations précises qui permettent de mieux lappréhender.
Une archive ouverte peut se définir simplement comme un réservoir de publications électroniques. Le terme est fortement associé au projet Open Archives Initiative et à la communauté E-prints deux mouvements importants ces dernières années dans domaine de la communication scientifique électronique.
Le premier se préoccupe de linteropérabilité des archives en établissant des protocoles liés aux métadonnées (basé sur le Dublin Core) et au processus de recherche dinformation. Le second encourage et favorise lauto-archivage des publications savantes par les auteurs/organismes notamment à travers le logiciel gratuit eprints.org .
Les principaux enjeux associés aux archives ouvertes sont : un accès ouvert et simplifié aux publications scientifiques, une recherche dinformation décuplée (interopérabilité possible entre les archives) et une mémoire scientifique commune.
Les différents types darchives ouvertes
Deux types darchives se sont développés ces dernières années : les archives dites de pré-publications et celles de post-publications. Les premières sont des bases darticles dans leur première version et se situent en amont du processus dévaluation par les pairs, les secondes sont des bases darticles déjà publiés dans les revues et se situent donc en aval de lévaluation par les pairs.
Dans les faits, la montée en charge de chacun de ces deux orientations entraîne souvent leur convergence. À titre dexemple, on peut citer lune des bases les plus connues et les plus importantes, à savoir la base ArXiv de P. Ginsparg , une archive ouverte en physique (théorique au départ, puis extension à dautres spécialisations de la physique) créée en 1991.
Mais le modèle initié par la physique a connu aussi des extensions non négligeables dans dautres disciplines: psychologie et neurosciences (archive Cogprints de S. Harnad, créée en 1997), économie (WoPec , archive ouverte de working papers en économie, créée en 1996), différentes archives également plus circonscrites aux universités, à un réseau de chercheurs rendant ainsi plus visibles les travaux publiés. Certains expérimentent également des fonctionnalités avancées, liées à cette nouvelle forme de communication.
Par exemple le commentaire ouvert par les pairs dont le principe est douvrir larticle aux commentaires de toute une communauté par courrier électronique, il sagit de renforcer la controverse ; une autre fonctionnalité avancée concerne lanalyse des citations des articles archivés (mise en relation des différents articles cités dans les bibliographies des textes, quantification des consultations
).
Ainsi, au regard des différentes réalisations darchives et de leurs projets connexes, la notion darchive ouverte est suffisamment polymorphe et versatile pour impulser une configuration adaptée à chaque communauté scientifique.
Comment cela fonctionne-t-il ?
ArXiv, première archive créée par une communauté scientifique, fournit un exemple à grande échelle :
le chercheur envoie son texte à larchive par courrier électronique ou interface web ;
un (ou des) modérateur scientifique vérifie la recevabilité du texte qui nest pas une validation scientifique de haut niveau (toujours assumée par les revues), mais un premier filtrage écartant tout texte posant problème ;
les autres chercheurs peuvent rechercher larticle à partir dune interface dinterrogation classique sur le Web (formulaires) ou être informé par courrier électronique de sa présence dans larchive (principe dalerte). Ils le téléchargent sur leur ordinateur pour le lire (impression possible) ;
la communauté scientifique peut commenter larticle, et lauteur peut réviser son article et remplacer la première version. Ce processus peut être reproduit plusieurs fois. Larticle peut être soumis à une revue. Certaines revues permettent une soumission sous la forme dun numéro de document de larchive. Les évaluateurs vont sur larchive pour lire larticle ; larticle est alors accepté ou rejeté par la revue. Sil est rejeté, il peut être soumis à une autre revue (après révision ou non), sil est accepté, lauteur le corrige éventuellement selon les commentaires des évaluateurs ; larticle est publié dans la revue et dans la plupart des cas déposé dans larchive.
Dans ce scénario lié aux sciences de la nature, larchive assure un rôle de circulation anticipé des écrits avec des possibilités daméliorations cumulatives des articles.
Mais dautres scénarios peuvent être envisagés avec les éléments suivants : larchive peut être aussi constituée de textes déjà évalués et publiés dans des revues depuis longtemps (accord avec les revues, négociation de lauteur) ; il peut exister un temps de latence entre la publication dans une revue et le dépôt dans larchive, permettant notamment à la revue de ne pas déstabiliser son modèle économique.
Plutôt que de déposer son article sur une archive centralisée, le logiciel Eprint.org permet le dépôt sur larchive de son choix (de son institution, de sa communauté
) en proposant linteropérabilité de celles-ci.
La question du droit dauteur
La question fréquemment posée à propos du dépôt dans les archives relève du droit dauteur : ai-je le droit de publier mon article dans une revue et dans une archive ?
Harnad et Oppenheim proposent des solutions pour régler cette question. La première est de ne pas donner lexclusivité de larticle aux revues ; la deuxième est dauto-archiver sur le réseau une version avant de le soumettre aux éditeurs, laisser les experts évaluer, et ajouter un appendice correctif au texte sur le réseau. La troisième plus consensuelle consiste à négocier avec les éditeurs des revues, qui peuvent fournir directement à larchive les articles publiés après un temps de latence restant à définir. (
)
Alors que ce mouvement se développe rapidement, nous pensons quil serait souhaitable que les expérimentations se multiplient et particulièrement dans le domaine des sciences humaines et sociales. Le but de ces expérimentations serait de mettre à disposition de tous les chercheurs un grand nombre de documents diversifiés et de favoriser les échanges pluridisciplinaires.
La constitution de ces corpus illustrerait ainsi la richesse des approches
À la place dune conformation uniforme des savoirs liés à lappauvrissement du nombre de revues consultables par chacun, larchive ouverte créerait, à terme, les conditions dune cartographie des connaissances, des thématiques scientifiques qui animent nos recherches. Par lidentification des problématiques majeures traduites par les publics, elle concourrait à la structuration des communautés en laissant des traces patrimoniales pour une histoire des disciplines.
Plus prosaïquement, ces archives ouvertes faciliteraient laccès et la recherche de savoirs, elle permettrait une plus grande visibilité des revues où lon publie (post-publication), elles inscriraient la publication des résultats de la recherche dans un temps plus court également. Elle permettrait aussi dexpérimenter les apports éventuels de la technique dans ce nouveau modèle de publication scientifique notamment en termes de création de connaissances. (
)
De ce point de vue, il conviendrait de mener une veille efficace sur les travaux menés, dans les domaines de linfométrie, de la cybermétrie, de lingénierie documentaire et linguistique, des sciences de la cognition distribuée.
Lhypertextualité numérique est donc un dispositif essentiel où se joue pour partie le désir et la possibilité de la sortie du discours des essences, de lontologie monovalente, de la logique bivalente, de la religion des saintes Ecritures. Cest donc dans le champ général de lécriture ainsi défini que les effets de communication sémantique pourront être déterminés comme effets particuliers, secondaires, inscrit, supplémentaires . Quest-ce que ce désir, sil existe, signifie ? De quel monde est-il porteur ? Ce sont des questions difficiles .
On comprend donc aussi que de ladoption plus ou moins profonde de ces dispositifs hypertextuels, que du développement et de ladoption des nouveaux outils dorientation, de repérage, de filtrage et de navigation permettant de travailler au sein même de ces nouvelles onto-éthologies conceptuelles, cognitives, dépendent la croissance de communautés intellectuelles ouvertes, la transformation des approches pédagogiques au sein dun univers informationnel complexe où la gestion des points de vue et la multiplicité des écritures va augmentant, enfin la garantie dun espace critique renouvelé ayant comme horizon la pensée de lhétérogénéité. À lévidence, les enjeux citoyens liés à lapprentissage de ces nouveaux dispositifs dorientation sont très importants, voire décisifs.
4.3 - Édition électronique et E-Learning
Extraits : Alain Derycke
Le problème de lédition électronique est, selon nous, étroitement lié à la question du E-Learning. Le développement du E-Learning fait converger un certain nombre de difficultés : statut de la médiation humaine, dimensions collaboratives augmentées, technologies intellectuelles encore frustres, problèmes de validation, mise en compétition des modèles éducatifs, montée en puissance dune géopolitique des savoirs
Et le développement des nouveaux modèles éditoriaux recoupe pour une large part ceux du E-Learning.
Alain Derycke met en évidence, dans son article, Sept questions sur le E-Learning, vers une problématique nouvelle sur la recherche ? , limportance aux plans pédagogique, cognitif, et stratégique de ces nouvelles technologies éducatives déterritorialisées.
Quy a-t-il de nouveau du point de vue pédagogique ?
Pour bon nombre de spécialistes des technologies éducatives, il apparaît que le E-Learning napporte rien de nouveau, en termes pédagogiques et didactiques, voire quil constitue une régression avec le retour à des pratiques souvent transmissives. Sil est vrai que sur lInternet lapprentissage rime souvent avec lecture, il y a cependant dautres pratiques ou stratégies plus intéressantes qui se développent et qui méritent notre intérêt.
Nous aurions tort de ne pas voir que dans le E-Learning, tout au moins dans sa partie avancée, il y a deux dimensions, un peu nouvelles, qui devraient être mieux étudiées :
La première dimension, plus macroscopique du point de vue pédagogique, est celle de la gestion des parcours de formation. La plupart des systèmes pour le E-Learning permettent, à partir de ressources multimédias de formation classiques, de lécrit au didacticiel, une gestion fine de lactivité de lapprenant, de son cours daction. Il y a là un retour vers le Computer-Managed Learning des années 70 et qui a fait lobjet de très peu de recherches en France. Il est vrai que la science du curriculum, telle que nos collègues néerlandais par exemple lapprennent et létudient, est très peu traitée ici. Il y a là une opportunité pour comprendre comment les STIC peuvent faciliter la conception de parcours de formation non seulement individualisés mais aussi adaptatifs : tant aux progrès et difficultés de lapprenant, quaux besoins individuels et collectifs de lorganisation ou de la communauté. En termes de recherche dans le domaine des STIC cela ressemble à ce qui est fait dans le domaine des Workflows évolutifs et dans le domaine de la personnalisation des systèmes interactifs (Bourguin et Derycke, 2001).
La seconde dimension est plus pédagogique. Il y a, dans certaines approches du E-Learning, une volonté de prendre sérieusement en considération laspect situé du processus dapprentissage et sa nécessaire insertion au sein dune communauté de pratique (voir Lave et Wenger, 1991, par exemple). Il y a là un courant de recherche sur les technologies éducatives très intéressant, de type anthropo-technologie, avec des références omniprésentes aux retombées des recherches initialisées par L.Vygotsky, notamment avec la Théorie de lActivité (Nardi, 1996) (Bourgin et Derycke 2001) ou plus proche de nous avec la Théorie Instrumentale proposée par P. Rabardel (1995). Jaurais pu également parler de lintérêt des recherches en Cognition Distribuée (Hutchins, 1994) pour comprendre les processus dapprentissage avec des instruments ou de tout ce qui tourne autour de lapprentissage dans laction chez le praticien (Argyris et Schön, 1978 ; Schön, 1983).
Pour moi, lémergence de lapprentissage collaboratif assisté par Ordinateur (le CSCL en anglais) est probablement le changement le plus important qui soit arrivé au champ des technologies éducatives. Dans le passé, jaurais même osé évoquer un changement de paradigme. Certains chercheurs de notre communauté, comme M. Linard (2001) ou M. Baker (1999), ont commencé des travaux de recherche dans cette direction, qui mériteraient dêtre amplifiés et fédérés .
LInternet et le Web vont-ils modifier les rapports de force dans la distribution des savoirs ?
Une position, souvent rencontrée, consiste à considérer lInternet, mais surtout lapproche centrée sur les serveurs Web, comme un simple véhicule pour le transport et le stockage des contenus de formation. Il est vrai que cet aspect Web-centric , qui magnifie la relation entre client et serveur, un réservoir de connaissances, est très significatif des infrastructures daujourdhui, avec ses divers portails tant pour le commerce que pour la formation.
Cette organisation technique colle assez bien avec le développement des institutions de formation pour le E-Learning. Pour certains, à lage de la connaissance, le futur des universités est de devenir des Knowledge Servers (Daniel, 1996 ; Duderstadt, 1997).
Mais ceci est une vue statique qui ne prend pas en compte des évolutions en train de se faire dans les technologies de lInternet et de linformatique. Trois grandes tendances peuvent bouleverser le schéma précédent et transformer le E-Learning tel que nous le connaissons aujourdhui. Ce sont :
- le Web sémantique : pour les pionniers des technologies éducatives, comparé aux Hypermédias, les technologies du Web constituent un recul tant les liens qui servent à relier des fragments dinformations sont pauvres du point de vue de leur sémantique. Il est donc difficile dy représenter de manière efficace des connaissances et de produire de riches environnements dapprentissage adhérant à une approche plus constructive des processus dapprentissage. Mais il faut bien comprendre que cest en train de changer avec lusage des technologies liées à XML (notamment Xpointer, Xlink et Xpath) et à RDF. Ces technologies, associées avec des représentations ontologiques des domaines de connaissances, font lobjet dune activité soutenue de recherche et de développement, notamment dans le domaine du E-Business (tout ce qui tourne autour de EbXML par exemple). Il est évident que ce mouvement a déjà commencé dans le domaine de la formation avec par exemple des tentatives pour modéliser et échanger autour des ressources pédagogiques ou des parcours de formations et des activités dapprentissages avec des instruments (par exemple avec EML) ;
- Le Peer-to-Peer (P2P) ou la relation de pair-à-pair : cette technique déchange popularisée par des systèmes comme Napster ou Gnutella pour la musique et la vidéo, prend en considération le fait que sil y a dans le monde plus dun million de serveurs Web (adresse de type www
), il y a aussi plus de cent millions dordinateurs et utilisateurs connectés qui sont autant de sources dinformation ou de ressources pour les internautes. Il se peut que, comme Napster pour le monde de la production musicale, le P2P bouleverse les rapports de force dans le champ de la formation. Est-ce que lutopie des réseaux déchange de savoirs ne pourrait-elle pas trouver là sa concrétisation technologique ? Il me paraît que lévolution amorcée avec le CSCL et le potentiel de la formation par les pairs, les autres apprenants, devraient pouvoir être accélérés par le développement du P2P et des architectures de systèmes très décentralisées, sans gouvernance. Il y a donc à conduire des investigations sur ces évolutions très rapides du cadre technologique dans lequel le E-Learning va se développer, et essayer de prévoir et den infléchir le cours, ainsi que détudier les nouvelles organisations et modalités pédagogiques qui pourraient en émerger.
- Linformatique ubiquitaire : cest une tendance forte de linformatique, notamment pour la conception des Interaction Homme-Machine, les IHM, qui consiste à rendre plus transparente linformatique en la rendant invisible et accessible en tous points, grâce aux communications sans fil par exemple, au travers de petits objets dédiés à certaines tâches (Norman, 1999) (Weiser, 1991). La facilité avec laquelle les plus jeunes, nos apprenants, ont su sapproprier, pour certains, des systèmes comme les SMS ou les messageries instantanées, peut être demain le Wap ou lUMTS, permet de mesurer les attentes et attitudes que ceux-ci auront vis-à-vis de nos dispositifs de formation avec les STIC. Il y a là un champ de recherche sur les technologies éducatives encore en friche .
Quy a-t-il du côté obscur du lE-Learning ?
Du côté des gens complètement séduits par le E-Learning, il y a un risque de ne voir et de ne défendre que les aspects positifs du E-Learning comme la virtualisation : nimporte quoi en nimporte quel lieu et temps. Laccent est alors souvent mis sur la souplesse, le potentiel pour lindividualisation de la formation, le caractère ouvert des avoirs mis à disposition, le monde en tant que ressources potentielles.
Dans le cadre de la mise en place de la réduction du temps de travail et des efforts partagés entre salariés et entreprises pour la formation, par son potentiel dubiquité, du lieu de travail au domicile, le E-Learning est souvent mis en avant comme un facteur de diminution des contraintes pesant sur lapprentissage. De même, pour les enseignants, le développement du E-Learning est souvent présenté comme valorisant avec la transformation des enseignants en auteurs de cours multimédias ou de conseillers/tuteurs, et le développement de pratiques pédagogiques plus collectives.
Mais, comme le dit M. Turroff (1997), pourtant un grand spécialiste des STIC, il existe aussi un côté obscur au E-Learning. Pour lui, cest surtout le risque dérosion de la fonction des académiques dans les universités, avec seulement quelques grands professeurs concepteurs de cours et choisis pour leur notoriété (une valeur de marque), et des tuteurs précaires choisis parmi les étudiants de troisième cycle. Il faut noter, aux USA, que des projets dorigine managériale duniversité virtuelle ont réussi à mobiliser contre eux le corps enseignant de plusieurs universités et à provoquer, pour la première fois dans ces institutions, des grèves. Des voix se sont élevées pour dénoncer la vision propagée par le monde des grandes entreprises du secteur de technologies de lInternet qui réduit la formation à un problème de téléchargement ! Au titre des difficultés engendrées par le E-Learning pour les agents éducatifs, je devrais également mettre en avant limpossibilité quil y aura à faire coexister au sein des mêmes institutions, inchangées, des enseignants uvrant dans la formation traditionnelle et ceux dévolus au E-Learning. Il faudrait aussi y ajouter le côté mal accepté du renforcement de linterdépendance entre les membres dun même collectif pédagogique (Derycke, 2000). Notre collègue Muchielli donne un scénario assez convaincant de lenfer que cela pourrait représenter pour certains de nos futurs collègues.
Enfin, pour lapprenant aussi, il ny a pas que des aspects positifs à lintroduction du mode E-Learning pour son processus dapprentissage. Il y a des risques de stress supplémentaire qui pourrait résulter tant des dispositifs, intégrés dans les outils du E-Learning, de mesure de performances en termes dapprentissage ou dévaluation des compétences (le côté Big Brother ou la fin du droit à lignorance) que dans la prolongation des activités professionnelles à la maison, un lieu pas forcément adapté à cette activité même si le foyer est équipé des bonnes technologies. Comme le télétravail, le E-Learning peut être la façon de contourner la réglementation sur le temps de travail. Il est de notre responsabilité de faire des recherches sur ce thème des effets induits par le déploiement du E-Learning .
Avons-nous déjà les bons outils conceptuels pour aborder la recherche sur lE-Learning ?
Enfin, il existe ceux qui pensent que le E-Learning peut être abordé du point de vue de la recherche, à partir des approches, méthodes et concepts déjà développés dans le passé, dans le champ des technologies éducatives. Je ne suis pas sûr de cela, tant la réalité complexe du E-Learning demande une approche par multiples points de vue, dans une approche pluridisciplinaire où non seulement les spécialistes des STIC, ceux des sciences de léducation, de la didactique des disciplines, ou de la psychologie seraient conviés, mais aussi où dautres disciplines, notamment issues des sciences humaines comme lanthropologie, participeraient. Je minterroge, mais cest peut-être dû à mon incompétence en la matière, sur la faiblesse de nos recherches en théorie instructionnelle (au sens de Tennyson). De même, il me semble que tout ce qui tourne autour des théories de lactivité humaine, des apprentissages situés et du rôle des communautés de pratique, est assez faiblement représenté .
Cest dans ce contexte général de transformation des écritures, de lédition, des modes dapprentissage que les questions juridiques prennent toute leur importance.
Selon P. Quéau aujourdhui lenjeu du droit de la propriété intellectuelle est devenu stratégique. Il sagit de la source principale de production de richesses dans le cadre de la société de linformation. Les lobbies concernés sagitent. Ils demandent détendre et de renforcer les droits sur les marques, sur les brevets, sur les bases de données, et plus généralement sur tout ce qui pourrait faire figure dactivité intellectuelle. Les intérêts du public au sens large ne sont pas représentés. Pas davocats, pas de lobbyistes dans les couloirs de Bruxelles ou de Washington, pour défendre les intérêts des utilisateurs. Lintérêt général, une vision supérieure du bien commun napparaissent pas clairement, et les militants de cette cause ne sont pas légion .
Le problème semble donc être de chercher à concilier laccès à la connaissance dans des conditions les plus ouvertes possible (intérêt public) et le droit dauteur. Dit autrement, maintenir, adapter ou inventer les règles du droit, droit pris entre les forces héritées co-fondatrices de lespace public actuel et les forces nouvelles qui le contestent ou veulent le faire évoluer.
Le problème juridique doit donc aussi être posé dans le cadre dune réflexion générale sur les gouvernances dInternet et les forces, dispositifs qui en sont lexpression et lexprimé. De ce point de vue, la question est, pour reprendre les termes de Richard Delmas : comment parvenir à un système métissé de droits et de normes, dans un monde où chaque société politique conserve son propre système juridique. (
). Récemment, le vice-président du Conseil dEtat, Renaud Denoix de Saint Marc (in le Débat, n° 115), relevant une progression inexorable de la common law par rapport au droit romain-germanique, invitait à dépasser laffrontement des deux familles de droit.
Cela veut dire, pour ce qui concerne Internet, rechercher les possibilités dhybridation, prémisses dun droit mondial sui generis et dinstances darbitrage adaptées, pour aboutir à un corps de règles garantissant la notion de bien commun (qui a toujours sous-entendu la mise en place des grands réseaux dinfrastructures), tout en laissant lautonomie de linnovation et des pratiques aux acteurs et utilisateurs, publics et privés, de toutes langues et de toutes cultures .
Partie 5 Numérisation,Édition électroniqueet Droit
5.1 Les travaux du Pôle Droit du PNER 123
5.2 Réflexion prospective 129
5.1 Les travaux du Pôle Droit du PNER
Les travaux du Pôle Droit ont été animés et organisés par Isabelle de Lamberterie, Directrice de Recherche au CNRS. Le Programme Numérisation pour lEnseignement et la Recherche (PNER), lancé au début de lannée 1999, qui vient de sachever, a mis parmi ses priorités les questions juridiques liées à la numérisation pour lenseignement et la recherche. Ayant eu pour objet de conduire un travail de réflexion sur les usages et les besoins de contenus numérisés pour lenseignement et la recherche, il était indispensable que ce programme apporte sa contribution à la définition et à la mise en uvre des cadres juridiques de ces usages et pratiques.
La prise en compte et le traitement des aspects juridiques de la numérisation dans le monde de lenseignement et de la recherche sest imposée comme une nécessité, et ce pour plusieurs raisons :
Pour organiser la numérisation puis lutilisation des produits numérisés, ne faut-il pas aménager la gestion des droits et obligations ? Peut-on ignorer plus longtemps le décalage entre les textes et les pratiques ?
La numérisation, comme lutilisation de produits numérisés, peut se heurter à un certain nombre de difficultés du fait de la nature des droits sur ces produits ou du type dutilisation qui peut en être fait. Il convient donc de cerner la nature des droits, le statut des produits (ex. : uvres susceptibles dêtre protégées par le droit dauteur, ou encore fichiers contenant des informations nominatives). Il faut, aussi, poser les difficultés liées à lutilisation ou la diffusion de ces uvres ou informations afin de sensibiliser les acteurs concernés à rechercher des éléments de réponse à ces problèmes.
Le programme numérisation a voulu être un lieu dobservation dans la société de linformation en construction. à ce titre, faire émerger des questions juridiques qui le concernent est apparu une façon dapporter une contribution effective à la construction de la société de linformation. Le programme a été, aussi, loccasion de revoir des questions sensibles qui préexistaient à la société de linformation et pour lesquelles une recherche de solutions apparaît aujourdhui une priorité. On citera, à titre dexemples, les questions liées aux droits respectifs des enseignants et des chercheurs sur les uvres (y compris produits numérisés) dont ils sont les auteurs ou les contributeurs, ou encore la prise en compte dune exception aux droits exclusifs des auteurs pour des fins denseignement et de recherche. La transposition de la directive sur le droit dauteur dans la Société de linformation nest-elle pas loccasion à saisir pour repenser ces questions dans un contexte en pleine mutation ?
Pour remplir sa mission le pôle droit du programme sest donné plusieurs objectifs :
travailler avec les acteurs afin de déterminer avec eux les points de blocage ;
étudier ces différentes questions, de façon aussi indépendante que possible, en privilégiant à la fois la mise en contexte comparative et le débat sur les enjeux ;
rendre compte du résultat de ces travaux par un état des lieux des problématiques et des propositions structurelles destinées aux pouvoirs publics et aux acteurs, pour aider ceux-ci à établir une politique qui tienne compte des besoins et des spécificités de ces secteurs.
La première étape de la mission a été la constitution dun groupe mixte réunissant des acteurs concernés du secteur public comme du secteur privé sous la responsabilité conjointe de deux avocats (Danièle Baruchel-Beurdeley et Sylvestre Tandeau de Marsac) et de lauteur de ces lignes. Laure Mosli puis Philippe Chevet (juristes et chargés de mission du programme) ont assuré la coordination de ce groupe. La finalitéXE « Extension de finalité » était de faire émerger les questions sensibles sur lesquelles un véritable travail de recherche juridique était indispensable. Un rapport remis en septembre 2000 dégageait les thèmes prioritaires pouvant faire lobjet détudes plus approfondies et invitait à faire une mise en perspective comparative à travers dautres expériences similaires à létranger.
La deuxième étape a consisté - dans le cadre dune action concertée de recherche confiée à lantenne parisienne du CECOJI - à réunir, sous ma responsabilité et celle de Catherine Wallaert, des chercheurs et denseignants chercheurs, membres de trois équipes de recherche spécialistes du domaine : Nathalie Mallet-Poujol (CNRS), Jean-Michel Bruguière et Agnès Maffre-Baugé (Faculté de droit dAvignon) membres de lERCIM (équipe de recherche en créations immatérielles) de Montpellier I, Antoine Latreille (Faculté Jean Monnet-Paris XI) et Valérie-Laure Benabou (aujourdhui professeur à Versailles, Saint-Quentin-en-Yvelines) membres du CERDI (Centre de recherches sur le droit de limmatériel-Paris XI), Marie-Eugénie Laporte-Legeais (Faculté de droit de Poitiers), Philippe Chevet (chargé de mission du programme) et Marie Cornu (CNRS), membres du CECOJI (Centre détude sur la coopération juridique internationale, Poitiers-Paris).
La démarche de recherche a été la suivante : mener sur les sujets sensibles - dégagés dans le premier rapport - une recherche qui privilégie un dialogue avec les acteurs et qui mesure les incidences de chaque voie possible - de lege ferenda - sur le cadre général dans lequel elles sinscrivent.
Partant de létat du droit français (droit positif) sous toutes ses facettes - y compris la question de son effectivité et les difficultés de son application - huit thématiques ont été retenues. Létude de ces thématiques présente - pour chacune - un intérêt tant dans le cadre de la société de linformation que pour les besoins de lenseignement et de la recherche. Toutefois, elles dépassent, aussi, le plus souvent, ces cadres spécifiques et soulèvent des questions touchant aux fondements des champs juridiques concernés. Deux de ces thèmes portent sur les créations de la société de linformation (le cadre juridique des bases de données, les produits multimédias), trois autres portent sur les conditions dutilisation ou la logique daccès (les exceptions à des fins de recherche et denseignement, le droit de prêt, la numérisation des revues scientifiques), deux autres ont pour objet de cerner la nature publique de linformation et des créations, et les incidences liées à la prise en compte de cette nature ou aux statuts des créateurs (les créations de fonctionnaires, les données publiques). Le dernier traite, enfin, de la protection des personnes quand les données créées et diffusées contiennent des informations nominatives.
La source des questionnements juridiques sinscrivant, à la fois, dans un cadre institutionnel national et dans un espace virtuel supranational, une telle recherche se devait, encore plus que dautres, dintégrer des éléments de droit comparé, pour étudier comment ces questions avaient été - ou allaient être - traitées dans dautres contextes normatifs. Une telle étude na de sens que si les comparaisons sont possibles et il fallait faire des choix. Cest pourquoi ont été privilégiées, en premier lieu, les expériences de quelques états membres de lUnion européenne ayant des systèmes juridiques voisins du nôtre (Belgique, Allemagne, Espagne) ou différents (comme le Royaume-Uni), confrontés comme la France à la transposition des directives. En second lieu, ont été pris en compte les pays de copyright de lAmérique du Nord (états-Unis, Canada), dans lesquels la Société de linformation est depuis longtemps une réalité. Enfin, lexemple suisse - pour certaines questions comme celle de la titularitéXE « Titularité » sur les créations de fonctionnaires - méritait une attention particulière. Une enquête auprès de près de 25 correspondants étrangers a donc permis de faire émerger des pistes intéressantes et des exemples de réponses à des questionnements comparables à ceux posés en France. Ces comparaisons se sont avérées particulièrement utiles, sur le terrain du droit dauteur, quand les transpositions des textes européens laissent une possibilité pour prendre ou non en compte un encadrement adapté des pratiques et usages.
Troisième étape, sur la base des premiers résultats des études comparatives, il fallait ouvrir le débat et rendre compte aux acteurs concernés. Cest pourquoi ont été organisées en mars 2002 (avec le soutien de la Mission de la Recherche et de la Technologie du ministère de la Culture et de la Communication), des assisses internationales réunissant des partenaires français et étrangers ayant à la fois une expérience de terrain et une réflexion théorique.
Quel cadre juridique pour la création, laccès, la diffusion, lexploitation ou encore la protection des informations (et des oeuvres) numériques quand celles-ci sont créées, mises à disposition, diffusées, exploitées à des fins denseignement et de recherche ? Telle fut la question posée lors des deux journées de travail collectif . Les réponses ont porté sur les avantages et les limites du cadre actuel, comme sur les incidences dune possible adaptationXE « Adaptation ».
Bénéficiant des expériences menées dans dautres pays, comme des témoignages sur les difficultés et les blocages ressentis dans le contexte juridique actuel, le débat a été aussi loccasion de réfléchir sur le besoin de conserver la cohérence propre à chaque système juridique. En effet, cette cohérence ne risque-t-elle pas dêtre remise en cause si le droit français intègre - telles quelles, sans les adapter - des règles opérationnelles dans un autre pays ?
Ces assises ont enfin permis de restituer - aux participants - les premières grandes lignes des réflexions prospectives issues de la recherche en cours et dattirer lattention des pouvoirs publics sur ces questions.
Aujourdhui, quatrième étape au terme de la recherche, louvrage sur les aspects juridiques a pour finalitéXE « Extension de finalité » de diffuser de façon beaucoup plus large les résultats des travaux entrepris.
Tout en restant un travail de juristes sur des questions juridiques, ses auteurs ont souhaité proposer plusieurs niveaux de lecture de ce travail.
Sadressant aux acteurs concernés, du monde de lenseignement et de la recherche, ils voudraient inviter le lecteur à prendre connaissance des mécanismes juridiques, de leur fonction et de leur finalitéXE « Extension de finalité ». Le lecteur pourra ainsi - en connaissance de cause - entrer dans la logique de ces mécanismes et participer à leur mise en oeuvre dans le monde de lenseignement et de la recherche.
Il sagit aussi de sensibiliser les non-juristes à lhistorique de ce cadre juridique et à son contexte dans une approche comparative. Comme le souligne Nathalie Mallet-Poujol, cest à travers des zooms sur les points les plus délicats et un appel à la vigilance des personnes et entités concernées que peut se faire la sensibilisation juridique.
Au-delà et à côté de cette finalitéXE « Extension de finalité » pédagogique, louvrage sur les aspects juridiques se veut aussi une lecture critique du droit positif et de ses capacités à appréhender et prendre en compte ou non le processus de la numérisation et des produits numériques. Les besoins de lenseignement et la recherche présentent-t-ils une certaine spécificité ?
à partir de létat des lieux de chacune des questions traitées, les études qui suivent comportent aussi une part danalyse prospective. Comment adapter le droit commun à ces besoins spécifiques reconnus ?
Lordre de présentation des questions étudiées ne doit pas être interprété comme créant une hiérarchie entre celles-ci. Une certaine logique a, cependant, présidé à leur organisation. Répondant aux demandes exprimées dans le cadre de la première étape du programme, à savoir : partir des objets de droit familiers pour les acteurs de la numérisation que sont les produits multimédias et les bases de données.
Lacception retenue par Antoine Latreille, pour les produits multimédias (il sagit de toute création numérique interactive diffusée par réseaux ou sur support édité ) est volontairement large pour embrasser toutes les situations existantes ou envisageables en matière déducation et de recherche. Cette transversalité permet de traiter de nombreuses règles juridiques non spécifiques qui sont susceptibles de sappliquer.
Les bases de données sont, depuis longtemps, consultées et/ou produites dans lenseignement et la recherche. Agnès Maffre-Baugé tire un bilan de la prise en compte par le droit français de ces vecteurs dinformations et de connaissance qui participent à la transmission et à la diffusion du savoir.
Laccès au savoir passe, traditionnellement, par les livres et leur mise à disposition dans les bibliothèques. Qui dit bibliothèques ne peut ignorer la question du droit de prêt, sensible en France. Celle-ci fait émerger trois logiques qui saffrontent : la logique de la protection des auteurs (droit de décider de la destination de leurs uvres), la logique du marché (ceux qui assurent la distribution et la diffusion), la logique de lintérêt général et de la diffusion de la culture. Au-delà du support (papier ou numérique), la recherche dun équilibre entre ces différentes logiques fait partie des défis que doivent relever les pouvoirs publics dans le monde de la recherche et de lenseignement. Cest pourquoi Marie-Eugénie Laporte-Legeais a mis en perspective la question du droit de prêt dans un cadre plus large que celui du prêt des productions numérisées.
La philosophie de partage de la connaissance qui préside à lenseignement et à la recherche peut-elle saccommoder du système actuel du droit dauteur qui repose sur une logique privative ? Telle est la question préalable que lon pose le plus souvent quand on traite des exceptions au droit dauteur à des fins denseignement et de recherche. Voulant sortir de limpasse qui consiste à limiter lanalyse à une opposition entre deux logiques (les intérêts de la recherche et de lenseignement, dune part, et, dautre part, les intérêts des auteurs) et consciente du décalage entre droit et pratique (par ignorance, par impossibilité ?), Valérie-Laure Benabou nous offre une lecture des cadres juridiques (actuels et à venir) qui dépasse lalternative et permet de réfléchir sur lopportunité de réconcilier principe et effectivité de la protection dune part, liberté et responsabilité des utilisateurs dautre part.
Aujourdhui, la numérisation des revues scientifiques et leur diffusion via internet apparaissent - pour les auteurs (enseignants et chercheurs) ou encore les lecteurs - comme un moyen de répondre à la fois aux difficultés que rencontrent les modes de publication traditionnels (principalement économiques), au souci datteindre un nouveau public et à de nouvelles pratiques de recherches et décriture. Philippe Chevet nous montre comment de telles pratiques et initiatives doivent être accompagnées par une prise en compte et un aménagement des cadres juridiques existants. Quand les finalités denseignement ou de recherche sont en jeu, les auteurs comme les utilisateurs nont-ils pas intérêt à se placer sur le terrain des négociations contractuelles permettant aux uns et aux autres doffrir une monnaie déchange ? Lutilisateur est un futur auteur et réciproquement ! Le contrat nest-il pas le moyen de reconnaître pour chacun tant ses droits que ses obligations et de responsabiliser les uns et les autres sur le respect des engagements pris ?
La collecte, lutilisation et la diffusion de données nominatives pour des fins denseignement et de recherche ne peuvent se faire sans prendre en compte la protection de ces données personnelles au regard du traitement de linformation. Nathalie Mallet-Poujol nous fait prendre conscience des risques que représentent une utilisation et une diffusion incontrôlées. Elle rappelle les fondements qui justifient la défense de ce qui est considéré aujourdhui comme un droit fondamental. La transposition de la directive européenne nest-elle pas une occasion de sensibiliser le monde de lenseignement et de la recherche sur les enjeux dune régulation du traitement de linformation au regard de la protection de la vie privée ? Cette sensibilisation ne doit-elle pas être une priorité dans un contexte où le nouveau texte offre - pour la recherche - des aménagements adaptés en contrepartie de garanties appropriées ?
Les deux dernières questions traitent du statut public des données ou des auteurs. Bien quelles ne relèvent pas spécifiquement du monde du numérique, elles sinscrivent, ici, avec une particulière sensibilité, dans des problématiques déjà abordées entre droit privatif et intérêt général.
Quel est le statut des informations et données produites et diffusées dans le cadre de lenseignement et la recherche publique ? Jean-Michel Bruguière nous montre comment celles-ci peuvent être qualifiées de données publiques et les conséquences sattachant à cette qualification quand ces données représentent une richesse économique et un enjeu social.
Enfin, à propos du statut des auteurs agents-publics, Marie Cornu nous fait entrer dans le débat sur létat du droit et les pratiques existantes. Là encore, selon lexpression du CSPLAXE « CSPLA » (Conseil supérieur de la propriété littéraire et artistique) dans son rapport annuel 2001-2002, le mouvement de fond introduit par lirrigation de ladministration par les nouvelles technologies de linformation et de la communication rend le moment propice à une réflexion de fond sur le régime applicable aux agents publics créateurs dune oeuvre de lesprit .
Chacune des parties de cet ouvrage sest appuyée sur les réponses aux questionnaires, principalement des collègues étrangers mais aussi des acteurs français. La présentation de ces réponses na pas suivi le même régime dun bout à lautre de louvrage. En fonction du contexte, du thème ou encore du besoin de précision (sur les exemples étrangers, par exemple), certaines de ces réponses se retrouvent dans le corps des différents chapitres comme des citations illustrant lanalyse comparative ou les pratiques. Dautres sont en notes ou en annexes . Tous ces développements participent à la mise en perspective des orientations possibles des cadres juridiques de la numérisation pour lenseignement et la recherche.
5.2 Réflexion prospective
Au terme de ce programme, qui ouvre de nombreuses pistes, il faut une fois de plus rappeler non seulement les possibles solutions aux problèmes rencontrés mais aussi le rôle actif des acteurs et le besoin de ménager un équilibre cohérent et constructif entre les différents intérêts en jeu.
La prise en compte des intérêts de la recherche et de lenseignement par les chercheurs et les enseignants, ne peut se faire sans que ceux-ci expriment, eux-mêmes, explicitement les besoins et les difficultés rencontrées.
La recherche de solutions juridiques ne peut se faire sans une mise en contexte comparative (cadre normatif existant et exemples étrangers) et un effort dexplicitation et de justification de la recherche dun équilibre entre les intérêts des uns et des autres. En effet, ceux-ci pourraient apparaître uniquement comme opposés ou divergents alors quils sont aussi étroitement imbriqués et dépendants. Par exemple, la création individuelle - quil faut protéger - ne sinscrit-elle pas dans la continuité des travaux antérieurs ? la mission du chercheur nest-elle pas la diffusion du savoir ?
Toute forme de régulation ne peut être effective sans une participation active des acteurs concernés : usagers (élèves, professeurs, chercheurs), auteurs ou producteurs, diffuseurs ou encore acteurs institutionnels. Tous ont à prendre conscience que la mise en uvre dune régulation juridique équilibrée des pratiques et des usages ne peut se faire sans eux.
- Régulation oui ? Sous quelle forme ?
Le monde académique a besoin, comme toute société, dune régulation adaptée qui sert de garde-fou au respect des droits et devoirs de chacun. Faute de régulation, le milieu de lenseignement et de la recherche pourrait être à la merci de toutes formes danarchie.
Nen est-il pas ainsi quand la reproductionXE « Reproduction » et la communication au publicXE « Communication : - au public » des uvres protégées sont faites, bien souvent, sans lautorisation des ayants droit (difficultés, négligences, ignorance) ? On peut difficilement poursuivre la politique de lautruche qui consiste à laisser chacun faire, sans se préoccuper dun cadre juridique adapté et suffisamment souple.
Les modes de régulation peuvent être variés et répondre à des finalités différentes se plaçant aussi bien du côté des utilisateurs que des ayants droit.
Sensibiliser et informer sur les droits et les devoirs est déjà un premier mode de régulation qui apparaît un préalable à tout autre. Peut-on critiquer et proposer des alternatives si on ne comprend pas les règles et les enjeux ?
Le droit positif laisse une place à la négociation contractuelle. Les acteurs cherchent-ils à loccuper ?
Enfin, ne faut-il pas profiter des opportunités offertes comme la transposition de directives ou la mise en uvre dune réflexion collective comme celle du Conseil supérieur de la propriété littéraire et artistiqueXE « CSPLA », pour adapter les textes à de nouveaux besoins ou corriger des disfonctionnements.
Toutefois de nombreux points restent en suspens. Certains (comme la diffusion en ligne) touchent à lactualité et auront à être pris en compte lors de la discussion du projet de loi sur le droit de prêtXE « Droit : - de prêt ; projet de loi sur le ». Dautres soulèvent des questions épistémologiques comme celle du statut des uvres ou des données. Dautres, enfin, touchent à des choix de société comme la qualité de données publiques essentielles pour les résultats de la recherche. Ignorer ou négliger ces différents points - et beaucoup dautres - pourrait être perçu comme un retour en arrière dans une communauté académique préférant laisser à dautres le soin de gérer les équilibres plutôt quà une attitude responsable face à son avenir consistant à se saisir, elle-même, des questions qui la concernent.
- Répondre aux besoins de culture juridique
On trouve dans le monde de lenseignement et de la recherche différentes formes de rapports au droit , depuis la peur du gendarme jusquà lignorance totale - voire le mépris - pour toutes formes de cadres juridiques, en passant par une sensibilisation plus ou moins informée.
Dans de nombreuses situations, un besoin de culture juridique se fait sentir surtout quand les personnes concernées nont pas conscience de leurs devoirs comme de leurs droits et responsabilités.
Il en est ainsi tant pour le droit dauteur que pour la protection des données personnelles. Lélaboration de guides ciblés et adaptés aux différents publics pourrait être lune des priorités des différents organismes et institutions.
- Un espace privilégié pour les négociations contractuelles
Si lon reprend le constat dAntoine Latreille, le droit français ne favorise pas globalement le développement de produits multimédias par ou pour lenseignement et la recherche et lapplication stricte des règles de propriété intellectuelle rend généralement lexercice difficile et compliqué . Même si des exceptions sont introduites, elles ne permettront pas de traiter toutes les difficultés. Il faut donc accorder aux négociations contractuelles avec les ayants droits la place qui doit leur revenir. Ce peut être un moyen de responsabiliser lenseignant ou le chercheur. Lutilisateur nest-il pas un futur auteur ?
Pourquoi ne pas espérer des négociations collectives (avec des représentants des différents acteurs : éditeurs classiques et éditeurs numériques, sociétés dauteurs, usagers...) sur une charte générale qui pose les grandes règles de la mise en uvre des droits de propriété littéraire et artistique dans le cadre des créations et des utilisations à des fins denseignement (par des établissements denseignement uniquement) ou de recherche. Le but serait de déterminer et de circonscrire un ensemble de pratiques acceptables de part et dautre.
Du côté des usagers, ces questions ne peuvent être traitées au cas par cas et par chaque chercheur ou enseignant pris individuellement : on ressent limportance dune prise en compte en amont de pratiques souvent contraires au droit, comme la reproductionXE « Reproduction » ou la représentation sans autorisation, pour les besoins pédagogiques. Lintérêt dune mutualisation des recherches de solutions pour négocier ces autorisations est aujourdhui une évidence.
Du côté des auteurs la solution peut aussi relever dun cadre collectif tout en facilitant les relations directes avec les auteurs. Au-delà de la charte générale qui traitera de la mise en uvre des droits et des devoirs réciproques, les modèles contractuels (sorte de contrats type) fruits dune négociation collective ont un rôle à jouer. Les auteurs comme les utilisateurs pourront sy référer en gardant la possibilité de sengager personnellement. Nest-ce pas un moyen dintéresser les auteurs aux nouveaux modes de diffusion en leur démontrant les avantages quils peuvent en tirer ?
- Les avancées récentes
Le contexte est favorable aujourdhui à une remise à plat dun certain nombre de règles. Au-delà de la transposition des directives européennes, loccasion du développement de la Société de lInformation a fait émerger un grand mouvement de réflexion, dans lequel sest inscrit la présente recherche, invitant à relire et à revoir les cadres juridiques existants . Tout au long des trois années du programme, les chercheurs du pôle droit ont rendu compte - au fur et à mesure - de létat davancement des questionnements, afin de sensibiliser les acteurs (publics ou de terrain) de la nécessité de réagir et de reprendre - dans dautres cadres (institutionnels ou informels) - lexamen des pistes ouvertes. Nous donnerons ici trois exemples de chantiers dans lesquels nos travaux et les résultats de la recherche ont pu être exploités directement ou indirectement.
La piste des exceptions ainsi que diverses autres techniques comme la citationXE « Citation » élargie sont officiellement étudiées.
Certains besoins de la recherche sont pris en compte dans le projet de loi de transposition de la directive sur la protection des données personnelles.
Une alternative est aujourdhui officiellement proposée à la doctrine administrative de lavis Offrateme.
Les exceptions à des fins de recherche et denseignement
Comme nous lavons vu, en France, la question est particulièrement sensible. Un certain nombre de défenseurs du droit dauteur à la française considèrent toutes formes dexceptions comme une remise en cause des droits fondamentaux des auteurs (et de tous ceux qui en tirent profit...). Le milieu scientifique concerné a mis longtemps à sintéresser à limportance dune adéquation possible du cadre juridique avec les pratiques le plus souvent contra legem. Les ministères de la Recherche et de lÉducation nationale navaient pas, jusque tout récemment, manifesté leur intérêt pour la question - alors que la transposition de la directive sur le droit dauteur dans la Société de lInformation leur en donnait la possibilité. Depuis janvier 2002 le suivi de la question a été confié à la Direction des Affaires Juridiques des deux ministères . Létude de lopportunité dintroduire ou non des exceptions pour les besoins denseignement et de recherche est donc actuellement en cours. Valérie-Laure Benabou et moi-même avons suivi de près les travaux du groupe. Celui-ci a procédé à lexamen des différentes voies possibles, le but étant de rendre licites certaines utilisations effectuées quotidiennement en masse mais dans le plus grand flou juridique, sans pour autant léser les intérêts des auteurs.
Tout en respectant la logique du droit dauteur français et les garde-fous de la directive, ont été étudiées - avec les acteurs concernés - les possibilités daménagement du texte de transposition de la directive, qui prendraient en compte les spécificités de lenseignement et de la recherche. Il sagit là dune première retombée des travaux dont le présent ouvrage rend compte, la finalitéXE « Extension de finalité » étant de participer à une analyse prospective des nouveaux équilibres juridiques à construire pour faciliter les usages du numérique dans lenseignement et la recherche. Il faut souhaiter que les efforts entrepris soient concrétisés !
La protection des données personnelles dans la recherche et lenseignement
La recherche comme lenseignement traitent des données personnelles et le témoignage - lors des Assises - de Catherine Rhein, géographe, a montré les difficultés rencontrées. Toutefois, quelques chercheurs sont plus conscients quhier que les traitements peuvent présenter des risques pour les personnes concernées. Sont, ainsi, à relever les avancées de la future loi (en discussion au Parlement) qui prennent en compte les finalités de recherche mais qui en contrepartie invitent les chercheurs à apporter les garanties appropriées (par exemple : codes de déontologie). Il nempêche que cette sensibilisation nest pas généralisée et on ne saurait trop insister, avec N. Mallet-Poujol, sur la nécessité de multiplier les initiatives dinformation (guides et autres...) sur le sujet non seulement pour les chercheurs et les enseignants mais aussi pour ladministration de la recherche.
Quels droits pour les auteurs agents publics de léducation nationale ou de la Recherche ?
Quels sont les droits des fonctionnaires auteurs sur leurs uvres ? La politique administrative qui consiste à reconnaître uniquement un droit dauteur de lÉtat sur les créations de fonctionnaireXE « Fonctionnaire » est-elle adaptée au milieu de la recherche et de lenseignement ? Nest-il pas possible de concilier les droits des chercheurs et ceux de linstitution ?
à la suite de la commission présidée par A. Lucas, le Conseil supérieur de la propriété littéraire et artistiqueXE « CSPLA » (CSPLA) a rendu, en juillet 2002, un avis apportant des éléments de réponse à ces différentes questions.
Sappuyant sur les nouveaux enjeux du numérique, le CSPLAXE « CSPLA » propose la reconnaissance dun droit dauteur aux agents publics, assortie de mécanismes permettant dassurer une continuité du service public. Un tel mécanisme permettrait de clarifier la situation complexe des chercheurs et des enseignants .
Ces trois exemples montrent à quel point la régulation de la société de linformationXE « Société de linformation » passe par une relecture de bien des questions fondamentales de notre droit. Cette régulation dépasse largement les besoins spécifiques de lenseignement et de la recherche tout en prenant en compte, au-delà de la logique économique, la recherche déquilibres entre incitation à la création et libre accès à la culture. Osons espérer que ces chantiers aboutiront !
- Les points en suspens
Diffusion en ligne et droit de prêt
La diffusion en ligne des uvres semble constituer un avenir certain pour nos bibliothèques denseignement et de recherche. La Bibliothèque Nationale de France propose déjà un catalogue duvres en ligne. Mais il ne regroupe que des uvres du domaine public car les droits dauteurs constituent autant dobstacles à loffre en ligne des bibliothèques denseignement et de recherche. Comme le souligne M.-E. Laporte-Legeais , on peut regretter, aussi, que le projet de loi sur le droit de prêtXE « Droit : - de prêt ; projet de loi sur le » ne traite uniquement que du prêt publicXE « Prêt public » du livre et naborde pas les nouveaux modes de diffusion. Un aménagement spécial du droit de prêt dans le cadre des bibliothèques denseignement et de recherche ne pourrait-il pas aussi être trouvé ? On attirera lattention sur les regrets exprimés par M.-E. Laporte-Legeais et les suggestions quelle fait dun traitement particulier pour les bibliothèques denseignement et de recherche qui relèvent de lintérêt général et concourent à la transmission et à la progression du savoir.
Les données publiques
Les données produites par les chercheurs sont-elles des données publiques ? Quelles sont les conséquences de cette qualification sur les conditions de mise à disposition, de valorisation...? Comment distinguer données publiques et données du domaine public ?
Bruno Ory-Lavollée, qui a remis, début 2002 à la Ministre de la Culture, un rapport sur la diffusion numérique du patrimoine (dimension de la politique culturelle), invite à la réflexion sur ces différentes questions.
Prenant en compte le fait que - dans lenseignement et la recherche - le flou actuel est préjudiciable et peut être un obstacle à la circulation et lexploitation des résultats de la recherche (difficultés renforcées dans le monde numérique), il ressort quil serait important de connaître, de façon claire et précise, le régime applicable aux créations des chercheurs et enseignants chercheurs en sappuyant sur des critères objectifs - si possible fixés avant la réalisation de la recherche.
Il apparaît aussi souhaitable dencourager la réalisation dinventaires des richesses de données et duvres existantes et les conditions de leur production. Ces inventaires devront être accompagnés dune recherche permettant de déterminer le statut des oeuvres ou des données. Sont-elles communicables ? exploitables ? Qui peut donner les autorisations ? Enfin, il convient de sinterroger si lexploitation et la communication de ces oeuvres entrent ou non dans la mission de service public des institutions concernées. Si oui, quels sont les modes de communication appropriés ? Gratuit, payant ? Droit daccès, droit de réutilisationXE « Réutilisation » ?
Statuts de luvre ou des données ?
Le concept de bases de données est-il encore opératoire ? Bruno Helly, archéologue, a fait entendre la voix des chercheurs. Ceux-ci ressentent un décalage entre un cadre juridique répondant aux questions posées, il y a près de vingt ans, et les problèmes rencontrés aujourdhui par les chercheurs. Pour certains dentre eux, tout est à la fois source et contenu et il devient très difficile de savoir qui sont les auteurs ou encore les producteurs.
Ces réactions montrent la relativité dune régulation qui répond à un besoin spécifique en fonction de la connaissance quon a des objets de droit. Le monde de lenseignement et de la recherche connaît plus que dautres les risques dune interdépendance trop forte entre droit et technique. Cest aussi, un des lieux dobservation des phénomènes de régulation qui invite à une collaboration transdisciplinaire entre les chercheurs en sciences du droit et les acteurs de la recherche concerné.
Ces questions montrent bien la nécessité de trouver :
dune part, un cadre général qui irait puiser dans chaque branche du droit ce qui se rapporte à lenseignement et la recherche. Ce cadre devrait être suffisamment précis et explicite pour assurer une sécurité juridiqueXE « Sécurité : - juridique » reconnaissant le rôle de chacun et leurs droits respectifs ;
dautre part, des modes de régulation suffisamment souples et diversifiés pour sadapter aux particularités de certaines situations afin den faciliter la négociation contractuelle.
* * *
Comme on le voit, beaucoup de propositions ont été faites avec une analyse des avantages et des inconvénients de chacune. La plupart des travaux menés au sein du pôle droit est luvre de chercheurs en sciences du droit, conscients de limportance du rapport recherche/société. Ils ont voulu, ainsi, apporter leur contribution à lévolution du monde de lenseignement et de la recherche à la Société de lInformation, en sensibilisant sur les enjeux, en accompagnant le processus et en mettant en garde.
Mais il revient aux acteurs concernés de la recherche et de lenseignement, qui ont en charge la politique en la matière, dapprécier lopportunité de la mise en oeuvre de ces propositions, et de déterminer les actions à mener pour faire reconnaître dans la Société de lInformation un bon équilibre entre les intérêts de la création, des créateurs comme les intérêts de linstitution et ceux de la société.
Partie 6 Des outils aux usages
6.1- Sur quelques outils, instruments : les exerciseurs 139
6.2 - Symposium Technologies informatiques en éducation 143
6.2.1 - Les Technologies informatiques en éducation 146
6.3 - La question des usages 151
6.3.1 - Chercheurs à luvre, Étude qualitative des usages du système documentaire de lInathéque de France 157
6.3.2 - Méthodes et outils pour lobservation et lanalyse des usages 160
6.3.3 - Les communautés délocalisées denseignants : les listes étudiées 173
6.3.4. - Les communautés délocalisées denseignants 175
Le deuxième monde est plus virtuel que le premier ? .
Pour linstant la vie sur le Web ressemble plutôt au néolithique par lequel Lutèce a commencé. On recommence la vie sociale à zéro : corps grossiers, sentiments frustres, langages balbutiants, nétiquette à peine dégrossie, technologies simplistes, monnaies aléatoires .
Sil fallait un mot pour exprimer cette lenteur
cet archaïsme, on dirait matériel plutôt que virtuel .
Toutes ces dimensions sont donc au centre dun vaste travail dexpérimentation et dexploration collective, travail appelant le développement de nouveaux logiciels décriture, danalyse, de cartographie, doutils pédagogiques divers. Un examen de ces derniers simpose donc avant de sinterroger sur les méthodes dobservation des usages, les protocoles dexpérimentation à mettre en place. Ceci est dautant plus urgent, quà être trop obsédés par le nouveau technologique , nous risquerions de manquer lenchevêtrement profond des pratiques hérités avec les nouvelles, nous risquerions de renoncer à penser lapport des nouvelles technologies éducatives en terme sinon de complémentarité, en tout cas en termes de co-déterminations ouvertes. Les nouvelles technologies ne nous installent pas dans un ailleurs radicalement différent. Il convient plutôt dobserver et penser les nouveaux rapports différentiels entre les schèmes intellectuels hérités et les nouveaux, entre les pratiques héritées et les nouvelles. Le travail de transformation se fait à cheval sur les limites et les frontières. Il est, en vérité, partout à luvre, nulle part visible et donné en entier .
Les travaux développés dans le cadre du Pôle Usages ont été coordonnés par Serge Pouts-Lajus, responsable de LOTE.
6.1- Sur quelques outils, instruments : les exerciseurs
Quentend-t-on lorsque lon parle de nouveaux outils pédagogiques ?
Dans le contexte numérique il y a tout dabord les outils qui permettent la création proprement dite de documents hypermédias. Ce sont par exemple, les traitements de texte, les tableurs, les éditeurs HTML
, les logiciels graphiques, les logiciels hypertexte tel STORYSPACE, les programmes informatiques, élémentaires ou complexes. Ce sont ensuite les logiciels daide à la recherche documentaire et à la navigation, les logiciels de simulation, les tutoriels. Puis les logiciels permettant le travail collaboratif , les logiciels danalyse des gros corpus, les logiciels cartographiques. Enfin tous les logiciels conçus pour des fonctions spécifiques et variant selon les disciplines et cadres théoriques. À ces logiciels qui assurent des fonctionnalités essentielles rendant possible lorientation et le travail dans lespace-temps hypertextuel, selon les divers moments de la formation et de la recherche, sajoute dautres types de matériels. Des CD-Rom aux documents numérisés interactifs sur le réseau Internet en passant par les livres sur ordinateur jusquaux portails pédagogiques, nous trouvons les ressources numériques structurées et les modèles dapprentissage, et les modèles cognitifs dont elles sont lexpression et lexprimé de manière tantôt explicite, tantôt implicite.
Ces matériaux présentent des caractéristiques organisationnelles, associatives, des capacités interactives très diverses. Ils intègrent des capacités logicielles très hétérogènes et de complexité variable. Possibilités de parcours et de navigation, ouvertes / fermées, possibilités de représentation et de mémorisation des usages et pratiques numériques plus ou moins sophistiquées, possibilités de simulation interactive ou non, possibilités de modélisation faible ou forte, possibilités de traitement des données
Une autre forme doutils occupe une place importante, qui constitue aussi une zone de friction à partir de laquelle saffrontent anciens et nouveaux acteurs de la pédagogie, ce sont les exerciseurs , cest-à-dire les logiciels également appelés répétiteurs, logiciels parascolaires, ludo-éducatifs, jeux éducatifs, logiciels daccompagnement ou de remédiation et qui sont utilisés dans lenseignement primaire et secondaire . Sur la typologie des exerciseurs, voir Isabelle Meyer .
Ce type doutils pose un certain nombre de problèmes et se trouve au centre de polémiques vives et ce pour plusieurs raisons. La principale vient de ce quil se situe à la jonction de problèmes liés à la crise de légitimité des instances pédagogiques héritées, des modèles hiérarchiques, descendants, peu négociables et au désir déchapper à leur prégnance par une sortie de type techniciste. Il y a de ce point de vue, tout une fantasmatique qui est à luvre et qui opère tant du côté de certains enseignés que de certains enseignants. À la suite des remises en cause des modèles autoritaires, la place des dimensions ludiques dans ces outils est devenue omniprésente : apprendre en samusant
. Cette dimension cognitivo-ludique des exerciseurs multimédias, dimension souvent démagogique fondée sur des idéologies incertaines, sinscrit dans un double contexte, le succès des jeux vidéo auprès des jeunes et la place quoccupe le jeu dans les théories et les pratiques pédagogiques contemporaines . (J.P. Carrier) .
Dune manière générale, les exerciseurs multimédias sont doublement discrédités par les chercheurs ; dabord, à cause de leurs liens avec la théorie comportementaliste (
) ensuite, à cause de leur lien avec lédition privée qui, depuis le début des années 80, exploite trop souvent linquiétude des familles
.
Toutefois la dimension ludique des exerciseurs multimédias ne correspond plus du tout à cette activité libre et spontanée de lenfant dont bien des auteurs, psychologues ou psychanalystes, se sont accordés à reconnaître la valeur éducative en soi. Si bien des élèves ont, en les utilisant, plus le sentiment de jouer que de travailler, ou du moins y trouvent enfin une forme de travail agréable et plaisant qui se démarque par là du travail scolaire dans son ensemble, ce ne serait pas parce quils y trouvent un moyen dexprimer leur libre spontanéité et leur liberté créatrice, mais plutôt parce quils y trouveraient loccasion dun nouveau rapport à lacte dapprendre, fondé pour une part sur le sentiment dêtre plongé dans un contexte de simulation, dont la gratuité serait alors une des composantes, même si bien sûr, ce ne saurait être la seule, ce quil nous faudra analyser avec précision. En suivant cette perspective, il nous semble important de faire une distinction entre deux types de produits multimédias qui sont le plus souvent confondus, les exerciseurs dun côté et les produits ludo-éducatifs de lautre.
Dun point de vue commercial, ils nont ni le même positionnement marketing, ni le même public visé. Les exerciseurs, regroupés souvent sous lappellation daccompagnement scolaire, sinscrivent ouvertement dans une perspective dapprentissage scolaire, reprennent les programmes de lécole et bien souvent une pratique dévaluation sommative digne dune des pédagogies les plus traditionnelles. Par contre le ludo-éducatif , pour lequel est aussi utilisé parfois le terme déveil lorsquon sadresse aux enfants dâge de lécole maternelle, poursuit essentiellement des objectifs de développement de compétences transversales qui, sans être absentes de lécole élémentaire, seraient plus particulièrement le fond de commerce de lécole maternelle, comme en particulier le développement sensoriel . (
) Le multimédia ludo-éducatif serait alors une sorte dincarnation moderne de la notion de jeu éducatif, définie par Brougére dans le cadre de la maternelle des années 1910 comme support éducatif contrôlé. . (
)
Si cette distinction est fondée, on pourrait en tirer la conclusion que la production actuelle de multimédia éducatif se trouve en quelque sorte en porte-à-faux avec lorganisation officielle du système scolaire français en cycles, organisation dont un des points forts est justement linsistance mise sur la continuité entre maternelle (cycle 1 et début du cycle 2) et élémentaire (cycle 2 et 3), et donc la définition dobjectifs dapprentissage dès le début de la petite section, définie comme premier niveau du cycle des apprentissages premiers .
Dun côté, le ludo-éducatif serait purement ludique, mais possèderait des vertus éducatives par la force même du jeu. De lautre, laccompagnement scolaire sinscrirait dans une visée dapprentissages scolaires, ce qui favoriserait la prétention de certains éditeurs de les introduire dans les classes, comme de nouvelles formes de manuels en somme, proposant aussi des occasions de travail à la maison ou de devoirs de vacances, et fonctionnant le plus souvent sur le modèle leçons suivies dexercices dapplication, ces derniers jouant alors un rôle de renforcement au sens béhavioriste du terme, laccumulation répétitive occupant un rôle de premier plan et les évaluations se réduisant en bout de course au décompte dun pourcentage de réussite .
Il nen reste pas moins vrai, quune fois surmontée cette dialectique somme toute traditionnelle, la question se pose de lévaluation des outils proposés, de leur articulation avec le monde complexe de lapprentissage et de léducation, de leurs contenus et techniques, de lappréhension des transformations profondes qui affectent les systèmes éducatifs tels quils sont aujourdhui.
Et ce dautant plus quil a été montré que la montée en puissance de ces jeux dont la structure est parfois complexe, multi-niveaux, pouvait être à lorigine dun développement spécifique de compétences intellectuelles et cognitives particulières concernant la représentation de lespace, la représentation iconique ou la découverte par induction, abduction . (J.P Carrier, J. Perriault).
On sait toute limportance quont les transformations des percepts et des affects portés par ces dispositifs quant à ladoption et lexploration de nouveaux modes de construction cognitive. Agir dans des espaces multi-dimensionnels, à des niveaux déchelle variés, dans des espaces collectifs en réseau, quand bien même ces derniers seraient porteurs dune polémologie douteuse, sorienter au sein de systèmes de relations plus ou moins complexes, maîtriser des dispositifs de simulation évolués et la gestion de points de vue différents, tout cela constitue à nen pas douter, un nouveau socle qui doit être pris en compte, comme création de nouvelles conditions à la maîtrise dune nouvelle alliance, processuelle, affects, percepts, concepts.
Lévaluation des outils doit donc se faire des deux côtés. Premièrement par rapport aux contenus et modèles traditionnels et deuxièmement par rapport aux possibilités offertes dès à présent, par la plasticité numérique et les réseaux. Quant à larticulation, sauf à supposer que lon va rapidement basculer dans le tout numérique, si cela a un sens, entre monde hérité et monde numérique, il convient den saisir toute la complexité, den mesurer, non pas seulement et peut-être surtout pas, en termes de substitution mais en termes de complémentarité et co-détermination évolutive, les rapports. Par exemple comment concevoir lévolution et le contenu des manuels dans leur rapport aux cours qui sont progressivement mis en ligne, et comment sinspirer des expériences antérieures comme celle de lintroduction des calculatrices ? Ainsi, Éric Bruillard attire lattention, à la fois sur la nécessité de distinguer entre outils et instruments, den penser les rapports et sur la nécessité détudier les nouvelles situations concrètes, discipline par discipline et sur la base dapproches comparatives à lintérieur de lUnion européenne. (Cas de la Norvège et de la Suède).
Les rapports sont donc compliqués à analyser, évaluer, quil sagisse, des modes décriture-lecture, des capacités interprétatives, associatives, des capacités à naviguer de manière critique dans les modèles théoriques, pédagogiques, des modes de mémorisation, des rapports de vitesse et de lenteur portés par les processus cognitifs mis en jeu.
6.2 - Symposium Technologies informatiques en éducation
Extraits
La place des technologies de linformation et de la communication saccroît, à tous les niveaux de léducation et de la formation, tandis que de nouveaux partenariats se nouent entre des institutions publiques et des entreprises. Ces technologies se manifestent sous des formes très diverses, notamment par le développement de réseaux et de services multimédias éducatifs, développement suscité et orienté par des politiques publiques et soutenu par lengagement dacteurs, praticiens, chercheurs, décideurs et également par des industriels.
Leurs usages sont très divers, mal stabilisés, insuffisamment répertoriés. Le terme englobant actuellement utilisé e-learning ne saurait les caractériser. Il recouvre une réalité nouvelle, notamment dans sa dimension économique, quil est cependant nécessaire de prendre en compte. (
)
La croyance répandue mais démentie par les faits selon laquelle la maîtrise des instruments informatiques ne nécessiterait pas de formation est notamment à lorigine du risque souvent relevé de fracture entre ceux qui savent et les autres (la désaffection pour les études scientifiques labsence de demande des enseignants sont à cet égard alarmants). Une culture liée aux sciences et technologies de linformation et de la communication, incluant notamment des aspects technologiques, est certainement à développer .
Différentes communautés sont depuis longtemps actives dans le domaine des TICE et un capital de résultats de recherche est potentiellement disponible. (
) Cependant, ces communautés sont encore éclatées et insuffisamment coordonnées, le soutien institutionnel est fluctuant, les prescriptions (notamment pour les formations) sont changeantes .
Cinq exigences apparaissent alors :
dorganisation et de structuration de ce champ de recherche dinterdisciplinarité : on a en effet des objets complexes dintérêt commun à différentes communautés sintéressant chacune à un de leurs aspects : aux processus dapprentissage, aux types de mises en uvre des instruments, aux politiques publiques
de pluralité, tant des types de recherche (recherches développement, recherches action, recherches fondamentales
) que des méthodes utilisées, de prise en compte de la dimension internationale (allant au-delà de la comparaison dindicateurs simples) de lassociation entre chercheurs et praticiens (création de réseaux). Il est donc nécessaire de trouver des modes darticulation des différentes communautés de chercheurs, de formateurs et de praticiens, en relation avec le monde économique et industriel. La recherche nest pas uniquement une ressource, cest aussi un processus .
Quelques questions vives
Un ensemble de thèmes de questionnement prioritaire a été repéré pendant le symposium. Ces thèmes mobilisent plusieurs champs disciplinaires devant intervenir de manière coordonnée. Laspect international nest pas rappelé, mais il est toujours présent. Il sagit bien dattracteurs et non dun agenda de recherches dont lélaboration nentrait pas dans nos objectifs.
- Les ressources éducatives.
De nombreuses questions se posent sur les processus de conception (comment, par qui, dans quelles structures, avec quelle diffusion), sur les processus dindexation et de repérage des sources, sur les modalités dusage, notamment pour la recherche documentaire.
- Conditions et modalités dapprentissage et denseignement.
Létude des conditions et des modalités dapprentissage avec les technologies est un classique de la recherche. Dans les années à venir, de nombreuses questions vives seront relatives à lapprentissage avec des instruments et aux changements dans les systèmes de formation. On peut ainsi citer ce qui est relatif aux spécificités de lapprentissage à distance, aux conceptions et modes dapprentissages privilégiés, aux écarts entre pratiques pédagogiques prescrites et pratiques réelles.
- Politiques et modes dorganisation de léducation et de la formation.
Les questions dorganisation se posent à différents niveaux (macro, méso, micro) et dans des dimensions temporelles et spatiales : articulations domicile-école, lieu de travail-institut de formation. Quels nouveaux partenariats (entre le secteur public et celui des entreprises, entre les établissements scolaires et leur environnement local) ? Quelles accréditations et certifications des formations ? Intermédiation, nécessité de tiers de confiance pour léducation ?
- Langages, interface personne-machine, dialogue dans un contexte éducatif, aspects sémiotiques. Épistémologie de linformatique.
Le travail avec les machines ou via les machines induit de nouveaux modes de communication. Dans ce contexte, la question des langages apparaît essentielle. Elle sinscrit également dans ce qui fait la caractéristique propre des dispositifs issus de linformatique et donc de linformatique elle-même.
Quel est limpact des nouvelles formes dinteraction rendues possibles par la technologie sur les apprentissages ? Quels nouveaux modèles dapprentissage sont-ils inventés ? (Cette dernière question est à croiser avec les didactiques disciplinaires.)
- Enseignement, apprentissage, appropriation des instruments informatiques.
Lidentification des savoirs spécifiques liés à la mise en uvre des TICS reste largement ouverte. Quelles sont les compétences nécessaires aux enseignants et aux élèves ?
(Culture informatique. Modélisation, pensée informatique . Didactique de linformatique. Liens avec les didactiques des disciplines. Environnements informatiques pour lapprentissage humain (EIAH). Étude des fondements, des modalités, des modèles et des méthodes de conception et dévaluation. Approfondissement des notions dutilisabilité, defficacité pédagogique.)
Des discussions sélaborent en ce moment en France dans le domaine des EIAH. Elles devraient permettre de préciser cet aspect.
Cette première liste pose la question complémentaire des approches et méthodologies et de recherche. Les démarches qualifiées globalement de systémiques semblent réaliser un consensus, quil serait sans doute nécessaire de questionner. Enfin, les questions de liens entre réseaux de praticiens et recherche sont importantes à étudier dans le cadre dune réflexion sur les différentes modalités de la recherche finalisée.
Propositions daction
Dans la logique du symposium, il sagissait non seulement didentifier des pistes de recherche mais aussi de sinterroger sur la manière de favoriser leur mise en uvre. Les propositions faites lors de la discussion menée par courrier électronique entre les participants au symposium peuvent sarticuler autour de deux souhaits.
Le premier est que des initiatives politiques soient prises pour donner à la recherche sur les TICE une visibilité aujourdhui insuffisante. Il est indispensable, dans le contexte actuel de restructuration de la recherche en éducation, que les TICE soient explicitement prises en compte dans le cadre de programmes pluridisciplinaires et non pas considérées comme une dimension subsidiaire de recherches disciplinaires. Il sagit de mobiliser des équipes, notamment celles qui incluent des praticiens et ont jusquà présent peu été concernées par les appels CNRS ; dinviter aux croisements des points de vue, dencourager par exemple ceux qui ont déjà un programme à sassocier dans un cadre reconnu institutionnellement, que ce soit dans le cadre national ou dans un cadre européen. En bref, dencourager une démarche daller-retour entre recherches et pratiques fédérant les initiatives existantes.
Le second souhait serait, au-delà des actions dépendant dinitiatives ponctuelles, de développer un archivage et une capitalisation des résultats acquis, susceptibles de contribuer ainsi à la coordination des recherches. Un tel processus serait intéressant par la classification des problèmes et des champs quil permettrait délaborer et faciliterait lidentification de nouvelles problématiques.
6.2.1 - Les technologies informatiques en éducation
Extraits : Voir : Les technologies en éducation, perspectives de recherche et questions vives, édité sous la direction de Georges Louis Baron et Éric Bruillard, FMSH, PNER, INRP, IUFM de Basse-Normandie
Le présent livre est articulé autour de différents regards et points de vue : de chercheurs, dexperts, dacteurs. Il comprend cinq parties principales : des constats ; une mise en perspective internationale ; des points de vue dacteurs ; des regards de chercheurs de différentes disciplines, des réflexions sur les processus de conception et de normalisation de ressources pédagogiques, posant des problèmes de recherche interdisciplinaire.
Constats
Plusieurs faits, quon peut considérer comme bien établis et convergents, sont opportunément rappelés sur la situation actuelle.
Les manuels scolaires ne remplissent plus convenablement depuis un certain temps les services que lon attend deux, mais les ressources électroniques sont encore loin de tenir toutes leurs promesses. Ce phénomène de déficit de promesse comme disait Henri Dieuzeide, est au reste une constante des différentes vagues technologiques. Egill Børre Johnsen voit se profiler le risque que les textes, ne profitant plus de leur logement dans les livres, se perdent comme des feuilles mortes dans la forêt .
Alain Derycke nous offre une synthèse sur le e-learning quil considère comme une opportunité pour les communautés de recherche. Passant en revue sept conceptions répandues, il montre lampleur de ce phénomène, dont lambivalence et limportance sont majeures. Pour les perspectives de recherche, il propose de sinspirer des travaux sur le travail humain instrumenté pour réfléchir à lapprentissage.
Guy Pouzard nous invite à considérer la question de lenseignement en classe et discute différents paradoxes ou plutôt des oppositions entre la logique de la classe et ce quinduisent les technologies de linformation et de la communication.
Dans la dernière contribution de cette partie, Charles Duchâteau sintéresse aux évolutions entre linformatique et les TIC, réalité paradoxale où le seul temps qui se conjugue est le futur antérieur, ce temps désespérant où lavenir lui-même est déjà révolu : non pas il y aura, mais il y aura eu
La question reste posée de lémergence dune didactique des TICS (quels compétences et savoir-faire développer, comment les faire acquérir), mais est-elle possible si elle nest pas associée à une discipline enseignée ? (
)
La partie suivante sintéresse à la situation dans dautres pays industrialisés, attestant que ce constat nest pas spécifique à la France. Mise en perspective internationale.
Michelle Harrari présente une réflexion sur la difficulté des études comparatives, soulignant les limites des approches purement quantitatives sintéressant à des indicateurs moyens (nombre délèves par ordinateur, moyennes denseignants utilisateurs
) ne prenant pas en compte des activités finalisées précises. Soutenant lintérêt à travailler également de manière qualitative, en prenant en compte un maximum déléments de contextes, elle propose des pistes de recherche concernant la formation des enseignants de lenseignement obligatoire. (
)
Pierre Nonnon, qui nous livre des éléments sur la situation actuelle au Québec, concentre son argumentation sur lexpérimentation assistée par ordinateur (lExAO), dont il a été lun des pionniers. Il insiste également sur lintérêt dune approche de type recherche et développement technologique, procédant de manière abductive , en essayant dexpliciter et dorganiser sous forme de modèle des idées issues dexpertises pédagogiques et dinnovations technologiques plutôt que de construire des théories.
Luc-Olivier Pochon présente le cas de la Suisse latine et décrit les tendances et projets en cours. Les similitudes avec les autres pays dominent, notamment sagissant des liens complexes entre des pouvoirs locaux et des pouvoirs centraux dans des logiques de décentralisation et de concentration. Remarquant quil existe un décalage entre les problématiques intéressant les chercheurs et les questions posées aux autorités éducatives, il suggère de privilégier les recherches daccompagnement, sous réserve quelles satisfassent à des critères méthodologiques garantissant leur qualité.
Jaõ-Pedro Ponte décrit la situation portugaise et interroge les évolutions liées à lexplosion des réseaux et leurs implications sur les systèmes éducatifs. Remarquant que lapprentissage et la formation peuvent intégrer les exigences dune pédagogie centrée sur lexploration, linteraction et la recherche, il insiste sur les activités de production plus que de consommation, sur lintérêt de créer de nouvelles significations dans un espace davantage élargi et de développer de nouvelles identités et sur les enjeux de formation denseignants.
Au-delà des grandes dissemblances de leurs systèmes éducatifs, Alain Chaptal met en évidence de nombreuses similitudes entre les situations américaines et françaises, quil attribue aux caractéristiques propres des TICE. Adoptant un point de vue historique, il souligne les limites de lapproche simpliste selon laquelle on pourrait raisonner comme si la société était le consommateur des produits de lécole et les élèves, la matière première quil sagirait de transformer en fonction des spécifications du consommateur. Trois scénari sont proposés pour lévolution de lintégration des TICE. Lauteur conclut à limportance quil y a à développer des recherches permettant déclairer les décideurs et de susciter un débat de fond.
Différents acteurs jouent un rôle important dans le développement des TICE, soit par leurs actions, décisions et prescriptions, soit par les études quils mènent, qui orientent les politiques ministérielles. La partie suivante leur donne la parole. Notons le rappel récurrent du principe dégalité républicaine, fondement de notre système éducatif.
Points de vue dacteurs
Maryse Quéré, lune des pionnières françaises dans le domaine, nous livre ses réflexions. Forte de sa longue expérience acquise au travers de différentes positions stratégiques, elle soulève un grand nombre de questions sur les rapports entre les technologies et léducation, notamment au plan de la reconnaissance universitaire et sur la prise en compte de la recherche liée à léducation par les recteurs.
Serge Pouts-Lajus, sur la base de deux enquêtes auprès denseignants, soulève la question des tensions entre la liberté pédagogique des enseignants et les effets de standardisation, parfois liés à des questions déquité et au déploiement des technologies dans un cadre décentralisé. Il montre bien lintrication des questions de technologie et de pédagogie, dont la prise en compte se fait parfois mieux au niveau local.
Alors que le risque de fracture numérique devient un lieu commun, plus ou moins pris en compte par les autorités politiques, Gérard Puimatto évoque un autre risque de fracture de type pédagogique. Lécart entre les tâches prescrites et les tâches réellement effectuées tend à croître de manière importante, pouvant déboucher sur un clivage entre les enseignants (constat fait pour lenseignement primaire et secondaire, mais qui peut sans doute sétendre à luniversité).
Enfin Jean-François Hémidy souligne le rôle important joué par les IUFM dans lintégration des TICS et témoigne de la volonté de ces instituts de sinvestir en recherche dans ce domaine.
Cette recherche est menée par un ensemble de communautés disciplinaires plutôt éloignées, que rapproche lintérêt commun pour un champ de pratiques. Représentant ces communautés, ou tout au moins en étant des membres actifs ou des acteurs engagés, des chercheurs présentent un point de vue disciplinaire : informatique, sciences cognitives, sciences de léducation, sciences de linformation et de la communication.
Regards de recherche
Concernant les sciences de léducation, Jacques Wallet défend la multi-référentialité, rejetant une dichotomie trop simpliste entre approche techno-centrée et approche ethno ou anthropo centrée. Il présente trois approches réflexive, inductive, essai quil faudrait affiner et confronter à dautres disciplines. Cela traduit bien une volonté, partagée par les participants du symposium, dapproches multiples, un intérêt envers lexpérimentation et un travail qualifié décologique (ou effectué dans des conditions écologiques).
Si, comme le reconnaît Pierre Moeglin, les sciences de linformation et de la communication nont pas toujours été très présentes dans le champ de léducation, leur apport y est désormais essentiel, notamment sagissant de décrire et danalyser les tendances à luvre autour des technologies en éducation allant, soit dans le sens dune continuité, soit de discontinuités.
Dans de nombreuses contributions, le rôle central du langage émerge. La machine est un interlocuteur. Ainsi, pour Vivier, lenvironnement éducatif est modifié à tel point que le fonctionnement cognitif, langagier et social des utilisateurs, formateurs autant que formés, doit être étudié dans sa spécificité. Cela conduit à regarder les nouvelles conditions de référenciation propres aux nouvelles technologies, surtout pour ce qui concerne lenseignement à distance.
Enfin, pour Anne Nicolle, cest la discipline informatique même qui a changé. Passant de la science du calcul à la science des technologies de linformation et de la communication, elle conduit à constituer au sein des sciences de lartificiel une science des artefacts sémiotiques, dont font partie les TICE.
Ainsi, lévolution de lingénierie informatique avec les logiciels interactifs et la communication par les réseaux des objets sémiotiques incite à penser les TICE de manière plus large, en incluant le dialogue et le langage dans les techniques constituantes des logiciels daide à lapprentissage humain.
Les questions de conception denvironnements et de ressources apparaissent centrales, linformatique intervenant comme science de la conception, de la réalisation et de lusage des artefacts sémiotiques informatiques et/ou plus centrée vers la connaissance et le raisonnement. La partie suivante sintéresse à ces questions en définissant un ensemble de problèmes interdisciplinaires
Conception, normalisation : des problèmes interdisciplinaires
Sagissant dartefacts informatiques en éducation, les environnements informatiques pour lapprentissage humain (EIAH) représentent un courant de recherche ancien, héritier de travaux menés en intelligence artificielle et en sciences cognitives avant que cette expression ne connaisse le succès quelle rencontre actuellement. Nicolas Balacheff relève la nécessité fondamentale, pour la recherche, de la conception dEIAH, qui nourrit les travaux sur les fondements des EIAH. Il sinterroge sur la possibilité de la communication et de la validation des modèles sous-tendant ces environnements et sur la possibilité de définition de standards, nécessaires à la communication scientifique et au partage de réalisations techniques.
Pierre Tchounikine argumente sur la nécessaire interdisciplinarité pour la conception des EIAH, qui ne peut être accaparée ni par les informaticiens ni par les chercheurs en sciences humaines, mais nécessite une coopération. Il nexiste pas de cadre théorique pour prendre en compte la complexité ; on se réfère au constructivisme, aux théories de laction, mais les cadres de référence sont sans doute trop généraux. Un nouveau cadre est à construire. Lapproche systémique est revendiquée.
Par ailleurs, dans le contexte actuel de mondialisation, il existe des enjeux autour des ressources éducatives et de leur mutualisation : comment décrire des objets et des scénarios pédagogiques, les définir, éviter que leurs fonctions ne soient normalisées sans prendre en compte les spécificités et traditions nationales liées à léducation ? Monique Grandbastien fait le point sur cette question. Elle note que les textes de normalisation sont compliqués, difficiles à lire, souvent décevants, car leur élaboration ne procède pas dune logique scientifique, mais de compromis où lhistorique du domaine et le poids de certains acteurs économiques pèsent lourds. Cependant le monde de léducation ne peut les ignorer. Il faut donc lui rendre intelligible la partie qui le concerne directement, notamment celle qui doit assurer la compatibilité entre ce qui pourrait être élaboré en interne et les spécifications générales.
Enfin, Yannick Maignien se risque à proposer des éléments de prospective en matière denseignement à distance. Soulignant le fait fondamental que les institutions denseignement sont le lieu même de défense des acquis culturels et politiques garantissant la pérennité de lexcellence , il prône le développement de travaux déquipes pluridisciplinaires se focalisant sur les processus éducatifs virtuels.
Perspectives
Une réflexion autour des usages éducatifs de linstrumentation informatisée apparaît maintenant prioritaire. Mais lorganisation de cette réflexion ne va pas de soi, dans la mesure où elle ne peut sancrer que dans un existant accordant une place encore minime à des problématiques de ce type.
Tout indique que les ruptures annoncées du cyberespace seront moins nettes et moins brutales que ne le prédisent les nouveaux prophètes. Les nouvelles technologies se situent dans une continuité, où apparaissent cependant des côtés nouveaux, germes de changements possibles, quil est nécessaire danalyser en se fondant sur les différents travaux de recherche.
Egill Børre Johnsen nous propose le concept décotone, emprunté à lécologie par Mike Horsley de luniversité de Sidney. Cette métaphore illustre en partie la thématique du symposium qui a conduit à cet ouvrage. Une situation nouvelle à déchiffrer, des constats à prendre en compte, des pistes de recherche à emprunter, des actions à conduire
6.3 - La question des usages
Un des principaux point qui selon les études menées dans le cadre du PNER doit être privilégié est donc le suivant : définir des protocoles dexpérimentation et danalyse permettant dévaluer les conditions defficacité pédagogique des exerciseurs multimédias et ce dans un contexte socio-cognitif et socio-technique instable, où les frontières scolaires / non scolaires sont troublées.
La question des usages est très large. Deux études menées dans le cadre du PNER en montre la complexité. Et ce dautant que les rapports différentiels entre monde hérité et monde émergent rendent délicat la mise en place des objets détudes ainsi que des protocoles dobservation et des herméneutiques permettant de travailler sur les données obtenues.
Les débats sont nombreux, les affrontements théoriques sévères.
Sil est bien un domaine où la question de la transdisciplinarité se pose, cest bien celui des usages. Lobjet, ou plutôt les objets de recherche sont nombreux, parfois mal définis, toujours complexes. Les actants impliqués sont très hétérogènes. Ce sont toujours des mixtes, des hybrides, des composites qui sont en jeu, des agencements collectifs dénonciation couplés avec des équipements collectifs de subjectivation . Des systèmes hommes-machines couplés avec des discours
Il est toujours difficile délimiter les objets détudes et de légitimer cette fermeture. Les types de causalité sont souvent enchevêtrés, et les médiations multiples. Plus encore, suivant les niveaux déchelle où lon examine ces phénomènes, les régimes de fonctionnement, les couplages entre les différents actants ne sont pas de même nature. À tel niveau, les modes propagation des puissances psychiques relèvent de logiques probabilistiques, à tel autre, de type symbolique, les logiques relèvent de modes causaux différents. Tout au long des chaînes dacteurs-réseaux, en acte, les processus de traduction et daltération sont compliqués. Enfin, au cours des actions engagées, chaque mouvement, procédure, pratique, au niveau où ils opèrent, non seulement produisent des effets sur leur propre milieu associé, mais affectent, le plus souvent de manière aveugle , les autres niveaux où opèrent dautres acteurs-réseaux
Ce sont des multiplicités hétérogènes qui sont à luvre, chaque action faisant évoluer, de manière plus ou moins forte, les règles de fonctionnement quelles se sont données ou quon leur a donné, proposé, imposé, et où parfois les actions changent pour tel ou tel contexte, les règles de fonctionnement dinterprétation, à un autre niveau.
Dans le cas de la disruption des nouvelles technologies de linformation, communication, des technologies éducatives numériques, les usages impliquent donc des actants de plus en plus en plus hétérogènes. La construction des objets danalyse, là plus quailleurs, pose problème. Usage de tel ou tel logiciel, de tel ou tel tutoriel, de tel ou tel moteur de recherche, de tel ou tel outil de simulation, ce sont bien des mondes, fussent-ils micro , qui se mettent en branle, parlent et se parlent, produisent des effets et se transforment en se mettant en mouvement.
Ces co-déterminations, ces couplages structurels, ces autopoïèses enlacées, aux autonomies relatives et parfois incertaines, entre des systèmes hommes-techniques plus ou moins complexes, voilà ce dont il y a usages, voilà ce qui travaille, désire, agit. Et les individus de ne cesser de faire lexpérience deux-mêmes sous des conditions métastables ou bien instables.
Ce quil faut savoir observer, décrire, analyser, interpréter, ce sont des fragments de ces dynamiques, des parties de ces imaginaires, des éléments de ces désirs, de ces vies.
Cest la raison pour laquelle, nous ne devons avoir aucun préjugé ontologique sur limportance des actants qui sont en jeu . Ou en tout cas, nous devons être capables de justifier les hiérarchies de ces actants que nous prétendons observer, analyser, quantifier, dont nous prétendons observer, analyser le devenir ontologique, à travers leur auto-constitution, plus ou moins précaire, à partir dautres objets, dautres médiations, dautres actants, quils utilisent
De ce point de vue, les débats théoriques ou autres, concernant notre devenir bio-techno-politique, sont essentiels. Ils déterminent pour partie, mais une part essentielle, ce qui va être observé, pris en compte, les manières dont allons traiter et analyser les ensembles de traces laissées par les actants au cours de leur activité, leurs modes dinteraction, de circulation, de propagation, de trans-formation
Selon ce point de vue, on pourrait dire quil ny a pas de société de linformation mais, des séries plus ou moins hétérogènes de trans-formations, expression et exprimé des actants, des dispositifs qui les portent et les font vivre.
Cela signifie quen ce qui concerne les couplages hommes-médiations que nous avons à analyser dans les mondes de la recherche et de léducation, il nous faut sans cesse relever les traces laissées au cours de leurs pratiques, par les actants couplés structurellement, cest-à-dire en co-déterminations réciproques, tout en leur laissant une autonomie relative. Ces couplages sont très nombreux et hétérogènes et la question des niveaux déchelle est ici essentielle.
Quil sagisse de pratiques collectives distribuées, de pratiques individuelles, nous avons donc affaire, toujours, à des multiplicités, des collectifs, à des différenciations ouvertes des logiques associatives, analogiques, à ce qui constitue les actes élémentaires tels : assembler, relier, trier, classer, inscrire
Pour mieux définir les protocoles dobservation des usages, nous avons donc besoin dun concept qui nous permette dappréhender la richesse des couplages évoqués plus haut. Ce concept, cest celui de machine.
Le principe de toute technologie est de montrer quun élément technique reste abstrait, tout à fait indéterminé, tant quon ne le rapporte pas à un agencement qui le suppose. Ce qui est premier par rapport à lélément technique cest la machine : non pas la machine technique qui est elle-même un ensemble déléments, mais la machine sociale ou collective, lagencement machinique qui va déterminer ce qui est élément technique à tel moment, quels en sont lusage, lextension, la compréhension
.
Nous suivons ici Pierre Lévy dans son commentaire .
Une machine organise la topologie de flux divers, dessine les méandres de circuits rhizomatiques. Elle est une sorte dattracteur qui recourbe le monde autour delle. En tant que pli pliant activement dautres plis, la machine est au plus vif du retour de lempirique sur le transcendantal. Une machine peut être considérée, en première approximation comme appartenant à telle strate physique, biologique, sociale, technique, sémiotique, psychique, etc, mais elle est généralement trans-stratique, hétérogène et cosmopolite . (
)
Une machine est un agencement agençant, elle tend à se retourner, à revenir sur ces propres conditions dexistence pour les reproduire . (
)
On ne se représentera donc pas des machines (biologiques, sociales, techniques, etc) objectives ou réelles, et plusieurs points de vue subjectifs sur cette réalité. En effet, une machine purement objective qui ne serait portée par aucun désir, aucun projet, qui ne serait pas infiltrée, animée, alimentée de subjectivité, ne tiendrait pas une seconde, cette carcasse vide et sèche seffriterait immédiatement. La subjectivité ne peut donc être cantonné au point de vue ou à la représentation, elle est instituante et réalisante .
À cet égard, les discours sur les usages, quels quils soient, doivent être pris dans leur entière et pleine positivité, non pas comme discours daccompagnement, mais comme élément constitutif de la machinecollective qui donne sens à lélément technique. Ils performent le monde et participent de notre auto-expérimentation, symbolique, imaginaire, réelle.
Les machines ne sont ni purement objectives ni purement subjectives. La notion délément ou dindividu ne leur convient pas non plus, ni celle de collectif, puisque la collection suppose lélémentarité et fait système avec elle. Comment alors penser la composition des machines ? Chaque machine possède une qualité daffect différente, une consistance et un horizon fabulatoire particulier, projette un univers singulier. Et pourtant elle entre en composition, elle sassocie avec dautres machines. Mais sur quels modes ? (
)
Nous faisons lhypothèse quil nexiste aucun principe général de composition, mais quau contraire, chaque agencement machinique invente localement son propre mode de communication, de correspondance, de compossibilité ou dentrelacement de lautopoïèse (pôle identitaire) et de lhétéropoïèse mutuelle (pôle associatif). Distinguons cinq dimensions de la machine : une machine est directement (comme dans le cas de lorganisme) ou indirectement (dans la plupart des cas) autopoïétique (Varela), ou autoréalisatrice (comme on parle dune prophétie autoréalisatrice) cest-à-dire quelle contribue à faire durer lévénement du pli qui la fait être. Une machine est exopoïétique : elle contribue à produire un monde, des univers de significations. Une machine est hétéropoïétique, ou fabriquée et maintenue par des forces du dehors, car elle se constitue dun pli. Lextérieur y est toujours déjà présent, à la fois génétiquement et actuellement. Une machine est non seulement constituée par l extérieur (cest le repli du pli), mais également ouverte sur le dehors (ce sont les bords ou la béance du pli). La machine salimente, elle reçoit des messages, elle est traversée de flux divers. En somme la machine est désirante. À cet égard, tous les agencements, tous les branchements sont possibles dune machine à lautre. Une machine est interfaçante et interfacée. Elle traduit, trahit, déplie et replie pour une machine aval, les flux produit par une machine amont. Elle est elle-même composée de machines traductrices qui la divisent, la multiplient et lhétérogénéisent. Linterface est la dimension de politique étrangère de la machine, ce qui peut la faire entrer dans de nouveaux réseaux, lui faire traduire de nouveaux flux. Toute machine possède les cinq dimensions, mais à des degrés et dans des proportions variables .
Ceci nous donne des indications fortes quant à lampleur des traces, des indices que nous devons relever, traiter, penser, lorsque nous sommes conduits à observer les usages de tel ou tel individu, de telle ou telle entité.
La détermination du ou des corpus est alors, déterminante. Il ne sagit pas seulement dune affaire quantitative. Il convient de se mettre en situation de pouvoir décrire, penser, les actions, les usages comme des processus et donc impliquant la traversée de plusieurs mondes, niveaux, échelles. Cest-à-dire, la traversée dun plus ou moins grand nombre dacteurs-réseaux, dactants, (au sens de B. Latour, M. Callon). Chaque entité, acteur se trouvant toujours, au terme de processus dindentification et de différenciation plus ou moins complexes, à la traversée de ces chaînes, de ces flux. Il faut donc se lancer dans la lecture fiévreuse de tous ces intermédiaires, qui passe dans nos mains, dans celles des artefacts, des textes
des corps disciplinés
.
De ce point de vue, nous ne devons donc accorder aucun privilège (a priori) à tel ou tel actant, à tel ou tel mode dassociation, de traduction. Il convient donc de partir de ce qui circule (afin dêtre) conduit
à ce qui est décrit par ce qui circule. Le verbe décrire est à prendre dans son double sens : description littéraire du réseau inscrit dans lintermédiaire considéré, quil sagisse de textes, de dispositifs, de compétences incorporées ; description-circulation de lintermédiaire (dans le sens où lon dit quun missile décrit une trajectoire) qui nest possible
que si le réseau inscrit coïncide avec le réseau rencontré, éprouvé
) .
Étudier les usages suppose donc de pas se laisser enfermer, sans conscience ni raison, dans une sémiotique spécifique, un niveau déchelle particulier . Les usages sont des événements où convergent des lignées temporelles hétérogènes, des forces, portées par des chaînes dactants, humains et non-humains, des sémiotiques qui opèrent tantôt au niveau symbolique, tantôt au niveau infra-linguistique, tantôt encore à même des corps disciplinés ou indisciplinés, tantôt au niveau de tel ou tel élément technique. Ces convergences peuvent se stabiliser, mais elles peuvent aussitôt se dissoudre, imploser en de souterraines vibrations volcaniques ou bien exploser vers de nouvelles connexions et attractions
en des tactiques, stratégies parfois, qui sont lexpression et lexprimé des processus dadoption et de rejet, de transformation et dinvention, de tel ou tel dispositif.
Létude conduite sous la direction de Joëlle Le Marec et Igor Babou : Chercheurs à luvre, Étude qualitative des usages du système documentaire de lInathèque de France , présente de ce point de vue des perspectives très intéressantes.
Dune manière générale, les usages qui impliquent Internet, certaines de ses fonctionnalités, sont de plus en plus marquées par la singularités, la proximité, le voisinage. Ils sont de plus en plus intégrés, au milieu des autres dispositifs décriture et de lecture, et se différencient à partir du creusement des pratiques interprétatives toujours singulières et convoquant des univers de référence spécifiques. Certes les dimensions des collectifs convoqués, à loccasion des ses pratiques ont changé. Toutefois, lhistoire des pratiques intellectuelles, des pratiques cognitives, montrent que la tendance est, après le saut quantitatif, au sur mesure, à la personnalisation
Si le réseau Internet a, dun certain point de vue, une prétention universelle, cette prétention est tout à fait théorique. Pour le dire autrement, personne na besoin de la totalité des informations et savoirs qui sont là, proposés. Ce qui se joue, en réalité, cest à partir de nos micro-mondes, de nos subjectivités, la possibilité de creusement intensif de capacités cognitives, perceptives et affectives, par multiplication plus ou moins maîtrisée des points de contacts internes et externes , des processus de traduction, altération, des systèmes de propagation .
Les corpus doivent donc prendre en compte les traces qui expriment à la fois lhétérogénéité des actants, des intermédiaires, des forces, des associations, des temporalités ( et des rapports de vitesse et de lenteur), des modes de causalité, dinteraction, de traduction-création-invention au cur même des hiérarchies enchevêtrées, dynamiques plus ou moins stables, constitutives des conditions dactualisation des pratiques.
Une fois constitués de tels corpus, vient le problème de leurs traitements. Et là surviennent les débats. Débats théoriques, on la déjà souligné, débats sur les méthodes aussi. Comment éviter, autant que faire se peut, dimporter, des schèmes normatifs, modélisant des processualités toujours ouvertes et créatrices, des événements, dont la pleine et entière positivité doit être conservée, préservée à tout prix ?
Bien évidemment, les études sur les usages nont pas la plupart du temps cette visée, dêtre au milieu du champ dimmanence. Cest plutôt du côté des études et recherches menées au sein des sciences de la cognition et de la cognition distribuée, de léthnométhodologie, de lanthropologie, de la sociologie critique
que lon trouve un intérêt majeur à affronter ces incomplétudes, à se doter de systèmes dobservation et décriture, de dispositifs expérimentaux et de simulation-modélisation, adéquats.
Les études sur les usages ont, traditionnellement tendance à occuper un espace qui les situe, souvent au cur même de la performation, politique et économique du monde en produisant des cartes et des classifications sous et pour les conditions structurales de visibilité dorganisations amont .
6.3.1 - Chercheurs à luvre, Étude qualitative des usages du système documentaire de lInathèque de France
Extraits, sous la direction de Joëlle Le Marec et Igor Babou
Lenjeu de létude ici présentée est double : il sagit bien sûr de sintéresser à la manière dont des chercheurs utilisent des fonds audiovisuels numérisés, mais surtout, de contextualiser ces usages par rapport à leur finalité : la création de corpus de recherche selon des modalités qui ne sont jamais standardisées. Aucune procédure de numérisation ne pourra jamais prendre en compte la multiplicité des pratiques de recherches. Symétriquement, même si les pratiques de recherche se modifient grâce à de nouvelles conditions daccès au matériau documentaire et archivistique, la nature des questions de recherche nest pas déterminée par les outils disponibles. Nous nous intéressons aux confrontations et au dialogue entre dune part la structure des fonds numérisés et les modalités daccès à des fonds, et dautre part les pratiques et les problématiques de recherche.
Cest pourquoi cette étude ne sera pas directement centrée sur les usages des dispositifs informatiques donnant accès à des fonds numérisés, ni sur les usages de ces fonds : nous partons des pratiques des chercheurs eux-mêmes, et de la manière dont ils fabriquent, traitent, manipulent, un corpus darchives.
On tâtonne, on persévère, on rebrousse chemin. Cest cette dimension de mise en place progressive et parfois chaotique de la recherche et de ses modalités, Une étude en archives, disait lhistorienne Arlette Farge, est lente et artisanale, le plus souvent condensée ou simplifiée dans le rendu final, qui va nous intéresser ici. Quels sont les gestes de la collecte du chercheur lorsquil interroge les fonds patrimoniaux de laudiovisuel français ? La nature des archives (limage et le son) et leur mode de consultation (informatisé) induisent des façons spécifiques de procéder. Dans ce contexte, comment isole-t-on du matériau pour le lire, le mesurer, le redistribuer ? Quelles sont concrètement les manières de synthétiser et de tenir un discours sur la rencontre avec un fonds à la fois plein de promesses et délicat à manipuler ? Enfin, on sintéressera à ce qui se cache derrière lapparent face-à-face entre le chercheur et sa console de consultation, en particulier la circulation entre des lieux, des documents, des outils.
Il ne sagira pas de proposer les meilleures méthodes (des préconisations) ou de signaler des dysfonctionnements. Ce qui a motivé lécriture de cette étude était plutôt lenvie de saisir les flottements dans les façons de faire, comment celles-ci se stabilisaient parfois, mais pas nécessairement. Nous avons voulu explorer la complexité dopérations quon pouvait penser plus simples et moins nombreuses, au vu des gigantesques efforts pour faciliter la tâche du chercheur (une législation, une institution, une numérisation partielle, un encadrement, des archives semi-mobiles). Loption choisie a consisté à suivre un ordre en apparence chronologique dans la présentation. En fait, ce choix était régi par des considérations de clarté. En effet, on pourra constater combien la démarche des chercheurs interrogés était rarement linéaire, mais faite dune série dajustements et de retours en arrière.
Les limites des corpus étaient souvent floues, les définitions des thèmes traités pouvaient évoluer en cours détude, les ambitions connaissaient des redéfinitions importantes. Cest cette attention aux recherches dans leurs trajectoires et leurs détours qui nous a conduit à rendre compte des expériences des chercheurs dans leur diversité, en dehors de tout projet prescriptif ou critique. Prenons à nouveau à notre compte cet avertissement dArlette Farge : Pas question de dire ici comment il faut faire, mais simplement comment il arrive quon le fasse. Il nexiste pas de travail type ou de « travail-à-faire-ainsi-et-pas-autrement « , mais des opérations quon peut raconter souplement... [Farge, 1989] .
Il sagit donc de décrire des processus hétérogènes de construction de la connaissance.
Dans le geste daccumuler et de mettre ensemble, se constitue déjà le premier échelon de la conceptualisation. Dans la mise à plat des matériaux sous les yeux se nouent les premières mises en relation, sébauchent les premières hypothèses [Latour, 1985, 1996]. Nous chercherons ici à mettre laccent sur les différentes tâches du chercheur pour organiser son travail, au contact de matériaux dune grande disparité (tant au niveau des supports que du contenu) et donnant lieu à des traitements qui mobilisent des ressources et des compétences multiples. Il sagira dévaluer lhétérogénéité des processus en jeu dans la construction de la connaissance, en vue de mieux connaître lusage des bases de données numériques (ici un catalogue riche en informations pour les chercheurs) et des fonds audiovisuels.
Cette étude a été réalisée dans le cadre du volet usages et normes du Programme de Numérisation pour lEnseignement et la Recherche (Fondation Maison des Sciences de lHomme). Elle propose une réflexion sur les usages et les besoins de contenus numérisés pour lenseignement et le recherche à partir dune étude qualitative des usages du système documentaire de lInathèque de France, centre de consultation à des fins de recherche des archives télévisuelles et radiophoniques françaises .
Lidée de base du programme COHERÉNCE part du constat que la recherche en SHS fait de plus en plus appel à des corpus documentaires hétérogènes, cest-à-dire construits par accumulation de documents iconiques, textuels ou sonores, etc
Lorientation choisie était de sintéresser moins au face-à-face entre lutilisateur et sa console de consultation quau patient et complexe travail de mise en ordre et de synthèse du matériau réuni. Il sagissait de partir du chercheur et de sa problématique pour replacer loutil dans sa pratique, et non linverse.
Plus précisément, il fallait chercher à élargir le spectre associé à loutil documentaire à lensemble des outils en jeu (ceux des chercheurs dans leur bureau par exemple) et plus largement aux pratiques de recherche, sans sarrêter aux portes du centre de consultation de lInstitut National de lAudiovisuel. Cest pourquoi lenquête sest déroulée sur le lieu de travail du chercheur (en général son domicile).
Il ne sagit pas dune étude ethnographique qui aurait nécessité un travail plus long mais du recueil dun certain nombre de récits rétrospectifs de chercheurs ayant une longue expérience du travail à lInathèque et proposant un regard à la fois descriptif et réflexif sur leur propre façon de procéder .
La tenue des entretiens au domicile des chercheurs a permis des allers-retours entre parole sur une pratique et matérialité des façons de procéder : fiches, dossiers, classeurs, annotations par surlignage. Il sagit de faire remonter à la surface des manières de travailler qui disparaissent dans le rendu final mais qui ont été néanmoins centrales dans la constitution et lénoncé des résultats. Loin de nous, lidée de dénoncer des distorsions dans lexposé de la méthodologie du chercheur. Toute méthode unifie et renvoie nombre déléments à de limplicite. Ces pointillés sont la cuisine , les coulisses quon met légitimement de côte dans la scénarisation finale de son travail. Lenquête a été complétée par la prise de photographies au domicile du chercheur et par des captures décran, afin de garder trace des modalités concrètes de travail quon cherchait précisément à décrire.
Pour rendre compte des évolutions dusage en contexte académique, il a été décidé de concentrer lanalyse qualitative sur une population de chercheurs confirmés ou détudiants très engagés dans leur recherche, choisis selon deux critères :
soit une fréquentation continue et assidue de lInathèque
soit une fréquentation discontinue mais sur une période longue.
En particulier, il fallait prendre garde pour rédiger le rapport à deux tentations. La première était de juxtaposer des trucs de chercheurs pour eux-mêmes, coupés des interrogations ou des représentations par rapport auxquelles ils prennent leur sens plénier. La seconde tentation était de donner trop dintérêt aux discours de la méthode , aux reconstructions a posteriori, à la fois normales (elles sont aussi le résultat de la recherche, et sont à considérer positivement à ce titre dans cette étude) mais trop nombreuses, induites ou encouragées par la méthode denquête qui, en procédant par récits rétrospectifs et questions sur la problématique ( pour cadrer ), recueillaient des discours structurés sur la pratique.
En montrant la diversité des lieux, en décrivant les rapatriements, les exportations, les réarchivages, le transport, on semploiera à montrer le rôle des coupures et des changements despaces. Contre un discours du tout fluide, de la numérisation-miracle, on portera lattention sur un jeu de domiciliations complexe, essentiel dans la production du savoir .
6.3.2 - Méthodes et outils pour lobservation et lanalyse des usages
Extraits : Claire Belisle
La question de létude des usages est difficile. Des méthodologies et modèles tr ès différents sont convoqués et utilisés, des protocoles dobservation proposés. Les études menées dans le cadre du PNER se situent dans la lignée des travaux tels ceux de Michel de Certeau, Jacques Perriault, Bruno Latour, Joëlle Le Marec, Pierre Bourdieu et bien dautres encore.
Létude vise à produire un état des connaissances sur les usages des technologies de linformation et de la communication dans lenseignement et la formation. Pour cela, il a été décidé de procéder à un recensement des études existantes sur les usages et à un inventaire des méthodes et outils pratiqués par les chercheurs pour étudier les usages en éducation. Lanalyse portant sur les discours daccompagnement des usages a pris la place la plus importante, peut-être au détriment de la discussion des schèmes théoriques, des protocoles dobservation, des méthodes et des outils nécessaires à lobservation et à lanalyse critique. La co-existence des univers hérités et des univers numériques pose en effet des problèmes complexes et au-delà des pratiques et usages spécifiques au réseau Internet, penser et observer larticulation et lenchevêtrement des deux mondes, artificiellement et injustement séparés dans la plupart des cas, soulèvent des problèmes théoriques et concrets difficiles.
Analyser des usages aujourdhui, cest devoir faire avec une masse de discours, relevant de choix pédagogiques, alors que dautres se présentent davantage comme des visions prophétiques ou des démarches publicitaires. Ces discours sont dautant plus séduisants quils revendiquent une forte valeur de généralité, alors que les études empiriques, sociologiques, ethnographiques, économiques, ne peuvent prétendre inspirer des « visions « .
Ils peuvent tout au plus mettre en doute la pertinence de ces dernières, sans pour autant les remplacer par des vérités aussi prégnantes. Ces discours de généralité sont pour la plupart des discours sur le changement, que celui-ci soit attendu ou redouté. Le cadre dans lequel est pensé le changement pourrait être celui de la pensée utopique , qui fournit la rhétorique de la rupture : révolution, naissance, fin.
Ces discours de généralités sont pour la plupart des discours sur le changement, que celui-ci soit attendu ou redouté. Le cadre dans lequel est pensé le changement pourrait être celui de la pensée utopique , qui fournit la rhétorique de la rupture : révolution, naissance, fin.
Les textes de Pierre Lévy ou de Nicholas Négroponte sinscrivent directement dans la tradition utopique, on y célèbre lavènement des temps nouveaux qui démarrent avec la révolution technologique dernière née, laquelle prend la suite dune ère qui avait elle-même démarré par une technologie : la découverte du feu, la naissance de lécriture.
Quimportent les données archéologiques ou historiques : les grands modèles visionnaires se passent fort bien dassises empiriques : scander une histoire de lHumanité en trois temps bornés par des révolutions technologiques ne relève certes pas de lhistoire, mais de la cosmologie, rebaptisée anthropologie pour les besoins de la légitimité académique. Les usages des nouvelles technologies ne sont pas tant discutés quincorporés directement dans ces visions du futur qui doivent se penser contre les états existants : cest pourquoi lanalyse empirique des usages est disqualifiée davance par de tels discours. Ils référent à la vieille pensée encombrée de pesanteurs qui ne sera daucune utilité pour accueillir linnovation.
Limpact de ce discours marqué par la rhétorique du changement au service de visions est très important dans le cadrage des discours sur lusage. Il se manifeste de plusieurs manières, que nous allons passer en revue brièvement :
il génère une bonne partie des modèles de principes et schémas daction : nous lavons dit, les discours produits par des sociétés commerciales et technologiques ont incorporé les visions de linnovation, comme elles ont incorporé les modèles du code pour modéliser la communication efficace ; cette production est peu publiée, mais très circulante ;
il génère une partie du discours critique dans le champ de la communication. Breton, Wolton, mais aussi bien dautres auteurs, réagissent peut-être moins à Internet quaux discours daccompagnement liés à Internet. Si Souchier et Jeanneret attaquent directement le discours daccompagnement des nouvelles technologies, Breton sen prend parfois au phénomène lui-même, et se place alors sur le même pied que les discours utopiques, en exact contrepoint, lorsquil convoque pour sa part la littérature de science-fiction, pour contrebalancer des visions idéalisées dInternet par les visions menaçantes dun déclin du lien social à lheure des technologies de la relation . Dans ce type de discours critique, pas plus que dans le discours utopique, la connaissance empirique des phénomènes liés à lusage nest mobilisée ni même pertinente. Les regards locaux et précis sur les pratiques, même sils sont construits dans le champ de la sociologie ou des sciences de linformation et de la communication, sont supposés servir les intérêts des promoteurs des NTIC (même si ceux-là ny font jamais référence eux-mêmes) puisquils banalisent et légitiment la pénétration des nouvelles technologies par les pratiques ordinaires.
Il génère des figures dusages : les pionniers, les retardataires, ces figures étant appliquées soit à des collectifs, soit à des individus, lesquels sont alors mis en confrontation : lindividu pionnier soppose à la structure retardataire, ou bien la structure innovante rencontre la résistance de lindividu attaché à ses habitudes et qui freine des quatre fers. Le thème du retard français par opposition au monde anglo-saxon qui a une expérience de vingt ans, trente ans, cinquante, est une variation de ce discours : les macro-visions de linnovation présupposent en effet la flèche dun progrès en soi pour lhumanité, chaque situation locale étant un point situé sur laxe général dun progrès global. Curieusement, si perspective anthropologique il y a, puisque cette perspective est si souvent revendiquée par les visionnaires, il sagit de lancienne théorie Comtienne, qui ordonnait la diversité des états des sociétés humaines sur un axe allant des moins évoluées aux plus évoluées. La situation de la France en matière de NTIC est alors un point sur un axe linéaire qui aboutit au monde anglo-saxon.
Il existe un courant de recherches empiriques qui reprend les figures inversées du pionnier dans un milieu conservateur, ou des récalcitrants dans des environnements progressistes, sans être directement rattaché à des « visions « . Il est cependant fortement sous-tendu par des modèles du fonctionnement social qui sont très centrés sur une valeur en soi de linnovation.
Laccent mis sur le rapport à la technologie vu comme rapport à linnovation est particulièrement sensible dans le milieu éducatif : les discours institutionnels sont légion où le succès de limplantation dune technologie, notamment Internet, est anticipé comme étant un signe de capacité à se réformer .
Perriault a également insisté sur les dynamiques dappropriation progressive de linnovation avec leffet diligence, quil décrivait dès 1989 . Mais son approche séloigne nettement dune modélisation de lappropriation sociale des nouvelles technologies uniquement en termes de rapport au changement : les technologies induisent autre chose que des réactions au nouveau, elles rendent tout simplement observables des logiques sociales qui préexistaient bien avant sans attirer lattention. Les usages des nouvelles technologies sont dès lors des pratiques sociales rendues explicites et observables par les exigences de formalisation et de radicalisation quelles entraînent. Cest cette perspective qui a été adoptée dans des études dusages de technologies liées aux musées, usages intégrés parfois à des pratiques dautodidaxie . Ce qui est nouveau, ce nest pas lusage, cest lattention pour des pratiques rendues intéressantes parce quelles mobilisent des nouvelles technologies.
Méthodologie
Afin de cadrer notre objet détude, nous avons dabord délimité les critères permettant de faire un choix parmi les travaux sur les usages. Les études à retenir devaient concerner :
des usages en éducation/formation encadrée, y compris à distance, laissant toute autre production non encadrée à lécart du travail danalyse : exerciseurs, usages domestiques du numérique, télé-travail, etc. ;
des usages distincts des différents niveaux de formation : primaire, collège, lycée, universitaire, formation dadultes ;
des usages en lien avec des ressources numériques sur réseaux ou CDRoms ou DVDs ; et avoir été produites à partir de 1995, être de langue anglaise ou française et provenir dEurope ou dAmérique du Nord.
Quatre questions ont servi de fil conducteur pour lanalyse des productions retenues :
1° - Quelles sont les méthodes utilisées dans les recherches ?
2° - Quelles sont les connaissances produites ?
3° - Qui sont les producteurs des connaissances ?
4° - Quelles sont les populations concernées par les études ?
Comme stratégie daction dans le groupe, nous avons, individuellement, exploré différentes sources dinformation nous permettant didentifier des études dusages :
les ouvrages publiés ;
les revues sous forme papier et électronique ;
les sites web ;
les synthèses déjà réalisées ;
les projets financés par appels doffres ministériels ;
les actions de vulgarisation scientifique et daccompagnement scolaire (
)
La typologie ainsi élaborée a permis de mettre en évidence huit types détudes :
1° - Études déquipement, daccès et dachat de produits numériques, niveau basique, ce premier type détude porte sur la consommation par exemple, combien a-t-on vendu dEncyclopédies Universalis numériques ? Ces études sont souvent nécessaires et suffisantes pour certains commanditaires.
2° - Études de loffre technologique, qui peuvent aller depuis la veille technologique jusquà une analyse développée en vue dusage avec soit une évaluation critique, soit des prescriptions. Par exemple, une présentation de lusage prévisionnelle ce quon peut faire avec tel dispositif, ces possibilités et limites peut être considérée comme une grille danalyse de loffre.
3° - Études des pratiques de terrain repérées sur le web.
4° - Les études publi-rédactionnelles : ces études, parfois basées sur de véritables enquêtes sociologiques, donnent lieu à des textes promotionnels mettant en évidence soit des besoins, soit des offres de service, le tout au bénéfice des commanditaires des dites études. Efficient learning : e-learning et formation efficace Etude réalisée par Arthur Andersen en mars 2001.
5° - Les études et recherches institutionnelles, elles interviennent à un autre niveau, pour le pilotage politique du développement, de linnovation, ou des accès aux nouvelles technologies en milieu éducatif. On peut ranger dedans les appels doffres émanant directement des structures institutionnelles, ou bien la mise en place dobservatoires des usages . (
)
6° - Les recherches, qui sont des études mettant en uvre un dispositif relativement lourd. Ces études peuvent être centrées technologie, ou usagers ou tâches pédagogiques. La cible principale des travaux était lusager, ou plutôt la figure de lapprenant, que ce soit dans létude de stratégies dapprentissage dans des environnements TIC (les modalités de présentation des informations étant des variables indépendantes, Atlan 2000), ou encore létude des activités cognitives, spécifiquement cherchant à décrire et à expliquer la démarche cognitive de lutilisateur en interaction (approche pragmatique à lappui, Saint-Pierre, 1998), ou létude des profils dapprentissage et de représentations des étudiants en environnement multimédias (Rézeau,1999).
7° - Guides de bonnes pratiques. Les articles que nous classifions ici comme des prescripteurs de bons usages sappuient rarement sur des études faites sur des données. En fait, recensés dans le site CEMEA, Groupe dActivités Multimédias ( HYPERLINK "http://www.cemea.asso.fr/multimedia/reflexions.html" http://www.cemea.asso.fr/multimedia/reflexions.html), ces articles semblent sadresser directement aux enseignants intéressés (invités ?) à intégrer les TIC dans leur pratique pédagogique. Ces guides traitent par exemple des usages possibles dInternet (Tesson 1998), du professeur devenu multimédiateur (Ehermann,2000), de lévaluation dun site web ou encore de lusage des TICE dans lapprentissage des langues (Montrol-Amouroux,1999).
8° - Les études-réflexions. À ce jour, notre recherche documentaire ne nous a pas permis de trouver un recensement des méthodes et outils dobservation des usages des TIC confirmant par là même lintérêt de notre étude. En conséquence nous orientons notre travail vers lidentification de synthèses qui traitent de la question de lutilisation des TIC en cherchant quelles démarches méthodologiques sont retenues dans la production des résultats. Un certain nombre détudes ont pour objet la culture technique comme telle, certaines allant au-delà du seul champ pédagogique. Il peut sagir dune évaluation de lancrage social des enseignants, de lévolution de leurs métiers. Dautres études portent sur les modifications sociales liées à lintégration des TICE. Bien que ces études ne concernent pas toutes directement le champ pédagogique, les connaissances produites nous apparaissent transférables et donc à inscrire dans les études dusage. Ces études correspondent habituellement à des ouvrages par des auteurs comme Linard, Tardif, Virilio, Wolton, Lévy, Gilster (Digital Literacy), etc .
La production de comptes rendus sous forme de fiches et la présentation de ces études analysées à travers la grille mise en place, nous a permis plus particulièrement de mettre en évidence une articulation des résultats de nos travaux autour de ces trois questions :
Quels sont les acteurs impliqués dans les études dusages ?
Comment étudie-t-on les usages ?
Que sait-on à partir des études dusages ?
Les acteurs impliqués dans les études dusages
La notion dusage nappartient pas en propre à la recherche en sciences humaines et sociales : elle est utilisée par de très nombreux acteurs sociaux. Cest pourquoi il nest pas possible de traiter des études usages sans rendre compte des conditions dans lesquelles elles sont menées.
Le besoin détudes dusage est ainsi ressenti dans des contextes très différents : les acteurs impliqués dans ces études, de la formulation de la demande à la prise en compte des résultats, excèdent largement le seul champ académique. Ce besoin détudes dusages est souvent la formalisation dun besoin de maîtrise sociale des nouvelles technologies, besoin de connaissances sur les phénomènes, et besoins de discours disponibles.
Il en résulte une situation mixte.
Les usages font partie des thèmes privilégiés par les chercheurs en sciences de léducation, en sciences de la communication, et en sociologie. Ils sont donc au cur de la production académique classique : on ne compte plus les thèses sur le thème, et le terme usages sest révélé être le plus fréquemment cité dans les contributions soumises au comité scientifique du XIIème congrès de la Société Française des Sciences de lInformation et de la Communication en 2001 à Paris.
Pourtant, parallèlement, les usages sont un des thèmes centraux de lactivité détudes commanditées ou suscitées hors champ académique pur : la pratique dévaluation en particulier, est intense, dans les milieux techniques, commerciaux, institutionnels (écoles, universités, formation, etc.).
Recherches académiques et études dévaluation ont en commun, malgré les différences, la volonté de mettre en uvre des procédures denquêtes ou dexpérimentation au moyen de protocoles plus ou moins systématiques de recueil, de traitement et dinterprétation de données.
Mais les milieux professionnels, institutionnels et commerciaux, produisent également de nombreux discours sur les usages, issus de pratiques plus ou moins éloignées des études empiriques par enquête ou expérimentation : expertise, témoignage, essai critique ou prospectif, prise de position, etc.
Pierre Moeglin a ainsi pu remarquer quon pouvait désigner comme spécialiste de lusage des auteurs ayant commenté la notion, ou ayant promu des technologies au nom de leurs usages supposés.
Cest pourquoi il nous semble important de préciser que nous nous en tenons ici aux acteurs impliqués dans les études dusages (et non dans la production de discours sur lusage). Mais dans ce sous-ensemble, nous ne nous limitons pas aux auteurs des articles et études disponibles. Interviennent dans la nature des questionnements, des contextes, des résultats, plusieurs catégories dacteurs :
Qui demande ?
Qui met en uvre et construit des résultats ?
Qui est étudié ?
Qui prend en compte les usages et qui en fait état ?
- Qui demande ? Les acteurs impliqués dans la demande
La demande (ou le besoin détudes) peut provenir du milieu académique lui-même, du chercheur ou de léquipe de recherche fonctionnant de façon autonome et se posant des questions sur des phénomènes qui impliquent lobservation ou lexpérimentation dusages des TIC.
Il peut sagir de questions directement centrées sur leffet de lintroduction de telle nouvelle technologie (les cédéroms, Internet) dans tel milieu (une école, une ville, une entreprise), pour telle population (les enseignants, les visiteurs de musées, les milieux associatifs, etc.). Dans le contexte pédagogique, les questions et les recherches ont souvent une dimension praxéologique : le besoin de construction de connaissances est lié à une implication active dans la volonté de mieux comprendre pour améliorer un processus, voire pour participer aux développements de nouveaux dispositifs. Mais ce nest pas systématique, notamment dans le cas suivant :
Il peut sagir de questions liées à certaines traditions de recherche, à certains thèmes ou problématiques qui préexistaient bien avant larrivée dune technologie, et qui mobilisent la nécessité dobserver des situations dans lesquelles des nouvelles technologies interviennent. Les pratiques de lecture/écriture par exemple, ou bien la sociabilité intergénérationnelle.
La demande peut également provenir dinstitutions qui financent la recherche : ministères, collectivités locales, institutions impliquées dans la formation ou le développement technologique, etc.
Lincitation à la recherche peut porter directement sur les phénomènes liés aux usages des nouvelles technologies (appels doffres BPI/DLL 1998).
Il peut sagir également dincitation à des politiques de recherche pluridisciplinaires fondées sur des thématiques ouvertes (par exemple axe thématique transfert des connaissances financé par lUniversité Lille 3 en 1998). Or, les nouvelles technologies constituent au plan pragmatique la voie royale de tels montages pluridisciplinaires tant sont nombreux les chercheurs qui prennent en compte la question des rapports aux réseaux et aux technologies.
Il peut sagir enfin de programmes de recherche orientés vers linnovation technique voire industrielle. Dans ces programmes, larticulation SPI/SHS est souvent présente, la partie usage étant une sorte de processus de validation daccompagnement et dévaluation de la recherche / développement, largement instrumentalisée par les objectifs prioritaires de développement (formalismes des appels doffres RNRT).
La demande peut provenir détablissements, de collectifs (associations), voire de professionnels isolés (enseignants, concepteurs), qui, au-delà de pratiques dexpérimentations purement individuelles, peuvent solliciter des chercheurs pour être terrain mais aussi partenaires détudes.
- Les acteurs impliqués dans la réalisation des études proprement dites :
Cette catégorie est tirée entre deux pôles très contrastés.
Le pôle des auteurs qui publient et participent ainsi dune construction académique. Celle-ci tire son intérêt de lextension de sa portée hors des terrains et contextes particuliers dans lesquelles sont menées les enquêtes ; ces auteurs sont les acteurs les plus visibles du monde des usages, ceux en fonction desquels la visibilité de lensemble du champ se structure. Par exemples, les synthèses générales sur la sociologie des usages, produites par Thiérry Vedel ou Serge Proulx , sont fondées sur les travaux publiés dans le champ de la recherche académique.
Le pôle de tous ceux qui mettent en uvre des études non publiées, invisibles dans le champ académique et qui tirent leur intérêt du contexte précis dans lequel elles sont réalisées et diffusées. Parfois, elles sont menées par des chercheurs qui publient par ailleurs, mais dont une partie de la production relève de lévaluation ou de limplication précise dans des projets de développement pédagogique ou technologique. Elles peuvent être produites par des professionnels qui prennent du recul par rapport à leur pratique, par exemple dans le cas de la formation diplômante ou non. Beaucoup détudes non publiées sont des travaux détudiants qui ont pu utiliser lenquête comme un moyen de se former à des techniques et de mieux comprendre les enjeux dun processus de développement tout en restant à distance de ces enjeux dans le temps de leur formation, avant de simpliquer véritablement par la suite. Létude dusage est alors un sas avant le passage à la production. Elles peuvent être produites, enfin, par des bureaux détudes, agences de communication, sociologues free-lance, payés par un organisme pour mener une évaluation. Le CNED passe ainsi régulièrement commande à des sociétés privées pour disposer rapidement déléments daide à la décision sur des dispositifs particuliers.
On regrette souvent le caractère confidentiel dune masse détudes et de résultats qui restent à létat de littérature grise. Mais lintérêt même de ces études serait trahi par leur montée en généralité. A la Cité des Sciences et de lIndustrie, nombre de rapports dévaluation des bornes interactives à scénario, effectués par la cellule évaluation des expositions entre 89 et 94 et jamais publiés, tiraient leur intérêt du fait quils constituaient lobjet dun dialogue permanent, cumulatif, formalisé, continu, avec les concepteurs demandeurs de ces études, dimension qui aurait disparu dans la publication. Quant à la production des bureaux détude et société de communication, elle est rarement innovante dans ses questions et ses approches, elle a le mérite de pouvoir constituer une réponse rapide à des demandes, et son mode de valorisation nest pas la publication, mais la rémunération de la prestation de service.
- Les sujets étudiés : sujets mais aussi acteurs en tant quinformateurs
Les usagers étudiés dans le cadre détudes dusages en contexte pédagogique ne sont pas forcément des anonymes sollicités pour fournir du matériau le temps dune enquête.
Nombre détudes sont réalisées auprès délèves ou détudiants, échantillons anonymes captifs toujours disponibles. Mais il peut aussi y avoir des classes ou des individus qui sont explicitement représentants dun savoir vécu sur lusage, soit parce quils sont des pionniers habitués à être repérés (les élèves et linstituteur de lécole de Picequos étudiés par Serge Pouts-Lajus et Sophie Tiévant par exemple), soit parce quils ont eux-mêmes la démarche de se faire étudier.
Dune manière générale, dans les études de type récits de vie, et les enquêtes ethnographiques, le sujet sollicité peut devenir informateur et participer à la construction dun point de vue pris en compte en tant que tel. On est alors à lopposé des protocoles dans lesquels on sollicite les sujets sur une dimension pré-déterminée qui peut navoir aucune pertinence de son propre point de vue, même si elle est capitale dans le point de vue du chercheur (je pense ici à des approches psycho-cognitives).
Enfin, les usagers finissent par devenir pratiquement une figure voire un statut social explicitement revendiqué dans certaines circonstances assumées, comme lest déjà le statut délève ou détudiant, de citoyen, de consommateur, etc. À loccasion de la préparation dune exposition sur linformatique dès 1989, une étude préalable auprès des visiteurs avait permis de voir la montée dune revendication de prise en compte dun savoir dusager .
- Qui prend en compte les résultats, qui en fait état ?
Il est très difficile de trouver trace de la manière dont des résultats détudes et de recherches sur les usages sont pris en compte.
Dans le milieu de la recherche académique, la publication concerne la notion dusage et linsertion sociale des TIC et peut ne pas viser du tout lamélioration dun dispositif ou dune pratique, mais sa compréhension.
Lorsque la dimension praxéologique est présente, elle est prise en charge par les recommandations.
Mais, dune manière générale, lattente de prise en compte sur le mode dun réinvestissement des études dans la conception, relève de lévaluation, laquelle publie rarement, nest pas tout à fait pertinente dans le cas des autres études.
Pour un grand nombre de cas, la prise en compte à dautres moments, plus tôt ou plus tard, en décalage par rapport à la représentation spontanée de ce quest la prise en compte normale de lusage.
La prise en compte peut en effet seffectuer de manière plus diffuse, mais plus profonde, soit pendant tout le processus de demande, de réalisation, de valorisation de létude, soit à la longue, dans la construction dune sorte de culture de lusage, qui consiste en une modification progressive des modèles spontanés.
Que nous apprennent les études dusages ?
Trois axes dinterrogation ont été poursuivis lors des analyses faites sur les différentes sources travaillées : quels étaient les indices de lefficacité pédagogique des TICs, employées auprès de quelles populations dapprenants ? Quels indicateurs témoignaient dune évolution du rapport aux savoirs, à linformation ? Quelles étaient les évolutions constatées au niveau des pratiques pédagogiques ?
Lanalyse des études na pas révélé dindices defficacité pédagogique qui soient spécifiques de lusage des TICs dans les processus dapprentissage. Cette constatation vaut pour lensemble des populations dapprenants représentées dans les études, quel que soit le niveau de formation y compris la formation professionnelle en entreprise. Lensemble davantages et de points positifs indiqués sont, en fait, des constatations faites après coup , découlant de lemploi des différentes technologies. Or, ces avantages pourraient en effet être obtenus par le biais dautres technologies et par des stratégies pédagogiques plus connues des formateurs. Ainsi, des gains concernant le renforcement de la motivation et de lintérêt des apprenants, des résultats témoignant des augmentations de rétention dun certain nombre de contenus (par exemple, du lexique lors des usages dans la formation aux langues étrangères), etc. Ces acquis semblent plus relever dun effort dadaptation des apprenants à un contexte dapprentissage différent du contexte habituel (traditionnel) que dun nouveau rapport établi avec les savoirs, développé au sein dune médiation technologique spécifique où le formateur garderait un rôle clairement délimité et défini.
Par conséquent, les études ne témoignent pas dévolution des rapports aux savoirs ou à linformation, qui sont toujours traités selon le paradigme de la lecture sur support papier. La spécificité du numérique, des liens hypertextes, des articulations entre image, son et écriture (celle-ci prise dans la variété de formes que les représentations sémantiques peuvent assumer dans lunivers numérique), la spécificité de linteractivité proposée par les technologies informatiques, tous ces aspects ne sont pas étudiés au sein dune problématique reliant les TICs et la construction des connaissances. On pourrait plutôt avancer lhypothèse que les gains escomptés à lusage des technologies concrétiseraient une forme de réponse des apprenants à la nouveauté de la situation. Tout se passe comme si lintroduction individualisée dautres technologies à lécole (laudiovisuel, la télévision, linformatique), ne donne lieu quà la manifestation détonnement, de curiosité de la part des apprenants à légard de linnovation introduite dans le contexte dapprentissage.
Dans un certain nombre détudes et rapports, ces aspects semblent être suffisants pour justifier lintégration des TICs dans les pratiques pédagogiques. La fragilité des arguments concernant lefficacité pédagogique spécifique des TICs est parfois remplacée par la présentation de lévolution du parc technologique mis à disposition des formateurs, agrémentée dindices de reconnaissance / réconfort devant les difficultés rencontrées par les professeurs pour mettre en uvre leurs éventuelles intentions dintégration des TICs dans leur pratique. Soulignons que dans les productions étudiées, les formateurs sont continuellement invités à intégrer les dans leur pratique éducative, et des études classées (par leurs sources dorigine) comme recherches ou réflexions sur des pratiques sont en fait des tests doutils technologiques. Si ces études sont divulguées en tant quexemples dusages, et se confondent souvent avec des études doffres technologiques, dont les preuves defficacité pédagogique sont superficielles voire inexistantes.
Les transformations des pratiques pédagogiques et des processus dapprentissage nont pas été identifiées dans les études analysées. Ceci peut se vérifier avec lanalyse des critères dévaluation de lefficacité pédagogique présentés dans les études : les études passe rapidement de la problématique à lévaluation des acquis par le biais des contenus retenus. Ainsi, pour évaluer lefficacité pédagogique des TICs, dont la vocation principale indiquée était de changer les rapports entre lapprenant et le savoir, on applique les critères des évaluations pédagogiques traditionnelles, à savoir, la quantité de contenus mémorisés par les apprenants, la pertinence et qualité des productions des apprenants également au niveau des contenus, leur degré dengagement (motivation) dans la situation dapprentissage, etc. Quelques compétences spécifiques et légèrement distantes de ces critères ont été identifiées : lévolution des rapports sociaux comme variable transversale conditionnant le processus dapprentissage (entre paires/groupes de travail), des compétences cognitives spécifiques dans les cas de recherche documentaire sur le web, par exemple. Cependant, dans leur essence, même ces compétences ne peuvent être indiquées comme relevant de lefficacité pédagogique spécifique des TICs, dans la mesure où il serait possible, potentiellement, de les développer à laide dautres ressources ou contextes pédagogiques plus connus des formateurs.
En revanche, les études dusage permettent didentifier une grande diversité de modalités dintégration des TICs dans les différents contextes pédagogiques, même si lon ne peut parler, de manière explicite, dévolution des pratiques pédagogiques. Une large gamme de contenus, de disciplines, de situations dapprentissage, dapplication dune ou dun ensemble de technologies sont couvertes. Les présupposés pédagogiques sous-jacents à ces modalités sont tout aussi variés : certaines modalités pédagogies testées sur le terrain reprennent complètement un paradigme traditionnel denseignement, paradoxalement proposant celles-ci comme le passage incontournable pour le développement de lautonomie des apprenants. Dautres gardent des rapports plus étroits entre leurs assises théoriques et les paradigmes des pédagogies actives, étant plus ou moins réussies selon le cas, les concrétisations au niveau des stratégies dintégration des TICs. Une distance prise à légard de lensemble détudes travaillées révèle laspect le plus important de ce travail : ce que lon semble mesurer ce sont les différentes formes actuelles de la pédagogie active (dont les débuts remontent aux années trente, avec Freinet), qui prône une participation beaucoup plus importante des apprenants dans le processus dacquisition des connaissances. La participation à la construction de ses propres connaissances, une démarche contextualisée dapprentissage, le développement de lautonomie et de lesprit critique, voilà quelques éléments clefs qui soutiennent à largumentaire de lintégration des TICs dans léducation. Lavènement des TICs dans le paysage de léducation semble créer des conditions optimales pour que le débat didées concernant les paradigmes dapprentissage retrouve un nouvel essor. Dans la mesure où la présence dun tiers (la technologie) dans la situation dapprentissage déséquilibre les rôles et les rapports existants, lespace ainsi créé donne lieu au renouvellement de la concurrence entre les anciennes nouvelles pédagogies et le modèle dominant, transmissif de connaissances et de valeurs.
Pour conclure, un dernier point à souligner : les pratiques de terrain étant assez nombreuses, on constate par la quantité et qualité de rapports et darticles disponibles que la réalisation détudes dusage contribue à ce quune communauté dacteurs se forme, sidentifie mutuellement en tant quinterlocuteurs, ouvrant un espace déchanges, rapidement conquis et occupé. Le poids de linexorable intégration des TICs dans les pratiques pédagogiques, tel quil est vécu par les formateurs, peut être décelé par le biais de productions comme les guides de bonnes pratiques ; cela va depuis les différentes idées dintroduction de technologies sur le plan pédagogique (pratiques testées sur le terrain que lon veut partager avec autrui), jusquaux réflexions plus pointues de chercheurs au sujet de lemploi dune technologie donnée, utilisée auprès dune population très spécifique dans un contexte très particulier.
Cest dans cet espace que lon voit évoluer de manière plus moderne des acteurs (formateurs) dont lhistoire de vie professionnelle semble marquée par des actions orientées par le paradigme des pédagogies actives. Leurs témoignages, sous forme de pratiques de terrain ou de recherches, retrouvent un nouvel essor pour la discussion et la réflexion, tout en coexistant avec dautres tentatives dintégration des TICs qui ne permettraient pas lévolution des rapports aux savoirs ou le développement intégral des apprenants. Cest encore un lieu où se découvrent des confrontations qui durent déjà quelques décennies .
6.3.3 - Les communautés délocalisées denseignants : les listes étudiées
Les listes étudiées dans le cadre du PNER sont les suivantes.
La liste IAI (Instituteurs Animateurs en Informatiques) est avant tout une communauté de pratique rassemblant des enseignants en fonction échangeant à propos de leur travail de personne-ressource technique au sein de leur école et menant une réflexion à propos de leur pratique et de leur identité professionnelle. Cette communauté constitue dans une certaine mesure une communauté institutionnelle ouverte à toute personne qui se reconnaît dans les pratiques de ses membres. Elle existe déjà depuis plusieurs années. Elle constitue même à présent une référence pour les instituteurs spécialisés en informatique qui y abordent des thèmes de discussion portant non seulement sur la technique mais aussi sur leur identité professionnelle dIAI.
La liste Ecogest constitue également le support à une communauté de pratique mais pour les enseignants déconomie-gestion. Elle est publique et existe depuis bientôt quatre ans. Cette liste a la particularité dêtre institutionnalisée puisquelle a été créée au départ par les réseaux dacadémies et les inspections en économie-gestion. Les thèmes de discussion concernent principalement bien sûr lenseignement de léconomie-gestion mais aussi les TICS et lidentité professionnelle des enseignants.
Learn-Nett lancé en 1997, est un projet européen (Socrates-ODL) de formation initiale des enseignants à lusage des TIC créé à linitiative dune communauté dintérêt intelligente de chercheurs et denseignants partageant les mêmes interrogations. Il rassemble une communauté dapprenants (des étudiants futurs enseignants), une communauté dintérêt intelligente (des chercheurs et des professeurs de Sciences de lEducation) et une communauté de pratique (des tuteurs). Les communautés dapprenants sont contextuelles, les participants sont les personnes impliquées dans le dispositif de formation mis en place. Un campus virtuel est loutil principal déchange et dapprentissage. Chaque année, les étudiants sont amenés à réaliser un travail collaboratif à distance autour de lusage des TIC dans lenseignement et la formation.
La liste H-Français constitue en France une des plus anciennes communautés délocalisées denseignants. Il sagit dune communauté de pratique créée en 1996 par deux enseignants (communauté individuelle). Elle compte actuellement 1300 inscrits. Cette liste est ouverte et indépendante de linstitution scolaire ; ses principaux acteurs se sont constitués en 1998 en association afin de créer un site web conçu comme un lieu fédérateur dinitiatives et de projets dans le domaine de lenseignement de lhistoire-géographie. Les contenus des échanges portent autant sur lenseignement de ces disciplines que sur lusage des TICS en classe ou lidentité professionnelle des enseignants.
Le Collectif de Recherche sur lApprentissage Collaboratif à laide des TICS (CRACTIC) mis en place au Québec pendant quatre ans de 1997 à 2001 poursuivait autant des objectifs dapprentissage et de développement pour des enseignants et leurs élèves que des objectifs de recherche en regroupant des chercheurs et des professeurs en Sciences de lÉducation. Les communautés de pratique et dapprenants mises en place dans ce cadre sont contextuelles et pourraient donc relever dune communauté dintérêt intelligente mais comme la formation et lapprentissage en constituent lessence et quune perspective plus large est adoptée au sein des activités de recherche-formation, elles sinscrivent plutôt dans une dynamique de communauté de pratique selon la classification de Henri et de Pudelko. Un ensemble doutils techniques étaient utilisés par ces communautés qui réalisaient des projets pédagogiques de quelques mois suivis par une phase danalyse. Les thèmes des échanges étaient surtout pédagogiques et didactiques, mais concernaient aussi lusage des TIC en classe et la technique de même que lidentité professionnelle de lenseignant dans des activités mettant en oeuvre les TIC. Comme dans le projet Learn-Nett, les communautés dapprenants étaient limitées dans le temps.
La liste Veille et analyse TICE
est une communauté dintérêt privée et indépendante. Elle a été créée en 1997 par un formateur denseignants à lusage des TIC. Les contenus des échanges sont directement liés à ses objectifs qui sont de proposer des informations récentes et une analyse du développement et de lusage des TICs à lécole.
La communauté dapprentissage, de recherche et de pratique TACT (TéléApprentissage Communautaire et Transformatif), regroupe des pédagogues, des étudiants futurs enseignants, des enseignants et leurs élèves, dans le but déchanger, dans un esprit de recherche collaborative, des pratiques, des ressources et des réflexions concernant lusage des TICs à lécole. Des communautés dapprenants et des communautés de pratique sont nées dans ce cadre (communautés contextuelles). Ce projet sappuie sur un réseau décoles associées à luniversité Laval (Québec) non seulement pour échanger des pratiques mais aussi pour expérimenter des scénarios dapprentissage et les analyser. Un site web fédère les informations et inclut des outils de communication et de collaboration utilisés de manière semi-publique.
Certaines de ces communautés sont en émergence cest-à-dire en train de se structurer ou liées à des projets limités dans le temps, dautres sont beaucoup plus anciennes. Certaines sont des communautés de pratique (formation continue informelle) alors que dautres sont liées à une formation initiale, donc contextuelles. Les thèmes de discussion et les centres dintérêt sont très variés de même que leur ouverture et leur indépendance vis-à-vis dune institution. Les modes de modération sont aussi variés. De plus, les outils utilisés pour soutenir ces communautés sont différents : liste de diffusion et portail, liste de discussion, campus virtuel, logiciels de collaboration asynchrone
6.3.4. - Les communautés délocalisées denseignants
Extraits : France Henri, Béatrice Pudelko
Lexpression « communautés délocalisées » renvoie le plus souvent à la constitution et à lorganisation de listes de discussion ou de diffusion électronique à laquelle participent des enseignants grâce au réseau Internet. Cest en tout cas de cette manière que lon comprend généralement cette expression. Cependant, lorsquon est amené à observer de plus prés ces communautés, on peut vite sapercevoir du caractère réducteur de cette appellation et mettre plutôt en avant la notion de réseau humain au sens large. Comme le rappelle Calderwood (2000), la notion de communauté peut recouvrir de très nombreuses réalités : religion, géographie, histoire, valeurs, rôles sociaux, professions
Chaque communauté se définit elle-même en fonction des liens qui unissent ses membres et des objectifs quelle poursuit, comme dans une communauté religieuse, une communauté professionnelle ou encore une communauté de personnes liées par de mêmes valeurs, une même origine ethnique ou géographique
Cest ainsi que toute communauté se définit des « frontières » par rapport au monde extérieur et une identité et que ses membres se définissent aussi par rapport à elle, souvent avec une dimension affective et émotionnelle très forte. Étudier les « communautés délocalisées denseignants » implique donc non seulement de se questionner sur lémergence dune certaine forme de communautés professionnelles qui utilisent une technologie particulière pour communiquer mais aussi plus largement de sinterroger sur leurs contextes démergence, sur leur identité et celle de leurs membres, sur leurs objectifs, leur évolution dans le temps, les stratégies quelles mettent en place pour devenir pérennes
La méthodologie mise en uvre pour décrire et analyser les sept cas de communautés denseignants choisies est essentiellement qualitative. Nous pensons quune description minutieuse des contextes et des activités de ces communautés plutôt quune description succincte de nombreux cas, permettra une meilleure analyse de leur émergence et de leur évolution dans le temps.
La recherche sur la communication asynchrone : de loutil aux communautés
La recherche sur les communautés virtuelles se développe dans le sillage de la recherche sur la communication médiée par ordinateur (CMO) qui sintéresse à lensemble des phénomènes surgissant autour de la communication établie au moyen dordinateurs et de réseaux, utilisant des systèmes basés le plus souvent sur le texte, mais aussi sur limage et le graphisme, ou sur une combinaison des trois modes. À travers lhistorique des recherches que nous décrivons dans la première partie de ce chapitre, nous avons voulu cibler lappropriation des échanges et des interactions télématiques rendus possibles par la CMO asynchrone et le développement des notions de réseau, de communauté et de lieux virtuels capables dhéberger lactivité collective. Nous espérons montrer comment la CMO comme objet de recherche sest transformée suivant lévolution de la théorie de la communication sous-jacente, passant du modèle linéaire de la communication-transmission au modèle conversationnel (ou dialogique) pour arriver jusquau modèle participatif de la communication qui fonde, selon nous, le phénomène des communautés virtuelles. Simultanément, sur cette trame de recherches, nous appliquons une lecture en fonction de trois dimensions technique (les outils), culturelle (les usages) et sociale (les usagers) pour essayer de comprendre le cheminement progressif de lactivité communicationnelle à laide de la CMO vers son inscription sociale de plus en plus forte aboutissant à lémergence des communautés virtuelles.
En effet, la fascination suscitée par les nouvelles formes de collectifs qui sont en train dêtre inventés autour de lInternet et du web est grande. La dimension utopique de lidéal communicationnel incarné par les groupes virtuels conduit à des prises de positions extrêmes par rapport au potentiel du changement que peuvent susciter ces nouvelles entités. On oscille entre une perspective techno-utopiste et une perspective techno-pessimiste. Dans la perspective techno-utopiste (par exemple, Rheingold, 1993 ; Lévy, 2000) le destin humain apparaît inéluctablement lié à la vie virtuelle et les frontières entre les deux vies : réelle et virtuelle seffacent. Dans cette perspective, mettre en place des communautés virtuelles devient un but en soi, même si une communauté virtuelle nexclut pas a fortiori ni la communauté réelle ni la présence physique.
Dans une perspective techno-pessimiste (Breton, 1995 ; Weinreich, 1997), on dénie au réseau le potentiel de créer des nouvelles communautés, plus performantes et plus utiles que les communautés traditionnelles. Ses tenants considèrent que la notion de communauté est prédéterminée par un emplacement physique, incluant des besoins liés à lenvironnement et les relations sociales complexes. On ne peut pas sinscrire à une communauté comme on peut sinscrire à un groupe de discussions sur Internet : il faut vivre dans et avec cette communauté.
Entre les deux extrêmes se situent ceux qui, tout en prenant en considération le statut novateur et réel des communautés virtuelles soulignent avec prudence que ce statut demeure problématique et leur avenir incertain (Daignault, 2001). Daignault (2001) remarque que comme toutes les communautés, les communautés virtuelles sont porteuses dune potentialité, cest-à-dire dun projet ou dun rêve et propose, dans la lignée de Deleuze (1968, cit. par Daignault), que si lessence du virtuel est de chercher à sactualiser alors les communautés nactualisent bien quelque chose que dans la mesure où une part delles-mêmes demeure virtuelle .
Trois générations de recherche sur la CMO
- Première génération de recherches : focus sur loutil
Le premier réseau télématique, Arpanet, est apparu en 1969 en reliant quatre universités de la Côte Ouest américaine. Il a été suivi aux Etats-Unis par Usenet (1979), Bitnet (1981) et son équivalent européen connu sous la dénomination EARN (European Academic and Research Network). Ces réseaux permettent léchange de courrier électronique et, rapidement, le logiciel Listserv enrichit considérablement les possibilités de Bitnet en le dotant dun outil souple de discussions en conduisant à la création de plus de quatre mille forums virtuels (listes de discussion) fréquentés par les chercheurs (Guédon, 1996). Le phénomène des discussions virtuelles suscite de nombreuses recherches qui tentent de cerner la nature et le potentiel de ces nouveaux outils de communication télématique et des échanges quils permettent.
Loutil comme porteur de réciprocité
Dès 1968, Licklider, un des principaux acteurs dArpanet, sintéresse aux caractéristiques de la communication en réseau. Il évoque la vision dune communication par ordinateur en termes dune implication active, participative et créatrice des individus. Exploiter linformation cest y apporter- et pas seulement de recevoir quelque chose par le simple fait dêtre connecté. Nous voulons mettre en valeur un aspect qui va bien au-delà du transfert à sens unique. (Licklider et Taylor, 1968, cités par Guédon, 1996, p. 39). Pour les chercheurs, la possibilité du réseautage conduit à une remise en question de la dimension unidirectionnelle de la diffusion de linformation, centralisée, hiérarchisée, du haut vers le bas, puisquelle met en avant la réciprocité de la communication des informations, et par conséquent, de leur libre circulation entre les individus communiquants. Ce changement dans la structure communicationnelle est observé à lintérieur des organisations et des communautés scientifiques qui préexistent au réseau télématique. Dans cette optique, la communication télématique est étudiée par les chercheurs en termes dun canal de communication supplémentaire dont lintroduction transforme le réseau de communication existant et conduit à remettre en cause les frontières et les hiérarchies à lintérieur de lorganisation (Hiltz, 1984 ; Zuboff, 1988 ; Johansen, 1988).
La mise en réseau comme facteur daugmentation de la rentabilité
En sintéressant aux transformations apportées par les outils de la communication télématique, les chercheurs se sont intéressés aux effets et aux conséquences de ces outils sur lorganisation et sur la communication entre ses membres. Les recherches qui sintéressent à lorganisation ciblent des aspects organisationnels du travail et la prise de décision dans les groupes et sinterrogent sur les raisons et les conséquences de lusage de loutil sur la communication dans lorganisation.
Loutil comme nouveau moyen dexpression
Au niveau individuel, les chercheurs étudient les appropriations par les usagers des caractéristiques du médium : lasynchronie, la textualité, linteractivité.
En rapport avec lasynchronicité, laspect fréquemment souligné est la possibilité offerte par la CMO de pallier la séparation dans le temps et dans lespace. Il est possible déchanger avec dautres, de dialoguer et dinteragir avec des pairs, à distance, un peu comme sils étaient présents (Feenberg, 1989 ; Kaye, 1989). Le caractère interactif et écrit de la CMO asynchrone conduit à la qualifier de registre interactif écrit ou de lécrit oralisé. En effet, son caractère hybride présente à la fois des caractéristiques du discours oral et du discours écrit, auxquelles les usagers additionnent des caractères entièrement nouveaux tels que ces signes spéciaux (smileys) destinés à suppléer au manque de marqueurs non-verbaux ou para-verbaux des paramètres sociaux et affectifs des échanges (Debyser, 1989 ; Ferrara, Brunner et Whittemore, 1991). En 1992, Kaye soulignait que puisque la CMO asynchrone réunit certains aspects de loralité interactivité et spontanéité et certains aspects de lécriture permanence et réutilisation il est inutile de se poser la question de savoir si ce médium relève plutôt de loral ou plutôt de lécrit, puisquon peut y retrouver les différentes formes du continuum linguistique, en commençant par linteractivité extrême caractéristique de loral jusquaux formes les plus académiques de lécriture.
Critiques actuelles de ces recherches
Ces recherches ont suscité des critiques qui soulignent le refus fréquent des auteurs de positionner leurs travaux dans une perspective sociale plus large et le fait dévacuer, par le recours à la communication, la problématique de la domination dans les rapports sociaux spécifiques à lorganisation et à la société en général (Proulx, 2001). Ainsi George et Totschnig (2001) relèvent quatre présupposés communs des travaux de cette époque :
lidéal de la communication comme orientée vers un consensus ;
lidéal de la transparence et de la suffisance de linformation disponible ;
lidéal de lextensibilité du mode de connexion vers des sphères sociales de plus en plus vastes ;
lidéal de communicabilité des modèles mentaux.
Deuxième génération de recherches : focus sur les usages
Au début des années 90, la communication télématique asynchrone se popularise avec la création dInternet, le réseau des réseaux. Grâce à lapparition dun protocole commun, les premiers réseaux sont reliés entre eux. Internet nest plus réservé uniquement à lusage des chercheurs et de certaines organisations et passe alors dans le domaine public. Dès 1990, on peut y accéder sur abonnement et la pénétration des ordinateurs personnels tant au travail quau foyer, dabord aux Etats-Unis, génère une accessibilité plus grande. Les forums de discussion, babillards, listservs, newsgroups se multiplient sur une foule de sujets donnant lieu, à des regroupements virtuels hors des cadres organisationnels qui ne sont pas sans intéresser les chercheurs. En outre, lusage pédagogique de la communication télématique qui avait déjà fait ses premiers pas en formation à distance sintensifie et ouvre la voie à ce que nous appelons aujourdhui la formation en ligne, le cyberapprentissage ou encore le téléapprentissage. Les travaux de lépoque sont donc marqués par ces deux courants de recherche : le premier sintéresse à limpact de la CMO sur lindividu hors du cadre organisationnel et aux relations interpersonnelles développées lors des échanges télématiques ; le deuxième concerne les apports de la CMO à lenseignement et lapprentissage, essentiellement dans le contexte de léducation et de la formation à distance.
Appartenance au groupe : perte ou libération de lidentité individuelle
De nombreux regroupements virtuels privés et professionnels se forment sur la base dun intérêt commun grâce aux outils de communication disponibles dans Internet. Les recherches qui sintéressent à ces groupes en émergence soulignent le risque présenté par la communication médiatisée dinscrire les individus dans un contexte social réduit, dans lequel les normes et lidentité sociale, la conscience de soi sont absentes ou largement minorées (Crinon, Mangenot et Georget, 2002).
Dautres auteurs avancent lhypothèse de la désindividuation (Spears et al. 1990 ; Lea et Spears, 1991 ; Matheson et Zanna , 1989) et trouvent que la CMO ne fait que renforcer les frontières sociales existantes en rendant saillante lidentité groupale de lutilisateur, au détriment de son identité personnelle. Ainsi, limmersion dans un groupe, même sil ne sagit pas de contact en face-à-face, peut augmenter le sentiment dappartenance sociale, et contribuer à rehausser, plutôt quà abaisser, ladhésion individuelle aux normes du groupe. Cette dernière hypothèse a été contestée, par exemple par Walther (1996), qui présente la communication asynchrone comme une communication hyperpersonnelle, par laquelle les participants construisent, à travers la mise en scène discursive de leur message, une identité individuelle spécifique et choisie, qui saccompagnerait dun niveau plus élevé de conscience de soi et dactivité introspective que les participants dune interaction en face-à-face.
La conversation médiatisée et lapprentissage collaboratif
Le caractère interactif et many-to-many de la communication asynchrone, expérimenté dans les forums de discussion, a soulevé un grand enthousiasme parmi les professionnels de la formation à distance, qui ont tôt fait de lui attribuer un potentiel de changement qualitatif de la situation pédagogique. Les forums de discussion allaient révolutionner la formation à distance en fournissant des opportunités sans précédent pour linteractivité pédagogique et en favorisant la communication de groupe et la participation de tous à la construction des connaissances (Kaye, 1992). Ainsi, la possibilité offerte aux étudiants de discuter en ligne devait contribuer à les rendre maîtres de leur apprentissage, et favoriser ainsi le passage du modèle centré sur lenseignant et la conception de lenseignement en tant que transmission des connaissances vers le modèle centré sur lapprenant et basé sur lapprentissage collaboratif et coopératif.
La démocratisation des échanges due à légalisation des statuts sociaux des participants semble en effet avoir lieu puisque les résultats des études empiriques indiquent que le forum de discussion permet de niveler les différences de statut social et favorise une répartition de parole davantage égalitaire (Harasim, 1993 ; Levin, Kim et Riel, 1990 ; McGuire, Kiesler et Siegel, 1987 ; Sproull et Kiesler, 1991), en permettant à ceux qui sexpriment peu en face-à-face de communiquer davantage (Thomas, 1999). En revanche, ce dernier résultat nest pas toujours retrouvé : ceux qui participent le plus en face à face participent également davantage en CMO (Ruberg, Moore et Taylor, 1996). Beach et Lundell (1998) suggèrent dailleurs que plutôt que de créer une fausse opposition entre la CMO et les autres formes de communication, il serait probablement plus productif de les appréhender de façon complémentaire.
Par ailleurs, le caractère monologal des échanges ne permet pas pour autant de conclure à labsence dapprentissage dans les activités incluant les forums de discussion (Henri, 1992 ; Light et Light, 1999). Crook (1999) souligne que laccumulation des échanges conduit à lémergence dune conscience de lhistoire commune qui influence positivement la motivation à effectuer la tâche et par conséquent peut augmenter leffort consenti à la construction collaborative. Cette mémoire collective peut être améliorée par les artefacts qui font partie de lenvironnement matériel ou virtuel de la communauté dapprentissage, mais aussi par les artefacts créés lors de lactivité commune.
Critiques actuelles de ces recherches
Létude des caractéristiques sociocognitives des groupes qui émergent des réseaux télématiques est effectuée sur la base de la structure de leurs échanges, des patterns dinteraction, des taux de participation et, plus rarement, à travers une analyse du contenu des messages. Laccent est mis sur le caractère public des échanges mettant en scène une pluralité démetteurs et de récepteurs et la conversation asynchrone est analysée en référence à la situation de la conversation en face-à-face.
En ce qui concerne lidéal de la conversation libre, les chercheurs travaillant dans le domaine de lapprentissage collaboratif ont souligné la complémentarité de la conversation et de laction pour la construction des connaissances. Dans cette perspective, la pratique conversationnelle permet de créer la signification intersubjective par la négociation des significations subjectives des mots au cours des actions communes. Lexistence de lobjet de la conversation est mise en avant : Les agents en interaction partagent le but mutuel darriver à un commun accord, en fonction dun ensemble quelconque de negotia, ou dobjets de négociation (Dillenbourg et Baker, 1996, p. 187 ). Dans cette optique, la collaboration consiste à construire et à maintenir une conception partagée du problème (Roschelle et Teasley, 1995) qui seffectue simultanément sur trois niveaux : 1) le niveau communicationnel (négociation de la signification des mots) ; 2) le niveau de la tâche (négociation des stratégies et des méthodes de la résolution de problème) et 3) le niveau de la coordination des interactions concernant les deux niveaux précédents (Dillenbourg et Baker, 1996).
Le champ de la collaboration en mode virtuel semble se limiter à la conversation se rapportant à lobjet de lactivité collaborative sans prendre en compte le contexte large de sa réalisation. Cependant, dans le contexte des échanges en mode présentiel, la dimension transactionnelle et socialement située de la conversation est grandement soulignée par des auteurs sappuyant sur les théories sociales de lapprentissage. Lapprentissage est une co-construction des significations sociales et, par conséquent, les échanges verbaux ne peuvent pas être analysés en dehors des structures médiationnelles culturelles dans lesquelles ils prennent place (Hicks, 1996 ; Wertsch, 1998) : apprendre, penser, savoir, sont le fait de relations entre des personnes engagées dans une activité qui prend place au sein du monde socialement et culturellement structuré et qui se construit par son intermédiaire . (Lave, 1997, p. 67). Les recherches sur la CMO qui se situent dans cette perspective partagent une conception de lusage du forum de discussion comme un support à des activités inscrites dans les contextes sociaux, culturels et professionnels du monde environnant et conduisent à lémergence de la thématique des communautés dapprentissage.
Troisième génération : focus sur les communautés dusagers
La troisième génération de recherche sur la communication asynchrone élargit son champ dinvestigation et sintéresse désormais à la communauté virtuelle. Les recherches qui sy rattachent, présentent toutes les caractéristiques dun paradigme en émergence, à savoir : tentatives de définir des principaux concepts, de délimiter des frontières de lobjet étudié, de circonscrire le domaine par rapport aux champs disciplinaires, de trouver des méthodologies appropriées.
Bien que cette génération de recherche nait pris son essor quau milieu des années 90, lorigine de la notion de la communauté virtuelle peut être située dans lexpression online community introduite par les créateurs dArpanet, et définie comme un groupe communiquant par télématique et mû par lintérêt commun (Licklider et Taylor, 1968). Pour Hiltz (1984) la communauté en ligne est un nouveau type de communauté professionnelle qui se définit par le fait de communiquer à travers un réseau de communication télématique. Dans la perspective de cette auteure, lexistence préalable dune communauté professionnelle constitue un prérequis à la notion de la communauté en ligne et la communication télématique ne vient qualtérer les processus sociaux qui sont ceux de la communauté réelle.
La notion despace virtuel ou de lieu virtuel de vie dune communauté constitue donc un analyseur possible de ce quest et peut être une communauté virtuelle, dont la première caractéristique serait de se situer au-delà des contraintes de la proximité physique caractérisant une communauté réelle.
La communauté virtuelle : entre le réel et le virtuel
De nombreuses recherches ont comparé les communautés virtuelles aux communautés réelles. Elles ont montré que les membres des communautés en ligne ont des comportements qui identifient traditionnellement les communautés ou les groupes dans la vraie vie : leurs membres ont des objectifs communs, et un fort engagement envers la communauté (Reinhgold, 1993 ; Baym, 1995 ; Curtis, 1997 ; Donath, 1999), ils établissent leur hiérarchie dexpertise, forment leur propre vocabulaire et modes de discours (Marvin, 1995). Ils construisent les règles de comportement et les rituels communautaires (Bruckman, 1998 ; Fernback, 1999 ; Kollock et Smith, 1999). En effet, les règles de comportement et la conscience de lhistoire partagée fournissent une identité au groupe et des indications pour savoir comment se comporter et comment anticiper le comportement des autres membres de la communauté (Donath, 1999), mais aussi comment identifier qui fait partie de la communauté (McLaughlin, Osborne et Smith, 1995).
Malgré ou grâce à ces avancées, plusieurs auteurs ont souligné la difficulté de définir le concept de communauté virtuelle (Benoît, 2000 ; Alstyne et Brynjlofsson, 1997 ; Jones, 1995 ; Proulx et Latzko-Toth, 2000). On remarque que les études empiriques étant rares, les chercheurs décrivent les groupes apparaissant sur Internet en utilisant le terme de communauté sans pour autant préciser cette notion ni sa pertinence par rapport au phénomène observé (Liu, 1999). On peut attribuer cette difficulté à la double complexité de la notion de la communauté virtuelle provenant à la fois de la complexité de la notion de la communauté et de celle du virtuel.
Le virtuel est habituellement défini par rapport au réel, et est intrinsèquement lié au progrès technologique. Cette séparation entre les deux notions conduit à présenter le virtuel soit comme une dégradation du réel, soit comme son amélioration, cette dernière approche étant liée directement à lutopie communautaire.
Communauté virtuelle en tant que réseau social
Ce courant de recherche propose de définir la communauté en termes de lactivité faite ensemble plutôt que sur la base de la proximité géographique. Ainsi, pour Haythornthwaite (2000) une communauté se définit tout dabord par les activités communes de ses membres et par le réseau social quils constituent. Par conséquent, lexistence dun groupe ou dune communauté peut être déduite à partir des comportements communicationnels de ses membres, la communication asynchrone ne représentant quun des moyens de communiquer parmi dautres. Le réseau social se constitue sur la base des comportements sociaux déchange qui peuvent avoir pour objet les échanges dinformation, daide, de soutien social.
Par ailleurs, deux approches différentes de létude des réseaux sociaux sont proposées : une approche centrée sur le réseau et une approche centrée sur lindividu. La première sintéresse au réseau en tant quune totalité (whole network) et étudie, à travers lanalyse des sociogrammes, comment les ressources échangées circulent à lintérieur du réseau, comment les interactions positionnent les individus dans le réseau, quels sont leurs rôles dans le réseau (par exemple, rôle central ou participation périphérique). La deuxième approche sintéresse à lindividu en tant que membre dun ou de plusieurs réseaux (ego-centric networks) et aux différentes façons dont un individu développe ses relations avec les autres à travers le réseau et linterconnexion des différents réseaux dont il est membre.
Dans cette perspective, les interactions importantes pour construire et maintenir une communauté virtuelle dapprentissage sont les comportements communicationnels permettant léchange dinformation, le support social et le support à la tâche. Létude conjointe des échanges et des cyber-lieux permet de décrire quelles sont les ressources importantes pour une communauté donnée et par conséquent, dorienter la conception des environnements en ligne de façon à fournir les ressources appropriées.
Communauté virtuelle en tant que communauté dapprentissage
Une communauté dapprentissage se définit dabord par son activité, qui est, la plupart du temps, conçue en termes de construction des connaissances. Le concept de construction des connaissances (knowledge building) résume lessentiel des théories de lapprentissage nourrissant cette approche : quil sagisse du sociocognitivisme (Cognition and Technology Group at Vanderbilt, 1990, 1991), du constructivisme (dinspiration piagétienne ; par ex. Doise et Mugny, 1981 ; Perret-Clermont et Nicolet, 1988) ou du socioconstructivisme (dinspiration vygotskienne, par ex. Moro, Schneuvly et Bronckart, 1997 ; Scardamalia et Bereiter, 1991), de la théorie de lactivité (Leontiev, 1981, Engeström, 1987), de la cognition distribuée (Greeno, Collins et Resnick, 1996 ; Pea, 1993, Perkins, 1995) ou de la cognition située (Lave et Wenger, 1991 ; Greeno et Moore, 1993). Cette dernière insiste sur le caractère contextualisé des processus dapprentissage, et souligne que la signification des connaissances se développe progressivement à travers les pratiques sociales réelles (Brown, Collins et Duguid, 1989 ; Greeno et Moore, 1993). Le développement de ces théories dans le champ éducatif seffectue en parallèle avec celui dInternet et des politiques de léducation visant à brancher les écoles, selon une causalité complexe et récursive. Ainsi, dans la problématique des apprentissages scolaires à laide des TIC une place de plus en plus importante est dévolue au C (de la Communication) au détriment du I (de lInformation). Cest dans ce sens quInternet a été décrit comme un socioware, cest-à-dire un environnement médiatisé dapprentissage qui permet de créer un éventail dinteractions coopératives et douvrir lécole sur le monde : En facilitant la communication des classes ou détablissements et léchange de lécole avec la communauté, les technologies de communication démontrent une qualité douverture sur le monde. Celle-ci donne aux technologies de communication un potentiel nouveau pour animer, stimuler, ou favoriser le développement de limagination ou de la créativité et peut constituer le point de départ dune activité de groupe à valeur socialisante. (Papadoudi, 2000, p. 170).
La notion de communauté dapprentissage se développe donc en suivant la mutation du paradigme représentationnel de la transmission des connaissances vers le paradigme participatif de la construction des connaissances, dans lequel apprendre et faire sont une seule et même chose : la participation dans la pratique constituant en elle-même le fait dapprendre et de comprendre (Barab et Duffy, 1999). Dans cette optique, une communauté dapprentissage est fondée sur une démarche dapprentissage par action, finalisée en fonction des projets, souvent transdisciplinaires, incluant la résolution des problèmes et basée sur la collaboration/coopération entre les apprenants (CTGV, 1990, 1993 ; Koschmann, 1996 ; Laferrière et Grégoire, 1999 ; Roth, 1996 ; Henri et Lundgren-Cayrol, 2001). Ces principes fondent la conception des communautés dapprentissage virtuelles, et se traduisent souvent par lexternalisation des produits de création individuelle et des réalisations communes des apprenants grâce à la publication sur le web. Ces uvres collectives aident les apprenants à créer et maintenir la solidarité du groupe, à les sensibiliser au partage du travail et à constituer des significations qui sont à la fois partagées et négociables (Meyerson, 1987, cité par Bruner, 1996, pp. 39-40). Dans cette optique, apprendre consiste à créer et à se réapproprier le feedback de sa création : on sapproprie les connaissances lorsquon a la possibilité de les produire (Schwartz, 1999, p. 199).
Gordin, Gomez, Pea et Fishman, (1996) proposent de distinguer deux conceptions différentes des communautés dapprentissage :
Les communautés dapprentissage dans le contexte scolaire fondées sur la démarche de la pédagogie par projet. Ces communautés sont formées par les élèves et les enseignants engagés dans les projets à long terme, dans lesquels les apprenants travaillent en coopération/collaboration et souvent de manière transdisciplinaire.
Les communautés dapprentissage basées sur la démarche de compagnonnage, de mentorat ou de communauté de pratique et qui ne sont pas nécessairement limitées au cadre éducatif institutionnel. Ces communautés sont formées délèves, denseignants et de professionnels et visent explicitement à préparer lapprenant à devenir membre dune communauté professionnelle donnée.
Communauté virtuelle en tant que communauté de pratique
Suivant lapproche proposée par Wenger (1998), le principal théoricien de la communauté de pratique, des communautés de pratique se forment parmi des personnes qui exercent le même métier ou qui uvrent avec dautres et partagent les mêmes conditions de travail. Ce phénomène nest pas nouveau et ne doit pas être nécessairement associé au développement des technologies du virtuel. Dans loptique de Wenger, les communautés de pratique constituent des cadres dinterprétation partageant un vocabulaire commun nécessaire à laccomplissement du travail. Elles se forment souvent de manière spontanée et informelle, et développent des façons de faire qui répondent plus adéquatement aux exigences des tâches et permettent de générer des solutions à des tensions institutionnelles et organisationnelles. Elles sont une forme de mémoire collective qui fournit à ceux qui partagent une pratique professionnelle des informations et des outils permettant deffectuer correctement leur travail sans avoir à en maîtriser tous les aspects. Elles constituent également une structure daccueil et de formation pour les nouveaux embauchés et génère une ambiance sociale positive. Une communauté de pratique émerge de lactivité collective ; elle nest pas un but en soi, mais le résultat dun engagement des individus dans les actions dont ils négocient le sens les uns avec les autres.
Enfin, fait important à souligner, Wenger note que dans le monde réel, les membres dune communauté de pratique ne sont pas toujours conscients dy participer. Il ajoute que les communautés de pratique font partie intégrale de notre vie quotidienne et façonnent notre activité quotidienne, que ce soit à la maison, au travail, à lécole. Cependant, si dans la vraie vie les communautés de pratique sont à la fois informelles et omniprésentes, il nen est pas ainsi dans lunivers virtuel, où les communautés de pratique nont pas (et ne peuvent pas avoir) ces qualités génératrices de transparence pour ces membres. En effet, dans le monde virtuel, lémergence de ces communautés doit passer nécessairement par un processus de prise de conscience de lexistence (ou de la potentialité dexistence) dune communauté de pratique réelle et des enjeux communs qui contribuent à sa définition et à sa consolidation ultérieures. Ainsi, pour exister, une communauté virtuelle a besoin de ladhésion consciente des membres à lentité sociale quelle se propose dincarner. La communauté déclare son existence formelle en inscrivant une liste de membres, en choisissant ses outils de communication, en construisant lenvironnement qui lhéberge et en se donnant des règles de fonctionnement.
Conclusion sur les recherches sur la CMO
La description des recherches sur la CMO que nous venons de présenter souligne le cheminement parcouru vers linscription sociale de cette nouvelle forme de communication et vers son appropriation comme un outil dorganisation sociale. Ainsi, après un premier temps dapprivoisement des outils conçus pour échanger des informations sous forme de messages textuels asynchrones, cette nouvelle situation de communication a progressivement évolué vers le développement dusages orientés vers les échanges de groupe, le partage, la collaboration et la réalisation dactivités collectives. Ce cheminement reflète lévolution des théories de la communication qui a conduit à poser lacte de communiquer comme un geste de participation. Il corrobore aussi lidée que lusage effectif dun outil peut diverger fortement du cadre de lusage initialement prévu par les concepteurs et dépend des finalités daction des usagers situés dans des contextes sociaux complexes déterminant les différents schémas dusage possibles (Rabardel, 1995).
Les communautés virtuelles ont émergé au fil de lévolution des usages de la CMO, et on peut être tenté dy voir la projection dans le virtuel dun phénomène existant dans le monde réel. Ces communautés se proposent comme des entités sociales actualisant les intentions et les finalités de groupes ou dorganisations. Elles traduisent une volonté consciente et explicite de développer des pratiques collectives et envisagent lapprentissage comme une pratique sociale. Si, comme le souligne dentrée de jeu Wenger (1998, p. 45), le but de ses membres nest pas de former une communauté de pratique mais bien celui de travailler afin de gagner leur vie, alors on peut dire que la communauté se situe dans lordre des moyens : elle constitue un moyen au service de lapprentissage au quotidien. La décision de créer une communauté virtuelle correspond à un choix social et stratégique qui valorise la communication comme moyen de la participation sociale pour favoriser lapprentissage basé sur lexpérience professionnelle de chacun de ses membres. Ce choix peut être celui de linstitution ou une initiative des praticiens eux-mêmes, et reflète des interactions complexes entre linstitution et les membres des différentes communautés de pratique qui la composent.
ConclusionRecommandations
Le PNER a engagé un ensemble de travaux qui couvrent un champ très vaste. De ce point de vue, il est à la mesure de la complexité et de la richesse des processus dadoption des nouvelles technologies de linformation et de la communication dans le monde de lenseignement et de la recherche. Bien évidemment, les études conduites, les pistes explorées népuisent pas les questions. Le mouvement de remontée vers les problèmes, la découverte de nouvelles questions, à loccasion de la croissance de ces lignées technologiques, est très profond. Nous sommes en face dun ample procès de virtualisation. À partir des évènements en cours, du processus dactualisation même de ces technologies, nous devons apprendre, à nouveau, à découvrir les questions et problèmes auxquels ils se rapportent .
Cela implique aussi, nous lavons fortement exprimé au début de ce rapport, que nous tentions de penser la crise actuelle comme crise générale des savoirs, crise liée pour une part importante aux transformations profondes du procès de travail, cest-à-dire aux nouvelles formes de division et dorganisation qui se mettent en place. Allons plus loin, cette crise est fondamentalement encore de nature anthropologique.
Cest la raison pour laquelle létude ces processus dadoption doit être sans cesse menée en ayant en vue les nouvelles machines collectives qui sont en train de sactualiser et vont donner forme et sens au procès de numérisation en cours.
De ce point de vue, il faut bien comprendre que la maîtrise de nos sociétés, passe par la capacité à définir les conditions dune formation qui réponde à un certain nombre de défis et contraintes. La nouvelle division du travail, la fragmentation des compétences qui va de pair avec le besoin de transversalités, plus ou moins longues, maîtrisées, la montée en puissance de nouveaux modes coopératifs, le développement et lacceptation de logiques auto-organisationnelles, tout cela exige lémergence de savoirs qui visent lappréhension des caractères processuels des dynamiques socio-cognitives, des dimensions des espaces-temps dynamiquement enchevêtrés, expressions et exprimés, dacteurs-réseaux de plus en plus hétérogènes. La question est donc la suivante : de quels types de savoirs avons-nous besoin afin dassurer, dans un premier temps, la métastabilité des sociétés complexes et ouvertes, puis dans un second temps, de faire émerger les conditions favorables au déploiement de nouveaux systèmes de régulation, de nouvelles boîtes noires permettant à des sociétés extrêmement différenciées, travaillées par de nouvelles frontières en mouvement, de sutiliser comme instance de leurs propres opérations. Comment former, éduquer, comment apprendre à penser, de nouveau, alors que la politique a emprunté depuis quelques trois décennies une voie expérimentale (où) lexpérimentation relaie enfin le concept marxiste de la pratique lorsque la distinction des objets, des moyens, des matières premières et des produits sefface dans celle, différentielle, des méthodes dans la généralisation et le triomphe des moyens, lorsquon a compris quil ny a plus de contradictions dans les choses. Une stratégie généralisée met en rapport différentiel et détermine lun par lautre dans une chaîne machinique continue, amis en dehors de toute fin éthique ou scientifique les procédés théoriques ou non, de pouvoir
Comment définir donc, les contours dune nouvelle culture générale, les conditions de son développement et de sa propagation stabilisée dans le temps, qui permettrait de sortir du discours des essences, des ontologies monovalentes, des logiques bivalentes qui constituent le socle hérité, de nos cultures. Comment sortir du grand partage entre les deux cultures, scientifique, technique dun côté, sciences humaines et sociales, études littéraires, de lautre. Certes, ici et là, des manifestations de la vie sont déjà là, qui construisent des lignes de fuites, qui portent à leur point de tension maximum les dialectiques héritées, têtues et obsédantes entre mécanisme et vitalisme, proposent de nouvelles formes anthropologiques, des nouveaux savoirs, de nouveaux arts cest-à-dire de nouvelles formes sonores et visuelles, de nouvelles alliances images-textes-sons, de nouveaux corps.
Mais la tâche est encore immense et incertaine, pour tous ceux qui pensent que la survie, puis le développement de nouveaux systèmes démocratiques, passe, entre autres, par la capacité à former aux nouvelles conditions anthropologiques.
La crise de lécole est certes lexpression de tensions à luvre dans les domaines politiques, sociaux, économiques, les structures familiales, la multiplication des instances de production dinformations
Cest tout cela, mais comme conséquence diverse de lincapacité des savoirs à rendre compte de la nouvelle situation, et donc du défaut de critères danalyse et de théorèmes synthétiques permettant de constituer un dispositif épistémique de rétentions approprié, et comme incapacité résultante à FORGER les fondements intégrateurs dun NOUS, cest-à-dire dune vision davenir désirée dans son indéterminité même, dans son improbabilité factuelle, dans lincertitude de ses frontières et dans son idéalité, aux sens à la fois kantien et husserlien de ce mot .
Dans ce contexte, la maîtrise du processus de numérisation, des nouvelles mémoires en réseau, du développement des technologies intellectuelles prend tout son sens. Cette maîtrise nest pas seulement une maîtrise technique. Elle est un processus de recherche, de formulation des problèmes que nous devons nous poser, résoudre et qui concerne la création de nouveaux couplages cortex-NTIC, hommes-interfaces, hommes-médiations. Ce que nous avons à apprendre : mieux maîtriser un plus grand nombre de points de vue et leurs relations, augmenter dans des proportions qui sont ouvertes, la taille de nos niches éco-cognitives, développer des modes décriture et de lecture qui nous permettent daccéder au caractère toujours plus processuel et hétérogène des conditions de production et de circulation des savoirs. Et pour cela, donc, apprendre à concevoir et à utiliser des technologies intellectuelles capables daccroître dans des proportions non négligeables, nos capacités associatives et analogiques , nos capacités de navigation cognitive.
Nous avons, dun certain point de vue, le choix entre les comportements morbides, compulsifs et les attitudes renaissantes. Si notre but et notre désir sont de produire de nouveaux états dintelligence, alors il faut apprendre à travailler, former, éduquer à partir des contextes dynamiques et fortement connectés qui nous servent à présent de milieux associés.
Dans un monde connecté, où cohabitent la croissance quantitative des informations, des savoirs et des non-savoirs, la différenciation des conditions de production en général, et le besoin daccroître la taille des écologies cognitives de chaque entité pensante, la question prend une dimension stratégique majeure. La question est donc aussi de mieux appréhender la nature de la relation existante entre la dissémination-dispersion des nouvelles technologies intellectuelles et la genèse au sein dune formation sociale dune capacité ultérieure dexpansion économique, stratégique, culturelle, liée à une capacité augmentée des intelligences collectives .
Tous les gains en matière de concepts capables de saisir la réalité (actuelle) réduisent à juste titre lintérêt pour les figures théoriques traditionnelles
et militent en faveur dune création accrue du côté des formes dorganisation ayant en vue léducation et la recherche.
La visée du Programme Numérisation pour lEnseignement et la Recherche doit donc être non seulement maintenue, mais amplifiée, sous des formes nouvelles à définir. Un point de vue centralisé qui prétendrait organiser ce vaste mouvement serait selon nous une erreur. Il convient pourtant, au risque de quelques incertitudes, de repérer un certain nombre de points dapplication des forces et de mettre en place des conditions favorables à la dissémination des virtualisations en cours, des mises en uvre concrètes. Dans la perspective dune réforme de lÉtat, et de laccentuation des formes dorganisation décentralisées, ce choix doit être précis et sappliquer à divers niveaux déchelle.
Les principaux domaines que nous considérons comme stratégiques sont les suivants :
La question de lédition électronique
Il sagit là, à nen pas douter dun enjeu décisif pour les années à venir. Ce qui est en question :
la visibilité de la production scientifique française et francophone dans le secteur des sciences humaines et sociales ;
lémergence de nouvelles pratiques collectives et de nouveaux modes dévaluation pour les chercheurs, mais encore pour les instances chargées de la définition des politiques scientifiques et éducatives ;
lémergence de nouvelles fonctionnalités éditoriales, prenant en compte les dimensions hypertextuelles des mémoires numériques et créant les conditions dun saut en complexité au cur même des pratiques socio-cognitives ; nouveaux modes documentaires de recherche et de navigation, nouveaux modes de filtrage, danalyse et de traitement des gros corpus documentaires, nouvelles pratiques cartographes ;
le statut et le devenir des manuels scolaires dans leur rapport complexe aux cours en ligne ;
le développement du E-Learning et son insertion maîtrisée ;
la redéfinition des rapports entre les acteurs classiques de lédition et entre ces derniers et les nouveaux venus ;
la redéfinition de lespace public de la recherche et de lenseignement ;
ladaptation des règles de droit, voire ladoption de nouvelles règles.
Ce qui est en jeu est donc stratégique. Cela suppose quune véritable veille, sur une durée relativement longue, soit engagée, avec les moyens nécessaires. (Identification des acteurs éditoriaux, des équipes travaillant sur les nouvelles technologies éditoriales, des standards ouverts.) En ce qui concerne les acteurs éditoriaux, non seulement les acteurs privés, mais aussi les presses universitaires, les chercheurs eux-mêmes souvent impliqués entre autres dans le développement des systèmes dauto-archivage, les bibliothèques, les innovateurs
Une réflexion particulière devrait être engagée sur la politique concernant les bases de pre et post print. De ce point de vue, linitiative de Budapest doit être examinée de manière critique. La constitution de ces archives présente selon nous un grand intérêt. Pour les chercheurs des disciplines, elles créent peu à peu les conditions de nouveaux modes de travail coopératif, elles renforcent la présence des productions francophones. Elles sont à terme, possible réserve permettant de mettre en place de nouveaux indicateurs, relativement, afin de suivre régulièrement létat de la recherche en émergence. Lusage des outils infométriques et cybermétriques devrait être amplifié, et leurs résultats largement distribués.
La question des technologies intellectuelles élémentaires
Là encore il sagit selon nous dun enjeu stratégique et une activité de veille simpose concernant les technologies de base.
Tout dabord les outils de recherche et de navigation. De lécole élémentaire à luniversité, la mise sur pied et la dissémination rapide de moteurs de recherche et de navigation, sur-mesures et paramétrables, visant le développement de pratiques collaboratives denseignement et de recherche nous semble très important, de même la mise au point rapide doutils de filtrage et de cartographie, adaptés aux différents âges de la formation. Nous avons un grand nombre déquipes, dentreprises qui, dans les domaines documentaires, info et cybermétriques, de lingénierie linguistique, des sciences de la cognition et de linformation communication, de léducation, de lergonomie, des interfaces
, sont en mesure de répondre à ces demandes. Lactivité de veille concernant la question de lédition électronique doit, selon nous, être très étroitement associée au repérage des travaux, équipes, entreprises impliquées dans les domaines de lindexation, du filtrage, de la navigation, de la représentation-simulation des flux informationnels
Cela implique, toutefois, que nous remettions en cause, en particulier, au sein de lespace public, dune certaine culture du prototype , indéfiniment retravaillé. Il faudra rapidement, après avoir défini les fonctions cognitives que nous souhaitons voir augmentées aboutir à des résultats concrets.
Enfin, le développement dune réflexion, puis la mise en place rapide de portails permettant aux enseignants, aux enseignants-chercheurs daccéder selon des modes de navigation et de filtrage à définir, aux ressources, serait particulièrement rentable à terme. Ces portails, proposant les nouvelles fonctions éditoriales, pourraient en outre, rapidement constituer les bases de données à partir desquelles la création dindicateurs relationnels seraient possibles. Ces indicateurs donnant accès à une meilleure visibilité des réseaux constitutifs des dispositifs denseignements, de recherche en acte .
La formation documentaire dans le contexte actuel
En raison de lévolution des mémoires numériques, la formation à la recherche documentaire doit être mieux intégré dans les cursus. Nous pensons par exemple, quune mise à niveau à lentrée de luniversité devrait être généralisée.
De même lassociation du champ documentaire aux travaux concernant les champs de léducation, de la cognition, de linformation et communication devrait être renforcée.
La question de la transdisciplinarité
Pour cela, et en raison de la complexité des enjeux, il conviendrait que soit favorisée la constitution déquipes transversales. Nous souhaitons, donc la simplification des procédures administratives, simplification rendant rapidement réalisables la constitution déquipes de recherche ad hoc, lamélioration des dispositifs dévaluation et dattribution des ressources, une meilleure prise en compte institutionnelle des projets innovants au cours de la carrière des enseignants-chercheurs.
Lensemble des études montre, en effet quau-delà des trois disciplines dominantes (sciences de léducation, sciences de la cognition, sciences de linformation et de la communication) sur lesquelles le programme sest appuyé, dautres disciplines ou domaines ont très souvent été convoqués. La sociologie, et plus particulièrement les sociologies de linnovation, lanthropologie, lhistoire, linformatique, le droit, la linguistique et lingénierie linguistique, lingénierie documentaire, la sémiologie, la philosophie
La question des usages
Les travaux menés dans ce secteur sont importants. Toutefois la difficulté à constituer des équipes transversales est grande. De même la difficulté à définir et à mettre en place des dispositifs dobservation fins et des protocoles dexpérimentation, suppose un resserrement des équipes, la mise en commun de moyens techniques, logiciels importants et lorganisation dun séminaire national voire européen, transdisciplinaire, sinscrivant dans la durée. Là encore une activité de veille, visant un état des lieux et de lart, nous semble nécessaire.
La question des standards
Les enjeux concernant les standards du document électronique doivent être abordés avec plus de force. Leur rôle au cur même de lévolution des pratiques collaboratives, des modes dorganisations des communautés éducatives et de recherche est décisif. De la conception des outils accompagnant lémergence des nouveaux modes éditoriaux le choix de standards ouverts est un réquisit majeur.
La mise à disposition dune information permanente et accessible, compréhensible pour les diverses équipes pédagogiques et communautés scientifiques, plus particulièrement pour celles qui opèrent au niveau des premiers et seconds cycles et dans le champ des sciences humaines et sociales doit se faire rapidement.
La question juridique et économique
La mise en perspective des débats juridiques doit tenir compte de manière plus précise des évolutions des pratiques socio-cognitives ainsi que des transformations de léconomie politique des savoirs afin que soit garanti laccès aux ressources fondamentales, au sein de lespace public.
Nous pensons enfin quune recherche visant à établir un état de lart concernant les instruments juridiques de la numérisation , au plan national et international serait des plus utiles.
Annexes
études PNER 1999-2002 199
Quelques ressources complémentaires 229
études PNER 1999-2002
Quatre études ont été réalisées au cours de la phase pilote (1999) du Programme Numérisation pour lEnseignement et la Recherche.
Deux études détat de lart en matière de numérisation visent à identifier les collections numérisées et à dresser une cartographie des fonds susceptibles de lêtre, permettant de dégager les priorités de numérisation. Ces études portent sur la situation française et celle des autres pays, en particulier la Grande-Bretagne, les Etats-Unis, le Canada, lAllemagne.
Étude 1 : Létat de lart de la numérisation pour lenseignement et la recherche. Les acteurs de la numérisation et leurs programmes
Cette étude porte sur les acteurs de la numérisation et leurs programmes : la typologie et la présentation des différents acteurs publics et privés impliqués dans la réalisation de ces programmes ; leurs objectifs, les choix techniques et éditoriaux, leurs rôles ; la description des programmes et des projets, en particulier lanalyse des programmes denvergure nationale (France et étranger). Les programmes spécifiquement orientés vers le public enseignant (tous niveaux) sont plus particulièrement analysés. Cette étude a été réalisée par ORTECH.
Létat de lart de la numérisation pour lenseignement et la recherche : Les acteurs de la numérisation et leurs programmes.
Étude 2 : État de lart sur les fonds numérisés
Cette étude porte sur les fonds : la typologie des sources numérisées utiles à lenseignement, une cartographie des fonds susceptibles dêtre numérisés (projets déditeurs, projets embryonnaires à soutenir
), lidentification des collections, une ébauche dévaluation des lacunes (à partir de loffre) et des propositions concernant les priorités et la faisabilité du programme. Cette étude est réalisée par le Bureau Van Dijk.
Axelle Chereil de la Rivière, Jean Dufour,
Éric Sutter et Jean-Paul Roux-Fouillet.
Deux études portent sur lanalyse des usages et des besoins de documents numérisés dans lenseignement avec, pour objet, de déterminer comment lutilisation de documents numérisés sintègre dans les pratiques denseignement et de distinguer la spécificité dusage et les besoins selon les types dutilisateurs, les niveaux et les disciplines.
Étude : Usages et besoins de documents numérisés pour lenseignement primaire et secondaire
Cette étude est consacrée à lanalyse de la situation dans le milieu scolaire. Elle est réalisée par Alain Rey Productions.
Étude : Les usages et les besoins des documents numériques dans lenseignement supérieur et la recherche
Cette étude est consacrée à lanalyse de la situation dans le milieu de lenseignement supérieur et de la recherche. Elle est réalisée par lENSSIB.
Les usages et les besoins des documents numériques dans lenseignement supérieur et la recherche.
Coordination scientifique :
Jean-Michel Salaün, Gresi, Enssib,
Alain Van Cuyck, Ersico, Université Lyon 3.
Participants à létude :
Christine Andrys, Assistante de recherche CERLIS/CNRS,
Ghislaine Chartron, Maître de conférencess URFIST-Paris, Gresi-enssib,
Marie-Noélle Frachon, Pôle Lyonnais du Livre Gresi-Enssib,
Annaïg Mahé, Doctorante Enssib,
Laurence Mazauric, Doctorante Enssib,
Florence Muet PAST, Gresi-Enssib,
Abdel Noukoud, Doctorant Ersico-Lyon 3,
Suzanne Peters PAST, Gresi-Enssib,
Jacqueline Rey, Maître de conférences Ersico-Lyon 3,
Odile Riondet PAST, Gresi-Enssib,
Jean-Michel Salaün, Professeur Gresi-enssib,
Ahmed Silem, Professeur Ersico-Lyon 3,
Alain Van Cuyck, Maître de conférences Ersico-Lyon 3.
Étude sur les projets de numérisation de documents iconographiques et sonores des Maisons des Sciences de lHomme
Cette étude réalisée par la société Jouve se situe dans une double perspective : la numérisation des documents de recherche et la valorisation des travaux des Maisons des Sciences de lHomme (MSH). Cet état de lart en matière de projets de numérisation a été réalisé à partir de lobservation dun ou plusieurs projets dans sept structures : MOM de Lyon, MMSH Aix-en-Provence, MSHS Poitiers, Maison René Ginouvés de Nanterre, IRHT Paris et Orléans, et Maison de larchéologie de Bordeaux.
Synthèses des visites des Maisons et organismes :
MMSH Aix-en-Provence,
MOM Lyon,
MAE René Ginouvés - Nanterre,
MSHS Poitiers,
IRHT Paris, Orléans,
Maison de larchéologie, Bordeaux.
Présentation des travaux juridiques du Programme Numérisation pour lEnseignement et la Recherche - 1999-2000
Le groupe de travail juridique du PNER sest réuni tout au long de lannée universitaire 1999/2000. Ses travaux ont porté principalement sur les nombreuses questions que posent au juriste les NTIC en usage dans le monde de lenseignement et la recherche. Ils sont présentés dans ce rapport, qui contient également une série détudes approfondies sur des sujets plus précis.
Isabelle de Lamberterie,
Philippe Chevet,
Danièle Baruchel-Beurdeley,
Silvestre Tandeau de Marsac.
Introduction générale
Isabelle de Lamberterie,
Danièle Baruchel-Beurdeley,
Silvestre Tandeau de Marsac.
A. Document de départ du groupe juridique :
Présentation dune chaîne des acteurs dans le cadre de lexploitation numérique dune uvre .
Isabelle de Lamberterie, Philippe Chevet, Laure Mosli
Partie 2 : études spécialisées :
- Document 1 : Internet et la propriété intellectuelle,
Isabelle de Lamberterie
- Document 2 : La numérisation des centres de recherche,
Philippe Chevet
- Document 3 : Le droit dauteur dans la société de linformation,
Pierre Perez
- Document 4 : Questions/Réponses en droit dauteur,
Isabelle de Lamberterie et Philippe Chevet
- Document 5 : La délicate application du droit dauteur dans le domaine de lenseignement et la recherche,
Philippe Chevet
- Document 6 : La numérisation par les bibliothèques : expériences, questions posées, évolutions futures. Exemple de la BNF,
Catherine Lupovici et Valérie Game
Conclusion générale
Isabelle de Lamberterie
Une communauté savante face aux nouvelles instrumentations numériques
Étude sociologique des pratiques émergentes dune communauté savante face aux nouvelles instrumentations numériques : le cas de la Société Internationale dAnalyse de la Topique Romanesque 1986-2001,
Jean-Marc Ramos, université Paul Valéry, Montpellier III.
Les communautés délocalisées denseignants
Observation des usages et des pratiques dans le domaine de lenseignement scolaire. Usages et pratiques de ressources numérisées dans le domaine de lenseignement : les communautés délocalisées denseignants.
Coordination :
Amaury Daele et Bernadette Charlier, Département Éducation et Technologie, Cellule dIngénierie Pédagogique, Facultés universitaires Notre-Dame de la Paix, Namur.
Participants :
Jacques Audran, Université de Provence,
Bruno Devauchelle, CEPEC Lyon,
Béatrice Drot-Delange, IUFM de Rennes,
France Henri, TéléUniversité du Québec,
François Jarraud, Association Les Clionautes,
Thérèse Laferrière, université Laval,
Dominique Pascaud, IUFM de Lyon,
Béatrice Pudelko, TéléUniversité du Québec,
Jacques Viens, TECFA, Université de Genève.
3.1. Liste IAI : une liste professionnelle entre formation et évaluation.
Jacques Audran février 2002.
3.2. Ecogest : léconomie-gestion en ligne.
Béatrice Drot-Delange février 2002.
3.3. Learn-Net - Learning Network for Teachers and Trainers.
Amaury Daele janvier 2002.
3.4. La liste H-Français : une liste disciplinaire à la croisée des chemins.
Dominique Pascaud janvier 2002.
3.5. Collectif sur lapprentissage collaboratif à laide des TICs
Jacques Viens janvier 2002.
3.6. La liste veille et analyse TICE.
Bruno Devauchelle février 2002.
3.7. Communauté dapprentissage, de recherche et de pratique TACT.
Thérèse Laferrière février 2002.
4.1. Évaluation des environnements, des activités, des apprentissages.
Jacques Viens Béatrice Drot-Delange.
4.2. Construction et réification des connaissances.
Amaury Daele.
4.3. Construction identitaire et culture des communautés.
Jacques Audran
4.4. Animation et modération des communautés.
Amaury Daele
4.5. Pérennité des communautés, partenariats et collaborations.
Bruno Devauchelle .
4.6. Les outils des communautés, situation actuelle et prospective.
Bruno Devauchelle François Jarraud.
5. Conclusions et perspectives.
6. Bibliographie et webographie avec des adresses :
- de communautés denseignants,
- dannuaires de communautés,
- doutils pour les communautés.
La numérisation et la diffusion duvres à des fins éducatives et de recherche
Une réflexion sur le droit de la propriété intellectuelle face à lévolution des pratiques dans le monde de lenseignement,
Philippe Chevet.
La numérisation et la diffusion duvres à des fins éducatives et de recherche.
Une réflexion sur le droit de la propriété intellectuelle face à lévolution des pratiques dans le monde de lenseignement.
Rapport détape - novembre 2001
Études en cours pour le Programme dActions Concertées et de Recherche du PNER.
Le Droit de prêt
Le droit de prêt dans le cadre des bibilothèques denseignement et de recherche.
Marie-Eugénie Laporte-Legeais, Maître de Conférences à luniversité de Poitiers.
Actes du colloque Open Source
LOpen Source dans les Sciences Humaines : Modèles ouverts de recherche et de publication sur Internet. Un colloque du PNER organisé avec les associations FABULA et HYPERNIETZSCHE.
HyperNietzsche : un exemple de modèle contractuel.
Un exemple de modèle contractuel pour lOpen Source : lHyperNietzsche.
Philippe CHEVET.
Culture et numérisation : vers de nouveaux services publics,
Jean-Pierre DALBERA, chef de la mission de la recherche et de la technologie, ministère de la Culture et de la Communication, Paris, France.
La bibliothèque électronique de Lisieux : un petit atelier de copiste,
Olivier Bogros, Conservateur de la bibliothèque municipale de Lisieux.
Copyleft/Open Source, Logiciel libre/contenu libre : du pareil au même ?
Philippe AMBLARD, Chargé détudes, doctorant au CECOJI/CNRS,
Notes Copyleft/ Open Source.
Rapport denquête sur les normes et les standards pour lapprentissage en ligne dans le secteur universitaire en France
Enquête réalisée entre juillet et septembre 2001,
Rozenn Nardin - Laboratoire CRIS/SERIES université Paris X- Nanterre.
Observation et analyse des usages : méthodes et outils
Méthodes et outils pour lobservation et lanalyse des usages.
Étudier les usages pédagogiques des technologies de linformation et de la communication : une pratique de recherche ou/et de légitimation.
Le groupe de travail Méthodes et outils pour lobservation et lanalyse des usages qui a réalisé ce rapport se composait de :
Claire Bélisle, Ingénieure de recherche SHS au CNRS,
Christine Berthaud, Documentaliste, ISH-Lyon,
Joëlle Le Marec, MC, ÉNS-lsh, Lyon,
Dominique Liautard, MC, univ. Aix-Marseille,
Didier Paquelin, MC, univ. Bordeaux 3,
Eliana Rosado, Prof., univ. Catholique de Campinas, Brésil
Se sont aussi associés aux travaux :
Alain Chaptal, CNDP
Yves Laborey, Dir. des Technologies pour léducation, Minin de lÉducation.
Inathèque de France : usages du système documentaire
Chercheurs à luvre.
Étude qualitative des usages du système documentaire de lInathèque de France
Marcelo Wesfreid
Sous la direction de Joëlle Le Marec et Igor Babou,
Laboratoire Communication, culture et société.
École Normale Supérieure Lettres et Sciences Humaines - Lyon.
Programme Cohérence.
Les créations intellectuelles des agents publics
Les créations intellectuelles des agents publics et fonctionnaires de la recherche, de lenseignement et de la culture.
Marie Cornu Chargée de recherche au CECOJI - CNRS.
Actes de la journée Hypertexte
La journée Hypertexte a été organisée par le Programme Numérisation pour lEnseignement et la Recherche et le Laboratoire Communication et Politique (LCP).
Le programme Colisciences et son futur.
Parcours de lecture et navigations dans un site hypertextuel,
Georges Vignaux (Laboratoire Communication et Politique CNRS UPR 36).
Colisciences. Biologistes et naturalistes au XIXe siècle.
Colisciences
Biologistes et naturalistes au XIXe siècle : ressources en ligne. Genèse et développements,
Marc Silberstein, Laboratoire Communication et Politique (CNRS-UPR 36).
Colisciences
Marc Augier Mediatec, Université de Nice-Sofia.
Conversion de documents à des fins de consultation,
Conversion de documents imprimés à des fins de consultation en ligne,
Marie-Elise Fréon Société Jouve.
Hypertexte : de laccès aux documents vers leur structuration,
Éric Bruillard IUFM de Basse-Normandie et GREYC.
Enseignement et recherche : exception au droit dauteur
Lexception au droit dauteur pour lenseignement et la recherche ou la recherche dune conciliation entre laccès à la connaissance et le droit dauteur
Valérie-Laure Benabou, Professeur à luniversité de Lyon II.
Collecte, utilisation et diffusion des données nominatives
Collecte, utilisation et diffusion des données nominatives à des fins denseignement et de recherche,
Nathalie Mallet-Poujol, Chargée de recherche au CNRS ERCIM-UMR 5815.
Le dilemme constructiviste ou la question du renouvellement des usages
La situation des technologies éducatives dans lenseignement français peut être caractérisée par lexistence dune tension croissante entre dune part une masse critique déquipements découlant dun effort de la collectivité et dautre part des usages qui ne se développent pas au rythme espéré restant, pour lessentiel, à la marge du système éducatif.
Alain Chaptal. Ingénieur Télécoms Paris et docteur de lUniversité Paris X en sciences de linformation et de la communication, Alain Chaptal est actuellement chef de la mission veille technologique du CNDP. Il est également membre du Conseil International des Médias Éducatifs et participe aux travaux du SIF, séminaire industries de la formation de la SFSIC, animé par Pierre Moëglin.
Lhypertexte
Quest-ce que lhypertexte ? Origines et histoire,
Georges Vignaux
Introduction à COLIS
La création dun site dédié à lépistémologie et à lhistoire des sciences naturelles : le Programme COLIS,
Marc Silberstein.
État du droit des bases de données
État du droit des bases de données,
Agnès Maffre-Bauge, Maître de Conférences à luniversité dAvignon.
La diffusion des données publiques
La diffusion des données publiques produites dans le cadre de lenseignement et de la recherche,
Jean-Michel Bruguiére.
Réalisation de produits multimédias
La réalisation de produits multimédias dans léducation et la recherche,
Antoine Latreille, Maître de conférences à luniversité Paris Sud (Faculté Jean Monnet).
Ressources éducatives en Norvège
Étude comparative : ressources éducatives et technologies de linformation et de la communication, Le cas de la Norvège.
Éric Bruillard, IUFM de Basse-Normandie, GREYC et INRP.
Symposium Technologies informatiques en éducation
Actes du symposium Technologies informatiques en éducation : perspectives de recherches, problématiques et questions vives - 31 janvier et 1er février 2002
Éléments de synthèse du symposium.
Introduction aux contributions définitives.
Paradoxes dun système,
Guy Pouzard, IGEN
La didactique informatique.
Mais quest la didactique de linformatique devenue ?
Charles Duchâteau, CEFI, facultés universitaires Notre Dame de la Paix, Namur.
Avenir du texte pédagogique et manuels scolaires,
Egil Børre Johnsen, Université dOslo.
Sept questions sur le E-Learning, Vers une problématique nouvelle pour la recherche ?
Alain Derycke, Laboratoire TRIGONE, Institut CUEEP - Université des sciences et Technologies de Lille.
La synthèse des travaux.
Ouvrages publiés ou à paraître
Sous la direction de Georges-Louis Baron et Éric Bruillard, Les technologies en éducation, Perspectives de recherche et questions vives. Actes du Symposium international francophone, Paris, 31 janvier 2001 - février 2002, Éditions Fondation MSH, INRP, IUFM de Basse-Normandie.
Sous la direction dIsabelle de Lamberterie : La numérisation dans lenseignement et la recherche : comparaison internationale des aspects juridiques.
Les études sont disponibles sur le site web du PNER ( HYPERLINK http://www.pner.org www.pner.org) ainsi que sur le CD-ROM présentant les travaux du PNER.
Quelques ressources complémentaires
1 - Notes du colloque Open Source
On peut lire les Frequently Asked Questions diffusées sur le site HyperNieztsche pour connaître mieux encore le projet : http://www.hypernietzsche.org/doc/faq/fr/index.HTML.
Dautre part, un livre (qui a vieilli.), présentant lHyperNietzsche, a été publié chez les P.U.F. (il est notamment disponible gratuitement et intégralement en ligne : http://www.puf.com/hypernietzsche/).
HyperNietzsche. Modèle dun hypertexte savant sur Internet pour la recherche en sciences humaines. Questions philosophiques, problèmes juridiques, outils informatiques, sous la direction de Paolo DIorio, Presses Universitaires de France, 2000.
L. Cohen-Tanugi, Le Droit sans lEtat, La démocratie en France, PUF, Quadrige , 2000
Rapport de P. Gaudrat, remis au ministère de la Culture (http://www.culture.gouv.fr)
et le rapport qui est rédigé dans le cadre du PNER par M. Cornu (disponible courant avril 2002 sur le site: http://www.pner.org)
Mémoire de DEA, sur la licence publique générale, disponible à ladresse suivante : http://crao.net/gpl/
Linitiative Pour un accès public au patrimoine culturel sest fixée comme objectif de soumettre certaines propositions aux pouvoirs publics afin de faire respecter les libertés de diffuser les uvres du domaine public, y compris celles détenues par des archives, mais en noubliant pas les intérêts de ces dernières (voir http://www.hypernietzsche.org/path/index.HTML)
LHyperNieztsche Peer Review : http://www.hypernietzsche.org/doc/peer_review/fr/
Linitiative Pour un accès public au patrimoine culturel : http://www.hypernietzsche.org/path/index.HTML
2 - Notes : Culture et numérisation
http://www.culture.gouv.fr/culture/bdd/index.HTML
http://www.bnf.fr
http://www.ina.fr
http://www.rmn.fr
http://www.culture.gouv.fr/culture/mrt/numerisation/fr/f_02.htm
http://tic.aquitaine.fr/
http://www.datar.gouv.fr/
http://www.atica.pm.gouv.fr/interop/interoperabilite.sHTML
http://www.cordis.lu/ist/ka3/digicult/en/eeurope.HTML
http://www.acctbief.org/avenir/z3950.htm
http://www.ccfr.bnf.fr/
http://aquarelle.inria.fr/aquarelle/
http://www.iccd.beniculturali.it/progetti/
XML : eXtensible Markup Language
http://www.culture.gouv.fr/culture/inventai/itiinv/larochelle/
DTD : Définition dun Type de Document
W3C : World Wide Web Consortium
RDF : Ressource Description Framework
http://www.openarchives.org/OAI/openarchivesprotocol.htm
[20]http://www.culture.gouv.fr/culture/inventai/presenta/bddinv.htm
[21]http://www.culture.gouv.fr/documentation/merimee/accueil.htm
[22] http://www.culture.gouv.fr/documentation/palissy/accueil.htm
[23] http://www.culture.gouv.fr/documentation/memoire/pres.htm
[24] GML : Geography Markup Language
[25] SVG : Scalable Vector Graphics
[26] http://www.culture.gouv.fr/museofile
[27] http://www.culture.gouv.fr/culture/bdd/
[28] http://www.rmn.fr/
[29] http://www.musenor.org
[30] http://www.alienor.org
http://www.mairie-quimper.fr/musee/htdocs/home.htm http://m3.dnsalias.com/sandelin
http://www.augustins.org/dynaccueil.htm
http://www.archivesdefrance.culture.gouv.fr/
http://www.lcweb.loc.gov/ead/
http://www.ica.org/
http://www.rlg.org/
http://www.culture.fr/BiblioML/
http://bibliographienationale.bnf.fr/
http://www.ubka.uni-karlsruhe.de/hylib/en/kvk.HTML
http://www.culture.gouv.fr/culture/inventai/extranet/revue/accueil.HTML
http://www.culture.fr/culture/arcnat/fr/
http://www.culture.gouv.fr/culture/conservation/fr/
http://www.culture.gouv.fr/culture/mrt/numerisation/
http://www.portail.culture.fr
http://www.culture.gouv.fr/culture/mrt/mrt.htm
http://www.culture.fr/culture/retables/
http://www.culture.fr/culture/cavaille-coll/fr/
http://www.lenotre.culture.gouv.fr
http://www.victorhugo.culture.fr
http://www.sdx.culture.fr
3 - Ressources concernant les standards
(Ghislaine Chartron, Jean-Max Noyer, Solaris)
Dublin Core
Standard pour la description du contenu du document.
traduction française du standard :
acteurs à lorigine : OCLC (Online Computers Library Center) et NCSA
date origine : 1995
finalité : description des documents numériques, recherche dinformation. OCLC est par ailleurs le leader avec sa base WorldCat en matière de catalogage des documents papiers dans les bibliothèques académiques.
exemple dutilisation : liste de projets dont certains projets français :
articles sélectionnés :
-Stuart Weibel, The State of the Dublin Core Metadata Initiative , D-Lib Magazine, Avril 1999,
CIMI (Consortium for the Computer Interchange of Museum Information)
standard élaboré à partir du Dublin Core pour les musées
acteurs à lorigine : Associations de musées en Amérique du Nord
date origine : 1990
finalité :préservation et échange des informations traitées par les musées sous forme numérique
RDF (Ressource Description Framework)
Cadre générique sémantique pour linteropérabilité des métadonnées.
Working Group du Consortium W3 : http://www.w3.org/RDF/
acteurs à lorigine : membres du Consortium W3C
date origine : 1997
finalité : cadre générique pour les méta-données assurant linteropérabilité
articles sélectionnés :
-Eric Miller, An Introduction to the Ressource Description Framework , D-Lib Magazine, mai 1998,
- Tim Berners-Lee, Dan Connolly, Ralph R. Swick, Web Architecture : Describing and Exchanging , W3C Note, juin 1999,
EAD (Encoded Archival Description)
langage structuré dérivant de SGML, dédié aux documents darchives.
acteurs à lorigine : Bibliothèque de lUC Berkeley, appuyé ensuite par la Society of American Archivists et la Library of Congress
date origine : 1993
exemple dutilisation :
TEI (Text Encoding Initiative)
Langage structuré de la famille de SGML et dédié aux textes littéraires.
acteurs à lorigine : Association for Computers and the Humanities, Association for Computational Linguistics, Association for Literary and Linguistic Computing. Aujourdhui financement américain en majorité mais aussi implication de la DGXIII de la Commission Européenne.
date origine : 1987
liste de projets TEI :
XML (eXtensible Markup Language)
Sous-ensemble du langage structuré SGML.
http://www.w3.org/XML/ (Recommandation du W3C)
traduction française de la norme :
acteurs à lorigine : Consortium W3C
date origine : novembre 96
finalité :format structuréde document pour le Web
articles sélectionnés :
-Alain Michard, Stratégies XML
-Jon Bosak, Tim Bray, Le Langage XML
DOI (Digital Object Identifier)
Standard pour lidentification.
acteurs à lorigine : Editeurs scientifiques au niveau international
date origine :
finalité : identifiant permettant de gérer les droits liés de propriété intellectuelle dans lenvironnement électronique
exemple dutilisation : le service Online First de léditeur Springer ,
articles sélectionnés :
- Norman Paskin, DOI : Current Status and Outlook , D-Lib Magazine, Mai 1999,
- Lloyd A. Davidson, Kimberley Douglas, Digital Object Identifiers : Promise and Problems for Scholarly Publishing , The Journal of Electronic Publishing, Volume 4, numéro 2, Décembre 1998,
- Mark Bide, In Search of the Unicorn : The Digital Object Identifier from a User Perspective , (London : Book IndustryCommunication, February 1998) ,
INDECS (Interoperability of Data in E-Commerce Systems)
http://www.indecs.org/
acteurs à lorigine : Compagnies gestionnaires de droits dauteurs
date origine : novembre 1998
finalité : métadonnées permettant de gérer les droits de propriétés intellectuelle.
Autres standards pour les métadonnées liées au document numérique (répertoire de lIFLA)
Web accessibility initiative (Handicap)
4 - Notes : Copyleft/Open Source
Lire lexposé savant et critique du professeur Vivant sur le particularisme des juristes français attachés à la Trinité en deux parties . Michel Vivant, Le plan en deux parties, ou de larpentage considéré comme un art in Études offertes à Pierre Catala : Le droit privé français à la fin du 20e siècle, Paris,Ed. Litec, 2001, p. 969-984.
Voir le site étasunien qui lui est consacré : [www.opencontent.org].
Content is just anything that isnt executable Telle est la courte mais précise définition donnée par lassociation de promotion du contenu libre in [www.opencontent.org].
4) Définition du logiciel donnée par le Dictionnaire de la micro-informatique par Michel Grenie, Ed. Larousse, Paris, 1997
André et Henri-Jacques Lucas, Traité de la propriété littéraire et artistique, Ed. Litec, Paris, 1994, p. 48
Laurence Lessig, interview du Monde Interactif par Pierre Bouvier, mis à jour le 14 Mars 2002. http://interactif.lemonde.fr/article/0,5611,2864--266643-0,FF.HTML.
Pour une étude détaillée de cette notion fuyante duvre de lesprit, se reporter au Traité de la propriété littéraire et artistique des professeurs André et Henri-Jacques Lucas, op. cit., p 65-147
http://opencontent.org/opl.sHTML
http://www.nupedia.com
5 - Une communauté savante face aux nouvelles instrumentations numériques
5.1 - Documentation satorienne
Ier colloque (Paris-Sorbonne - 1986). Brochure préparée par H. Coulet et N. Boursier à la suite de la réunion qui a eu lieu en 1986 à Paris, à la Sorbonne et au Collège de France, pour la création de la SATOR, 85 pages.
IIe colloque (Toronto - 1988). La Naissance du roman en France : Topique romanesque de LAstrée à Justine . Actes édités par Nicole Boursier et David Trott. Paris - Seattle - Tübingen, BIBLIO 17(54), 1990, 156 pages.
IIIe colloque (New York - 1989). Colloque de la SATOR à Fordham. Actes édités par Jean Macary. Paris - Seattle - Tübingen, BIBLIO 17(61), 1991, 217 pages.
IVe colloque (Montpellier - 1990). Vers un Thésaurus informatisé : Topique des ouvertures narratives avant 1800. Actes édités par Pierre Rodriguez et Michèle Weil. Montpellier, publiés avec le concours du Centre détude du dix-huitième siècle de Montpellier, 1991, 449 pages.
Ve colloque (Lisbonne - 1991). Secret et topique romanesque du Moyen Age au XVIIIe siècle. Actes édités par Teresa Sousa de Almeida, Joao Amaral Frazao et Ana Paiva Morais. Lisbonne, publiés avec le concours de la Faculté des Sciences Sociales et Humaines de LUniversité Nouvelle de Lisbonne et de lINIC, 1995, 380 pages.
VIe colloque (Winnipeg - 1992). Utopies et fictions narratives. Actes édités par Michel Bareau et Sante Viselli. Edmonton, Alta Press Inc, Parabasis vol. 7, 1995, 270 pages.
VIIe colloque (Paris-Sud Orsay - 1993). Topiques du dénouement romanesque du XIIe au XVIIIe siècle. Actes édités par Colette Piau-Gillot. Université Paris-Sud Orsay, publiés avec le concours de la Société APTE, 1995.
VIIIe colloque (Louvain - 1994). LÉpreuve du lecteur. Livres et lectures dans le roman dAncien Régime. Actes édités par Jan Herman et Paul Pelckmans. Louvain - Paris, Éditions Peeters, 1995, 502 pages.
IXe colloque (Milwaukee - 1995). Violence et Fiction jusquà la Révolution : travaux du IXe colloque international de la Société dAnalyse de la Topique Romanesque (SATOR). Textes édités par Martine Debaisieux et Gabrielle Verdier. Tübingen, Gunter Narr Verlag, Études littéraires françaises - 66, 1998, 480 pages
Xe colloque (Johannesburg - 1996). Actes du dixième colloque international. Textes recueillis par Denise Godwin, Thérèse Lassalle et Michèle Weil. Montpellier, édités avec le concours de luniversité Montpellier III, SATOR et CEDIM, 1999, 145 pages.
XIe colloque (Montpellier - 1997). Homo narrativus. Recherches sur la topique romanesque dans les fictions de langue françaises avant 1800. Actes édités par Nathalie Ferrand et Michèle Weil. Montpellier, Université Montpellier III, 2001, 400 pages.
XIIe colloque (Kairouan - 1998). Espaces de la fuite dans la littérature narrative avant 1800. Actes à paraître.
XIIIe colloque (Toronto - 1999). Écriture de la ruse. Textes édités par Elzbieta Grodek Amsterdam - Atlanta, Rodopi, 2000, 455 pages.
XIVe colloque (Amsterdam - 2000). Actes à paraître.
Bulletins de liaison :
Bulletin de liaison SATOR, n°6, février 1996, 18 pages.
Bulletin de liaison SATOR, n°7, 1996-1997, 16 pages.
Bulletin de liaison SATOR,n° 8, 1998-1999, 11 pages.
Bulletin intérimaire, Hiver 2001, 8 pages.
5.2 - Ressources en ligne
Pages web de Fabula : http://www.fabula.org/carnet/cat1001.php
(PWFab, 21/06/2000).
Pages web de Sator-Montpellier : http://www.alor.univ-montp3.fr/SATOR/programme.html
(PWMontp, 1996).
Pages web de Sator-Ontario : http://www.chass.utoronto.ca/french/sator
(PWTor, fin 2000)
6. Sources complémentaires
Autres publications citées dans le rapport
Akrich Madeleine, Meadel Cécile, Paravel Véréna (2000). Le temps du mail : écrit instantané ou oral médiat, Sociologie et sociétés, 32(2) : 153-170.
Bernard Michel (1999). Introduction aux études littéraires assistées par ordinateur. Paris, P.U.F.
Centre détudes Arthur Rimbaud (1981). Table de concordances rythmique et syntaxique des Poésies dArthur Rimbaud (2 tomes). Neuchâtel, Éditions de la Baconnière.
Ferrand Nathalie (1997). Banques de données et hypertextes pour létude du roman. Paris, P.UF.
Grossetti Michel, Sauvageot Anne, et al. (1996). Lusage dInternet par les chercheurs toulousains, Flux, 24 : 35-49.
Guiraud Pierre (1953). Index du vocabulaire du symbolisme. Paris, Klincksieck.
Guiraud Pierre (1954). Bibliographie de la statistique linguistique. Utrecht, Spectrum.
Hert Philippe (1996). Les arts de lire le réseau. Un cas dinnovation technologique et ses usages au quotidien dans les sciences, Réseaux, 77 : 37- 65.
Jouet Josiane (2000). Retour critique sur la sociologie des usages, Réseaux, 100 : 489-521.
Lebart Ludovic, Salem André (1994). Statistique textuelle. Dunod, 1994.
Lochard Éric-Olivier (1995). Toposator et Arcane : la nouvelle technologie dans le contexte des thésaurus et des éditions critiques, Literary and Linguistic Computing, 10(2) : 1-14 (?).
Mendras Henri., Forse Michel (1983). Le changement social. Tendances et paradigmes. Paris, A. Colin.
Muller Charles (1977). Principes et méthodes de la statistique lexicale. Paris, Hachette.
Millerand Florence (1998). Usages des NTIC : les approches de la diffusion de linnovation et de lappropriation. Université de Montréal, COMMposite.
Paravel Véréna (1998). Réseaux scientifiques et communication électronique : étude de trois groupes de discussion, in N. Guéguen et L. Tobin (éds), Société, communication et Internet : Paris, LHarmattan, 121-138.
Ramos Jean-Marc (2000). Vitesse et représentation : la modélisation du rythme de croissance dans la diffusion sociale dune innovation, Social Science Information, 39(2) : 269-285.
Rogers Everett M (1995). Diffuson of Innovations. New-York, The Free Press.
Rosental Claude (2000). Les travailleurs de la preuve sur Internet. Transformations et permanences du fonctionnement de la recherche, Actes de la recherche en sciences sociales, 134 : 37-44.
Tournier Maurice (1992). Séminaire de lexicométrie. Lisboa, Universidade Aberta.
Weil-Bergougnoux Michèle (1994). Un logiciel pour lhistoire littéraire, Revue dHistoire littéraire de la France, XCIV(6) : 1038-1055.
Wiener Norbert (2000). God & Golem Inc. Sur quelques points de collision entre cybernétique et religion. Nîmes, Éditions de lÉclat.
7 - Notes : Les communautés délocalisées denseignants
Alstyne M. & Brynjolfsson E. (1997). Electronic communities : Global village or cyberbalkans ? Cambridge : MIT Sloan School. En ligne : HYPERLINK http://www.si.umich.edu/~mvanalst/7selected.html http://www.si.umich.edu/~mvanalst/7selected.html
Anderson B. (1983). Imagined Communities : Reflections on the origin and spread of nationalism. London, UK : Verso.
Barab S. A. & Duffy T. (1999). From practice fields to communities of practice. À paraître In D. Jonassen et S. Lans (Eds.). Theoretical foundations of learning environments. Mahwah, NJ : Lawrence Earlbaum Associates.
En ligne : HYPERLINK http://itechl.coe.uga.edu/itforum/paper28/paper28.html http://itechl.coe.uga.edu/itforum/paper28/paper28.html
Baym N. K. (1995). The emergence of community in computer-mediated communication. In S.G. Jones (Ed.). Cybersociety : Computer-mediated communication and community. Thousand Oaks, CA : Sage, 138-163.
Baym Nancy K. (1998). The Emergence of the On-line Community. In S.G. Jones (Ed.). Cybersociety 2.0 : Revisiting Computer-Mediated Communication and Community. Thousand Oaks, CA : Sage, 3568
Beach,R. & Lundell D. (1998). Early adolescents use of computer-mediated communication in writing and reading. In D. Reinking, M.C. McKenna, L.D. Labbo & R.D. Kieffer (Eds.). Handbook of literacy and technology. Transformations in a post-typographic world. Mahwah, NJ : Laurence Erlbaum Associates.
Benoit J. (2000). Une communauté de pratique en émergence : Les stagiaires de lEcole secondaire Les Compagnons-de-Cartier. Rapport de recherche. Québec : TACT.
Berge Z. (1995). Computer-mediated communication and the online classroom : Overview and perspectives. Computer-Mediated Communication Magazine, 2(2).
Blake C.T. & Rapanotti L. (2000). Making interactions in computer conferencing environment. First European Conference on Computer-Supported Collaborative Learning Euro-CSCL 2001.
En ligne : HYPERLINK http://www.mmi.unimaas.nl/euro-cscl/programme.htm http://www.mmi.unimaas.nl/euro-cscl/programme.htm [consulté en 2001, septembre].
Boullier D. (2001). Les machines changent, les médiations restent.
En ligne : http://grm.uqam.ca/ cmo2001/boullier.html [consulté en 2001, octobre].
Breton P. (1995). Lutopie de la communication, le mythe du village planétaire. Paris : La Découverte.
Brown J. S., Collins A., & Duguid P. (1989). Situated cognition and the culture of learning. Educational Researcher, 18, 32-42.
Brown J. S. et Duguid P. (1991). Organizational learning and communities of practice : Toward an unifying view of working, learning, and innovation. Organizational Science, 2 (1), 40-57.
Bruckman, A. (1998). Community support for constructionist learning. CSCW 7:47-86,
En ligne :
http://www.cc.gatech.edu/fac/Amy.Bruckman/papers/cscw.html
Bruner J. (1996). Léducation, entrée dans la culture. Paris : Retz.
Casalegno F. & Kavanaugh A. (1998). Autour des communautés et des réseaux de télécommunications. Sociétés. 59 (février).
Clark H.H. (1992). Arenas of language use. Chicago : University of Chicago Press.
Cognition and Technology Group at Vanderbilt. (1990). Anchored instruction and its relationship to situated cognition. Educational Researcher, 19, 2-10.
Cognition and Technology Group at Vanderbilt. (1992). Emerging technologies, ISD, and learning environments : Critical perspectives. Educational Technology Research and Development, 40, 52-70.
Cognition and Technology Group at Vanderbilt. (1993). Anchored Instruction and situated cognition revisited. Educational Technology, 33, 52-70.
Crook C. (1994). Computers and the collaborative experience of learning. London and New York : Routledge.
Crook C. (1999). Computers in the community of classrooms. In K. Littleton & P. Light (Eds.). Learning with computers. Analysing productive interaction. London : Routledge, 102-117.
Curtis P. (1997). Mudding : Social phenomena in text-based virtual realities. In Kiesler, S. (Ed.). Culture of the Internet. Mahwah, NJ : Lawrence Erlbaum, 121-142.
Daignault J. (2001). La force des communautés virtuelles: créer en ne sactualisant pas. Esprit critique, 3, 10, Octobre 2001
En ligne : HYPERLINK http://www.espritcritique.org http://www.espritcritique.org
Debyser F. (1989). Télématique et enseignement du français. Langue française, 83, 14-31.
Deleuze G. (1968). Différence et répétition. Paris : PUF.
Dillenbourg P. & Baker M.J. (1996). Negotiation Spaces in Human-Computer Collaboration. In Actes du colloque COOP96, Second International Conference on Design of Cooperative Systems, INRIA, Juan-les-Pins, juin 1996, 187-206.
Dimock H.G. (1987). Designing and facilitating training porgrams. Guelph, University of Guelph, 4ème édition.
Donath, J.S. (1999). Identity and deception in the virtual community. In Smith, M. A. & Kollock, P. (Eds.). Communities in cyberspace. NY : Routledge, 29-59.
Engeström Y. (1987). Learning by expanding : An activity-theoretical approach to developmental research. Helsinki : Orienta-Konsultit.
Fabos B. & Young M. D. (1999). Telecommunication in the classroom : rhetoric versus reality. Review of Educational Research, 69(3), 217-259.
Feenberg A. (1989). The written word : on the theory and practice of computer conferencing. In R. Mason & A. Kaye (Eds.). Mindweave : Communication, computers and distance education. Oxford : Pergamon Press, 22-39.
Fernbeck J. T. (1997). The individual within the collective : Virtual ideology and the realization of collective principles. In S. G. Jones (Ed.). Virtual culture : Identity and communication in cybersociety. London : Sage, 36-54.
Fernback J. (1999). There is a there there : Notes toward a definition of cyberspace. In S.G. Jones (Ed.). Doing Internet Research. Thousands Oaks, CA : Sage.
Ferrara K., Brunner H. & Whittemore G. (1991). Interactive written discourse as an emergent register. Written Communication, 8(1), 834.
Fischer G. (2001). Communities of Interest: Learning through the interaction of multiple knowledge systems. In S. Bjornestad, R. Moe, A. Morch & A. Opdahl (Eds). Proceedings of the 24th IRIS Conference. August 2001, Ulvik, Department of Information Science, Bergen, Norway, (1-14).
[http://www.cs.colorado.edu/~gerhard/papers/iris24.pdf]
George, E., & Totschnig, M. (2001). 20 ans de CMO. Dialogue sur lhistoire dun concept et dun champ de recherche. Colloque La Communication Médiatisée par Ordinateur : un carrefour de problématiques. Université de Sherbrooke, 15-16 mai 2001. En ligne :
http://grm.uqam.ca/ cmo2001/george.html Consulté en décembre 2001.
Georget P., Crinon J. & Mangenot F. (à paraître) Communication écrite, collaboration et apprentissages. In D. Legros & J. Crinon. Psychologie des apprentissages et multimédias. Paris : Colin.
Gilly M., Roux J.-P. & Trognon A. (1999). Apprendre dans linteraction : analyse des médiations sémiotiques. Nancy : Presses Universitaires de Nancy.
Gordin D.N., Gomez L.M., Pea R.D. & Fishman B.J. (1996). Using the World Wide Web to build learning communities in K-12. Journal of Computer-Mediated Communication 2(3).
En ligne : HYPERLINK http://jcmc.huji.ac.il/vol2/issue3/gordin.html http://jcmc.huji.ac.il/vol2/issue3/gordin.html
Greeno J. G. & Moore J. L. (1993). Situativity and symbols : Response to Vera and Simon. Cognitive Science. 17, 49-61.
Greeno J. G., Collins A. M. & Resnick L. B. (1996). Cognition and learning. In D. C. Berliner & R. C. Calfee (Eds.). Handbook of educational psychology. New York : Macmillan, 15-46.
Guédon J.-C. (1996). La planète cyber. Internet et cyberespace. Paris : Gallimard
Gunawardena C. N. & Anderson T. (1997). Analysis of a global online debate and the development of an interaction analysis model for examining social construction of knowledge in computer conferencing. Journal of Educational Computing Research, 17(4), 397-431.
Habermas J. (1979). Communication and the evolution of society (T. McCarthy, trans.). Boston : Beacon Press.
Hara N., Bonk C.J. & Angeli C. (1998). Content analysis of online discussion in educational psychology courses. Technology and Teacher Education Annual, 875-877.
Harasim L.M. (1993). Networlds : Networks as a social space. In L.M. Harasim (Ed.). Global networks : Computers and international communication. Cambridge : MA, MIT Press, 15-34.
Haythornthwaite C. (2000, in press). Building social networks via computer networks : Creating and sustaining distributed learning communities. In A. Renninger & W. Shumar (Eds.). Building Virtual Communities : Learning and change in cyberspace. Cambridge University Press.
http://alexia.lis.uiuc.edu/~haythorn/hay_bvc.html
Henri F. (1998). Designing a virtual learning environment for a graduate course in multimedia. In Proceedings of the XV. IFIP World Computer Congress. 31 août 4 septembre, 1998, 427-443.
Henri F. & Lundgren-Cayrol K. (2001). Apprentissage collaboratif à distance. Sainte Foy, Québec : PUQ.
Henri F. (1992). Formation à distance et téléconférence assistée par ordinateur: interactivité,quasi-interactivité ou monologue ? Journal of Distance Education/Revue de lEducation à Distance, 7(1), 5-24.
Henri F. & Lundgren-Cayrol K. (2001). Apprentissage collaboratif à distance. Pour comprendre et concevoir les environnements dapprentissage virtuels. Sainte Foy, Québec : Presses Universitaires du Québec.
Heim M. (1993). The metaphysics of virtual reality. New York : Oxford University Press.
Hicks D. (1996). Contextual inquiries ; A discourse-oriented study of classroom learning. In D. Hicks (Ed.). Discourse, learning and schooling. New York : Cambridge University Press.
Hiltz S.R. & Turoff M. (1978). The network nation. Massachusetts : Addison-Wesley.
Hiltz S.R. (1984). Online communities : a case study of the office of the future. Norwood, NJ : Ablex.
Jacob R. et Langelier L. (2002). Les cas des communautés virtuelles de pratique. Montréal. Atelier du CEFRIO, 22 février.
Jacques F. (1985). Lespace logique de linterlocution. Dialogiques II. Paris : PUF.
Jakobson R. (1963). Les essais de linguistique générale, Tome 1 : Les fondations du langage. Paris : Ed. de Minuit.
Johansen R. (1988). Groupware : Computer support for business teams. New York : The Free Press.
Jones S. G. (1995). Understanding community in the information age. In S.G. Jones (Ed.), Cybersociety : Computer-mediated communication and community. Thousand Oaks, CA : Sage, 10-35.
Jones Q. (1997). Virtual-communities, virtual settlements & cyber-archaeology : A theoretical outline. Journal of Computer-Mediated Communication [Online], 3(3).
En ligne : HYPERLINK http://www.ascusc.org/jcmc/vol3/issue3/jones.html http://www.ascusc.org/jcmc/vol3/issue3/jones.html.
Kaye A. (1989) Computer-mediated communication and distance education. In Mason, R. & A. Kaye Mindweave : communication, computers and distance education. Oxford, UK : Pergamon Press, 3-21.
Kaye A.R. (1992). Learning together apart. In A.R. Kaye (Ed.). Collaborative Learning through computer conferencing. The Najaden Papers. NATO ASI Series F. vol. 90. Berlin : Springer-Verlag, 1-24.
Kiesler S., Siegel J. & McGuire T. W. (1984). Social psychological aspects of computer-mediated communication. American Psychologist, 39 , 1123-1134.
Kollock P. & Smith M.A. (1996). Managing the virtual commons : Cooperation and conflict in computer communities.. In S. Herring (Ed.). Computer-Mediated Communication: linguistic, social, and cross-cultural perspectives. Amsterdam : John Benjamins, 109-128.
Koschmann T. (1994). Toward a theory of computer support for collaborative learning. Journal of Learning Sciences, 3(3), 219-225.
Koschmann T. (1996). CSCL : Theory and practice of an emerging paradigm. Mahwah, NJ : LEA.
Koschmann T. (1999). Toward a dialogic theory of learning : Bakhtins contribution to understanding learning in settings of collaboration. In C. M. Hoadley & J. Roschelle (Eds.), Proceedings of the Computer Support for Collaborative Learning (CSCL) 1999 Conference. Palo Alto, CA : Stanford University, 308-313.
Laferrière, T. (2000, 03/12/2000). Les nouvelles technologies de linformation et de la communication. Des communautés dapprentissage en réseau : la vision qui nous branche !
En ligne : http://www.tact.fse.ulaval.ca/tact2/publi/foruc00.html [2001, 02/15].
Laferrière, T. & Grégoire, R. I. (1999, 1999/03/31). Résau Scolaire Canadien (Rescol). Apprendre ensemble par projet avec lordinateur en réseau. Guide à lintention des enseignants et des enseignantes.
En ligne : http://www.tact.fse.ulaval.ca/ang/html/projectg.html [2001, 02/14].
Lave J. (1997). The culture of acquisition and the practice of understanding. In D. Kirshner & J. A. Whitson (Eds.). Situated cognition : Social, semiotic, and psychological perspectives. Mahwah, NJ : Erlbaum, 63-82.
Lave J. & Wenger E. (1991). Situated learning : legitimate peripheral participation. New York : Cambridge University Press.
Lawley E. L. (1992). Discourse and distortion in computer-mediated communication.
En ligne : http://www.itcs.com/elawley/discourse.html [2001, 01/24].
Lea R. & Spears R. (1991). Computer-mediated communication, de-individuation and group decision-making. International journal of Man-Machine Studies, 34, 283-301.
Leontiev A. N. (1981). Problems of the development of the mind. Moscow : Progress Publishers.
Leplat J. & Hoc J.-M. (1983). Tâche et activité dans lanalyse psychologique des situations. Cahiers de Psychologie Cognitive, (3)1, pp 49-63.
Levin J.A., Kim H. & Riel, M.M. (1990). Analyzing instructional interaction on electronic message networks. In L.M. Harasim (Ed.). Online education : perspectives on a new environment. Praeger : New York.
Lévy P. (2000). World philosophie. Paris : Odile Jacob.
Licklider J. C. & Taylor R. (1968). The computer as a communication device. Science and Technology : For the Technical Men in Management. 76, 21-31.
En ligne : http://www.research. digital.com/SRC/publications/src-rr.html
Light P. & Light V. (1999). Analyzing asynchronous learning interactions. Computer-mediated communication in a conventional undergraduate setting. In K. Littleton & P. Light (Eds.). Learning with computers. Analysing productive interaction. London : Routledge, 162-178.
Littleton K. & Light P. (1999). Learning with computers. Analysing productive interaction. London : Routledge.
Liu G.Z. (1999) Virtual community presence in Internet Relay Chatting. Journal of Computer-Mediated Communication 5(1).
En ligne : http://www.ascusc.org/jcmc/vol5/issue1/liu.htm
Lundgren-Cayrol K. (1996). Computer-Conferencing : A collaborative learning environment for distance education students. Thèse de doctorat, Montréal, Université Concordia.
Marvin L. (1995). Spoof, spaLm, lurk and lag : The aesthetics of text-based virtual realities. Journal of Computer-Mediated Communication, 1(2).
En ligne : http://www.ascusc.org/jcmc/ vol1/issue2/marvin.html
Mason R. (1989). An evaluation of CoSy on an Open University course. In R. Mason, & A.R. Kaye (Eds.). Mindweave : communication, computers and distance education. Oxford : Pergamon.
Matheson K. & Zanna M.P. (1989). Persuasion as a function of self-awareness in computer mediated communication. Social Behavior, 4, 99-111.
Mattelart A.& Mattelart M. (1986). Penser les médias. Paris : La Découverte.
McCabe M.F. (1998) Lessons from the field : Computer conferencing in higher education. Journal of Information Technology, 7(1), 71-86.
McGuire T.W., Kiesler S. & Siegel J (1987). Group and computer-mediated discussion effects in risk decision making. Journal of Personality and Social Psychology, 52(5), 917-930.
McLauglin M.L., Osborne K.K. & Smith C.B. (1995). Standards of conduct on Usenet. In S.G. Jones (Ed). Cybersociety : Computer-mediated communication and community. Thousands Oaks, CA : Sage, 90-111.
Mercer N. (1996). The quality of talk in childrens collaborative activity in the classroom. Learning and Instruction, 6(4), 359-377.
Meyerson I. (1987). Ecrits 1920-1983. Pour une psychologie historique. Paris : PUF.
Ollivier B. (2000). Observer la communication. Naissance dune interdiscipline. Paris : Editions CNRS.
Papadoudi H. (2000). Technologies et éducation. Paris : PUF.
Paquette G. (2000). Construction de portails de téléapprentissage. Explora une diversité de modèles pédagogiques. Sciences et techniques éducatives, 7(1), 207-226.
Pea R.D. (1993). Practices of distributed intelligence and designs for education. In G. Salomon (Ed.). Distributed Cognitions : Psychological and Educational Considerations. Cambridge : Cambridge University Press, 47-87.
Perkins J. & Newman K. (1995). E-discourse in education. In D. Tinsley & T. van Weert (Eds). WCCE95 Liberating the learner. Proceedings of the 6th IFIP World Conference on Computers in Education. London : Chapman & Hall, 613-621.
Perkins J. (1999). Problematics in telematics. In M. Selinger & J. Pearson (Eds.). Telematics in education : trends and issues. Oxford : Pergamon : Elsevier Science, 1-13.
Postmes T., Spears R. & Lea M. (1998). Breaching or building social boundaries ? SIDE-Effects of Computer-Mediated Communication. Communication Research, 25, 689-715.
Proulx S. & Latzko-Toth G. (2000). La virtualité comme catégorie pour penser le social : lusage de la notion de communauté virtuelle, Sociologie et sociétés, 32(2), 99-122. Montréal : Presses de lUniversité de Montréal.
Rheingold H. (1995). Les communautés virtuelles. Paris : Addison_Wesley.
Robins J. (2001). Social navigation and the role of persistent structures in a collaborative virtual environment. In Proceedings of the European Perspectives on Computer-Supported Collaborative Learning (Euro-CSCL, Maastricht, Netherlands, mars 22-24, 2001).
En ligne : http://www.mmi. unimaas.nl/euro-cscl/presentations.htm
Rogalski J. (1999). Approche de psychologie ergonomique de lactivité de lenseignant. Actes du colloque de la COPIRELEM Limoges 3, 4, 5 Mai 1999.
Roschelle J. & Teasley S.D. (1995). Construction of shared knowledge in collaborative problem solving. In C. OMalley (Ed.). Computer-supported collaborative learning. New York : Springer-Verlag, 69-97.
Ruberg L.F., Moore D.M. & Taylor C.D. (1996). Student participation, interaction, and regulation in a computer-mediated communication environment : A qualitative study. Journal of Educational Computing Research, 14 (3), 243-268.
Roth W.-M. (1996). Knowledge diffusion in a grade 4-5 classroom during a unit of civil engineering : An analysis of a classroom community in terms of its changing resources and practices. Cognition and Instruction, 14, 170-220.
Shannon C.E & Weaver W. (1949). The mathematical theory of communication. Urbana : University of Illinois Press.
Snow C.P. (1993). The two cultures. Cambridge, UK : Cambride University Press.
Sproull L. S. & Kiesler S. (1986). Reducing social context cues: electronic mail in organizational communication. Management Science, 32, 1492-1512.
Sproull L. and Kiesler S. (1992). Connections : New Ways of working in the Networked Organizations. Cambridge, MA : MIT Press
Thomas M. (1999). Impacting on communication and learning. When communication technologies constrain communication.
En ligne : http://www.aare.edu.au/99pap/tho99508.htm [consulté en février 2002].
St-Arnaud Y.(1989). Les petits groupes. Participation et communication. Montréal, Presses de lUniversité de Montréal, Edition du CMI.
Walther J. (1996), Computer-mediated communication : impersonal, interpersonal and hyperpersonal interaction. Communication Research, 23, 3-43.
Weinreich F. (1997). Establishing a point of view toward virtual communities. CMC Magazine, février.
En ligne : http://www.december.com/cmc/mag/1997/feb/wein.html
Wellman B. (1999). The network community: An introduction to networks in the Global Village. In Wellman, B (Ed). Networks in the Global Village. Boulder, CO : Westview Press, 1-47.
Wellman B. &. Berkowitz S.D (1997). Social Structures : A Network Approach. Greenwich, CT : JAI Press.
Wenger E. (1998). Communities of practice. Learning, meaning and identity. Cambridge, UK : Cambridge University Press.
Wertsch J. (1998). Mind as action. New York : Oxford University Press.
Wiener N. (1948). Cybernetics or control and communication in the animaland the machine. New York : Wiley.
Winograd T. & Flores F. (1989). Lintelligence artificielle en question. Paris : PUF.
Wolton D. (2000). Internet, et après ? Une théorie critique des nouveaux médias. Paris : Flammarion.
Yates S. (1993). Speech, writing and computer conferencing: an analysis. In Mason, R. (Ed.), Computer conferencing : the last word. Victoria, B.C. : Beach Holme Publishers, 37-56.
Yates S. (1992). Gender and computer mediated communication : an analysis of DT200 in 1990. CITE Report, 158, The Open University, UK.
Zuboff S. (1988). In the age of th smart machine. New York, NY : Basic Books.
7.1 - Les communautés délocalisées denseignants : ( suite )
Bibliographie et webographie
Bibliographie
Audran J. (2001). La liste de diffusion électronique, un instrument de formation professionnelle ? Recherche et formation. (article à paraître).
Une liste de diffusion peut constituer un lieu déchange dinformation et de discussion de ces échanges, mais peut-elle pour autant participer dune formation professionnelle à distance comme certains le prétendent ? Lobservation déchanges sur une liste semble montrer quil y a bien un apprentissage mais qui ne concerne pas nécessairement des contenus très identifiables et contrôlables.
Breton, Ph. La tribu informatique. Paris : Métailié. (1990).
Un livre qui date un peu mais qui, par certains côtés, est toujours dactualité. Les enseignants que nous étudions ne sont-ils pas des membres de cette tribu avant même dêtre des enseignants ? Lauteur insiste notamment sur limportance de la culture informatique et les conceptions et affects liés à la pratique de linformatique (représentation de lordinateur, imaginaire de la tribu technique, amour de la règle etc.).
Brown R.E. (2001). The process of community-building in distance learning classes. Journal of Asynchronous Learning Network. Vol. 5, Issue 2, September 2001.
Cet article propose une étude basée sur lanalyse de communautés dapprentissage dans le cadre de cours en ligne. Il tente de répondre plus particulièrement à la question Comment une communauté dadultes étudiant à distance se construit-elle ? . Un schéma très précis reprenant les différentes étapes et les conditions de cette construction est proposé ainsi quune méthode basée sur une triangulation de données pour collecter des informations auprès des participants et des enseignants.
Carrer P. & Salame N. Les facteurs de succès dans les On-Lines Communities. Dossier de lingénierie éducative, Communautés en ligne, n°36, octobre 2001, pp. 20-24.
Les auteurs proposent une webographie darticles consacrés aux communautés en ligne avec une typologie des études recensées : par la nature des échanges, par type doutil informatique, par degré dautonomie vis-à-vis dune communauté physique, par degré de clôture. Ce même numéro contient également linterview de Dan Sperber Un anthropologue au cur des communautés virtuelles (pp. 25-27).
Charlier B. (2001). Le réseau denseignants, lieu dapprentissage et dinnovation. In L. Lafortune, C. Deaudelin, P.-A. Doudin et D. Martin (2001). La formation continue : de la réflexion à laction. Quebec: Presses de lUniversité du Québec (à paraître)
Ce chapitre avant tout théorique propose lélaboration dun modèle permettant de comprendre dans quelles conditions un réseau denseignants, en tant que lieu dun apprentissage collaboratif, pourrait être support à lapprentissage individuel. Il propose ensuite quelques conditions dans lesquelles le réseau pourrait lui-même apprendre et contribuer à la construction et à la mise en uvre dinnovations pédagogiques.
Clarck C.M. (Ed.) (2001). Talking Shop : Authentic Conversation and Teacher learning. New-York : Teachers College Press.
Ce livre présente différentes études de cas de groupes de discussion en présence pour la formation et le développement professionnel denseignants. Tout au long du livre, les auteurs montrent les aspects formatifs des conversations authentiques entre enseignants en mettant en perspective différentes dimensions : modération des discussions, affirmation de soi, réflexivité, résolutions de problèmes, dynamique de groupe
Day C. (1999). Developping Teachers. The Challenge of Lifelong Learning. London : The Falmer Press.
Ce livre passe en revue les questions les plus actuelles en matière de formation denseignants. Le chapitre 9 intitulé Networks for Learning : Teacher Development, School Improvement met en lumière limportance des communautés et des réseaux denseignement en partant du schéma en cycles dHuberman. Day montre aussi lintérêt des communautés de pratiques pour le développement professionnel des enseignants.
Drot-Delange B. (2001). Teachers and Electronic Communication : a Minority Activity ? Educational Media International. 38-2/3. Juin-Septembre 2001.
Cet article sintéresse à deux aspects du phénomène du développement des listes de discussion denseignants : ladoption par les enseignants de ces listes et leur participation. Il rend compte dune enquête menée auprès dabonnés à plusieurs listes et de lanalyse des messages échangés dans ces listes.
Hoel T. (2001). Interaction as learning Potential in We-Mediated Discussions. 10th Biennial ISATT Conference, Faro, Portugal, 21-25 septembre 2001.
Cet article analyse une expérience de discussion asynchrone en ligne dans le cadre dune formation initiale denseignants en Norvège. Dans ces discussions, laccent est mis sur la création de sens et la résolution de problèmes. Lapproche méthodologique est particulièrement intéressante : lauteur recherche dans les messages des étudiants certaines patterns dinteraction (language exploratoire, construction de sens, explications, justifications, soutiens
) dans le but de mettre en évidence les aspects formateurs des discussions.
Jones S. (Dir.) (2000). Doing Internet research, critical issues and methods for examining the net. London : SAGE.
Un certain nombre darticles relevés dans cet ouvrage collectif présentent un intérêt sur le plan méthodologique. Trois dentre eux sont particulièrement pertinents à notre travail :
- Larticle de F. Sudweeks, S.J. Simoff (Complementary explorative data analysis, pp. 29-55) propose une approche méthodologique danalyse se réclamant à la fois de lordre du quantitatif et du qualitatif. Dans une optique plutôt connexionniste les auteurs font une synthèse de modèles proposés dans diverses recherches portant notamment sur des écrits médiatisés reposant sur des fils de discussion. Lintérêt de larticle est de proposer des pistes possibles de modélisation.
- L. Kendall préconise de son côté, dans (Recontextualizing Cyberespace , pp. 57-74), un suivi des interactions sociales de terrain pour mieux comprendre les situations en ligne. Larticle est une réflexion, en forme de plaidoyer, sur le caractère indispensable dune approche située et contextualisée (nobody lives only in cyberespace).
- J. Fernback (There is a there there, pp. 203-220) propose quant à lui des approches de la notion de cybercommunity (selon le lieu, la dimension symbolique, le rapport réel/virtuel) différente et complémentaire des acceptions traditionnelles de la notion de communauté.
Livet P. (1994). La communauté virtuelle. Combas: lEclat.
Le livre traite des rapports entre action et communication et constitue une réflexion sur les approches pragmatiques, les relations entre individus et collectif, la place de lintention. Lapproche est ici plus philosophique, mais le livre traite de questions qui peuvent présenter un intérêt particulier sur la manière dont se construit une communauté virtuelle à partir des actes de langages. Lidée directrice est que pour communiquer, étant dans limpossibilité didentifier avec certitude les intentions dautrui, il faut présupposer que le collectif est déjà virtuellement constitué, sans avoir aucune preuve de son existence réelle et en ignorant la façon dont chaque membre identifie le collectif.
Réseaux 97 et 100 (CNET-Hermes), regroupent également des articles qui peuvent apporter des éclairages. Nous retenons plus particulièrement deux articles :
- Beaudouin, V. & Velkovska, J. (1999). Constitution dun espace de communication sur Internet, Flichy P. (Dir.), Réseaux vol.17 n°97, Paris, CNET/Hermès-Science, pp.121-177. Larticle donne un aperçu des particularités de différents supports de communication électronique (courriel, chat, forum) en matière de modalités déchanges et de contenus.
- Dalhgren, P. (2000). Lespace public et lInternet, Flichy P. (Dir.), Réseaux vol.18 n°100, Paris, CNET/Hermès-Science, pp.121-177. Une réflexion plus générale sur la place dInternet dans le domaine de léchange public à partir de la notion d espace public dHabermas.
Smith, M. & Kollock, P. (Ed.) (1999). Communities in Cyberspace. Londres: Routledge, 323 p.
Cet ouvrage collectif aborde les communautés au travers de quatre questions : celle de lidentité, celle du contrôle social, celle de la structure des communautés et de leur dynamique et enfin celle de laction collective. Nous retenons plus particulièrement deux articles :
Larticle de B. Wellman & M. Gulia Virtual communities as communities : Net surfers dont ride alone (p. 167-194) propose un questionnement permettant danalyser les communautés virtuelles selon des critères tels que linfluence de celles-ci sur les communautés réelles, la nature des liens et lintérêt des liens faibles entre les membres (en référence à M. Granovetter) ou bien encore la réciprocité et léchange généralisé. Les questions posées tendent à dévoiler les excès de ceux qui étudient ces communautés, que soit par excès de pessimisme accroissement de lisolement, refuge dans un mode virtuel, etc. ou par excès denthousiasme. Leur conclusion est que les communautés en ligne, en admettant de sen tenir à une définition raisonnable, cest-à-dire en ne les comparant pas aux communautés traditionnelles, quasi-mythifiées, sont de vraies communautés. Il convient donc selon eux de procéder à leur analyse sur un mode davantage scientifique quanecdotique, contrairement à ce qui a été fait jusquà présent (toujours selon eux).
Larticle de P. Kollock The economies of online cooperation : gifts and public goods in cyberspace (p. 220-239) propose lanalyse des motivations à participer ou à coopérer au sein de communautés où le dilemme social se pose. Ce dilemme est le fait quun comportement rationnel individuellement peut être en total contradiction avec lintérêt du groupe. Ainsi, individuellement on peut ne pas vouloir supporter les coûts dune coopération. Si tous les participants adoptent cette attitude, le groupe nexiste plus. Lauteur analyse alors la pertinence du cadre théorique de léconomie des biens publics pour étudier de telles communautés.
Une discussion de ce cadre théorique est présentée dans :
Drot-Delange B. (2000). Les listes de diffusion disciplinaires : adoption et participation des enseignants. In: G-L. Baron, E. Bruillard et J-F. Lévy (dir.). Les technologies dans la classe. De linnovation à lintégration. Paris : INRP-EPI, pp. 163-183.
Turkle, S. (2000). Life on the screen, identity in the age of the Internet. New york : Touchstone.
Le livre traite des questions concernant les relations établies en ligne. Un peu éloigné des communautés regroupées autour des échanges asynchrones, le cadre concerne plus particulièrement ici les environnements de type MOO et MUDs où lordinateur joue simultanément le rôle de passerelle et de miroir. Lauteur sintéresse plus spécialement aux transformations identitaires qui se nouent dans ces jeux de rôles.
Wenger, E. (1998). Community of practice. Cambridge : Cambridge University Press.
La notion de communauté de pratiques défend une perspective sociale de lapprentissage, inséré dans les pratiques collectives. Selon Wenger (1998) en effet, la pratique peut constituer la source de cohérence dun groupe dindividus. Trois caractéristiques permettent de décrire une telle situation :
- lengagement mutuel (mutual engagement) des participants qui mettent en uvre des actions dont ils négocient le sens ensemble,
- une entreprise commune (joint enterprise) : lengagement mutuel fait lobjet dune négociation. Lobjectif est régulièrement évalué et remis à jour.
- un répertoire partagé (shared repertoire) : au cours du temps, le groupe se constitue des ressources propres (documents, site web
) mais aussi un langage commun et des histoires partagées.
Webographie
Les communautés denseignants décrites dans ce rapport
http://siteiai.free.fr/ : le site de la communauté IAI Instituteurs Animateurs en Informatique.
http://www.clionautes.org : lassociation des Clionautes qui héberge la liste H-Français.
http://www.educnet.education.fr/ecogest/default.htm : le site de la liste Ecogest réseau des professeurs déconomie-gestion.
http://tecfa.unige.ch/proj/learnett : le campus virtuel du projet Learn-Nett.
·http://www.SCEDU.UMontreal.CA/cractic/ : le site de la communauté CRACTIC Collectif de recherche sur lapprentissage collaboratif à laide des TIC.
http://mageos.ifrance.com/formaction : site hébergeant les archives de la liste Veille et Analyse TICE.
http://www.tact.fse.ulaval.ca : site de la communauté TACT TéléApprentissage Communautaire et Transformatif.
Communautés denseignants
http://www.cafepedagogique.net/ : site du Café Pédagogique, lactualité pédagogique sur Internet pour les enseignants.
http://fr.groups.yahoo.com/group/certnef/files/ : liste de discussion denseignants du primaire en Belgique autour de lusage des TICE à lécole.
http://www.fabula.org : communauté des enseignants et des chercheurs en littérature.
Annuaires de communautés
http://ntic.org/guider/textes/div/biblistes.html : liste de communautés de pratique pour enseignants.
http://www.francopholistes.com/ : annuaire des listes de discussion francophones.
http://www.educnet.education.fr/listes_educnet/listes.htm : listes hébergées sur le serveur Educnet.
http://concours.educationquebec.qc.ca/listes.html : listes du réseau scolaire québécois.
http://educlic.education.fr/Arisem23/iClass4U/node/NodeView2.asp?idC4UNode=145&idC4UTree=7 : lespace Echange du site Educlic.
Outils pour les communautés
http://www.uzine.net : le site de la plate-forme SPIP.
http://www.anemalab.org : le site de la plate-forme collaborative Ganesha.
http://tipiwiki.free.fr/ : le site de la plate-forme Wikis.
http://fr.groups.yahoo.com/ : communautés en ligne Yahoo egroups.
Autres ressources en ligne
http://www.creatinglearningcommunities.org/book/book.htm : un livre en ligne à propos des communautés dapprentissage et de pratique denseignants.
http://www.eun.org/eun.org2/eun/fr/index_eun.html : réseau européen, portail éducatif des écoles dEurope.
http://www.portail.lettres.net/f__listes-discussion.htm : les ressources du Portail des Lettres à propos des listes de discussion et des communautés en ligne.
8 - Notes : Observation et analyse des usages : méthodes et outils
Bibliographie
Ouvrages sur lusage des TICs
Barbier J.-M. (2001) La constitution de champs de pratiques en champs de recherches , dans Baudouin, J.-M. & Friedrich, J. (éds.) Théories de laction et éducation, Coll. Raisons éducatives, Bruxelles : Éditions De Boeck Université.
Bellier S., (2001), Le e-learning, Pédagogie, contenus, modalités, acteurs, Paris : Éditions Liaisons
Bélisle C., Bianchi J. & Jourdan R. (1999), Pratiques Médiatiques 50 Mots-clés, Paris : CNRS Éditions.
Bélisle C., Rawlings A. & Seventer Chris van, (2001) Educational Multimedia Task Force 1995-2001, Integrated Research Efforts on Multimedia in Education and Training, European Commission Report, Brussels.
Bélisle C., Zeiliger R. & Cerratto T., (1999) Sorienter sur le Web en construisant des cartes interactives avec Nestor, in Balpe, J.-P., Natkin, S., Lelu, A. & Saleh I., (coordonnateurs) H2PTM99, Hypertextes, Hypermédias et internet : Réalisations, Outils et méthodes, Paris : Ed. Hermès.
Bélisle C. (1995) Evaluation de la vidéoprésence dans la formation à distance , in Davies, Gordon & Tinsley, David, (eds) Open and Distance Learning : Critical Success Factors, Erlangen : FIM.
Bruner J.S.,(1983) Savoir faire, Savoir dire : le développement de lenfant, trad. fcse. Paris : PUF.
Caspar Pierre, sous la direction de, (1998) Nouvelles technologies éducatives et réseaux de formation. Des entreprises parlent de leurs expériences, Paris : Editions dOrganisation.
Chaptal A. (1999) La question de lefficacité des technologies dinformation et de communication dans lenseignement scolaire, Analyse critique et communicationnelle des modèles américain et français. Thèse de doctorat de lUniversité Paris X en Sciences de linformation et de la communication, 8 décembre 1999, multigr. 532 p.
Chaptal A. (2000), Linvestissement en vaut-il la peine ? in La revue de lEPI n°100, décembre 2000, pp. 53-61.
Chaptal A. (2002) Le dilemme constructiviste ou la question du renouvellement des usages
Étude PNER : http://www.pner.org/html/activduprog/ZeEtudes
Clark R.E., (1983) Reconsidering research on learning from media , paru dans Review of Educational Research, Winter 1983, vol. 53 n° 4 pp. 445-459. Téléchargeable (mars 2002) avec le copyright http://www.quasar.ualberta.ca/EDIT572/Nrefcla.html.
Crinon J. & Gautellier C. (sous la direction de) Apprendre avec le multimédia, Où en est-on ? Ouvrage collectif, Ed. Retz, 1997
Cuban L. (1999), The Technology Puzzle, Why Is Greater Access Not Translating Into Better Classroom Use, Education Week , vol XVIII, n° 43, August 4, 1999, http://www.edweek.org/ew/1999/43cuban.h18 Téléchargeable (mars 2002)
Cuban L. (2000a), So Much High Tech Money Invested, So Little Use and Changes in Practice : How Come? paper for the Council of Chief State School Officerss State Educational Technology Leadership Conference 2000, téléchargeable (mars 2002) http://www.ccsso.org/techreport4.html
Darras B. (sous la direction de), (2000), Multimédia & Savoirs, Paris : Éditions LHarmattan.
Davallon J. et Le Marec J., Lusage en son contexte : sur les usages des interactifs et des cédéroms , in : Réseaux n°101, Paris, CNET, 2000, p. 173-196.
Gil Philippe, (2000), e-Formation, NTIC et re-engineering de la formation professionnelle, Paris : Éditions DUNOD.
Do C., Alluin, F. (2000), Ressources documentaires et pratiques pédagogiques, année civile 1999, Enquête MENRT, Direction de la Programmation et du Développement, Mission à lévaluation, Paris, multigr. 86 p.
Fichez E.,. (1998) Industrialisation contre médiation , in : Lindustrialisation de la formation, état de la question, sous la direction de P. Moeglin, Paris : CNDP.
Giardina M., (1999), Linteractivité, le multimédia et lapprentissage, Paris, Éditions LHarmattan.
Grégoire Réginald & Bracewell, Robert & Laferrière, Thérèse, Lapport des nouvelles technologies de linformation et de la communication (NTIC) à lapprentissage des élèves du primaire et du secondaire - Revue documentaire , 1996, accessible en ligne http://www.fse.ulaval.ca/fac/tact/fr/html/apport/apport96.html, consulté le 15 février 2002
Guichard Éric, (sous la direction de), (2001), Comprendre les usages de lInternet, Paris : Éditions ENS rue dUlm.
Jeanneret Y. et Souchier E., (1999) Pour une poétique de lécrit décran , in : Xoana n° 6, p. 97-107.
Jeanneret Y. et Souchier E. (2001) Que signifie user de lécrit décran?, 3ème Colloque International sur les Usages et Services dans les Télécommunications, ENST, Juin 2001, Paris.
Jouet J., (1997), Pratiques de communication : figures de la médiation , in Sociologie de la Communication, Collection Réseaux, CNET.
Jouet Josiane, (2000) Retour critique sur la sociologie des usages , in Réseaux n° 100, Paris, CNET, p.487-521.
Kerrey B., Isakson J. (2000), The Power of the Internet for Learning : Moving from Promise to Practice, Report of the Web-based Education Commission to the President and the Congress of the United States, December 2000, téléchargeable (mars 2002).
http://interact.hpcnet.org/webcommission/index.htm
Le Coadic Y.F. (1997), Usages et usagers de linformation, Paris : ADBS, Éditions Nathan.
Le Marec J., Lusage et ses modèles : quelques réflexions méthodologiques , in : Spirales, n°28, 2001, p. 105-122.
Le Rouzic Daniel, (1997) Introduire Internet dans ses pratiques pédagogiques, Paris : Bertrand-Lacoste.
Lévy P., Lintelligence collective : pour une anthropologie du cyberespace, Paris : La Découverte, 1997
Linard M., (1996) Des machines et des hommes. Apprendre avec les nouvelles technologies, Paris : Éditions LHarmattan.
Linard M . &. Bélisle, C. (1996) Quelles nouvelles compétences des acteurs de la formation dans le contexte des TICS ? , Education Permanente, n° 127, Technologies et approches nouvelles de la formation, Paris.
Mallein Ph. et Toussaint Y., Diffusion, médiation, usage des TICs in Culture technique n°24, 1992, p. 219-226.
Mayer, R.E., Bove, W., Bryman, A., Mars, R., Tapangco, L., (1996) When less is more : meaningful learning from visual and verbal summaries of science textbook leson , Journal of Educational Psychology, 88(1), p. 64-73.
Moeglin P., Télématique : de la recherche sur les usages aux usages de la recherche , in : Bulletin du CERTEIC n°12, 1991, p. 23-50.
Naymark Jacques, (1999), sous la direction de, Guide du multimédia en formation, Paris : Ed. Retz.
Oppenheimer T. (1997) The Computer Delusion in The Atlantic Monthly, July 1997, Vol. 280, n° 1; pp 45-62. http://www.TheAtlantic.com/issues/97jul/computer.htm (téléchargeable mars 2002).
Pouts-Lajus S. & Riché-Magnier M., (1998), LÉcole à lheure dinternet. Les enjeux du multimédia dans léducation, Paris : Nathan.
Pouts-Lajus S. & Tiévant S. (1999), Observation des usages dinternet dans différents lieux daccès public , paru dans , Bulletin des Bibliothèques de France, n°5.
Rabardel P. (1995), Les Hommes et les Technologies : approche cognitive des instruments contemporains, Paris : A.Colin.
Rouet J.-F., (1997), Le lecteur face à lhypertexte , in Crinon, J. & Gautellier, C., sous la direction de, Apprendre avec le multimédia Où en est-on ?, Ouvrage collectif, Paris : Ed. Retz.
Rouet J.-F. & Tricot A., (1998), Chercher de linformation dans un hypertexte : vers un modèle des processus cognitifs , in Tricot, A. & Rouet, J.-F. (sous la direction de) Les hypermédias, Approches cognitives et ergonomiques, Paris : Hermès.
Sandholtz Judith H., Ringstaff Cathy & Dwyer David C., (1997) La classe branchée, Enseigner à lère des technologies, Paris, CNDP; titre original : Teaching with Technology : Creating Student-Centered Classrooms, Teachers College Press.
Sfez L., (sous la direction de), (1993), Dictionnaire critique de la communication, Paris : PUF,.
Si Mussa A. (2000), Internet à lécole : usages et enjeux, Paris : Éditions LHarmattan.
Tardif Jacques, (1998) Intégrer les nouvelles technologies de linformation. Quel cadre pédagogique?, Avec la collaboration dAnnie Presseau, Coll. Pratiques et enjeux pédagogiques, Editions ESF, Paris.
Toma Tony, (1996) du Multimédia et des Hommes, Lenseignant face au multimédia, Paris : Martorana Editeur.
Tricot A. & Rouet J.-F. (sous la direction de), (1998) Les hypermédias, Approches cognitives et ergonomiques, Paris : Hermès.
Vandendorpe Christian, (1999), Du Papyrus à lhypertexte, Essai sur les mutations du texte et de la lecture, Paris, Éditions La Découverte.
Vitalis A., Médias et nouvelles technologies : pour une sociopolitique des usages, Rennes : Apogée, 1994
9 - Inathèque de France : usages du système documentaire
Arrive M., Gadet F., Galmiche M. (1986), La grammaire daujourdhui, Flammarion.
Baratin M., Jacob Christian (sous la direction de) (1996), Le pouvoir des bibliothèques. La mémoire des livres dans la culture occidentale, Albin Michel.
Bourcier M.H. (1998), Le discours narratif télévisuel pendant la guerre du Golfe, Thèse de doctorat, EHESS, sous la direction dAlain Touraine.
Davallon J., Gottesdiener H., Le Marec J. (1997), Approche de la construction des usages de CD-Rom culturels liés aux musées, CEREM, Ministère de la Culture, Direction des Musées de France/ Réunion des Musées Nationaux.
Farge A. (1989), Le goût de larchive, Seuil.
Hennion A. (1993), Techniques de laudio , Dictionnaire critique de la communication, Presse Universitaire de France, p376.
Jeanneney J.N., Sauvage M. (1982), Télévision, nouvelle mémoire; Seuil, INA.
Jouet J. (1993), Pratiques de communication et figures de la médiation , Réseaux, no. 60, p99-120.
Jouet J. (1993), Usages et pratiques des nouveaux outils , Dictionnaire critique de la communication, Presses Universitaires de France, (p371, t.1).
Latour B., Woolgar Steve (1988), La vie de laboratoire, la production des faits scientifiques, La Découverte.
Latour B. (1985), Les vues de lesprit. Une introduction à lanthropologie des sciences et des techniques , Culture technique no.14 (reproduit dans Sciences de lInformation et de la Communication, Bougnoux D., coll. textes essentiels , Larousse, p570-596).
Latour B. (1996a), Le pédofil de Boavista, montage photo-philosophique , in Petites leçons de sociologie des sciences, Coll. Point , Seuil, p171-225.
Latour B. (1996b), Sur la pratique des théoriciens , in Savoirs théoriques et savoirs daction, sous la direction de Jean-Marie Barbier, PUF.
Le Caodic Y. F. (2001), Usages et usagers de linformation, coll. 128, Nathan Université.
Perriault J. (1989), La logique de lusage, Flammarion.
Proulx S. (2000), La construction sociale des objets informationnels : matériaux pour une ethnographie des usages, Médiatiques, no. 8, printemps 2000.
Riegel M., Pellat J.C., Rioul R., (1994), La grammaire méthodique du français, PUF.
10 - Références sur les fondateurs de lhypertexte
Bush et le Memex
Brève présentation de Vannevar Bush :
http://www.iath.virginia.edu/elab/hfl0034.html
As we may think : http://www.theAtlantic.com/unbound/flashbks/computer/bushf.htm
ou http://www.isg.sfu.ca/~duchier/misc/vbush/
Une image du Memex : http://www.kerryr.net/pioneers/memex_pic.htm
Douglas Engelbart
Brève présentation : http://www.iath.virginia.edu/elab/hfl0035.html
Démonstration en 1968 : http://sloan.stanford.edu/MouseSite/1968Demo.html
Interview pour les enfants : http://www.superkids.com/aweb/pages/features/mouse/mouse.html
Le travail coopératif : http://www.bootstrap.org/
Augmenting Human Intellect: A Conceptual Framework ( HYPERLINK http://www.histech.rwth-aachen.de/www/quellen/engelbart/ahi62index.html http://www.histech.rwth-aachen.de/www/quellen/engelbart/ahi62index.html
Bush et Engelbart (pour lhistoire des interfaces graphiques).
http://www2.kenyon.edu/people/adamsal/gui/bush_engelbart.htm
Ted Nelson et lhypertexte
Brève présentation : http://www.iath.virginia.edu/elab/hfl0155.html
Projet Xanadu : HYPERLINK http://xanadu.com/ http://xanadu.com/
Sa home page : HYPERLINK http://www.sfc.keio.ac.jp/~ted/ http://www.sfc.keio.ac.jp/~ted/
Ted Nelson et le mot hypertexte en 1965 : http://iberia.vassar.edu/~mijoyce/Ted_sed.html
Memex et au-delà : http://www.cs.brown.edu/memex/
Site Eastgate : http://www.eastgate.com
Autres références
Baldner Jean-Marie, Bruillard Eric (2000). Lusage des manuels scolaires et des ressources technologiques dans la classe. Rapport de la première année de la recherche INRP 40124, 121 p. Première partie reprise en Point de Vue dans Sciences et Techniques Educatives, vol. 7, n° 2, Hermès, p. 443-480.
Baron Georges-Louis, Bruillard Eric (2001). Une didactique de linformatique ? Revue Française de Pédagogie, n° 135, p. 163-172.
Bruillard Eric (1997). Les machines à enseigner. Éditions Hermès, Paris, 320 p.
Bruillard Eric, Grandbastien Monique (eds.) (2001). Éducation et informatique. Hommage à Martial Vivet. Sciences et Techniques éducatives, vol. 7, n° 1, Hermès Science, 300 p.
Bruillard Eric, de La Passardière Brigitte et Baron Georges-Louis (eds.) (1998). Le livre électronique. Sciences et Techniques Educatives, vol. 5, n° 4, Hermès Science, Paris.
Bruillard Eric, de La Passardière Brigitte. (1998). Fonctionnalités hypertextuelles dans les environnements dapprentissage, in Tricot A. et Rouet J.-F. (dir.) Les hypermédias, approches cognitives et ergonomiques, Hermès, Paris, p. 95-122.
Charpin François (1994). Analyse littéraire et civilisation avec lordinateur, La pratique de linformatique dans lenseignement des langues anciennes, LITALA, Paris, p. 83-89.
Charpin François (ed.) (1995). La pratique de linformatique dans lenseignement des langues anciennes, LITALA, Paris.
Grandbastien Monique (2002). Quelques questions à propos de lindexation et de la recherche de ressources pédagogiques sur le WEB in Les technologies en éducation : perspectives de recherche et questions vives, Baron Georges-Louis, Bruillard Eric (eds.), INRP, Paris.
Marshall C., Shipman F., Coombs J. (1994). VIKI: spatial hypertext supporting emergent structure, in Proceedings ECHT94, p. 13-23.
Marshall C.C., Rogers R.A. (1992). Two Years before the Mist: Experiences with Aquanet, Proc. 4th ACM Conference on Hypertext, ECHT92, Milan, p.53-62.
Nelson Theodor H. (1967). Getting it out of our system, in Schecter George (ed.), Information Retrieval: A Critical View. Thompson Book Co.
Normand Sylvie, Bruillard Eric (2001). Que révèlent les discours de futurs enseignants sur leur compréhension du fonctionnement des applications informatiques. Point de vue, Sciences et Techniques éducatives, vol. 8, n° 3-4, Hermès Science, p. 435-445.
Autres références Hypertexte
Agosti, M. Crestani, F. Melucci, M. (1996), Design and implementation of a tool for the automatic construction of hypertexts for information retrieval , Information Processing & Management, 1996, 32, 4, 459-476
Arents, H. Bogaerts, W. (1993), Concept-based retrieval of hypermedia information : from term indexing to semantic hyperindexing , Information Processing & Management, 1993, 29, 3, 373-386
Amélineau, , C. & Giovanni, L. (1996). Utilisation pédagogique de loutil logiciel hypertexte avec un public dadultes illettrés en stage dinsertion sociale et professionnelle . In Bruillard, E., Baldner, J.M. & Baron, G.L. (dirs.). pp 175-182.
Baddeley, A. (1986). Working Memory. New York, Oxford University Press.
Baddeley, A. (1990). Human Memory. Theory and Practice, Londres, LEA.
Baldner Jean-Marie, Bruillard Eric (2000). Lusage des manuels scolaires et des ressources technologiques dans la classe. Rapport de la première année de la recherche INRP 40124, 121 p. Première partie reprise en Point de Vue dans Sciences et Techniques Educatives, vol. 7, n° 2, Hermès, p. 443-480.
Balpe, J.P., Lelu, A., Papy, F. & Saleh, (1996). Techniques avancées pour lhypertexte. Paris : Hermes.
Baron Georges-Louis, Bruillard Eric (2001). Une didactique de linformatique ? Revue Française de Pédagogie, n° 135, p. 163-172.
Baron L., Tague-Sutcliff J., Kinnucan M. (1996), Labeled, Typed Links as Cues when Readind Hypertext Documents , JASIS, 1996, 47, 12, 896-908.
Beaufils A. (1996), Appropriation de réseaux de navigation hypermédias par des élèves de collège : résultats dune expérimentation et perspectives , Actes des Troisièmes journées scientifiques Hypermédias et Apprentissages, E. Bruillard, J.M. Baldner, G.L. Baron (eds.) CREPS de Chatenay-Malabry, 9-11 Mai 1996, 225-236.
Bates M. (1989), The design of browsing and berrypicking techniques for online search interface , Online Review, 1989, 13, 5, 407-423
Benoit J., Fayol M. (1989), La catégorisation des types de textes , Pratiques, 62, 71-85.
Bolter J. D., Writing space : The computer, Hypertext, and the History of Writing, Hillsdale, 1991.
Borgman Ch. Hirsh, S. Walter V., Gallagher A. (1995), Childrens Searching Behavior on Browsing and Keyword Online Catalogs : The Science Library Catalog Project , Journal of the American Society for Information Science, 1995, 46, 9, 663-684.
Bosak Jon, et Bray Tim, XML and the Second-Generation Web , Scientific American, May 1999.
Boyle C., Snell J. (1990), Intelligent navigation for semistructured hypertext documents , Hypertext: State of the Art, R. McAleese & C. Green (eds.), University of Aberdeen, Intellect, Oxford, England, 1990,28-42
Brown P.J. (1989), Do we need maps to navigate round hypertext documents ?, Electronic publishing, 1989, 2, 2, 91-100.
Bruillard Eric (1997). Les machines à enseigner. Editions Hermès, Paris, 320 p.
Bruillard Eric, Grandbastien Monique (eds.) (2001). Education et informatique. Hommage à Martial Vivet. Sciences et Techniques éducatives, vol. 7, n° 1, Hermès Science, 300 p.
Bruillard Eric, de La Passardière Brigitte et Baron Georges-Louis (eds.) (1998). Le livre électronique. Sciences et Techniques Educatives, vol. 5, n° 4, Hermès Science.
Bruillard Eric, de La Passardière Brigitte. (1998). Fonctionnalités hypertextuelles dans les environnements dapprentissage , in Tricot A. et Rouet J.-F. (dir.) Les hypermédias, approches cognitives et ergonomiques, Hermès, Paris, p. 95-122 (correspondant à un numéro spécial de la revue Hypertextes et Hypermédias).
Cattenat A., Paul G. (1992), Thésaurus ou non? ou comment interroger des bases de données textuelles sans être savant , Les bases de données avancées I. Saleh (ed), 1992, Hermes, 11-22
Chanier T. (1988) : Hypertexte, hypermédia et apprentissage dans des systèmes dinformation et de communication . Etude de Linguistique Appliquée (ELA). nº 110, avril-juin. pp 137-146.
Chanier T. (1996). Learning a Second Language for Specific Purposes within a Hypermedia Framework . Computer-Assisted Language Learning (CALL), vol. 9, 1. pp 3-43.
Chanier T. & Selva, T. (1997). Visual representations in lexical learning environments : application to the ALEXIA system . Conference Computer Assisted Language Learning, Exeter, septembre. A paraître.
Collombet-Sankey N. (1997). Surfing the net to acquire communicative and cultural knowledge . In Debski, R., Gassin, J. & Smith, M. (dirs.). pp143-158.
Chartier R., Bibliothèques sans murs , dans Lordre des livres, lecteurs, auteurs, bibliothèques en Europe entre XIVe et XVIIIe siècles, Aix-en-Provence, Alinéa, 1992, pp. 69-94, -- et J.M. Goulemot, En guise de conclusion : les bibliothèques imaginaires (fictions romanesques et utopies) , dans Histoire des bibliothèques françaises, Paris, Promodis-Editions du Cercle de la Librairie, tome II, Les bibliothèques sous lAncien Régime , C. Jolly ed., 1989, pp. 500-511.
Chartier R., Du codex à lécran : les trajectoires de lécrit , 1994, HYPERLINK http://www.info.unicaen.fr:bnum:jelec/Solaris/d01/1chartier.html http://www.info.unicaen.fr:bnum:jelec/Solaris/d01/1chartier.html
Chartier R., Révolutions et modèles de lecture , XVe-XXe siècles. Le Français aujourdhui, décembre 1995, n°112, p. 6-15.
Cochrane P., Johnson E. (1996), Visual Dewey : DDC in Hypertextual Browser for the Library User, Advances in Knowledge Organization, 5, 95-106.
Crinon J., Legros D., Pachet S. & Vigne H. (1996). Etude des effets de deux modes de navigation dans un logiciel daide à la réécriture . In Bruillard, E., Baldner, J.M. & Baron, G.L. (dirs.). pp 73-84.
Culioli A. (1989). Representation, referential processes, and regulation. Language Activity as Form Production and Recognition. Genève: Fondations Archives Jean Piaget, Cahier n° 10, Language and Cognition.
Denhiere G., Baudet S. (1992). Lecture, compréhension de texte et science cognitive. Paris, PUF.
Dessus Ph., Hedon G. (1996), Effets du support, de la tâche et de la présentation dans la consultation dun hypertexte sur linformatique à lécole , Actes des Troisièmes journées scientifiques Hypermédias et Apprentissages, E. Bruillard, J.M. Baldner, G.L. Baron (eds.), CREPS de Chatenay-Malabry, 9-11 Mai 1996, 167-174.
Dillon A. (1991), Readers models of text structures : the case of academic articles , International Journal of Man-machine Studies, 35, 913-925.
Eisenstein E., The Printing Revolution in Early Modern Europe, Cambridge : Cambridge University Press, 1983 ; -- version abrégée de The Printing Press as an Agent of Change : Communication an Cultural Transformation in Early Modern Europe, Cambridge University Press, 1979.
Gaines B., Shaw M. (1995), Concept maps as hymermedia components , International Journal Human - Computer Studies, 43, 323-361.
Fayet-Scribe S. (1997), Chronologie des supports, des dispositifs spatiaux, des outils de repérage de linformation. HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d04/4fayet_0intro.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d04/4fayet_0intro.html
Fayol M. (1997). Des idées au texte. Paris, PUF.
Fayol M. & al. (2000), Maîtriser la lecture, Paris, Odile Jacob.
Fuchs C. (1994). Paraphrase et énonciation, Paris-Gap, Ophrys.
Fuchs C., Robert S. (1997). Diversité des langues et représentations cognitives, Paris-Gap, Ophrys.
Ganascia Jean-Gabriel (2001), Du néo-structuralisme supposé de lhypertextualité , Diogène, n°16, 9-24.
Grandbastien Monique (à paraître, 2002). Quelques questions à propos de lindexation et de la recherche de ressources pédagogiques sur le WEB in Les technologies en éducation : perspectives de recherche et questions vives, Baron Georges-Louis, Bruillard Eric (ed.s), INRP, Paris.
Grize J.B. (1990). Logique et Langage. Paris-Gap: Editions Ophrys.
Jackendoff R. (1987). Consciousness and the Computational Mind. Londres: Bradford Book; Cambridge, Mass.: MIT Press.
Le Ny J. F. (1989). Science cognitive et compréhension du langage. Paris: Presses Universitaires de France.
Mangenot F. (1996). Les aides logicielles à lécriture. Paris : Centre National de Documentation Pédagogique (CNDP).
Lebrave Jean-Louis (1994), Hypertextes, Mémoires, Ecritures , Genesis, n° 5.
Lebrave Jean-Louis (1997), Hypertexte et édition génétique : Flaubert , in Ferrand Nathalie (éd.).
McAleese R., Duncan E. B. (1987), The Graphical Representation of terrain and street Knowledge in an Interface to a Database System , Proceedings of the 11th International Online Information Meeting , 443-456.
McDonaald S., Stevenson R. (1996), Disorientation in hypertext: the effects of three text structures on navigation performance , Applied Ergonomics, 1996, 27, 1, 61-68.
McKnight C., Dillon A., Richardson J. (1990), A comparison of linear and hypertext formats in informtion retrieval , Hypertext: State of the Art, R. McAleese & C. Green (eds.), University of Aberdeen, Intellect, Oxford, England, 1990, 10-19.
McMath C., Tamarus R., Rada R.. (1989), A Graphical Thesaurus Based Information Retrieval System , Int. Journal of Man-Machine Studies, 31, 121-147.
Marshall C., Shipman F., Coombs J. (1994). VIKI: spatial hypertext supporting emergent structure in Proceedings ECHT94, pp. 13-23.
Marshall C.C., Rogers R.A. (1992). Two Years before the Mist: Experiences with Aquanet, Proc. 4th ACM Conference on Hypertext, ECHT92, Milan, pp.53-62.
Mohagec M. (1992), The Influence of Hypertext Linking Structures on the Efficiency of Information Retrieval , Human Factors, 1992, 34, 3, 351-367.
Monk A. (1990), Getting to know locations in a hypertext , Hypertext: State of the Art, R. McAleese & C. Green (eds.), University of Aberdeen, Intellect, Oxford, England, 1990, 20-27
Moureau F., La plume et le plomb : la communication manuscrite au XVIIIe siècle , dans Correspondances littéraires inédites - Etudes et extraits - Suivies de Voltairiana, J. Schlobach ed., Paris-Genève, Charnpion-Slatkine, 1987, pp. 21-30.
Moscovici Serge, Vignaux Georges (1994), Le concept de thêmata, in Pratiques et transformations des représentations sociales (éd. C. Guimelli), Delachaux et Niestlé, 1994.
Nanard M., Paolini P.,. (eds.), Milano 11/30-12/4 1992, 131-140, Savoy, J. (1994), A learning scheme for information retrieval in hypertext , Information Processing & Management, 1994, 30, 4, 515-533
Nanard M. (1995). Les hypertextes : au-delà des liens, la connaissance . Sciences et Techniques Éducatives (STE)., vol 2, 1. pp 31-59.
Nauer E., Lamirel J.C. (1997), Environnement dinvestigation sur WWW : assistance à lutilisateur par des connaissances fédérées , Hypertextes et hypermédias, 1997, 1, 2-3-4, 101-113
Nielsen J., Designing Web Usability.
Les conclusions dune étude de Jakob Nielsen, éditée par Sun Microsystems : http://www.sun.com/980713/webwriting/wftw9.html.
Létude de lUniversité de Stanford, précitée, est complètement accessible ici : http://www.poynter.org/eyetrack2000/index.htm.
Quelques recommandations pour la rédaction de contenus Web ... Dans cet article de lErgonome, fort bien documenté comme à leur habitude, il est question de lisibilité des textes à lécran : http://www.lergonome.org/dev/pages/article_11.asp
Normand Sylvie, Bruillard Eric (2001). Que révèlent les discours de futurs enseignants sur leur compréhension du fonctionnement des applications informatiques. Point de vue, Sciences et Techniques éducatives, vol. 8, n° 3-4, Hermès Science, p. 435-445.
Novak J., Gowin D.B. (1984), Learning how to learn, Cambridge University Press.
Nunberg N.(1993), The Places of Books in the Age of Electronic reproduction , Representations, 42, Future Libraries , H. Bloch et C. Hesse ed., Spring 1993.
Piotrowski David (1996), Lexicographie et informatique : autour de linformatisation du TLF, Actes du Colloque de Nancy, Paris, Didier-Erudition.
Piotrowski David (1997), Lexicographie et formes opératoires de lhypertextualité , Sémiotiques, n° 12.
Piotrowski David, Silberstein Marc (2001), Le prototype HyperCB : Principes, architecture et fonctionnalités dun hypertexte , à paraître.
Pollard R. (1993), A Hypertext-based Thesaurus as a Subject browsing Aid for Bibliographic Databases , Information Processing & Management, 29, 3, 345-357.
Rabardel P. (1995). Les activités avec instruments, de loutil au système technique: une approche cognitive. Paris : Armand Colin.
Rouet J.F. (1992), Apprendre à lire un Hypertexte , Cahiers de linguistique sociale, 1992, 81-92.
Rouet J.F. & Tricot, A. (1995). Recherche dinformations dans les systèmes hypertextes : des représentations de la tâche à un modèle de lactivité cognitive , Sciences et Techniques Éducatives (STE), vol 2, 3. pp 307-331.
Saenger P., Silent Reading : lts Impact on Late Medieval Script an Society , Viator. Medieval and Renaissance Studies, 13, 1982, pp. 367-414.
Physiologie de la lecture et séparation des mots , Annales E.S. C., 1989, pp. 939-952 .
The separation of Words and the Order of Words : the Genesis of Medieval Reading , Scrittura e Civiltá, XIV, 1990, pp. 49-74.
Simoni J.L., Fluhr Ch. (1997), Accès à linformation à travers les graphes de termes , Communication à ISKO-France, Lille, 13-14 Oct.1997, 8 p.
Simpson, A. McKnight, (1990), Navigation in hypertext: structural cues and mental maps , Hypertext: State of the Art, R. McAleese & C. Green (eds.), University of Aberdeen, Intellect, Oxford, England, 1990, 73-83.
Svenbro J. (1988), Phrasikleia. Anthropologie de la lecture en Grèce ancienne, Paris, Editions de la Découverte, 1988.
Thüring M., Hannemann A., Haake J. (1995), Hypermedia and Cognition: Designing for Comprehension , Communication of the ACM, August 1995, 38, 8, 57-66.
Tricot A. (1993), Stratégies de navigation et stratégies dapprentissage : pour lapproche expérimentale dun problème cognitif, Actes des deuxièmes journées scientifiques Hypermédias et Apprentissages, E. Bruillard, J.M. Baldner, G.L. Baron (eds.) Lille, 24-25 Mars 1993,21-38
Tricot A. (1995), Un point sur lergonomie des interfaces hypermédias , Le travail humain, 1995, 58, 1, 17-45
Tricot A., Betrancourt M., Dufresne A., Merlet S., Rouet, J.F., de Vries E. (1996), Des hypermédias pour quoi faire ? Lapport des modèles de tâches à la conception dhypermédias pour lapprentissage , Actes des Troisièmes journées scientifiques Hypermédias et Apprentissages, E. Bruillard, J. M. Baldner, G. L. Baron (eds.), CREPS de Chatenay-Malabry, 9-11 Mai 1996, 257-272
Tricot A., Bastien C. (1996), La conception dhypermédias pour lapprentissage: structurer des connaissances rationnellement ou fonctionnellement ?, Actes des Troisièmes journées scientifiques Hypermédias et Apprentissages, E. Bruillard, J.M. Baldner, G.L. Baron (eds.), CREPS de Chatenay-Malabry, 9-11 Mai 1996, 57-72
Vignaux G. (1988). Le Discours, acteur du monde. Enonciation, argumentation et cognition. Paris-Gap: Editions Ophrys.
Vignaux Georges (1992), Les sciences cognitives : une introduction, Paris, La Découverte (Le livre de poche, 1994).
Vignaux Georges (1996), Hypertextes, dictionnaires : approche sémantique, perspective cognitive , in Piotrowski, D. (éd.).
Vignaux Georges, Piotrowski David, Kieu Quien (1998), Lexicographie et Hypertextes, Actes du 4e Colloque Hypermédias et apprentissages , Poitiers, MSHS.
Vignaux Georges (2000), Lhypothèse du livre électronique , Les cahiers de médiologie, n° 10.
Wandersee J. (1990), Concept mapping and the cartography of cognition , Journal of research in science teaching, 1990, 27, 10, 923-936
Wiesner S., Kowarschick W., Vogel P., Bayer R. (1995), Semantic Hypermedia Retrieval in Digital Libraries , Digital Libraries : Research and Technology Advances, N. Adam, B. Bhargava, M. Halem et Y. Yesha (eds) ADL95 : Forum on Research Digital Technology Advances in Digital Libraries, McLean, VA-USA, 115-129.
Zizi M. (1995), Interactive Dynamic Maps for Visualisation and Retrieval from Hypertext Systems , Information Retrieval and Hypertext, M. Agosti & A. Smeaton (eds), Kluwer Academic Publishers, 203-224.
11- Notes : Édition numérique
A partir dun travail de Ghislaine Chartron (URFIST-Paris/ENC)et Jean-Michel Salaün (ENSSIB), proposant des expertises de professionnels et universitaires sur les dimensions éditoriales, juridiques, techniques, socio-économiques de lédition de revues numériques.
http://revues.enssib.fr/
Revues scientifiques et Internet
G. Chartron URFIST-Paris
http://www.urfist.jussieu.fr/urfist/revues.htm
Publication scientifique électronique
Dossiers de lURFIST de Paris
http://web.ccr.jussieu.fr/urfist/etudes.htm
Eprints.org
Le but est de proposer en ligne des articles de recherche parus dans des revues à comité de lecture, grâce à un système dauto-archivage par les auteurs/organismes. Le logiciel dauto-archivage, eprints.org, a été développé au Département dElectronique et dInformatique de lUniversité de Southampton
http://www.eprints.org/fr/
Sites en relation avec eprints.org.
HEP preprint servers and databases
Serveurs preprint
HYPERLINK http://library.cern.ch/preprint_servers/hep_servers.html http://library.cern.ch/preprint_servers/hep_servers.html
Astronomy & astrophysics preprints & abstracts
a collection of pointers to astronomy-related information available on the Internet. The database is maintained by the AstroWeb Consortium, a collaboration involving 9 individuals at 7 institutions. These CERN - La Plata AstroWeb pages are recomputed at about 06:30 UT each day, if the master database has been changed.
HYPERLINK http://webhead.com/WWWVL/Astronomy/astroweb/yp_preprint.html http://webhead.com/WWWVL/Astronomy/astroweb/yp_preprint.html
Linguist List :
Stevan Harnad, Archiving Software:Eprints 1.0 from eprints.org
HYPERLINK http://www.linguistlist.org/issues/12/12-76.html http://www.linguistlist.org/issues/12/12-76.html
Scholarly Electronic Publishing Bibliography
Par Charles W. Bailey, Jr. , Assistant Dean for Systems University Libraries University of Houston
http://info.lib.uh.edu/sepb/sepb.html
Étude de faisabilité pour la conception dun portail de production, de diffusion de de gestion de publication électroniques
Beaudry G. et Boismenu G. pour le Le Fonds pour la Formation de Chercheurs et lAide à la Recherche (Fonds FCAR), Québec.
http://www.fcar.qc.ca/publications/index.html
Le projet Érudit : Un laboratoire québécois pour la publication et la diffusion électroniques des revues universitaires
Rapport sur le projet pilote réalisé par les Presses de lUniversité de Montréal rédigé par : Gérard Boismenu, Martin Sévigny, Marie-Hélène Vézina, Guylaine Beaudry
http://www.erudit.org/erudit/rapport/index.htm
Les périodiques électroniques en sciences humaines et sociales
Travail de diplôme présenté à lAssociation des bibliothèques et bibliothécaires suisse par Caroline Clément et Marc Bonvin; sous la direction de Françoise Khenoune. Lausanne, Bibliothèque cantonale et universitaire, mars 2000.
HYPERLINK http://www.unil.ch/BCU/recherch/l_art_bi.htm http://www.unil.ch/BCU/recherch/l_art_bi.htm
Le livre numérique
Rapport de la commission sur le livre numérique , présidée par Alain Cordier, Président du Directoire des Editions Bayard Presse, liens, forum...
HYPERLINK http://www.culture.fr/culture/actualites/forum/livre-numerique/ http://www.culture.fr/culture/actualites/forum/livre-numerique/
The New Age of the Book
Par Robert Darnton, dans la revue New York Review of Books , 18 mars 1999.
HYPERLINK http://www.nybooks.com/nyrev/WWWarchdisplay.cgi?19990318005F http://www.nybooks.com/nyrev/WWWarchdisplay.cgi?19990318005F
Le numérique au secours du papier. Lavenir de linformation scientifique des historiens à lheure des réseaux (1999), par Marin DACOS
Revue Cahiers dHistoire (CH)
HYPERLINK http://www.revues.org/cahiers-histoire/1-1999/02-1-1999b.html http://www.revues.org/cahiers-histoire/1-1999/02-1-1999b.html
Digital electronicarchiving : the state of the art and the the state of the practice
Report sponsored by the International Council for Scientific and Technical Information (ICSTI), Information Policy Comitee and CENDI, prepared by Gail Hodge and Bonnie C. Caroll, , avril 1999
http://www.icsti.org/icsti/99ga/
Rapport sur la diffusion électronique des thèses
Ministère de léducation nationale, Direction de lenseignement supérieur, sous-direction des bibliothèques et de la documentation : rapport établi par un groupe de travail, rédaction de Claude JOLLY, chargé de la sous-direction des bibliothèques et de la documentation.
HYPERLINK http://195.83.249.62/bib/acti/These/jolly/entete.htm http://195.83.249.62/bib/acti/These/jolly/entete.htm
Étude prospective : Les revues numériques francophones en sciences humaines et sociales.
Dossier Urfist-Paris, réalisé par Claire Lepeutrec sous la direction de G. Chartron Juin 2000
HYPERLINK http://www.urfist.jussieu.fr/urfist/revueshs/som.htm http://www.urfist.jussieu.fr/urfist/revueshs/som.htm
Politiques documentaires et ressources documentaires électroniques Urfist de Bordeaux : Communications des journées détudes des 19 et 20 juin 2000 et liens vers des articles en ligne
HYPERLINK http://www.montesquieu.u-bordeaux.fr/urfist/e-ressources/journees.htm http://www.montesquieu.u-bordeaux.fr/urfist/e-ressources/journees.htm
Schéma dorganisation de la presse périodique électronique
Françoise Renzetti, Responsable de la Médiathèque de lIMAG, Jean-François Tétu, Professeur Lyon 2, Colloque : La communication de linformation scientifique et technique dans lenseignement supérieur et la recherche : leffet Renater/Internet
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/3renzetti.html#top http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/3renzetti.html#top
Workshop on an international project of electronic dissemination of thesis and dissertations
Textes des communications du Workshop organisé par lUnseco en septmebre 1998
HYPERLINK http://www.unesco.org/webworld/etd/ http://www.unesco.org/webworld/etd/
Reference Linking for Journal Articles
Priscilla Caplan, University of Chicago & William Y. Arms, Cornell University, 1999
HYPERLINK http://www.dlib.org/dlib/july99/caplan/07caplan.html http://www.dlib.org/dlib/july99/caplan/07caplan.html
Les enjeux de la normalisation à lheure du développement de linformation dématérialisée
Par Giuliani Élisabeth, Présidente de la CN 6 (AFNOR, CG 46,) Bibliothèque Nationale de France. Article du n°6 de la revue Solaris, Normes et documents numériques: quels changements? (Sous la direction de Ghislaine Chartron et Jean-Max Noyer )
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d06/6giuliani.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d06/6giuliani.html
Diversité des informations traitées par des moyens informatiques, standardisation optimale et acteurs du processus de standardisation
Par François Horn, Université Charles de Gaulle, Lille III, IFRESI/CNRS. Article du n°6 de la revue Solaris, Normes et documents numériques: quels changements? (Sous la direction de Ghislaine Chartron et Jean-Max Noyer )
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d06/6horn.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d06/6horn.html
Reference Linking in a Hybrid Library Environment
Herbert Van de Sompel & Patrick Hochstenbach, D-Lib Magazine April 1999
HYPERLINK http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompel-pt1.html http://www.dlib.org/dlib/april99/van_de_sompel/04van_de_sompel-pt1.html
Le nouveau protectionnisme est intellectuel
Par Bernard Lang (INRIA), dans Libres enfants du savoir numérique une anthologie du libre , préparée par Olivier Blondeau et Florent Latrive
HYPERLINK http://www.freescape.eu.org/eclat/ http://www.freescape.eu.org/eclat/
Problèmes et Enjeux (sélection de liens par Ghislaine Chartron, URFIST Paris)
Créativité et propriété : où est le juste milieu ?
Par Ram Samudrala dans Libres enfants du savoir numérique une anthologie du libre , préparée par Olivier Blondeau et Florent Latrive
HYPERLINK http://www.freescape.eu.org/eclat/ http://www.freescape.eu.org/eclat/
Intérêt général et propriété intellectuelle
Par Philippe Quéau (Unseco), dans Libres enfants du savoir numérique une anthologie du libre , préparée par Olivier Blondeau et Florent Latrive
HYPERLINK http://www.freescape.eu.org/eclat/ http://www.freescape.eu.org/eclat/
The Association of Learned and Professional Society Publishers (ALPSP)
ALPSP represents the community of not-for-profit publishers and those who work with them to disseminate academic and professional information. We provide representation of our sector, professional development activities, and a wealth of information and advice.
HYPERLINK http://www.alpsp.org.uk/ http://www.alpsp.org.uk/
Proceedings of the Joint ICSU Press/UNESCO Conference on Electronic Publishing in Science, UNESCO, Paris, 19-23 February 1996
HYPERLINK http://associnst.ox.ac.uk/~icsuinfo/ConfProc.htm http://associnst.ox.ac.uk/~icsuinfo/ConfProc.htm
Presse scientifique en psychiatrie, services dacquisition documentaire et internet.
Cinquième réunion conjointe organisée à linitiative du Comité dInterface entre La Fédération Française de Psychiatrie et lInstitut National de la Santé et de la Recherche Médicale - lundi 9 et mardi 10 mars 1998 -
HYPERLINK http://psydoc-fr.broca.inserm.fr/colloques/cr/J5/interface98.html http://psydoc-fr.broca.inserm.fr/colloques/cr/J5/interface98.html
A Question of Access SPARC, BioOne, and Society-Driven Electronic Publishing
Par Richard K. Johnson, SPARC Enterprise Director, The Scholarly Publishing and Academic Resources Coalition (SPARC), dans le D-Lib magazine, mai 2000, vol.6.
HYPERLINK http://www.dlib.org/dlib/may00/johnson/05johnson.html http://www.dlib.org/dlib/may00/johnson/05johnson.html
TULIP - The University Licensing Program
TULIP is a cooperative research project testing system for networked delivery and use of journals, performed by Elsevier Science and nine Universities in the USA.
HYPERLINK http://www.elsevier.nl/inca/homepage/about/resproj/tulip.shtml http://www.elsevier.nl/inca/homepage/about/resproj/tulip.shtml
2nd Workshop on Electronic Publishing : New Schemes for Electronic Publishing in Physics
HYPERLINK http://documents.cern.ch/AGE/v2_0/fullAgenda.php?ida=a99231 http://documents.cern.ch/AGE/v2_0/fullAgenda.php?ida=a99231
Numériser les revues savantes : dun commerce à un autre
Par Jean-Claude Guédon, membre de lInternet Society et professeur à luniversité de Montréal dans La Recherche, No 335, octobre 2000.
HYPERLINK http://www.larecherche.fr/data/335/03350781.html http://www.larecherche.fr/data/335/03350781.html
Proceedings of the Joint ICSU Press/UNESCO Conference on Electronic Publishing in Science UNESCO, Paris, 19-23 February 1996
HYPERLINK http://associnst.ox.ac.uk/~icsuinfo/ConfProc.htm http://associnst.ox.ac.uk/~icsuinfo/ConfProc.htm
Proceedings of ICSU Press Workshop on Economics, real costs and benefits of electronic publishing in science - a technical study. Keble College, University of Oxford UK 31 March to 2 April 1998
International Council for Science
HYPERLINK http://www.bodley.ox.ac.uk/icsu/proceedings.htm http://www.bodley.ox.ac.uk/icsu/proceedings.htm
Public Library of Science
Open letter : We support the establishment of an online public library that would provide the full contents of the published record of research and scholarly discourse in medicine and the life sciences in a freely accessible, fully searchable, interlinked form...
HYPERLINK http://www.publiclibraryofscience.org/ http://www.publiclibraryofscience.org/
Le savoir et ses outils daccès : repères historiques Sous la direction de Sylvie Fayet-Scribe
Dossier No 4 de la Revue Solaris
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d04/index.htm http://www.info.unicaen.fr/bnum/jelec/Solaris/d04/index.htm
The UPS Prototype An Experimental End-User Service across E-Print Archives
D-Lib Magazine February 2000 Volume 6 Number 2 ISSN 1082-9873 HYPERLINK http://www.dlib.org/dlib/february00/vandesompel-ups/02vandesompel-ups.html http://www.dlib.org/dlib/february00/vandesompel-ups/02vandesompel-ups.html
Actes de Congrès International Congress on Biomedical Peer review and Global Communications , organisé par les revues JAM et BMJ
HYPERLINK http://www.ama-assn.org/public/peer/peerhome.htm http://www.ama-assn.org/public/peer/peerhome.htm
Bundling Information Goods: Pricing, Profits and Efficiency
Yannis Bakos and Erik Brynjolfsson
HYPERLINK http://www.gsm.uci.edu/~bakos/big/big96-12.html http://www.gsm.uci.edu/~bakos/big/big96-12.html
Internet Publishing and Beyond: The Economics of Digital Information and Intellectual Property
MIT Press, August 2000, From a conference organized by the Harvard Information Infrastructure Project January 23-25, 1997 Cambridge, Massachusetts
HYPERLINK http://ksgwww.harvard.edu/iip/econ/econ.html http://ksgwww.harvard.edu/iip/econ/econ.html
Commerce électronique Une nouvelle donne pour les consommateurs, les entreprises, les citoyens et les pouvoirs publics
Rapport du groupe de travail présidé par Francis Korentz, ministère de lÉconomie, des Finances et de lIndustrie- 7/01/98
HYPERLINK http://www.finances.gouv.fr/commerce_electronique/lorentz/ http://www.finances.gouv.fr/commerce_electronique/lorentz/
Economics and Electronic Access to Scholarly Information
Jeffrey K. MacKie-Mason & Juan F. Riveros, 1997
HYPERLINK http://ksgwww.harvard.edu/iip/econ/mason.html http://ksgwww.harvard.edu/iip/econ/mason.html
The Emerging Digital Economy
Rapport dirrigé par Lynn Margheri, secrétariat au commerce électronique de lUS Department of COmmerce, 1998.
HYPERLINK http://www.ecommerce.gov/emerging.htm http://www.ecommerce.gov/emerging.htm
Research papers of Hal R. Varian
School of Information Managment & Systems (SIMS), Univesité de Californie Berkeley
HYPERLINK http://www.sims.berkeley.edu/~hal/people/hal/papers.html http://www.sims.berkeley.edu/~hal/people/hal/papers.html
Library & Information Science: General Resources
Nombreuses ressources sélectionnés par IFLANET (International Federation of Library Associations and Institutions) : bibliographies, revues électroniques...
HYPERLINK http://www.ifla.org/II/libdoc.htm http://www.ifla.org/II/libdoc.htm
Designing Electronic Journals With 30 Years of Lessons from Print
by Carol Tenopir and Donald W. King, JEP (Journal of Electronic Publishing), vol. 4, No 2, 1998.
HYPERLINK http://www.press.umich.edu/jep/04-02/king.html http://www.press.umich.edu/jep/04-02/king.html
Comparative Prices of Math Journals
HYPERLINK http://www.math.berkeley.edu/~kirby/journals.html http://www.math.berkeley.edu/~kirby/journals.html
Measuring the Cost-Effectiveness of Journals: Ten Years After Barschall
by George Soete, a Consultant affiliated with the Association of Research Libraries and Athena Salaba, a PhD Candidate in the UW-Madison School of Library and Information Studies
HYPERLINK http://www.library.wisc.edu/projects/glsdo/cost.html http://www.library.wisc.edu/projects/glsdo/cost.html
Newsletter on Serials Pricing Issues
Lettre dinformation dirrigée par Marcia Tuttle, ISSN: 1046-3410 , Cellule de Coordination Documentaire Nationale pour les Mathématiques Unité Mixte de Service 5638 - Université Joseph Fourier (Grenoble), CNRS
HYPERLINK http://www-mathdoc.ujf-grenoble.fr/NSPI/NSPI.html http://www-mathdoc.ujf-grenoble.fr/NSPI/NSPI.html
Advancing Science By Self-Archiving Refereed Research
1999, Stevan Harnad Southampton University, UK , Science Magazine
Stevan Harnad: e-prints on interactive publication
Professor of Cognitive Science Director, Cognitive Sciences Centre Intelligence, Agents, Multimedia Group Deparetment of Electronics and Computer Science University of Southampton Southampton SO17 1BJ United Kingdom,
HYPERLINK http://www.cogsci.soton.ac.uk/~harnad/intpub.html http://www.cogsci.soton.ac.uk/~harnad/intpub.html
Developing services for open eprint archives: globalisation, integration and the impact of links
Steve Hitchcock, Les Carr, Zhuoan Jiao, Donna Bergmark, Wendy Hall, Carl Lagoze and Stevan Harnad
Multimedia Research Group, Department of Electronics and Computer Science, University of Southampton, SO17 1BJ, United Kingdom Digital Library Research Group, Department of Computer Science, Cornell University, Ithaca, NY 14853-7501, USA .
Paper produced by the Open Citation project, funded by the Joint NSF - JISC International Digital Libraries Research Programme HYPERLINK http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad00.acm.htm http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad00.acm.htm
Médiations scientifiques et réseaux électroniques
Dossier No 3 de la Revue Solaris sous la direction de Guislaine Chartron
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/index.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/index.html
Diffusion des données publiques et révolution numérique
Rapport de lAtelier Des moyens nouveaux au service de la diffusion des données publiques , du Commissariat Général du Plan, présidé par Dieudonné Mandelkern, remis à Lionel Jospin en novembre 1999
HYPERLINK http://www.plan.gouv.fr/publications/mandelkern.html http://www.plan.gouv.fr/publications/mandelkern.html
Pour une nouvelle économie du savoir
Dossier No 1 de la Revue Solaris, HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d01/index.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d01/index.html
Papers on Electronic Publishing and Electronic Commerce
Andrew Odlyzko, Head, Mathematics and Cryptography Research Department, AT&T Labs - Research
HYPERLINK http://www.research.att.com/~amo/doc/eworld.html http://www.research.att.com/~amo/doc/eworld.html
Les professionnels de linformation auront-ils une place dans les collaboratoires de la recherche ? W.A. Turner Direction CERESI-CNRS, Meudon. , Dossier no 2 de la revue Solaris
HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris/d02/2turner.html http://www.info.unicaen.fr/bnum/jelec/Solaris/d02/2turner.html
International Conference on Virtual Communities
Infonortics : Infonortics Ltd specialised in the publication of books and reports and in the organisation of meetings, conferences and workshops, capitalising on over 30 years experience in the electronic information industry by the companys founder and current managing director, Harry Collier. The firm also undertakes one or two studies or investigative assignments each year.
HYPERLINK http://www.infonortics.com/vc/ http://www.infonortics.com/vc/
Bibliothèques universitaires : Le temps des mutations, Lachenaud (Jean-Philippe), Rapport dinformation 59 (98-99) Commission des finances, Sénat.
HYPERLINK http://www.senat.fr/rap/r98-059/r98-059.html http://www.senat.fr/rap/r98-059/r98-059.html
Publications dAnn Shumelda Okerson
Associate University Librarian for Collections and Technical Services Yale University
HYPERLINK http://www.library.yale.edu/~okerson/alo.html http://www.library.yale.edu/~okerson/alo.html
Bibliothèques universitaires et nouvelles technologies
Rapport remis au ministre de léducation nationale, de la echerche et de la Technologie en juin 1999 par Bruno Van Dooren,
HYPERLINK http://www.education.gouv.fr/rapport/vandooren/default.htm http://www.education.gouv.fr/rapport/vandooren/default.htm
Département des études et de la Prospective, ministère de la Culture et de la Communication
Rattaché à la direction de lAdministration générale, le dep, créé dans les années 60, est le principal service détudes du ministère de la Culture et de la Communication. Dans le cadre de ses missions, il est spécialement chargé des études socio-économiques et des statistiques culturelles. Par délégation de lInsee, le dep est un service statistique ministériel (SSM).
HYPERLINK http://www.culture.fr/dep/ http://www.culture.fr/dep/
La communication scientifique revue et corrigée par Internet
Par Hélène Bosc, INRA (Institut National de la Recherche agronomique), Tours.
HYPERLINK http://www.tours.inra.fr/tours/doc/comsci.htm http://www.tours.inra.fr/tours/doc/comsci.htm
BE JApon
Le BE Japon est un bulletin électronique (BE) dinformation sur la recherche scientifique et technologique en provenance du Service pour la Science et la Technologie de lAmbassade de France à Tokyo. Il est distribué par courrier électronique aux personnes préalablement inscrites sur la liste de diffusion gérée par lADIT (Agence pour la Diffusion de lInformation Technologique). La demande dabonnement et de désabonnement est gérée automatiquement par un outil dédié.
HYPERLINK http://www.adit.fr/veille/be/japon/ http://www.adit.fr/veille/be/japon/
Alliez E., La signature du monde, Édition du Cerf, Paris,1993
Bosc H. La communication scientifique revue et corrigée par Internet. 2001, HYPERLINK http://www.tours.inra.fr/tours/docs/comsci.htm http://www.tours.inra.fr/tours/docs/comsci.htm
Callon M., Law J., Rip A., Mapping the dynamics of science and technology , London, MacMillan, 1986
Chartron G., Salaün J.M., La reconstruction de léconomie politique des publications scientifiques, Bulletin des Bibliothéques de France, n° 2, t. 45, 2000, pp. 32-42.
Courtial J.P, Callon M., Penan H., Introduction à la scientométrie : de la bibliométrie à la veille technologique, Paris, Anthropos- economica 1990.
Crawford S.Y., Hurd J.M., Weller A.C., From print to Electronic, the transformation of Scientific communication, ASIS, 1996
De la Vega J.F., La communication scientifique à lépreuve de lInternet, lémergence dun nouveau modèle, Presses de lEnssib, 2000.
De Landa M., A Thousand years of non-linear history, 1997 Ed. Swreve
Derrida J., Limited and co, Paris, Éditions Galilée, 1990.
Garfield :Cybermetrics:http://www.cindoc.csic.es/cybermetrics
Ginsparg P., First Steps Towards Electronic Research Communication , Computers in Physics, vol. 8, n° 4, 1994, Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/3ginspar.html
Harnad S. Scholarly Skywriting and the Prepublication Continuum of Scientific Inquiry. Psychological Science 1, 1990: 342-343.
Harnad S., Post-Gutenberg Galaxy: The Fourth Revolution in the Means of Production of Knowledge , Public Access Computer Systems Review 2 (1), 1991, pp.39-53.
Hitchcock S., Carr L., Jiao Z., Bergmark D., Hall W., Lagoze C., Harnad S., Developping services for open eprint archives: globalisation, integration and the impact of links , 5th ACM Conference on Digital Libraries, juin 2000, version pré-publication, http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad00.acm.htm
Krichel T. WoPEc ; Electronic working papers in Economics Services. Ariadne, 1997, http://www.ariadne.ac.uk/issue8/wopec/intro.html
Latour B., Teil G., The hume machine : can associative networks do more than formal rules ? , Stanford Humanities Review, 4(2). P47-66
Le Coadic Y, La science de linformation, Paris, PUF, Coll. Que sais-je, 1994.
Les publications de S. Harnad http://cogprints.ecs.soton.ac.uk/~harnad/
Mutschke P., Quan Haase A., Collaboration and cognitive structures in social science research fields , in Scientometrics, Vol. 52, N°3, 2001
Nelson M. L. Smart Objects and Open Archives. D-Lib Magazine 7.2 , 2001, http://www.dlib.org/dlib/february01/nelson/02nelson.html
Noyer J.M, Pourquoi la scientométrie, linfométrie, nous intéressent-elles ? , in Solaris, n° 2. http://www.info.unicaen.fr/bnum/jelec/Solaris
Noyer J.M. Léconomie du savoir , Solaris, n°1, 1994, http://www.info.unicaen.fr/bnum/jelec/Solaris/d01
Odlyzko A. M., Competition and cooperation : Libraries and publishers in the transition to electronic scholarly journals , Journal of Electronic Publishing 4(4), June 1999, http://www.press.umich.edu/jep/
Odlyzko, A.M. The economics of electronic journals. In: Ekman R. and Quandt, R. (Eds) Technology and Scholarly Communication. Univ. Calif. Press, 1998. http://www.research.att.com/~amo/doc/complete.html
Oppenheim, C., 2001, The legal and regulatory environment for electronic information. Infonortics. http://www.infonortics.com/publications/legal4.html
Pinfield S. How do physicists Use an E-print Archive?. D-Lib Magazine 7.12, 2001, http://www.dlib.org/dlib/december01/pinfield/12pinfield.html
Solla Price D. Science and Suprascience, Éditions Fayard, 1972 et Solaris n°2 http://www.info.unicaen.fr/bnum/jelec/Solaris
Summer T., Buckingham Shum S.
Open Peer Review & Argumentation : Loosening the paper Chains on Journals.
http://www.ariadne.ac.uk/issue5/jime/intro.html
Van de Sompel H., Lagoze C. The Santa Fe Convention of the Open Archives Initiative. D-Lib Magazine, 2000,
http://www.dlib.org/dlib/februaru00/vandesompel-oai/vandesompel-oai.html
Personnes, Institutions, Organismes qui ont contribué, participé aux activités, séminaires, études du Programme Numérisation pour lEnseignement et la recherche.
Cet ensemble dacteurs constitue un réseau-ressource particulièrement important .
Par ordre alphabétique :
Guido Abbattista, Professeur en Histoire Moderne, Université de Triestre
Philippe Amblard Chargé détudes, doctorant au CECOJI/CNRS
Christine Andrys, Assistante de recherche, CERLIS-CNRS
Michel Arnaud, Maître de Conférences, Université Louis Pasteur, Strasbourg, CRIS-SERIES
Jacques Audran, Chargé de cours, Département des Sciences de lÉducation, Université de Provence
Marc Augier, Mediatec
Arlette Attali, ingénieure détudes, CNRS
Igor Babou, Maître de Conférences, ENS-LSH de Lyon
Georges-Louis Baron, Directeur du département TECNE, INRP, Professeur en sciences de léducation
J. Barata, Professeur, Estudis de Dret, Universita Oberta de Catalunya, Barcelone
Danéle Baruchel-Beurdeley, Avocate au barreau de Paris
Valérie-Laure Benabou, Professeure, Université Lyon II
Claire Bélisle ingénieure de recherche, LIRE-CNRS
Nicolas Balacheff Directeur de recherche, CNRS, LaboratoireLeibnitz, Grenoble
Christine Bertthaud, ingénieure détudes, Institut des Sciences de lHomme, Lyon
Jean-Michel Besnier, Professeur, Université de Technologie de Compiégne
Christine Berthaud, Documentaliste, ISH, Lyon
Samuel Bianchini, ENS Des Arts Décoratifs, Doctorant en Arts platiques, Université Paris I, CEDRIC-CNAM
Jean-Michel Bruguiére, Maître de Conférences, Université dAvignon
Olivier Bogros Conservateur de la bibliothèque municipale de Lisieux
Egil Børre Johnsen Université dOslo, Ancien président de lIARTEM
Eric Bruillard, Professeur des universités, informatique, GREYC, IUFM de Basse-Normandie
Jean-Pierre Carrier, Formateur à lIUFM dAquitaine
Sylvie Cattelin, ingénieure détudes, CNRS
Bernadette Charlier Chercheur, département Éducation et Technologie, cellule dingénierie pédagogique, facultés Universitaires Notre-Dame de la Paix, Namur
Brigitte Chapelain, Maître de Conférences, Université de Bretagne, CRIS-SERIES
Alain Chaptal, Chef de mission veille technologique et industrielle, CNDP
Ghislaine Chartron, Maître de Conférences, URFIS de PARIS, Gresi-Enssib
Axelle Chereil de la Riviére,
Philippe Chevet, ATER, Université Paris XI, Chargé de mision à la Fondation MSH
Jean Clément, Professeur en Sciences de linformation et de la communication, Université de Paris VIII, animateur du Groupe décritures hypertextuelles.
F. Corolleur, Legal Counsel Barep Asst Management limited, Dublin
R. Corripio, Professeur, Universidad Pontificia Comillas, Madrid
Marie Cornu, Chargée de recherche, CNRS, CECOJI-CNRS, UMR 6567.
Amaury Daele Chercheur, département Éducation et Technologie, cellule dingénierie pédagogique, facultés Universitaires Notre-Dame de la Paix, Namur
Marin Dacos, Professeur agrégé, Doctorant allocataire de recherche, Université Lyon II
Jean-Pierre Dalbera Chef de la mission de la recherche et de la technologie, direction de ladministration générale ,Ministère de la culture et de la communication
François Demay, Professeur agrégé, Sciences physiques, ancien secrétaire général de la publication de lEncyclopoedia Universalis, consultant pour Microsoft Encarta
Loïc Depecker, Professeur, Université de Paris III et Société française de terminologie
Alain Derycke, Laboratoire TRIGONE, Institut CUEEP, Université des sciences et technologies de Lille
Béatrice Drot-Delange, Formatrice en TIC à lIUFM de Rennes, Doctorante en Sciences de léducation, ENS Cahan
Bruno Devauchelle, CEPEC Lyon
Charles Duchâteau, CEFI, Facultés universitaires, Notre-Dame de la Paix, Namur
Jean Dufour
Nathalie Ferrand, Chargée de recherche, CNRS, Monpellier
Marie-Noélle Frachon, Pôle Lyonnais du Livre, Gresi-Enssib
Marie-Elise Fréon Société Jouve
Cl. Gagnon, assistant de recherche, centre de recherche en droit public, Montréal, Québec
Valérie Game
Jean-Claude Gardin Directeur de recherche, CNRS et directeur détudes EHESS
Alexandre Gefen, Professeur agrégé, Directeur de lassociation Fabula
C. Geiger, collaborateur du département France au Max Planck Institut für ausländisches und internationales patent, Urheber und Wttbewerbrecht, Minich
Monique Grandbastien Professeur dinformatique, INA P_G et UHP Nancy 1
Anne Grange, Chercheuse en psychologie cognitive, Université de Paris X, IRCAM
Jean Claude Guédon, Professeur, Université de Montréal
T. Hardy, Professeur William & Mary Sholl of Law, Williamsburg
F. Harms, Doctorant, Rechtsreferendar auprès du TGI de Duiburg, Düsseldorf
Jean-François Hémidy Directeur dIUFM, IUFM de Basse Normandie
France Henri, TéléUniversité du Québec
M. Herberger, Professeur, Université Institu für Rechtsinformatik Im Stadtwald, Saarbruk
Mike Horsley
Paolo DIorio, Chargé de recherche, ERCIM-CNRS, Président de lassociation HyperNietzsche
M. Jaccard, Professeur de droit, Genéve
François Jarraud, Président de lassociation Les Clionautes
Brigitte Juanals, ATER, Université de Paris III, UFR Communication, CRIS-SERIES
Yves Laborey, Chef de mission veille scientifique et technique, Ministére de lÉducation nationale
Thérése Laferriére, Faculté des sciences de léducation, Université de Laval, Québec
Isabelle de Lamberterie, Directrice de recherche, CECOJI-CNRS, UMR 6567
Marie-Eugénie Laporte-Legeais, Maître de Conférences, Université de Poitiers
Antoine Latreille Maître de Conférences, Université de Paris XI
Joëlle Le Marec, Maître de Conférences, ENS-LSH de Lyon
Françios Lermigneaux, Professeur agrégé, Doctorant, Paris VII
Dominique Liautard, Maître de Conférences, Université Aix-Marseille
Catherine Lupovici, Directrice, Département des bibliothèques numériques, BNF
Agnés Maffre-Bauge, Maître de Conférences, Université dAvignon
Annaïg Mahé, Doctorante, Enssib
Yannick Maignien, Chercheur, ENS Lettres et sciences humaines, Lyon
Nathalie Mallet-Poujol, Chargée de recherche, CNRS, ERCIM-CNRS, GDR 1167
Laurence Mazauric, Doctorante Enssib
Isabelle Meyer, Conceptrice multimédia
Rolado Minuti, Professeur en Histoire Moderne, Université de Florence
Sylvain Missonnier, Maître de Conférences, Université de Paris X, UFR de Psychologie
Pierre Moëglin, Professeur de sciences de linformation et de la communication, Université de Paris XIII
Yan Moulier Boutang, Économiste, Université Paris I
Florence Muet, PAST Gresi-Enssib
Rozenn Nardin, Doctorante, Paris X, CRIS-SERIES
Anne Nicole, Professeur dinformatique, Université de Caen
Pierre Nonnon Professeur de didactique des sciences et technologie, Laboratoire de robotique pédagogique, Université de Montréal
Abdel Noukoud, Doctorant, Ersico, Lyon III
Peppino Ortoleva, Professeur en Théorie des Médias, Université de Turin
Didier Paquelin, Maître de Conférences Université de Bordeaux
Dominique Pascaud, IUFM de Lyon
Jaö Pedro Ponte, Professeur en sciences de léducation, Université de Lisbonne
Pierre Perez, Juriste, Ministère de lÉducation Nationale, Direction de la Technologie
Jacques Perriault, Professeur, Université de Paris X, CRIS-SERIES
Suzanne Peters, PAST, Ersico, Lyon III
David Piotrowski, Chargé de recherche, CNRS
Luc-Olivier Pochon, Chercheur, IRDP, Neuchâtel
Serge Pouts-Lajus, Directeur de lObservatoire des Technologies pour lÉducation en Europe
Guy Pouzard, Inspecteur Général, IGEN
Béatrice Pudelko, TéléUniversité, du Québec
Gérard Puimatto CTICE, Académie Aix-Marseille
Maryse Quéré Recteur dacadémie
Jean-Pierre Ramos, Maître de Conférences, Sociologie, Université Paul Valéry, Montpellier
Eliana Rosado, Professeur, Université catholique de Campinas, Brésil
Djeff Regottaz, Doctorant, Université de Paris VIII
Jacqueline Rey, Maître de conférences, Ersico, Lyon III
Odile Riondet, PAST, Gresi-Enssib
Jean-Paul Roux-Fouillet, Bureau VAN DIJK
Valentine Roux, Directrice, UMR 7055, Préhistoire et Technologie, CNRS-PARIS X : Modélisation des constructions scientifiques sur support électronique
Jean-Michel Saillant, Maître de Conférences, HDR, Université du Maine, CRIS-SERIES
Jean-Michel Salaün, Professeur, Enssib, Gresi
J. Schutltz-Taylor, juriste, Electronic Media Berkeley, Intellectual Property, Genéve
Marc Silberstein, Éditeur
Ahmed Silem, Professeur, Ersico-Enssib, Lyon III
Éric Sutter, Bureau VAN DIJK
Silvestre Tandeau de Marsac, Avocate au barreau de Paris
Françoise Thibault, Chargée de mission, Ministére de la recherche, Direction de la technologie
Pierre Tchounikine Professeur dinformatique, LIUM, Université du Maine
André Tricot, Professeur à lIUFM, Toulouse
P. Torremans, Professeur, centre for Business Law and Practice, Department of Law, University of Leeds
M. Trudel, Professeur, Centre de recherche de droit public, faculté de droit, Montréal, Québec
Alain Van Cuyck, Maître de Conférences, Université de Lyon III, Ersico
Pierre Varrod, Directeur général des Dictionnaires LE ROBERT, société qui édite aussi, sur CDROM, les grands dictionnaires historiques de Furetiére, Littré et lEncyclopédie de Diderot et dAlembert
Jacques Viens, Faculté des sciences de léducation, Université de Montréal, Québec
Georges Vignaux, Directeur de recherche, CNRS, UPR 36
Jean Vivier, Professeur de psychologie, Université de Caen
Jacques Wallet Maître de conférences en sciences de léducation, Université de Rouen
Richard Walter, ingénieur détudes CNRS
Catherine Wallaert, ingénieure détudes, CECOJI-CNRS, UMR 6567
K. Van der Perre, Estudis de Dret, Universita Oberta de Catalunya, Barcelone
Marcelo Wesfreid, Doctorant, membre de léquipe de Communication, Culture et Société, ENS-LSH
R. Xalabarder, Professeur, Estudis de Dret, Universita Oberta de Catalunya, Barcelone
Institutions, Organismes
Agence internationale de la Francophonie
Bibliopolis
Bibliothèques universitaires
BNF
BORDAS
CINES (Centre informatique national de lenseignement supérieur)
CNED
CNDP
CRDP Montpellier
éditions La Découverte
éditions Honoré Champion
éditronics
Encyclopédie culturelle de lOcéanie
ENSSIB
Gallimard
Hachette Multimédia et Hachette Livre
Hatier
Havas éducation et Référence
Havas Interactive
INA, Inathèque
INALF (Institut national de la langue française)
INHA (Institut national dhistoire de lart)
Jouve
MMSH Aix-En-Provence
MOM Lyon
Maison de larchéologie, Bordeaux
MAE René Ginouvés Nanterre
MSHS Poitiers
IRHT Paris, Orléans
Nathan
Musée canadien des civilisations
PUM (Presses de luniversité de Montréal)
RENATER
SNE
SYRINX
TMS
Uqam (Université du Québec à Montréal)
Felix. Guattari, Cartographies schizoanalytiques, Paris, Galilée, 1989.
idem.
B. Latour, É. Hermant (1998), Paris ville invisible, Paris, Éditions Les empêcheurs de penser en rond, La Découverte.
Gilles Deleuze, Postcript on the societies of control , Pourparlers, Paris, Éditions de Minuit.
Manuel de Landa, A thousand years of non-linear history, Editions Swerve, 1997.
L. Thévenot et E. Chiapello, (1999), Le nouvel esprit du capitalisme, Paris, Éditions Gallimard.
François Laruelle, (1981), Homo ex Machina , Revue de Métaphysique.
Idem.
Felix Guattari, et Eric Alliez (1983), Le capital en fin de compte : systèmes, structures et processus capitalistiques , Change International, n° 1.
Idem.
Gilles Deleuze, Felix Guattari, (1981), Mille plateaux, Paris, Éditions de Minuit.
Gilles Deleuze, (1989), Postcript on the societies of control , Pourparlers, Paris, Éditions de Minuit.
Sur ces questions voir : Michel Arnaud, Jacques Perriault, Les espaces publics daccès à internet, Réalités et devenir dune nouvelle géographie des territoires et des réseaux, PUF, 2002
Jean-Max Noyer, Guerre et stratégie, LCN, Éditions Hermès, 2002.
Gilles Deleuze (1991), Quest-ce que la philosophie ?, Paris, Éditions de Minuit.
M. Lazzarato, Puissances de linvention, La psychologie économique de Gabriel Tarde contre léconomie politique, Éditions du Seuil, Collection Les Empêcheurs de penser en rond, 2002.
B. Stiegler, La Technique et le Temps, Tome 3,, Paris, Éditions Galilée, 2001 : Mais ce nest pas tout. Jusquau XIXe siècle, la durée des systèmes mnémotechniques put excéder celle des systèmes techniques parce que le contrôle des dispositifs rétentionnels relevait des pouvoirs théologico-politiques. Cela commença à changer avec la révolution industrielle, époque à partir de laquelle on a pu envisager la possibilité que Dieu fût mort. Si lhistoire peut et doit être analysée essentiellement comme le rapport entre lévolution des systèmes techniques dune part, et celle des autres systèmes sociaux dautre part, ce qui constitue le problème de lajustement, lanalyse des mnémotechniques montre que celles-ci surdéterminent toujours les conditions de cet ajustement, cest-à-dire du processus dadoption : en tant que techniques de communication, elles commandent les relations entre individus et collectivités, et à lintérieur de ces collectivités, entre les systèmes qui les organisent .
L. Boltanski, É. Thévenot, Le nouvel esprit du capitalisme, Éditions Gallimard, 1999.
B. Stiegler, La Technique et le Temps, Tome 3, Éditions Galilée, 2001.
P. Sloterdijk, La domestication de lÊtre, 2000 : De là ressort une image de la technique lue à partir des outils simples et des machines classiques. : elles sont toutes sur le fond des allotechniques dans la mesure où elles pratiquent des interventions profondes dans ce quelles trouvent, et utilisent des matériaux à des fins fondamentalement indifférentes ou étrangères aux dits matériaux. (
) Au palier de la phrase il y a de linformation, cette ancienne image de la technique comme hétéronomie et esclavage des matériaux perd sa plausibilité. Nous sommes témoins du fait quavec les technologies intelligentes est en train de naître une forme de lopérativité qui ne relève pas de la position du maître et pour laquelle nous proposons le nom dhoméotechnique . (
) Lhoméotechnique, parce quelle a affaire à linformation réelle, navance plus que sur le chemin du non-viol ; elle utilise lintelligence de manière intelligente, et produit de nouveaux états dintelligence
Même lorsquelle est employée dune manière aussi égoïste et régionale que nimporte quelle technique, elle doit miser sur des stratégies coopératives, co-intelligentes, co-informatives. Elle a plus le caractère dune coopération que celui dune domination, même dans des relations asymétriques .
É. Alliez (1999), Présentation : Tarde et le problème de la constitution , réédition de La monadologie sociologique de Gabriel Tarde, Les Empêcheurs de penser en rond, Institut Synthélabo.
G. Simondon, Lindividuation psychique et collective, Paris, Aubier, 1989
V. Bush (1945), As we may think , The Atlantic Monthly Review.
Felix Guattari, Cartographies schizoanalytiques, Paris, Editions Galilée, 1989.
G. Simondon, Lindividuation psychique et collective, Paris, Éditions Aubier, 1989 Dans le domaine du savoir, la transduction, définit la véritable démarche de linvention, qui nest ni inductive, ni déductive, mais transductive, cest-à-dire qui correspond à une découverte des dimensions selon lesquelles une problématique peut-être définie ; elle est lopération analogique en ce quelle a de valide. (
) La transduction est, au contraire, une découverte de dimensions dont le système fait communiquer celles de chacun des termes, et telles que, la réalité complète de chacun des termes du domaine puisse venir sordonner sans perte, sans réduction, dans les structures nouvelles découvertes
.
P. Lévy, LIdéographie dynamique, Éditions La découverte, 1992 Contrairement au cinéma, lidéographie dynamique connaît des termes premiers équivalant aux mots, ce sont les idéogrammes. Une actilogie (une séquence présentant linteraction didéogrammes-acteurs) offre à son explorateur une image animée. Cest ce qui rapproche lidéographie dynamique du cinéma. Mais les scènes présentées par lactilogie ne sont pas prélevées sur un continuum optique, elles ont été composées à partir des unités préexistantes que sont les idéogrammes dynamiques. Dune actilogie à lautre
et même dun modèle à lautre, ce sont toujours les mêmes idéogrammes qui sont employés et réemployés. Étant dynamique, un idéogramme nest certes pas identique dun emploi à lautre, comme le serait un caractère dimprimerie, mais lensemble des variations de son aspect est cependant strictement déterminé.
F. Guattari, Cartographies schizoanalytiques, Editions Galilée, 1989.
J. Derrida, B. Stiegler, Échographies de la télévision, Éditions Galilée, 1996 Les techniques de numérisation des images animées vont se répandre très largement dans la société mondiale à travers le multimédia et la télévision numérique. Le rapport à limage analogique va être massivement discrétisée, mis en crise, ouvrir un accès critique à limage. Il y a une chance à saisir pour développer une culture de la réception. Ce qui pourrait amener à une autre manière de formuler la question de lexception culturelle. Le vrai problème est ici de penser autrement ce que lAmérique hollywoodienne a fait jusqu'à présent dans le domaine de lindustrie culturelle, à laquelle appartiennent le cinéma et la télévision, selon un schéma réifiant et opposant production et consommation, cest-à-dire : analyse dun côté (production) et, synthèse de lautre (consommation). La technique donne la chance de modifier ce rapport, dans un sens qui se rapprocherait de celui que le lettré entretient avec la littérature : on ne peut synthétiser un livre sans avoir soi-même analysé littéralement. On ne peut lire sans savoir écrire. Et on pourra bientôt voir analytiquement une image : lécran nest pas simplement lopposé de lécrit .
B. Stiegler, La Technique et le Temps, Tome 3, Éditions Galilée, 2001.
Idem, voir aussi : http://www.rand.org
É.Alliez (1999), Présentation : Tarde et le problème de la constitution , réédition de La monadologie sociologique de Gabriel Tarde, Les Empêcheurs de penser en rond, Institut Synthélabo.
M. De Landa, (1997), A Thousand Years of Non-linear History, Ed. Swerve.
É. Alliez (1999), Présentation : Tarde et le problème de la constitution , réédition de La monadologie sociologique de Gabriel Tarde, Les Empêcheurs de penser en rond, Institut Synthélabo.
B. Stiegler. (1994), Technique et individuation psychique et collective dans loeuvre de G. Simondon dans Simondon : Une pensée de lindividuation et de la technique, Paris, Éditions Albin Michel.
É. Alliez, La signature du monde ou quest-ce que la philosophie de Deleuze et Guattari, Paris, Éditions Cerf, 1993.
B. Stiegler, La technique et le Temps, Tomes 1 et 2, Éditions Galilée, 1994, 1996.
B. Stiegler, La technique et le Temps, Tome 2, Éditions Galilée, 1996 : Une définition essentiellement individualiste de la connaissance peut évidemment ignorer la constitutivité des supports techniques du savoir : elle na pas à rendre compte du fait que le savoir est ce qui se transmet dindividus en individus, de générations en générations, quil est une mémoire toujours déjà en extériorité par rapport au sachant enchaînant sur un déjà-là. Au contraire, questionner la sociogenèse des connaissances, cest poser comme préalable à toute définition du connaître linterrogation sur la nature de la mémoire mobilisée par tout connaître. Et à propos de Francisco Varela : Le concept de couplage structurel, notamment tel quil est développé par Francisco Varela, nous intéresse à plus dun titre, et en premier lieu en ce quil livre des éléments à la question de la maïeutique du silex et du cortex, et plus largement, à la question du qui et du quoi conçu très généralement comme maïeutique. Reste que Varela néchappe pas non plus à la permanence de loubli de la matière, celle du papier comme de tant dautres [
] .
Gilles Deleuze, Claire Parnet, Dialogues, Paris, Éditions Flammarion, 1977.
V. Bush, As we may think , The Atlantic Monthly Review, 1945.
ISI (Insitute for Scientific Information).
De Solla Price, (1972), Science and Suprascience, Paris, Éditions Fayard ; Voir aussi X. Polanco Solaris N°2, HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris
D. Engelbart. (1963), A conceptual framework for the augmentation of mans intellect , Vistas on Information Handling, Volume 1, Spartan Books, Washington DC.
T. Nelson (1965), A file structure for the complex, the changing and the indeterminate , ACM 20 th National Conference et All for one and one for all , Hypertext87
Rapport Baran, (1964), http://www.rand.org
A. Serres, Histoire dun système dinformation : lémergence dArpanet, Thèse, 2000, Université de Rennes II, à paraître.
T. Berners Lee (1989, 1990), Information management : A proposal , CERN.
T. Berners Lee (1989, 1990), Information management : A proposal , CERN.
A. Negri, M. Hardt, Empire, Paris, Éditions Exil, 2000.
Ghislaine Chartron, Solaris, n° 6 HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris.
Ghislaine Chartron, Solaris, n° 6 HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris.
J. Bosak, T. Bray, Introduction à XML , Pour la science, juillet 1999.
Ghislaine Chartron, Solaris, n° 6 HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris.
Idem.
G. Chartron, Solaris n° 6 http://www.info.unicaen.fr/bnum/jelec/Solaris
G. Chartron, Solaris n° 6 http://www.info.unicaen.fr/bnum/jelec/Solaris.
Idem.
Sur ces questions voir : JASIS, Vol. 48 (7), 1997, et Solaris, n° 6, HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris, sous la direction de Ghislaine Chartron et Jean-Max Noyer.
P. Otlet (1989), Traité de documentation, le livre sur le livre, Liège, Édition C.L.P.C.F.
B Latour (1985), Les vues de lesprit , Culture Technique.
C. Herrenschmidt (1990), Le tout, lénigme et lillusion , Le Débat, 62.
C. Herrenschmidt (1999), Écriture, monnaie, réseaux , Le Débat.
M. de Landa (1997), A Thousand Years of Non-linear History, Ed. Swerve.
Y. Marcoux, et M. Sévigny (1987), Why SGML, Why now ? Jasis, July.
In the world of electronic document formats, the following levels of standardization can be identified :
a) Secret proprietary format : A format defined by a specific hardware or software producer, and whose specifications are unpublished. The original software or hardware must be used to access the documents. Under users pressure, this kind of format is starting to disappear.
b) Public proprietary format : A format defined by a specific producer, by whose specifications are publicly available. Others parties can develop import/export converters for the format, if they want, e.g., RTF (Microsofts Rich Text Format), Wordperfect.
c) De facto standard : A public proprietary format that has become very popular and is recognized by a large number of producers, e.g., GIF (Graphic Interchange Format, introduced by Compuserve), Wordperfect.
d) Official standard : A standard defined and adopted by an official standardization body. Standardization bodies include a number of non-profit organizations or consortia, various national or international associations, as well as organizations entirely devoted to standardization on a national or international level, e.g., SGML, ODA. The International Organization for Standardization (ISO), which has its headquarters in Geneva, Switzerland, is possibly the most important standardization body in the world. In parTICular, the General Agreement on Tariffs and Trade (GATT) recognizes the precedence of ISO standards over others. SGML is an ISO standards, ISO 8879, adapoted in 1986. It is, therefore, a first-rate international standard.
Platon, Phèdre et A. Van evenann. (1999), Écrire à la lumière, Paris, Éditions Galilée.
Jacques Derrida (1990), Limited and co, Paris, Édition Galilée.
Julia Kristeva, Semeiotiké, Paris, 1969. Voir aussi : Roland Barthes, Critique et Vérité, Paris, 1966, Michel Foucault, Les mots et les Choses, Paris, 1966.
Jacques Derrida, De la grammatologie, Paris Éditions de Minuit, 1967.
Jacques Derrida (1990), Limited and co, Paris, Édition Galilée.
Idem.
Gilles Deleuze, Felix Guattari (1981), Mille plateaux, Paris, Éditions de Minuit.
Idem.
Michel Callon, La dynamique des réseaux techno-économiques, CSI, Paris.
Jean Clément, Séminaire PNER
Jean Clément évoque Le roman de Renard, écrit en branches, ainsi que Tristam Shandy de Lawrence Sterne qui, dès le XVIIe siècle, sort de la linéarité et secoue ce pacte générique de la lecture. Les uvres littéraires hypertextuelles inscrites sur des supports papier sont nombreuses et témoignent du refus de lordre linéaire dun discours. Citons entre autres exemples parmi beaucoup dautres les écritures hypertextuelles de lOulipo, (Ouvroir de Littérature Potentielle), les cadavres exquis des surréalistes, les Cent mille milliards de poèmes de Raymond Queneau, Composition n° 1 de Marc Saporta, Signe dappartenace de Jacques Roubaud, des uvres romanesques comme Ulysse de James Joyce, Le château des destins croisés ou Si par une nuit dhiver un voyageur dItalo Calvino, La vie mode demploi de Georges Pérec, les expériences du nouveau roman
Jacques Perriault, synthèse finale.
J. Pomian, E. Souchier, Les machines écrivantes ou lécriture virtuelle, in Traverses 44-45, Machines virtuelles , 1988.
Geoffrey Bennington note que ce nest nullement par hasard que Jacques Derrida parle des livres de Joyce
ni quici même nous concevons ce livre (Derrida par Geoffrey Bennington et Jacques Derrida) un peu sur le modèle dun logiciel hypertexte qui permettrait, du moins en principe, un accès presquinstantané à nimporte quel autre et qui serait branché sur une mémoire contenant tous les textes de Derrida, eux-mêmes accessibles simultanément par thèmes, mots-clés, références, tournures de styles etc
et ensuite à une mémoire plus vaste rendant accessibles, selon les mêmes entrées multiples, les textes citées ou évoquées par Derrida, avec tout ce qui forme leur contexte donc à peu près la totalité (ouverte) de la bibliothèque universelle, pour ne rien dire darchives musicales ou visuelles ou autres (olfactives, tactiles, gustatives) à inventer. Une telle machine textuelle ne serait pas en dernière instance un outil pédagogique,
ou une façon efficace et technologiste dapprendre Derrida, (
) Une telle machine susprendrait la lecture dans un système ouvert, ni fini ni infini, labyrinthe-âbime, (Cf Écriture et Différence) et garderait aussi la mémoire des parcours tentés, un peu en suivant leur nez, leur flair par tous ses lecteurs, qui seraient autant de textes à rebrancher sur le réseau général. Joyciciel
Derridiciel, Derridabase. (Ulysse Grammophone) Mais cette machine est déjà en place, elle est le déjà même
." .
P. Lévy, Quest ce que le Virtuel ?, Éditions la découverte, Paris, 1995.
Jean-Claude Gardin, Vers un remodelage des publications savantes : ses rapports avec les sciences de la cognition, PNER, 2002. Voir aussi : Jean-Claude Gardin, (1993), Points de vue logicistes sur les méthodologies en sciences sociales , Sociologie et sociétés XXV, n° 2, p. 11-22 ; Jean-Claude Gardin (1995), Calcul, informatique et raisonnement en archéologie , in D. Miéville (éd.), Raisonnement et calcul ; Jean-Jean-Claude Gardin (1996), Formalisation et simulation des raisonnements , in J. Revel & N.Wachtel (éds.), Une école pour les sciences sociales. De la VIe section à lEcole des Hautes Etudes en Sciences Sociales, p. 185-208, Editions de lÉcole des Hautes Etudes en Sciences Sociales, Paris ; Jean-Claude Gardin (1999), Calcul et narrativité dans les publications archéologiques , Archeologia e Calcolatori, p. 61-78 ; Jean-Claude Gardin (2000), La pensée réfléchie et ses progrès dans les sciences de lhomme. Le Genre humain, Actualités du contemporain, p. 253-272, Seuil ; Jean-Claude Gardin (2001), Entre modèle et récit : les flottements de la troisième voie In J.-Y.Grenier, Cl. Grignon, P.-M. Menger (éds.), Le modèle et le récit, p. 456-488, Éditions de la Maison des Sciences de lHomme, Paris ; Jean-Claude Gardin 2001), Modèles et récits , in J.-M. Berthelot (éd.), Epistémologie des sciences sociales, Paris, p. 407-454, PUF.
Principales revues de référence : Scientometrics, JASIS. Voir aussi le site Cybermetrics : HYPERLINK http://www.cindoc.csic.es/cybermetrics/ http://www.cindoc.csic.es/cybermetrics/ ; Solaris n°2 : HYPERLINK http://www.info.unicaen.fr/bnum/jelec/Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris ; Adest : HYPERLINK http://www.upmf-grenoble.fr/adest/ http://www.upmf-grenoble.fr/adest/
Voir par exemple : Mutschke P., Quan Haase A., Collaboration and cognitive structures in social science research fields , in Scientometrics, Vol. 52, n°3, 2001
Journal of Memetics : HYPERLINK http://jom-emit.cfpm.org/ http://jom-emit.cfpm.org/
J.-J. Kupiec, P. Sonigo, Ni Dieu, ni Gène, Paris, Ed. Seuil, 2001 ; D. Hofstader, Mathemagical Themas, Basic Books, New-York, 1985 ; D. Hofstader, Cognition, subcognition , Le Débat, n° 47 ; G. Sabah, Le problème fondmental de lémergence du sens lors de raisonnements collectifs distribués, Limsi-CNRS, Working Pper, 2000 ; Clark, Microcognition, Philosophy, Cognitive Science and Parallel Distributed Processing, MIT Press, 1990 ; W. Bechtel, A. Abrahamsen, Le connexionnisme et lesprit, Éditions La Découverte, Paris, 1993 ; Voir aussi les théoriciens de la seconde cybernétique.
De Von Foerster à Maturana et Varela. Voir F. Varela, Autonomie et Connaissance, Paris, Éditions du Seuil, 1989.
Françoise Demay, PNER, 2002
Alain Chaptal, Le dilemme constructiviste ou la question du renouvellement des usages, PNER, 2002 : La généralisation de constructivisme soulève une série de questions que lon ne fera quesquisser ici. Premièrement, il faut se souvenir de léchec retentissant dans les années trente du Progressive School Movement du fait des dérives signalées plus haut et faisant de lenseignant le simple accompagnateur des démarches de ses élèves et conduisant à laffaiblissement de la notion des programmes. Ces dérives ont été soulignées par Dewey lui-même qui finit par prendre ses distances avec le mouvement. Deuxièmement, le constructivisme reste pour linstant le fait denseignants pionniers voire militants. (
) Troisièmement ces nouvelles pratiques constituent encore une sorte daventure (
) Quatrièmement il faut se garder de sous-estimer limportance du choc avec les modes dorganisation de lécole(
) La pratique constructiviste la plus convaincante peut être réduite à néant par un examen ou un contrôle qui ne prendra en compte que ce qui est fondée sur les référentiels traditionnels .
P. Lévy, Les technologies de lintelligence, Lavenir de la pensée à lère informatique, Éditions de la Découverte, Paris, 1990. Voir aussi la thèse d'Olivier Ertzcheid : Le lieu, le lien, le livre. Les enjeux cognitifs et stylistiques de l'organisation hypertextuelle. Thèse, Toulouse 2002.
http://www.ertzscheid.net
J.C. Chirollet, Philosophie et société de linformation : pour une philosophie fractaliste, Éditions Ellipse, 1999.
J. J. Eilola, Nostalgic Angels, Rearticulating Hypertext Writing, Ablex Publishing corporation, 1997
Composition teachers and theorists have long been concerned with empowering students to become more capable language user. Hower relations to technology, however, have often neglected the complexity of social power. Hypertext does not solve this problem ; in many ways, it makes the issues more complex. There is the poten,tial for empowerment here, but it is certainly not automatic or guaranteed. If we do not adequately theorize the social and potential contexts in which we write and are written by hypertext, we and our students allow ourselves to be positioned by existing forces. If we do not revise our pedagogies to take into account and construct new ways of writing and thinking many computer-based composition classes still use word-processing programms as glorified typewriterswe will only perpetuate old ways of living in the world. In our theories and our pedagogies, we need to simultaneously politicize and socialize text, connect texts accross disciplinary and occupational boundaries. Imperfect angels, nostalgics for a past that never was, we might instead learn to live as cyborgs. In Mapping hypertext use we do not create a new world fron nothing, but we do create discourses in which old worlds might be transformed .
Martin Dodge, Mapping Cyberspace, Routledge, 2001.
Hypertextes, Hypermédias, nouvelles écritures, nouveaux langages, sous la direction de J.P. Balpe, S. Leleu-Merviel, I. Saleh, J.M Laubin, Éditions Hermès, 2001
J.C Chirollet, Philosophie et société de linformation : pour une philosophie fractaliste, Éditions Ellipse, 1999
HyperNietzsche : http ://www.hypernietzsche.org
Fabula : HYPERLINK http://www.fabula.org http://www.fabula.org
Revues.org : HYPERLINK http://www.revues.org http://www.revues.org
Chromohs : HYPERLINK http://www.cromohs.unifi.it/index.htlml http://www.cromohs.unifi.it/index.htlml
Sator : Société d'analyse de la Topique romanesque.
Marin Dacos, Pner, 2002
Paolo dIorio et Nathalie Ferrand, Rapport de synthèse intermédiaire, PNER, LInternet savant de lavenir, 2001.
Idem.
Caroline Szylowic, Le centre de recherche Kolb-Proust : un projet hypertexte dans les humanités, in Hypertextes et hypermédias, nouvelles écritures, nouveaux langages, H2PTM01, Éditions Hermès-Lavoisier.
Paolo dIorio et Nathalie Ferrand, Rapport de synthèse intermédiaire, PNER, LInternet savant de lavenir, 2001.
Idem.
GNU's Not Unix ( GNU nest pas Unix ): il s'agissait en fait de la création d'un système d'exploitation, libre , du même genre qu'Unix et entièrement compatible avec lui. Pour le développement des logiciels libres, une association fut même créée : la Free Software Fondation. Voir les sites http://www.gnu.org et http://www.fsf.org. Voir également sur ce thème, la contribution de R. STALLMAN, Logiciels libres : quelles conséquences pour l'avenir ?, Congrès INFOéthique 98 organisé par l'UNESCO, Monaco, 1-3 octobre 1998 (http://www.unesco.org/webworld/infoethics_2/eng/summaries.htm#2).
Voir sur cette licence, le mémoire, très complet sur la question, de Mélanie Clement-Fontaine, La licence publique générale GNU (logiciel libre), DEA Montpellier I, 1999, que lon peut trouver à ladresse http://www.crao.net/gpl. Le mouvement du copyleft a dailleurs été lancé par R. Stallman afin déviter que le futur système GNU ne se transforme en logiciel propriétaire (en ce sens, M. Clement-Fontaine, op. cit., p. 5). Il sest ensuite propagé dans le milieu de linformatique.
Voir ce que permet larticle 122-6-1 du Code de la propriété intellectuelle. Voir dernièrement, la décision du T.G.I. de Paris (réf., 10 avril 2002), disponible sur le site http://www.legalis.net/legalnet, et qui précise clairement que le client, en labsence de contrat (et donc de transfert de droits), ne possède aucun droit à une jouissance paisible sur les codes sources .
http://www.opensource.org/ Pour une définition de lOpen Source, dans le domaine informatique donc, voir notamment : HYPERLINK http://www.linux-france.org/article/these/licences.html http://www.linux-france.org/article/these/osd/fr-osd_monoblock.html
Si toutefois il est original , critère pas toujours aisé à utiliser en cette matière
Pour plus de détails sur ces mouvements, voir notamment larticle de D. Géraud, Le copyleft, ou létat des interrogations quant à limpact des NTIC en tant quélément déstabilisateur des règles de propriété intellectuelle (http://perso.club-internet.fr/geraudd/4/preambule.html#conferences), ainsi que létude, du même auteur, sur les logiciels libres (http://perso.club-internet.fr/geraudd/4/Logiciels.zip).
Voir le site http://www.artlibre.org.
http://artlibre.org/copyleft/.
Voir également la Open Content License (http://opencontent.org/opl.shtml), et la Design Science license (http://dsl.org/copyleft/dsl.txt), proposées dans la pure mouvance copyleft. Voir également la licence (Free Music Public License) du projet musique libre : http://www.musique-libre.com/fmpl.html.
Voir ladresse précitée, note 36.
La licence est diffusée à ladresse suivante : http://artlibre.org/licence/lal.html.
Préambule de la licence.
Voir larticle de C. Dussuel, Creative commons : une nouvelle approche de la propriété intellectuelle, Le Monde Interactif, 11 juin 2002 (http://interactif.lemonde.fr). Voir également le site http://www.creativecommons.org. Creative commons est une organisation à but non lucratif, regroupant notamment des universitaires américains, dont le professeur Lawrence Lessig, et qui a déjà bénéficié de 900.000 $ de subventions.
C. Dussuel, article précité.
Bien sûr, à travers son uvre, mais à partir du moment où luvre de l'esprit nest que la manifestation, l empreinte de la personnalité de lauteur (pour reprendre les termes dune jurisprudence constante : voir, en ce sens, Paris, 21 novembre 1994, R.I.D.A. avril 1995, p. 243), atteindre luvre, cest atteindre la personnalité de son auteur.
Cependant largement connu des autres pays européens.
idem
idem
Paolo dIorio, William Turner Solaris : n°5, http://www.info.unicaen.fr/bnum/jelec/Solaris
P. Ginsparg : "First Steps Towards Electronic Research Communication", Computers in Physics, vol. 8, n° 4, 1994, Solaris http://www.info.unicaen.fr/bnum/jelec/Solaris/d03/3ginspar.html
The Perseus Digital Library : http://www.perseus.tufts.edu/Voir aussi :National Virtual Observatory (NVO) http://www.srl.caltech.edu/nvo/
Principia Cybernetica : HYPERLINK http://pespmc1.vub.ac.be/ http://pespmc1.vub.ac.be/
CiteSeer : http://citeseer.nj.nec.com/directory.html
S. Harnad : "Scholarly Skywriting and the Prepublication Continuum of Scientific Inquiry." Psychological Science 1, 1990: 342-343. "Post-Gutemberg Galaxy: The Fourth Revolution in the Means of Production of Knowledge", Public Access Computer Systems Review 2 (1), 1991, pp. 39-53.
"Developping services for open eprint archives: globalisation, integration and the impact of links", 5th ACM Conference on Digital Libraries, juin 2000, version pré-publication : http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad00.acm.htm
G. Chartron, Document HDR, Partie III : Édition scientifique sur internet, contribution à une analyse stratégique, Paris, 2002
G. Gallezot : voir Solaris n° 6 HYPERLINK http://w http://www.info.unicaen.fr/bnum/jelec/Solaris
J.M. Salaün : http://www.enssib.fr
J.C. Guédon, Communication interne, PNER 2002
G. Gallezot, G. Chartron, J. Max Noyer : Une archive ouverte des publications en InfoCom, http://archivesic.ccsd.cnrs .fr
Nous renvoyons ici au travail sur la Citabilité en général de Jacques Derrida à Leysderdoff en passant par Solla Price, Garfield, De Landa, Latour, Courtial, Baudouin Jurdant, Lecoadic, Noyer, Alliez, et bien dautres.
http://www.openarchives.org
Idem
Le logiciel d'auto-archivage, eprints.org, a été développé au Département d'Electronique et d'Informatique del'Université de Southampton.
http://xxx.lanl.gov et http://fr.arXiv.org. En 11 ans plus de 185 000 textes ont été déposés, http://xxx.lanl.gov/cgi-bin/show_monthly_submissions [consulté le 14 janvier 2002]
http://cogprints.soton.ac.uk, en 5 ans plus de 4000 textes ont été déposés [consulté le 14 janvier 2002].
http://netec.mcc.ac.uk/WoPEc.html, créé en 1996, environ 50 000 documents, articles de revue + Working papers. Tous les articles sont téléchargeables mais pas nécessairement en libre accès.
Lecture et écriture scientifique dans le ciel : Une anomalie post - gutenbergienne et comment la résoudre
J.J. Eilola, Nostalgic Angels, Rearticulating Hypertext Writing, Abelx Publishing Corporatin, 1996.
A critical practice of hypertext then relies on at least two primary impulses : a) the movement to politicize the production and consumption of cultural meanings, anb b) the socialization of all forms of hypertext in a recognition of and an attempt to overcome the disciplinary and occupational boudaries that serve to rationalize hegemonic relationships. Simply put, hypertext writers and readers must consider their acts as political in the broadest sense, and cannot take for granted the assertion that functional hypertext, or that an enormous information space makes true an equation between aqual access and equal rights .
Alain Derycke, Sept questions sur le E-Learning, : vers une problématique nouvelle pour la recherche , in Les technologies éducatives, Perspectives de recherche et questions vives, Actes du Symposium international francophone, Paris, 2002, Édités sous la direction de Georges-Louis Baron et Éric Bruillard, Fondation Maison des sciences de lhomme, INRP, IUFM de Basse-Normandie.
Voir sur ces questions : La gouvernance d'Internet, Les cahiers du numérique, sous la direction de Françoise Maisst-Folléa et Richard Delmas, Vol 3 - n°2-2002, Édition Hermès Lavoisier.
Cette partie est extraite de louvrage Numérisation pour lenseignement et la recherche Aspects juridiques.
Ont participé de façon active à ce groupe : Carole Audouin (CNEDXE "CNED"), Bernard Bailleul (CNDP), Philippe Belorgey (INIST-CNRS), Charlotte Buresi (ministère de léducation nationale, de la recherche et de la technologie), Martine Comberousse (Coordinatrice scientifique du PNER), Bertrand Delcros (SNE, aujourd'hui Forum des droits sur l'internet), Anne Flesch (GESTE), Yves Gaubiac (avocat), Stéphane Gaultier (Editronics), Pierre Perez (ministère de léducation nationale et ministère de la recherche), Emmanuel Pierrat (avocat), Evelyne Pierre (ministère de la Culture), Sophie Sepetjan (BNF, service juridique), Emmanuel Tranquard (SACD), Chryssi Tsirogianni (GIP RENATER), Renaud de Vernejoul (CNRS DiffusionXE "CNRS Diffusion").
Voir site du PNER : http://www.pner.org.
En plus des contributeurs au présent ouvrage (auteurs des études et correspondants français et étrangers), sont intervenus lors de ces journées : B. Helly (directeur de recherche au CNRS), J.-P. Dalbéra (chef de la Mission Recherche et Technologie du ministère de la Culture et de la communication), H.-J. Lucas (professeur à lUniversisté de Poitiers), B. Ory Lavollée (secrétaire général Cour des comptes), F. Rebichon (professeur à lUniversité de Lille III), C. Rhein (directrice de recherche au CNRS-LADYSS), P. Sirinelli (professeur à lUniversité de Paris I).
Conseil Supérieur de la Propriété Littéraire et Artistique, Rapport annuel 2001-2002, p. 14.
Compte tenu de l'actualité et de la sensibilité du sujet, deux des rapports relatifs aux exceptions (rapport belge et rapport allemand) ont été mis in extenso en annexe du chapitre concerné.
On citera entre autres parmi les nombreux rapports publiés récement : Internet et les réseaux numériques, Conseil détat, Les études du Conseil détat, La documentation française, 1998 ; Diffusion des données publiques et révolution numérique, Rapport de latelier présidé par Dieudonné Mandelkern, Commissariat général du Plan, La documentation française, novembre 1999 ; Le désir de France La présence internationale de la France et la francophonie dans la société de linformationXE "Société de linformation", Patrick Bloche, Rapport au Premier ministre, décembre 1998 ; La diffusion numérique du patrimoine, dimension de la politique culturelle, Bruno Ory-Lavollee, Rapport à Madame la Ministre de la Culture et de la Communication, janvier 2002.
Ces recherches dépassent très largement le cadre strict du PNER : d'une part les chercheurs associés spécialistes du domaine ont contribués dans d'autres cadres à l'étude des questions, d'autre part, la présente recherche a aussi bénéficié de tous les travaux menés par les chercheurs s'intéressant au rapport entre Sciences et Droit.
Cette position est défendue à la fois par les ayants droit (éditeurs, sociétés d'auteur) et les sociétés de gestion collectiveXE "Gestion collective" comme par un certain nombre de spécialistes du droit d'auteur.
Les ministères de l'éducation nationale et de la Recherche ont confié à la Direction des Affaires Juridiques, en janvier 2002, le soin de constituer une commission en charge de faire des propositions. Cette commission s'est réunie sous la présidence de T. Girardot, directeur de la DAJ.
Avec une lettre de mission des cabinets des deux ministères concernés.
Il a été question de l'intergroupe Informatique, Libertés, Statistiques et Recherche qui a servi d'interface - au ministère de la Recherche - pour la prise en compte dans le texte de transposition de la directive européenne des intérêts de la recherche. Ce groupe a été accompagné par des chercheurs juristes (I.de Lamberterie et Anne-Marie Benoit du CIDSP, Sciences-Po Grenoble). A aussi été rappelée, la mission du centre Quettley, nouvelle structure fédérative en charge de faciliter une meilleure exploitation des données statistiques.
Professeur à la Faculté de droit de Nantes et membre du réseau Sciences et Droit depuis ses origines.
Voir in Numérisation pour lenseignement et la recherche Aspects juridiques, Marie Cornu Les créations intellectuelles des agents publics et fonctionnaires de la recherche, de lenseignement et de la culture .
Voir le chapitre sur le droit de prêt in Numérisation pour lenseignement et la recherche Aspects juridiques.
Comme nous l'avons vu dans le chapitre sur les données publiques, certains organismes comme CNRS DiffusionXE "CNRS Diffusion" ont fait uvre de pionnier.
Bruno Latour, É. Hermant (1998), Paris ville invisible, Paris, Éditions Les empêcheurs de penser en rond, La Découverte.
J.P. Carrier, I. Meyer, S. Pouts-Lajus, A. Tricot, Usages pédagogiques des exerciseurs multimédias, PNER, 2001
J.P. Carrier, Le jeu dans les exerciseurs multimédias, PNER, 2001.
idem
idem
Voir aussi : Licia Calvi, Lorenzo Magnani, Argumentation in Hypertext : an AI perspective, Hypertextes, Hypermédias, H2PTM01, Hermès-Lavoisier, 2002
Félix Guattari, Cartographies schizoanalytiques, Paris, Éditions Galilée, 1989.
Bruno Latour, Les microbes, Guerre et Paix, suivi de Irréductions, Paris, Éditions Métailié, 1984.
M. Callon Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques et des marins pêcheurs en baie de Saint-Brieuc, LAnnée sociologique, Vol 36, 1986.
Gilles Deleuze, Felix Guattari, Mille plateaux, Paris, Éditions de Minuit, 1981.
Pierre Lévy, Plissé fractal ou comment les machines de Guattari peuvent nous aider à penser le transcendantal aujourdhui , Revue Chimères.
M. Callon, La dynamique des réseaux techno-économiques, CSI, Paris
Idem
Bruno Latour, Les microbes, Guerre et Paix, suivi de Irréductions, Paris, Éditions Métailié, 1984.
2.4.4 Les langues ne dominent, ni ne sont dominées, nexistent ni nexistent pas. Ce sont des entéléchies qui se cherchent des alliés à leur convenance et sen font tout un monde, sans autre interdit ni privilège que ceux que dautres actants parviennent à maintenir .
2.4.5 Parmi les actants, nul ne peut distinguer longtemps ceux qui vont jouer le rôle de mots et ceux qui vont jouer le rôle de choses. Celui qui ne parle que de langage et de jeux de langage a déjà tout raté puisquil nétait pas là quand furent distribués les costumes et les rôles . (
)
Scolie : Nous avons toujours tendance à privilégier le langage. Pendant longtemps nous lavons cru transparent, et, seul de tous les actants, il navait ni épaisseur ni violence. Puis nous sommes mis à douter de sa transparence et nous avons voulu la restituer en nettoyant le langage comme on eût fait dune vitre. Nous avons tellement préféré le langage à tout que nous avons fait de sa critique lunique tâche de générations de Kant et de Wittgenstein. Enfin, dans les années cinquante, nous nous sommes aperçus que le langage était opaque, épais et lourd. Au lieu den finir avec ses privilèges et de le rendre aux autres forces qui le traduisent et quil traduit, nous avons voulu, au contraire, réduire à la matière du signifiant toutes les autres forces. Nous avons fait du texte la Chose. Cétait pendant The glorious sixties. Nous avons beaucoup exagéré. Tout ce quon dit du signifiant est juste, mais il faut le dire de nimporte quelle autre entéléchie
Dominique Boullier, article paru dans le journal Libération, Un Internet à base de subjectivité, de communautés, de proximité
, 5 janvier 2000.
Voir Armand Mattelart, Histoire de lutopie planétaire : de la cité prophétique à la société globale, Paris, La Découverte, 1999.
Voir Jeanneret, Yves et Souchier, Emmanuel, Pour une poétique de "lécrit décran" , Xoana 6/7, 1999.
Philippe Breton fait ainsi référence à Face au feu dIsaac Asimov, publié en 1956, pour évoquer une vision très sombre des relations humaines dans une société où on communique tout le temps et où on ne se rencontre jamais.
Jacques, Perriault, La logique de lusage, essai sur les machines à communiquer, Paris, Flammarion, 1989.
Le Marec, Joëlle, Lusage et ses modèles : quelques réflexions méthodologiques , Spirales, n°28, 2001.
Voir à ce sujet : Le Marec, Joëlle, Lusage et ses modèles : quelques réflexions méthodologiques , in : Spirales, n°28, 2001, p. 105-122.
La remarque provient dune communication orale au séminaire Industialisation de la Formation , SFSIC, qui sest déroulé à lINRP en 2001. Voir aussi : Pierre Moeglin, Qu y a-t-il de nouveau dans les nouveaux médias ? Un point de vue des sciences de linformation et de la communication , in Les technologies en éducation : perspectives de recherches et questions vives, Fondation Maison des Sciences de lHomme, PNER, INRP, IUFM de Basse-Normandie, 2002.
A. Vitalis, (sous la direction de), Médias et nouvelles technologies : pour une socio-politique des usages, Rennes : Apogée, 1994. ; Proulx, S., Usages des technologies dinformation et de communication : reconsidérer le champ détude ? , in : Actes du Congrès SFSIC 2001, Paris, 10-13 janvier 2001 ;
Etude réalisée par Joëlle Le Marec dans le cadre de la cellule Évaluation de la direction des Expositions, CSI, La Villette, 1989.
Computer-Supported Collaborative Learning (CSCL).
Cest nous qui traduisons.
Cest nous qui traduisons.
Chanal (2000) fournit une synthèse intéressante de louvrage Communities of pracTICe de Wenger.
François Laruelle, Homo ex machina , Revue de Métaphysique, 1981.
Bernard Stiegler, La technique et le temps, tome 3, Paris, Éditions Galilée, 2001.
Jean-Max Noyer, Guerre et stratégie, Paris, Éditions Hermès, 2002.
Peter Sloterdijk, La domestication de lêtre, coll, Mille et une nuits , Librairie Arthème-Fayard, 2000.
PAGE 8
PAGE 7
Programme Numérisation pour lEnseignement et la Recherche (PNER MSH)
PAGE 262
Présentation des objectif initiaux du PNER
PAGE 11
Introduction générale
Introduction générale
PAGE 25
émergence dune politique de la mémoire : quelques repères
émergence dune politique de la mémoire : quelques repères
PAGE 49
La montée en puissance du document numérique :
nouvelles caractéristiques et différenciation(s)
La montée en puissance du document numérique :
nouvelles caractéristiques et différenciation(s)
PAGE 61
Problèmes de lédition électronique
Problèmes de lédition électronique
PAGE 87
Numérisation, édition électronique et droit
Numérisation, édition électronique et droit
PAGE 123
Des outils oux usages
Des outils aux usages
PAGE 139
Conclusion - Recommandations
Conclusion - Recommandations
PAGE 191
Annexe
études PNER 1999-2002
Annexe
études PNER 1999-2002
PAGE 263
Annexe
Ressources complémentaires