test titre 1 - Exercices corriges
Le design fut revu et corrigé pour aboutir en 1994 à une version un peu plus
lente ...... Le système d'exploitation concurrent, Google Android, n'est pas non
plus ...
part of the document
générale de la bulle spéculative de linnovation PAGEREF _Toc336007431 \h 47
HYPERLINK \l "_Toc336007432" Conclusion PAGEREF _Toc336007432 \h 58
HYPERLINK \l "_Toc336007433" Enquête et bibliographie PAGEREF _Toc336007433 \h 59
HYPERLINK \l "_Toc336007434" Lexique PAGEREF _Toc336007434 \h 66
Remerciements
Je tiens à remercier ma mère Claude Mathieu pour ses relectures et ses plats cuisinés dont jai profité au cours de la retraite familiale qui fut favorable à la rédaction de ce mémoire de Master. Je remercie au même titre mon beau-père Jean-Pol Mathieu, qui a su maccompagner avec toute la confiance et le calme qui le caractérisent. La première partie sur lautomobile, les motocycles, la Hi-Fi et linformatique naurait pas été possible sans la masse de témoignages que jai recueillis auprès des diverses communautés de passionnés des techniques. Je remercie pour cela tous ces hackers dans lâme et jespère que mon discours leur sera suffisamment fidèle tout en révélant leurs aspirations profondes à légard des techniques. La seconde partie plus essayiste et toujours centrée sur des techniques fut parfois alimentée déchanges dune grande richesse avec Thomas Leroux, écrivain, qui a approximativement le même âge que moi et dont la culture débordante ne cesse de métonner. Les échanges avec Mazen Kaderi, enseignant au Liban, furent aussi stimulants. Je remercie Patrick Fridenson, professeur dhistoire des entreprises à lÉcole des Hautes Études en Sciences Sociales sans lequel je ne me serais pas permis dénoncer aussi clairement mes problématiques industrielles, anthropologiques et psychologiques au sujet de la technique.
Introduction
Quelle est la part de dimaginaire lorsquun utilisateur constate quune machine fonctionne bien ou mieux quune autre ? Cet imaginaire chargé dintentions, ce jeu de projections psychologiques tel un magnétisme dont le réceptacle nest pourtant pas animal , peut-il avoir un impact sur le fonctionnement de ces objets ? Que se « passe-t-il » entre lhomme et la machine ? Comment se fait-il que, comme je le montrerai plus tard, que des productions artisanales ou des produits de lindustrie des années 1970 jusquau début des années 1990 soient perçues comme plus fiables et parfois même plus performantes que les produits de lindustrie contemporaine ? Je minscris dans une réflexion de fond en anthropologie des techniques, en psychologie ainsi quen philosophie des techniques en analysant des manifestations peu communes de savoir-faire et de savoirs implicites .
Dans une première partie, je présente des produits automobiles et motocycles jusquau milieu des années 1990, des produits de la Haute Fidélité acoustique (Hi-Fi) et de linformatique des années 1970-1980 qui ont marqué suffisamment dutilisateurs et sont ainsi devenus des références. Aujourdhui encore, ces produits sont utilisés, réparés et maintenus par, respectivement, dirréductibles mécaniciens, audiophiles et hackers. J'expliquerai ce qui anime ces communautés d'utilisateurs passionnés par le rétro. Il savère quau-delà du plaisir de contempler et dutiliser du matériel de collection, cest clairement une recherche de qualité qui est en jeu pour cette catégorie dusagers. Les mécaniciens estiment majoritairement que les voitures des années 1980 jusquau début des années 1990 sont, non seulement plus faciles à maintenir, mais aussi plus fiables que nos voitures contemporaines ; ces dernières ayant subi les affres de la conception assistée par ordinateur et de la gadgetisation. Au sujet de la Hi-Fi, grandement majoritaires sont les passionnés des communautés audiophiles celles-ci sont relativement importantes en France, en Allemagne et au Japon qui sinscrivent en faux contre la pratique de lachat statutaire et préfèrent le rendu sonore du Vintage comparé à celui du matériel neuf et haut de gamme. Enfin, dans linformatique, les hackers et les membres de la communauté open-source maintiennent et développent des programmes particulièrement difficiles à utiliser puisquils se dispensent de toute ergonomie. Ces logiciels sont plus efficaces que les logiciels payants et sont utilisés par les professionnels les plus exigeants sur les systèmes dinformations prépondérants. Ces contre-exemples au discours dominant, selon lequel il faudrait systématiquement acheter du neuf et tirer profit des dernières conceptions, conduiront à envisager une forme de perversion des techniques causée par la surenchère toujours renouvelée de linnovation.
Par létude de ces cas pratiques, jexplore un espace entre les sentiments humains et la matérialité de leur expression. Jenvisagerai ainsi lactivité dun ingénieur, mécanicien, audiophile ou hacker ainsi que celle des utilisateurs, en tentant den déterminer la nature et je démontrerai que la notion de qualité nécessite la prise en compte de facteurs affectifs et de proximité de lhomme à la machine. Cest certainement lexpertise, le savoir-faire et la passion des concepteurs et des utilisateurs qui leur permettent délaborer lidée dun objet technique dexception. Il arrive dailleurs fréquemment que cela soit accompli lorsque le concepteur réalise un produit en vue de lutiliser lui-même. Cela sexplique dabord naturellement par le désir de bien faire, la cohérence globale du projet technique et lattention du détail qui sont dautant plus importants si les concepteurs en tirent des bénéfices directs. Mais cela sexplique aussi selon moi, par labsence dornements et daccessoires résultant de lobjectif individuel et non commercial. Lartisan et lingénieur peuvent se dispenser de tout ce qui est facilitateur. Puisquils en sont les concepteurs, ils savent évidemment comment manipuler leurs machines sans lartifice des interfaces. « Lornement est un crime », disait Adolf Loos dans le domaine de larchitecture. Jobserve que cest un principe qui est respecté ipso facto chez tous les passionnés des techniques que jai rencontrés et cela se vérifie jusque dans lapparence des produits techniques quils réalisent. Labsence desthétique délibérée devient en quelque sorte un gage qualité, puisquelle suggère que le produit fut réalisé par lun de leurs pairs.
Lapproche de la qualité chez les passionnésdautomobile et de motocycle
« Old Benzes dont die, they go into hibernation or dormancy, to be awakened when the next oil shock hits »
Paul Niedermeyer
Définition historique et industrielle de la qualité
Que signifie le terme « qualité » dans lindustrie et chez les constructeurs automobiles ? Un article de Patrick Fridenson sur le développement du fordisme et de la qualité en France, ainsi que celui de Izumi Nonaka sur les évolutions du contrôle qualité au Japon apportent de nombreux éclaircissements sur sa genèse ,. La notion de la qualité dans lautomobile arrive en conséquence de la taylorisation et de la fordisation de la production. Il sagissait dès laprès première guerre mondiale dobtenir un niveau de qualité de la production en chaîne identique sinon supérieur au travail manuel. La notion de qualité dans lautomobile rend compte dun effort des constructeurs de maintenir un niveau de qualité dans le contexte industriel dune production de masse et de la division du travail. Quelles méthodes les constructeurs ont-ils mises en uvre pour assurer la qualité de leur production au cours des diverses étapes de la fordisation en France ? Patrick Fridenson met en lumière la spécificité française du déploiement des méthodes de contrôle qualité. Cette spécificité semble pouvoir se résumer par des difficultés, des manques de cohérence et des idées précurseurs qui ne furent pas mises en pratique, plutôt que par lémergence dun modèle efficace et pérenne à linstar des Japonais . Dans lentre deux guerres, les constructeurs français nont pas mis laccent sur linspection des pièces mais sur la qualité des procédures et des techniques de production. Il furent en cela en avance sur les méthodes de qualité japonaises. Renault fut le plus efficace dans cette démarche tout en réduisant les coûts de production. Ernest Mattern, directeur de production chez Peugeot, proposait juste avant la seconde guerre mondiale, une étroite collaboration avec les fournisseurs. Ces évolutions de la conception du contrôle qualité ne furent pas en mesure de révéler tout leur potentiel puisque les efforts des constructeurs français en matière de qualité furent freinés du fait de lobjectif de volume résultant de lextraordinaire expansion du marché de lautomobile de laprès seconde guerre mondiale. Au Japon, le scénario est tout autre. Seulement à laprès guerre, les considérations sur la qualité devinrent une référence internationale en la matière, sous les appellations de Total Quality Control et de Company-Wide Quality Control. Au contraire de la procédure classique dinspection du véhicule à la sortie de la chaîne de montage aux Etats-Unis, la qualité devait y être prise en compte à chaque étape du processus dassemblage, de la conception et de la planification. Au-delà de linstauration du prix Deming (qui marquait lintroduction du contrôle statistique au Japon), ce sont davantage des consultants japonais en contrôle qualité tels que Ishikawa et Nishibori qui, en adaptant les préconisations et les techniques du contrôle statistique de la qualité au contexte japonais, inventèrent le Company-Wide Quality Control et furent à lorigine de létablissement de cercles de qualité au sein des entreprises, ces groupes de discussion permettant de résoudre des problèmes pratiques et daméliorer les techniques de production. Cest aussi au Japon que détroites relations entre les fournisseurs et les constructeurs sinstaurèrent et aboutirent au protocole des « boîtes noires » ou « dessins approuvés », cest-à-dire à des efforts partagés entre le constructeur et le fournisseur, le premier apportant généralement des spécifications alors que le second réalise létude de recherche et développement .
Lélectronique chez PSA Peugeot Citroën
Quelles sont les évolutions majeures issues de lélectronique ou de la conception assistée par ordinateur ? Louvrage de Pascal Griset et Dominique Larroque sur lélectricité et lélectronique chez PSA les retrace au sein du groupe PSA Peugeot Citroën sans sacrifier une vision globale en France et dans le monde, des innovations liées à lélectronique des années 1980 à nos jours . Les innovations récentes de lélectronique dans lautomobile y sont classées en trois catégories : la motorisation, le confort associé à la sécurité et les équipements communicants.
Lélectronique est dabord introduite dans le dans groupe motopropulseur avec lallumage transistoré puis avec lAllumage Electronique Intégral (AEI), inventé par Citroën et Thomson, qui équipera la Citroën Visa en 1978. Les bougies sont commandées par un calculateur Thomson-CSF/Motorola et une bobine spécifique fournie par Ducellier. Cela permet simplement dadapter lallumage en tenant compte de la dépression de lair. Le fameux distributeur (ou allumeur) Delco est ainsi remplacé. Mais lAEI nest encore à ce stade quun allumeur pour moteurs bicylindres. En 1978 Renault sassocie au fournisseur américain Bendix pour créer la filiale Renix à Toulouse. Après avoir envisagé de sassocier à Matra et Magneti Marelli, PSA revient vers Thomson, rachète le laboratoire et léquipe de recherche et développement électronique automobile pour créer en 1980 la filiale PSA-Thomson-CSF à Velizy. Le département électronique chez PSA est né. La Citroën GS équipée de lAEI adapté au moteur à quatre cylindres est vendue au Japon avec le soutien de Nissan, où des normes anti-pollution très strictes sont en vigueur. LAEI connaît à nouveau une évolution pour être adapté sur la Citroën CX : il dispose désormais dun allumage à commande numérique. Les coûts des composants électroniques diminuent ce qui favorise leur massification. Renix et PSA-Thomson-CSF sont en route vers loptimisation toujours plus fine des groupes moto-propulseurs avec les possibilités quoffre lélectronique. Lobjectif principal des ingénieurs sera daugmenter le taux de compression, ce qui nécessite la parfaite coordination de lallumage et de lapprovisionnement en air et en essence. Cela permet notamment de réduire les émissions de gaz qui sont déjà une préoccupation majeure à la fin des années 1970. Solex réalise un carburateur à double corps puis un carburateur piloté qui règle la richesse du mélange air/essence. Mais cest linjection électronique associée à lAllumage Electronique Intégral qui sera retenue. Linjection était déjà privilégiée dans laviation au dépends du carburateur, et à cause des conditions extrêmes causées par les vibrations et le froid en altitude. Bosch équipe la Citroën DS et la Volkswagen 411 dinjecteurs électroniques D-Jectronic (1967), puis propose le K-Jectronic (mécanique et électronique en 1973) et L-Jectronic (électronique en 1974). PSA associe lAEI au L-Jectronic sur les CX 2,5 litres turbo ainsi que sur une Lada qui participe à la course du Paris-Dakar. Les américains proposent linjection monopoint (un seul injecteur pour les 4 cylindres) plus simple et économique que linjection multipoint mais cette alternative sera rejetée par les constructeurs européens. Avec linjecteur Monotronic (1978), Bosch intègre lallumage et linjection au sein dun même circuit électronique. PSA met en concurrence Bosch, Magneti Marreli et Lucas pour assurer la fabrication de ses injecteurs. Le carburateur a pratiquement disparu sur les voitures proposées à la vente en 1995.
Linjection indirecte fait place à linjection directe. Celle-ci est plus complexe à réaliser car elle nécessite des calculs minutieux des réactions dans les chambres de combustion, en essence comme en diesel. Linjection indirecte tire profit dune pré-chambre qui facilite la combustion, alors que linjection directe envoie le carburant directement dans la chambre principale. Concernant les moteurs à essence, le fameux sporster Mercedes 300 SL de 1954 était déjà équipé dun système dinjection directe à linstar des avions, mais ce nest quau milieu des années 1990 que linjection directe réapparaît dans lautomobile essence grand public (entre temps parfois utilisée en compétition). En Europe, ce sont les marques japonaises qui ouvrent la voie dès 1997, suivit de Volkswagen avec la Lupo FSI en 1999 puis par Renault avec lévolution la motorisation F5R de 2 litres conçue en collaboration avec Nissan. Peugeot innove en février 2000 avec le moteur HPi en optimisant linjection directe de telle sorte que la consommation est considérablement réduite (charge stratifiée et mélange pauvre).
Pour le diesel, Peugeot est le leader européen, face à Mercedes-Benz, dès les années 1970. En 1973-1974, dans le but de réduire les émissions de gaz polluants un premier procédé électropneumatique (lEGR) est mis en uvre avec le fournisseur Ducellier. Des études avec laméricain Union Technology visent à développer un système dinjection électronique mais elles sont infructueuses et mises au placard en 1985. Cest ensuite Lucas et Bosch qui travaillent en étroite collaboration avec PSA pour réaliser respectivement linjecteur Electronically Programmed Injection Control (EPIC) pour la Peugeot 605 et les pompes VP15 réservés un nombre très réduit de véhicules. Les ingénieurs diésélistes Peugeot travaillent sur linjection directe mais ne lenvisagent que pour les utilitaires en raison des nuisances sonores et des fortes températures quelle génère. Cest étonnamment par les italiens, qui ne sont habituellement pas diésélistes, quarrive en 1986 sur le marché français et européen, linjection directe en diesel avec la Fiat Croma ID. Elle contient linjecteur Unijet ou « common rail » du fournisseur Magnéti Marelli qui revend son invention inespérée à Bosch et Denso. Peugeot sengage à rattraper son retard, et, fort de son expérience dans le domaine du diesel, introduit le moteur HDi qui sera un grand succès commercial dès la fin des années 1990. Peugeot devient le leader mondial du diesel hautement optimisé. Le HDi évolue pour passer dune pression de 800 bars à 1300 dans une seconde monture (en collaboration avec Ford) puis augmente encore la précision de linjection tout en augmentant la pression à 2000 bars. Peugeot invente également le filtre à particules permettant dépurer la totalité des particules émises par le diesel ; le prix Paul Pietsch lui est décerné en 2000. Le filtre à particules équipe dabord le haut de gamme avec la Peugeot 607 puis la 406 et la Citroën C5.
Lélectronique est ensuite mise en uvre pour apporter plus de confort et de sécurité dans lautomobile. Dans léclairage notamment (ou la lanternerie), la conception assistée par ordinateur amène des nouveaux types de phares par le calcul des trajectoires optiques. En 1982, la Citroën BX intègre léclairage avant « bifocal ». En 1989, la Citroën XM et la Peugeot 605 est munie dun éclairage à « surface réfléchissante complexe ». Conçu par Citroën en collaboration avec le fournisseur Valéo, ce nouveau phare offre un très bon rendement et permet de changer lintensité de lumière lors les changements détats. En 1991, BMW propose sur quelques-uns de ses modèles des lampes à décharge, dites aussi lampes à xénon. BMW, PSA, Renault et Saab partagent un groupe de travail européen pour la conception de cette technique qui sera mise en uvre sur les Xsara Picasso, les 206 et en option sur les 607. En outre, les matières plastiques remplacent le verre et le Plexiglas. Ces conceptions assistées par ordinateur modifient lesthétique des phares dont se servent les marques pour se singulariser. Le système Adaptative Front end System (AFS) permet par ailleurs lajustement automatique de la direction de léclairage en fonction des virages, de la vitesse et de linclinaison du châssis en fonction de la répartition du poids. Lactivation automatique de lessuie-glaces fait lobjet de recherches chez Citroën puis chez Peugeot mais elles se soldent par des échecs. Cest une solution optoélectronique qui est alors retenue à laide dun capteur situé derrière le pare-brise et mesurant la propagation de la lumière. Il équipe les Peugeot 607, 406, 206 et les Citroën C5 et C3. Les lève-vitres électriques, les sièges électriques réglables ou chauffants, la climatisation (en 1989 avec la Citroën XM et Peugeot 605) sinstallent dans lautomobile en vue dapporter plus de confort aux automobilistes. Les aiguilles du tableau de bord perdurent et sont préférées aux compteurs numériques chez Peugeot. Les prototypes Citroën Activa en 1988 et Activa II 1990 proposent des commandes entièrement numériques, à lexception du volant, et une interface holographique sur la partie inférieure de pare-brise. Mais les constructeurs sont prudents. Ce ne sera quaujourdhui que ladite technique daffichage à « tête haute » sera en option chez divers constructeurs. Lair-bag fait débat aux Etats-Unis et les ventes de voitures qui en sont équipées baissent drastiquement. Le port de la ceinture qui doit être associé à lutilisation dun air-bag sans que celui-ci ne représente un risque « contre-productif » , nest pas non plus tout à fait accepté. Le premier air-bag est introduit en Europe par Mercedes en 1981. Peugeot produit des 604 et 505 équipés dair-bag mais uniquement sur le marché américain au début des années 1980. Forcés de constater que les consommateurs sont progressivement demandeurs dair-bag au début des années 1990, les constructeurs ajustent leur gamme. La technique dAnti Blockiert System (ABS) est introduite en 1978 par Mercedes. Chez PSA, la deuxième génération dABS équipe les Citroën CX, XM et les Peugeot 405 et 605. Bosch ouvre une usine en Bavière uniquement dédiée à la construction dABS. La troisième génération dABS intègre le calculateur dans le bloc hydraulique ; ceci génère la baisse des prix et sa massification à partir du milieu des années 1990. Citroën ZX, Citroën C3, Peugeot 306 et 206 en seront équipées. En 1994, cest avec le remplacement de lancien répartiteur de charge hydraulique par un circuit électronique ajouté à celui de lABS que lensemble des systèmes de liaison au sol vont être repensés. Citroën soriente vers la numérisation de ses suspensions hydropneumatiques avec le procédé quelle nomme Hydractive sur les XM et les Xantia, qui réduit linclinaison dans les virages. Après lABS et ce répartiteur de charge hydraulique arrivent la répartition électronique du freinage, lantipatinage et le contrôle dynamique de la stabilité. Lantipatinage nest en effet rien dautre quun ABS inversé, puisquil sagit là aussi dassurer ladhérence des roues au bitume. LElectronic Stability Program (ESP) conçu par Bosch et ITT remplace lABS en combinant ces deux mécanismes en 1998. La continuité de ces avancées techniques provoquées par lélectronique, va logiquement dans le sens dune autonomie croissante de la voiture, jusquau jour où lautomobiliste naura plus besoin de conduire. Il existe aujourdhui des automobiles capables de freiner en cas dobstacle et de se garer toutes seules. Des tests allant vers lautomatisation et la régulation de la conduite furent réalisés très tôt en France, avec les programmes Prométhéus à partir de 1986 et AIDA de 1996 à 2001.
Lautoradio muni dun lecteur cassette se loge dans lautomobile dans les années 70 et les lecteurs de compacts disques à la fin des années 1980 de marque Philips, Sony et Pioneer. Les équipementiers conseillent les constructeurs automobiles pour linsonorisation et lemplacement des haut-parleurs dans lhabitacle. Suite à louverture des ondes au secteur privé en 1981, la radio FM connaît un regain dintérêt. Lusage de diodes à variation de capacité propose une première technique pour garder des stations en mémoire. Laudoradio extractible puis à façade amovible vient contrecarrer la recrudescence des vols dautoradio. Les appareils sont progressivement numérisés et sont bientôt pilotables à laides de commandes au volant. Commercialisé en France à partir de 1992 et progressivement populaire dans les années qui suivent, le Radio Data System (RDS) permet de rester sur une même station radio tout au long dun parcours prolongé et dafficher le nom de la station sur lécran . La norme Digital Audio Broadcasting (DAB) destinée à remplacer le RDS en offrant un bouquet numérique telle la Télévision Numérique Terrestre (TNT) nest toujours pas mise en uvre à grande échelle aujourdhui. Les autoradios en première monte (intégrés au véhicule à la vente) chez PSA sont généralement de marque Blaupunkt ou Philips. Mais PSA choisit doptimiser lergonomie et la disposition des équipements audio avec Clarion (entreprise japonaise ), des haut-parleurs la Siare (français) pour le milieu de gamme, et, pour le haut de gamme sur le coupé 406 et la 607, un ensemble JBL perfectionné. La standardisation des autoradios chez Peugeot et Citroën génère du profit.
Le téléphone dans lautomobile précède le GSM. De 1956 jusque dans les années 1980, la bande de fréquence de 150 Mhz à laquelle sajoute celle des 450 Mhz privilégie quelques rares utilisateurs, principalement des professionnels, qui bénéficient du téléphone en voiture. Le réseau Radiocom 2000 offre à partir de 1985 un service du même type mais de plus grande envergure, puisquil enregistre rapidement plus de 100 000 abonnés. Alcatel, Motorola et Nokia équipent les véhicules de ces dispositifs lourds et coûteux. La CB nest pas envisagée par les équipementiers et reste le domaine privilégié des amateurs. À partir du milieu des années 1990, le GSM facilite la massification de la téléphonie mobile qui ne se résume pas à lautomobile.
Les constructeurs équipent leurs modèles de kits main-libres sans pour autant repenser la totalité des dispositifs communicants qui se limitent globalement encore à lautoradio. Le premier ordinateur de bord proposé par Peugeot est commandé à léquipementier Jeager en 1984. Il équipe des Citroën CX et des Peugeot 505 mais il souffre au début, dimportants dysfonctionnements. Cependant pour le redémarrer, il faut retourner au garage lorsquil rencontre un bug. Il annonce constamment des pannes dessence qui nen sont pas. La fiabilité des informations affichées est progressivement assurée. En 1995, PSA soucieuse du modernisme de son image passe un accord avec Microsoft pour équiper deux Citroën Evasion de démonstration dun logiciel de messagerie électronique. Cest ce même concept « dAuto-PC » qui est promu en 1997 avec une Citroën Xara Intel de démonstration dans laquelle sont intégrés les fonctions dautoradio, de téléphone et dordinateur avec un accès à linternet. Un système de synthèse et de reconnaissance vocale est aussi installé. En 1997, cinquante Citroën « multimedia » équipées dun système de navigation Magneti Marelli et dun accès internet par lintermédiaire du réseau GSM sont commercialisées. En 1999, deux cent cinquante Citroën Xsara Auto-Pc sont vendues et autant de Xsara Windows® CE en 2000. En 2002, cinq mille Citroën C5 Auto-PC sont proposées à la vente.
Les premiers systèmes de navigation intégrés à lautomobile datent du milieu des années 1980. Des essais sont réalisés par Renault et PSA, à laide de capteurs de télédifussion placés sur le véhicule. PSA collabore avec lInstitut Géographique National (IGN) pour réaliser des cartes numériques de la région parisienne et acquiert une compétence en développement dalgorithmes de calculs ditinéraires. Elle essaie un système de géolocalisation « à lestime » à laide dune boussole électronique et de capteurs de distance sur les roues. Puis elle choisit le système de localisation Loran C empreinté à la marine qui apporte une précision de 500 mètres environ. Le système Pégase peut émettre un appel durgence automatiquement en tirant profit de ce système de localisation associé au réseau de téléphonie sans fil Radiocom 2000.
Le système de géolocalisation GPS est mis gratuitement à disposition par les américains en décembre 1993 et indique un positionnement plus précis, de 100 mètres environ dans sa première configuration. PSA lassocie aux capteurs de distance (odomètres) et au gyromètre. Le principal obstacle reste la disponibilité des cartes numériques pour lensemble des territoires, dont seule une collaboration inter-constructeurs pourrait assurer le financement de le développement. Les constructeurs allemands suivis de Renault inaugurent le système de navigation dans lautomobile. Les équipements de seconde monte commencent à apparaître ensuite mais ils sont eux aussi extrêmement coûteux. Le programme Carminat de Renault aboutit aux navigateurs CNI 1 en 1995, suivi du CNI 2 puis du CNC en 2005. Les modèles contemporains sont simplement équipés dun Tom Tom placé au centre de lhabitacle. PSA développe un système daide à la navigation intégré ou de « guidage embarqué » à lautoradio et dont la première version sera disponible à partir de 1997. Ces navigateurs intégrés aux Renault, aux Peugeot et Citroën sont plus abordables. Le système Stacad est capable démettre un appel durgence automatiquement en triant maintenant profit du GPS et du réseau GSM. General Motors inaugure le système anti-vol et de diagnostic technique à distance OnStar en 1996 . Laccessibilité sélective qui réduisait la précision des signaux GPS émis par les radars américains est entièrement désactivée à partir de 2000 et les systèmes de navigation consécutifs deviennent plus précis.
Il faudrait aussi parler de lévolution des boîtes de transmissions et des systèmes de fermeture automatique mais ces exemples sont moins pertinents car ils ne portent pas autant à débat que les évolutions du groupe motopropulseur relatives au confort et autres dispositifs interactifs. Il faut cependant préciser au sujet des transmissions quun nouveau type de boîtes de vitesses est disponible en option chez de nombreux constructeurs automobiles. Il sagit des Boîtes de Vitesses Manuelles Pilotées (BVMP) cest-à-dire quun dispositif électronique qui change les vitesses à laide de commandes au volant ou dun levier de vitesses non mécanique. Ce dernier provoque de simples impulsions vers lavant et vers larrière afin de changer les rapports. La transition vers ce nouveau type dinterface se fait sans encombre chez les habitués des boîtes de vitesses manuelles. Mais les utilisateurs de boîtes de vitesses automatiques remarquent la baisse de confort lors du changement de rapport . Il est clair quune boîte de vitesses automatique classique offre plus de douceur, elle reste dailleurs loption privilégiée dans la conception dautobus, en particulier les autobus daéroports puisque ces derniers transportent un grand nombre de personnes qui sont debout, proches les unes des autres. Lors de changements de rapports brutaux celles-ci seraient effectivement amenées à se bousculer.
Après la définition de la notion industrielle de la qualité et après cette rétrospective de linnovation dans lautomobile notamment celle permise par lapport de lélectronique, je rapporte le témoignage de quelques passionnés dautomobile et de motocyclette. Je les évoquerai aussi à la fin de ce chapitre. Une transition pertinente me semble impossible tant les motivations des industriels sécartent des demandes de cette catégorie dutilisateurs. Les industriels privilégient lécologie et se soumettent aux régulations en vigueur tout en apportant plus de confort et de sécurité qui flirtent avec la gadgetisation, alors que ces utilisateurs cultivent le plaisir de conduire et de piloter à lopposé de la demande effrénée de confort qui leur est attribuée à tord. Je reviendrai sur cette problématique et analyserai ce paradoxe dans la seconde partie après avoir exposé des phénomènes comparables sur le marché de linformatique et de la Hi-Fi. Dans ce chapitre, je démontre que les passionnés dautomobiles qui sont enclins à maîtriser techniquement leur véhicule considèrent que les nouvelles fonctionnalités apportées aux véhicules récents napportent pas davantages substantiels.
La référence Citroën 2 Chevaux
Christian Komaniecki est le président du club 2 Chevaux de Sucy-en-Brie dans le département du Val-de-Marne. Pour lui ainsi que pour la majorité des membres de son club, la Citroën 2 Chevaux est « La référence » parce que dit-il, « Un moteur cest un moteur » et « On sait faire mieux, mais à quel prix ? ». La notion de qualité na selon lui plus aucun sens dans les productions automobiles contemporaines. Dabord parce quau-delà des optimisations réalisées, les constructeurs savent aussi donner une durée de vie aux pièces (cest là une référence directe à la notion dobsolescence programmée que les 2 chevauistes considèrent comme un fait avéré). Mais aussi parce que « le dépannage se fait avec la carte bleue, on ne peut plus toucher à rien ».
Lors dune excursion en Argentine et en Bolivie, sur 120 000 kilomètres de pistes, les 2 chevauistes qui sétaient embarqués dans cette aventure nont pas rencontré de problèmes techniques mis à part un alternateur ou quelques pannes mineures qui furent réparées sur-le-champ. Ils ont également participé à des excursions en Australie. À certains endroits en Amérique du Nord comme en Australie en sapprochant du Cap York, les routes sont déformées par le vent constant sur des longueurs de 150 à 250 kilomètres. Ces déformations prennent la forme de petites vagues qui « tabassent » à leur passage. Ces routes dégradées sont aussi appelées des « tôles ondulées ». Les 2 Chevaux réagissent relativement bien à ces chaussées difficiles alors que la traversée de ces zones savère particulièrement désagréable avec les voitures récentes.
Lusage dune Citroën 2 Chevaux ce mouvement est en expansion depuis quelques années, il nest pas rare den voir aujourdhui à Paris est en quelque sorte un pied de nez à lindustrie automobile contemporaine. Christian Komaniecki se demande pourquoi les constructeurs produisent des voitures dotées de 200 à 250 chevaux, alors même quen dehors de quelques autoroutes en Allemagne, la vitesse autorisée ne dépasse pas les 130 kilomètres par heure et sera sans doute bientôt réduite en France aux 120 kilomètres par heure. Son intention nétant aucunement de valider la répression routière quil dénonce par ailleurs comme bon nombre dautomobilistes , cest davantage les incohérences du marché et des réglementations qui sont mises en évidence, de telle sorte quon est en droit de se demander si ces contradictions relèvent dune forme dhypocrisie chez les constructeurs automobile et lEtat qui marchent souvent main dans la main en particulier lorsquil sagit de maintenir les situations de monopoles par la régulation. Sil est tout à fait louable de privilégier le marché français, les coûts engendrés par la validation dun nouveau véhicule auprès des institutions freine la réalisation de toute tentative, de petite ou de moyenne envergure, de distribution à plus grande échelle. La régulation autorise ainsi les grands constructeurs davoir la main mise sur le marché de lautomobile.
La Peugeot 405
Les deux leaders Européens dans lhistoire du diesel grand public sont incontestablement Mercedes-Benz et Peugeot. Peugeot aurait même quelques éléments pour disputer la première place. La Peugeot 403D de 1959 , la 404D de 1962 , la 204BD de 1967 rivalisent avec la Mercedes 170D de 1949 , la 180D de 1959 . À lexception dune Fiat 1400-A présentée en 1954, ces autos allemandes et françaises résument à elles seules une première phase de la massification des moteurs diesel automobiles. La seconde étape de cette généralisation fut initiée par Volkswagen avec le plus grand étonnement des constructeurs concurrents . La version diesel dune Golf MkI sort en septembre 1976. Cest néanmoins Mercedes et Peugeot qui continuent de dominer le marché du diesel grand public. Lensemble de la gamme Mercedes est désormais dotée de motorisations diesel. Mercedes connaît un certain succès aux Etats-Unis. Quant au groupe PSA, après le succès relatif des motorisation Indénor et du 2,5 litres de Citroën récemment racheté par Peugeot, il inonde la France et lEurope de Citroën BX, XM, Xantia, de Peugeot 305, 205, 405 puis 605. Tous ces modèles à partir de la BX diesel, sont équipés de motorisations PSA XUD. Le moteur XUD est encore produit aujourdhui sur le site dHérimoncourt ainsi quen Iran par le constructeur Iran Khodro. La Peugeot Pars, anciennement Persia, est une version évolutive de la 405 qui est ainsi à sa 3ème phase de développement. Ce type de 405 fut aussi produit par Peugeot en Égypte.
Lapparition du turbo sur des modèles de série sinscrit dans cette phase de massification du diesel. Mercedes ouvre la marche avec la 300 SD en 1977 , puis Peugeot en 1978 avec la 604 suivi de Citroën avec la CX. La Citroën CX, qui succède à la DS, est dotée dun moteur diesel conçu par Citroën avant son rachat par Peugeot la même année. Ces trois modèles sont encore réservés au marché du haut de gamme. Cest notamment avec les Peugeot 405 que le turbo diesel devient accessible à de nombreux français. Les moteurs XUD existent en plusieurs versions. En turbo, elles équipent les 405 puis les 806 avec un litrage de 1,9 et, les Xantia et 605 avec un litrage de 2,1. La Peugeot 605, dans sa seconde phase de développement, est dotée dun moteur diesel DK5 PSA. Je nai pas validé cette information mais il semblerait que ce moteur ait été récupéré auprès de Renault (identique dans la Safrane diesel) et développé par Fiat . Cette motorisation souffre de problèmes de températures et dun défaut au niveau de la culasse . Je nai pas pu déterminer si ce défaut, qui semble être fréquent, est dusinage ou de conception . Il ne sagit pas a priori dune réalisation PSA. La motorisation XUD sera véritablement remplacée par les moteurs HDi à injection directe puis léchappement sera doté dun filtre à particules et tirera profit de tous les avantages de lélectronique. Le moteur HDi sera lui-même suivi par linvention chez PSA du moteur hybride diesel et électrique au lieu de lhybridation essence et électrique inaugurée avec la Toyota Prius. Ce moteur hybride diesel équipera les Peugeot 3008, des 508 puis des Citroën DS5.
La Peugeot 405 est très abordable sur le marché de loccasion aujourdhui. Une phase II 1,9 litres turbo diesel coûte environ 700 euros et elle offre tous les avantages dune routière sur lautoroute. Sa motorisation assure un confort et une puissance incomparables aux Twingo, Clio, Polo et autres citadines contemporaines. Si la comparaison na aucun sens puisquil faudrait la comparer à son équivalent actuel tel quune Peugeot 508 ou encore une Citroën DS5, les jeunes automobilistes ne connaissent pas la différence essentielle entre les routières et les citadines. Ils en paient le prix et en subissent les désagréments sil font de la route. La 405 (phase I) est annoncée le 18 juin 1987 en trois déclinaisons, GL, GR et SR auxquelles sajoutera la sportive Mi16 au moteur à essence 16 soupapes de 160 chevaux ,. Elle est commercialisée dans lensemble des pays scandinaves et en Finlande en novembre et en Angleterre en décembre 1987 puis en Irlande en 1988. Elle est élue la meilleure voiture de lannée 1988. La motorisation diesel est intégrée à la gamme (mars 1988). Des version break sont introduites (juillet 1988). Il nexistera aucune break disposant dun turbo diesel à origine. Seules des 405 berlines seront équipées dun turbo. La commercialisation sétend aux Etats-Unis et en Thaïlande. Peugeot signe un accord avec le constructeur Iran Khodro pour produire et équiper lIran de 405. En février 1989, des versions 4 roues motrices apparaissent. La commercialisation sarrête aux Etats-Unis. Des accords sont signés pour des productions de 405 en Pologne et en Argentine. En juillet 1992, la 405 évolue (phase II). La norme antipollution Euro93 impose linjection catalysée sur les modèles essence. Le moteur diesel monte en cylindrée. Elle est produite en Egypte à partir de 1993. En juillet 1994 la gamme est revue et corrigée. Les finitions se nomment désormais Sillage, Style et Signature. La version 4 roues motrices disparaît. La série spéciale 405 Husky turbo diesel destinée aux grand froid est annoncée en 1994. La production est arrêtée en Pologne en 1995, en France en 1996, en Argentine en 1999 puis au Zimbabwe en 2002. En 2001, la production de la 405 évolue vers la Pars (405 phase III). De même en 2009 sur le site de Peugeot en Egypte.
Les W123 finlandaises
La Mercedes W123 est lune des voitures les plus fiables qui furent construites au monde. Sa motorisation diesel OM606 est connue pour sa longévité ; elle affiche un palmarès impressionnant. Grâce à lancienneté du véhicule, il est aisé de recueillir de nombreux témoignages de conducteurs qui observent des chiffres dépassant 700 000 sur leur compteur kilométrique. Certaines W123 font le tour du compteur cest-à-dire quelles dépassent le million de kilomètres parcourus soit une distance de plus dun aller-retour entre la terre et la lune. Ce nétait pas une voiture révolutionnaire lors de son inauguration en 1976, mais elle était robuste et fiable et intégrait les dernières techniques de lépoque . Ce modèle Mercedes dont lancienneté dépasse les 30 ans, un oldtimer, est encore très apprécié en Finlande, comme dans dautres pays, mais en particulier par les passionnés de haute performance mécanique. Selon Joni Uunila de léquipe finlandaise de drifting (course automobile dans laquelle il faut glisser le plus possible dans les virages) Black Smoke Racing, il y aurait une Mercedes diesel de plus de 500 chevaux dans chaque village du pays. Comment se fait-il que la W123 soit si populaire en Finlande ? Le territoire de la Finlande est très grand ou plutôt très long, car si la superficie est de moitié inférieure à celle de la France, elle sétend sur une plus grande hauteur. Le coût des longues distances parcourues est dautant plus important que le prix des carburants y est très élevé. Les Finlandais sont ainsi nombreux à préférer le diesel. Dans les années 1990, les taxes dimportation de voitures neuves sont très élevées. Pour soffrir une voiture diesel digne de ce nom et à des coûts abordables, les Finlandais navaient pas dautre choix que de se fournir sur le marché de loccasion dAllemagne et de Suède. De surcroît, les voitures sont rarement mises à la ferraille en Finlande. Est-ce une le signe dune culture technique vernaculaire ? Peut-être, mais cette manière de consommer sexplique plus simplement par leur société et leur mode de vie traditionnel comparativement à celui des grandes métropoles.
Le Mercedes W123 de Black Smoke Racing suite à un choc sur le circuit NEZ en Russie.
Source : blacksmokeracing.com La W123 300D de léquipe finlandaise Black Smoke Racing était dotée en 2011 dun compresseur Eaton M90 et dun turbo Garrett GT 42 originellement destiné aux camions de la marque Scania. La monture 2012 presque identique est dotée dun turbo Holset HX52. La particularité de cette voiture de course de drift, mis à part son ancienneté, est quau lieu de générer de la fumée blanche avec le glissement des roues, le diesel suralimenté produit en outre de la fumée noire. La W123 de Black Smoke Racing ayant suffisamment servi et ayant subi de nombreux dommages, le pilote, Teemu Peltola, envisageait en juin 2012 de changer de modèle de voiture en faveur dun châssis plus léger . Léquipe obtient récemment la première place à la course EPUA Drifting. Leur voiture, en plein dérapage, est en photo dans un journal local en juin 2012 . Les dégâts sont fréquents mais les compétences en réparation de la petite équipe vont en augmentant, tel que lindique léditeur du blog avec un optimisme des plus rafraîchissant (Joni Uunila) : « It was a really nice day at the Gothenburg city ring with the Monster crew, but as you can see in the pictures below [ci-contre] the car got a small scratch again. Are we learning from our mistakes?
Nope but we are getting faster to fix em. » .
Valtonen Motorsport est un garage situé dans la banlieue éloignée de Helsinki qui a lui aussi modifié une W123. La sienne est pourvue dun compresseur, dun turbo ainsi que dune injection additionnelle de Protoxyde d'azote (Nitrous Oxide Systems)
Valtonen obtient un prix au Tuning Car Show 2010 à Helsinki pour cette réalisation. Selon Joni Uunila, Valtonen est devenu une légende dans le monde des amateurs de tuning moteur de son pays. Encore un autre Finlandais situé à Vantaa (20 kilomètres au Nord de Helsinki) est parvenu à produire 900 chevaux avec une configuration du même type. Une comparaison naurait aucun sens mais afin davoir un ordre didée, la motorisation dentrée de gamme pour une Volkswagen Polo V de 2012 voiture sans doute appréciable à dautres égards ne fait que 60 chevaux. Ces trois W123 et bien dautres en Finlande, sont équipées du bloc moteur diesel Mercedes-Benz OM606 dorigine, qui semble effectivement tenir le choc de ces sollicitations extrêmes. Des tests de fiabilité sur le long terme nont pas étés réalisés et devraient logiquement savérer désastreux. Pourtant, il arrive rarement que ces moteurs cassent dans ces configurations et les dégâts sont le plus souvent réparables.
La motorisation 1100 air / huile Suzuki
Voici un autre exemple dhistoire appliquée des techniques que je considère salvatrice dans un domaine analogue à celui de lautomobile : les motocycles. Honda introduit la moto sportive pour le grand public avec la CB750 en 1969. Les autres constructeurs japonais suivront alors que litalien Ducati annonce sa 750 SuperSport en 1973, avec un moteur en V à deux cylindres. La mythique Norton Commando sort la même année en Angleterre. Les premières véritables super-sportives sont sans doute illustrées par la VF750 Interceptor de chez Honda en 1983 puis par le Suzuki GSX-R 750 précédé de peu par la Kawasaki GPZ900R Ninja la même année en 1984. Sur cette dernière, le moteur occupe moins de place puisque la sortie de larbre est en bout vilebrequin contre un engrenage situé au centre pour la CB750. Ce moteur fonctionne avec un double arbre à came en tête (la CB750 nen disposait que dun seul) et il est refroidi par eau . Cest alors que les hyper-sportives, de motocyclettes de courses, apparaissent sur les marchés japonais, européens et états-uniens. Lune dentre elles est annoncée à un prix très attractif par le constructeur Suzuki en 1986. Cest la GSX-R 1100. La marque Suzuki est habituellement moins chère que ses concurrentes et elle produit néanmoins une qualité très appréciée. Dès sa première monture, la GSX-R 1100 est un véritable monstre de puissance. Dune cylindrée de 1052 centimètres cubes, le moteur à double arbre à came en tête et à16 soupapes développe une puissance de 128 chevaux à 9500 tours par minute . Pourtant, elle met en uvre le système de refroidissement traditionnel de la marque Suzuki : un système air/huile. Le radiateur placé à lavant du châssis refroidit directement lhuile du bas moteur et de la boîte de vitesse, au lieu de refroidire les cylindres à leau.
Il existe une communauté singulière de passionnés de motos qui sont intransigeants sur le refroidissement à air. Il sagit des bikers et autres bandes organisées dont lattention porte exclusivement sur la marque Harley Davidson . Lajout dun système de refroidissement liquide pour améliorer les performances du modèle Harley Davidson destiné à rivaliser la concurrence en terme de performance fit lobjet dune polémique non seulement chez les clients mais aussi et surtout entre les bureaux détudes et les mécaniciens de la chaîne de montage . Ces derniers ne souhaitent pas voir apparaître de radiateur envahissant à lavant du châssis. Un compromis fut trouvé avec le bureau détude en plaçant un radiateur de taille réduite de chaque côté.
Avec la GSX-R 1100, Suzuki continue daffirmer sa différence avec le refroidissement air/huile. Cette hyper-sportive devient une référence auprès des accros de la vitesse en motocyclette à la fin des années 1980 et dans les années 1990. Tous les modèles ne sont cependant pas appréciés. Les mécaniciens et connaisseurs de la marque vont tous dans le même sens : seuls les modèles à refroidissement air/huile jusquen 1992 sont valables! À partir de 1993, la série évolue en effet vers un système de refroidissement liquide et les maladies infantiles de cette technique chez Suzuki est sans doute la cause des nombreux retours dans les garages concessionnaires. Ce moteur air/huile de 1052 centimètres cubes devenu légendaire est sensiblement modifié pour équiper un nouveau modèle destiné à lusage hybride dun roadster sportif : la Suzuki Bandit 1200 sortie en 1996 sur le marché français. Si la série des GSX-R 1100 évolue avec un système de refroidissement liquide, la tradition Suzuki air/huile est perpétrée par la Bandit, jusquen 2010. De 1995 à 2010, trois modèles différents de Bandit sont mis sur le marché. Elles disposent toutes dune même configuration moto-propulseur, à savoir le moteur de la GSX-R qui contient une boîte de vitesse et quatre carburateurs Mikuni de 34 millimètres. Si la consommation de carburant est alarmante, les performances sont au rendez-vous.
Aujourdhui encore, plus de 25 ans après sa sortie en 1986, le moteur de la GSX-R 1100 à refroidissement air/huile est utilisé en compétition, en particulier dans les courses de dragster qui consistent à parcourir au plus vite une distance relativement courte. La courte durée de ce type de course est compensée par le spectacle et le bruit quoffrent des machines dun autre monde et qui soufflent les spectateurs par leurs accélérations fulgurantes. Il faut dire que 300 chevaux pour un poids de 200 kilogrammes environs donne le tournis. Selon Jean-Philippe, revendeur à la concession Suzuki de Maisons Alfort , la combinaison dun moteur de Bandit 1200 à nouveau modifié et dun châssis de GSX-R 1100 plus rigide réaliserait le dragster moto idéal. Le pilote Brock Davidson, qui dirige aujourdhui une entreprise de revente de pièces détachées haute performance, a fait ses premières armes en compétition dragster sur une Bandit 1200. Lévénement a lieu en 1999 sur le circuit de Rockingham aux Etats-Unis. Il bat le record du monde du quart de miles parcouru (un peu plus dun kilomètre et demi) en moins de sept secondes au départ arrêté avec une moto modifiée mais de série, une Bandit de 1997 . Dautres pilotes utiliseront le moteur de la Bandit 1200 pour ce type de courses.
Le goût du Vintage chez les passionnés de Haute Fidélité acoustique
« L'appréciation » de l'audiophile
Lorsqu'il s'agit d'évaluer la qualité d'une installation Hi-Fi, c'est à l'audiophile qu'il faut s'adresser. Du moins, c'est ce quannonce la spécialité de ladite communauté. Ces gens s'exercent avec passion à discerner et à qualifier avec un vocabulaire idoine, les particularités sonores d'une installation acoustique. Ils ont une oreille, une expérience auditive qui leur permet de juger le rendu damplificateurs et denceintes. Les mesures à l'aide d'outils scientifiques ne sont pas proscrites. Certains audiophiles sont aussi des ingénieurs du son, des électroniciens ou des physiciens. Jean-Michel Le Cléac'h par exemple, bien connu des communautés audiophiles en France et au Japon, est aussi enseignant chercheur à l'Ecole des Mines de Paris. C'est toutefois, y compris pour ces derniers, à l'oreille que doit être réalisée lultime appréciation. Mesurer ou lire les spécifications techniques d'un composant Hi-Fi ne suffit pas : il faut l'écouter. Contrairement à de tests empiriques, l'appréciation d'un équipement audio peut varier dun audiophile à lautre. Le jugement quil porte sur la qualité d'un équipement audio sétablit en fonction de son expérience et son parcours auditif. C'est donc un monde subjectif. Certains auront besoin d'entendre les basses plus que d'autres. Certains seront particulièrement sensibles aux détails et au dynamisme, d'autres à l'équilibre du spectre ou à la douceur. Chaque marque d'enceinte, et dans une moindre mesure, chaque amplificateur, a une sonorité particulière. C'est avec les préférences qui leur sont propres que les audiophiles privilégient une marque ou un modèle. C'est même à l'écoute d'une marque et d'un modèle que leur oreille fut formée et qu'un parcours d'expérience auditive en vient à être tracé. Il s'agit de « l'empreinte musicale ». La « vérité » sur un équipement audio ne peut donc pas, théoriquement, exister, puisque l'évaluation de la qualité est non seulement issue d'une sensibilité individuelle, mais celle-ci est elle-même déterminée par les expériences passées qui constituent en somme, une éducation.
Logiquement, cette communauté devrait avoir des avis tellement divergents qu'on serait en droit de se demander si elle existe réellement. Mais la subjectivité de chacun, plutôt que de créer un brouhaha difforme d'opinions contradictoires, produit des débats généreux et amicaux, aussi bien sur internet que lors de rencontres organisées chez les uns et chez les autres. Ces débats s'accordent sur quelques valeurs inébranlables, tels que la qualité des installations Vintage. Certains audiophiles se procurent du matériel neuf très haut de gamme, extrêmement coûteux. Mais la majorité d'entre eux préfèrent se fournir sur le marché de l'occasion. Il est communément admis que le matériel neuf moyenne gamme est largement en dessous en terme de rendu et de sonorité des équipements des années 1970, 80 et jusqu'à mi-90. Le haut de gamme est aussi fréquemment en cause. C'est globalement dans cette catégorie, parfois même dans le très haut de gamme, qu'est placé ce qui nétait pourtant quun « standard » dans lesdites années. Les gammes nétaient pas différenciées de la même sorte.
L'audiophile n'est jamais satisfait, il souhaite toujours améliorer son installation Hi-Fi . Il change régulièrement de matériel et parfois même, en collectionne afin de pouvoir réaliser des écoutes comparatives en direct, ce qui lui permet d'exercer ce travail d'écoute différenciée avec plus de facilité et d'immédiateté, et cela lui apporte une grande satisfaction. Mais l'audiophile doit parfois être confronté aux réalités du numérique. Si le monde de l'analogique est tout à fait adapté à ces prises de positions relativistes et contradictoires, celui du numérique est empli de « preuves » qui soulèvent les excès de leurs a priori. Le numérique fixe en effet théoriquement quelques limites à leur évaluation subjective. Cest du moins ce quaffirment les audiophiles informaticiens qui manifestent les signes dune approche purement scientifique .
Lamplificateur de référence NAD 3020
Amplificateur NAD 3020 (1978)L'amplificateur le plus vendu au monde (1,1 millions d'exemplaires) et dont les qualités musicales furent unanimement reconnues fut indéniablement le 3020 de chez NAD Electronics. Sorti en 1978 au Royaume-Uni, il sagissait dune véritable révolution dans le monde de la Haute Fidélité puisquil donnait accès au grand public, avec un budget modeste (125 livres en Angleterre et de 175 à 200 dollars aux Etats-Unis), un rendu sonore dune qualité qui était jusqualors réservée aux professionnels dotés dinstallations extrêmement coûteuses. Une importante revue acoustique anglaise, « Hi-Fi Choice », commentait à lépoque :
« There are things no budget amplifier is supposed to do. Like sounding better then products costing ten times as much » Hi-Fi Choice
En 2012 le site web d'information CNET prend le NAD 3020 comme référence pour symboliser l'ère de l'amplification dite classique (ou analogique), en comparaison avec des amplificateurs émergents dun nouveau type et d'un encombrement très réduit, entièrement numériques. Si lauteur de larticle choisit lancien NAD 3020 pour ce comparatif plutôt quun amplificateur analogique neuf et de haut de gamme, cest aussi pour respecter une certaine équité avec lamplification numérique qui est encore très jeune. Mais le résultat est sans équivoque :
« Switching over to the 3020, the sound was livelier, and more three-dimensional and therefore more realistic. » Steve Guttenberg (CNET)
La musicalité du 3020 fut continuellement appréciée depuis sa sortie, et encore aujourd'hui, plus de 30 ans après, y compris lorsquelle est comparée à celle des amplificateurs contemporains.
« This is the one that started NAD's golden age of quality sound on a budget and still shames most modern equipment. » Retrotronics
« When compared with modern competitors its drawbacks appear evidently: even the cheaper (I mean the cheaper of the Rotel family) Rotel 920 AX sounds faster, more detailed and more musical overall. But the 3020 has a feeling that modern amplifiers lack: it sounds natural, probably not neutral, but amazingly sweet. Less HiFi, more Music. » TNT-Audio
« The sound is something else again; as soon as I fired it up I remembered why budget-minded audiophiles bought more than a half million 3020s in about three years, making it the best-selling integrated amp of all time. » Steve Guttenberg (CNET)
NAD Electronics
Lentreprise NAD Electronics fut fondée en 1972 au Royaume-Uni, par Martin Borish, ingénieur en électricité et Docteur en physique . Dès ses débuts, lobjectif était de fournir à sa clientèle des amplificateurs audio efficaces et sans fioritures. Dès les premiers modèles ses amplificateurs étaient dapparence austère en métal gris-noir et avec quelques rares boutons en façade. Le succès du 3020 dans les années 1980 marquait la réussite de cette stratégie et la reconnaissance du public davantage favorable à la qualité de rendu sonore plutôt quà des fonctionnalités exotiques et dun « packaging », dun design attrayant.
NAD Electronics fut rachetée par le Danois AudioNord en 1991. En dépit de la mode du Surround et des installations home-cinéma qui commençaient à se répandre dans les années 1990, celui-ci préféra respecter la tradition du simple Stéréo, sans altérer fondamentalement la ligne des produits NAD quil connaissait bien, puisquil en était le principal distributeur au Danemark. Lentreprise nétait pas rentable et fut en récession financière tout au long des années 1990, alors même que le chiffre daffaire nétait pas négligeables (24 millions de dollars en 1999).
Le distributeur Nord-Américain de NAD Electronics cette fois-ci, rachète la marque en 1999 pour seulement 5 millions de dollars. Celui-ci entreprit la modification de la ligne de produits NAD pour se conformer avec un certain retard à la tendance générale du marché vers les installations home-cinéma (de type Dolby Digital 5.1). Le distributeur navait pas de réelle compétence pour réaliser ces évolutions, mais Martin Borish était encore membre du conseil dadministration et Bjorn Erik Edvardsen, lingénieur qui avait conçu le NAD 3020, était toujours présent. Cependant, les premiers modèles Audio/Vidéo de NAD soufrèrent de nombreux problèmes techniques. Si les versions Stéréo originelles étaient dune qualité irréprochable, les amplificateurs Audio/Vidéo avait un fort taux de retour, jusquà 30%, pour matériel défectueux. Aussi les premiers amplificateurs Audio/Vidéo de NAD nétaient-ils pas aussi évolués que certaines marques japonaises qui permettaient davantage de fonctionnalités Surround. A partir de la nouvelle ligne de produits en 2003, NAD avait rattrapé son retard et la transition technique était aboutie. NAD fut de nouveau une référence dans le domaine de la Hi-Fi grand public y compris dans son acception pour le home-cinéma.
Un héritage assumé
Le NAD 3020 était conçu pour être efficace tout en évitant le superflu, à la fois du point de vu esthétique que technique. Ainsi cet amplificateur, en particulier sa première version, se prête particulièrement aux modifications et améliorations effectuées par les utilisateurs ayant des compétences en électronique. Les sites Web techniques proposant des plans et des modifications du 3020 pullulent, mais en France, le plus renommé de ces installateurs par la communauté des audiophiles est sans doute Thierry Cler. Celui-ci ne publie pas ses plans mais donne un descriptif assez détaillé des modifications quil apporte à ses amplificateurs lors déchanges téléphoniques, électroniques, ou bien lorsque ses clients viennent récupérer le matériel sur-place. Il les reçoit chez lui, dans son garage personnel, non loin de Nancy. Ainsi, en dépit du monopole et de lautorité quil souhaite garder sur ses produits modifiés artisanalement, il nest pas avare en échanges techniques et tout électronicien compétent sera à même de comprendre le détail de ses modifications, sans pour autant en partager demblée lexpertise et le savoir-faire.
Thierry Cler, aujourdhui âgé de 47 ans, est un ancien militaire de larmée de lair. Il était chargé de maintenir et de réparer des radars et il fut longtemps spécialisé dans la maintenance du simulateur électronique de guerre américain AN/MST-T1A. Il était régulièrement amené à se déplacer à létranger à cet effet. Audiophile par ailleurs et fort de ses compétences en électronique, il répare les amplificateurs depuis plus de 30 ans. Retraité de larmée de lair en septembre 2004, il put dès lors se consacrer davantage à la réalisation damplificateurs et de matériels audio. Il exerça dautres activités techniques dans le privé puis senregistra en tant quauto-entrepreneur en juillet 2010 à la chambre de commerce, ce qui lui permit alors de facturer ses clients. Il avait commencé à vendre des NAD modifiés dès le début de lannée 2009 en accord avec lANPE et la chambre de commerce qui étaient quelque peu surpris de sa démarche et attendaient den voir la viabilité.
Thierry Cler se concentre depuis sur la réalisation ou lamélioration des équipements suivants :
Amplificateur intégré NAD 3020 série 2 et série 1 (davantage de modifications sont permises avec la version 1)
Pré-amplificateur CLR Pro (Thierry Cler) et blocs mono tous basés sur le 3020
Lecteur CD Arcam Alpha 5 dont il proposera bientôt une évolution en DAC (pour lété 2012)
AN/MST-T1A Multiple Threat Emitter System (MUTES)
Source : reocities.com Lorsquil travaillait sur le simulateur militaire AN/MST-T1A, Thierry Cler réalisa une cinquantaine dinnovations sur cet appareil et il fut récompensé à deux occasions. Le principe dingénierie quexerce Thierry Cler sur ses amplificateurs est tout à fait passionnant. Dans les plans quils conçoit et dans sa pratique, il fait, je cite « linverse de ce qui est enseigné dans les écoles dingénieurs ». Son constat à lécoute, dune différence certaine entre deux équipements parfaitement identiques et dont les mesures résultaient en des données elles aussi identiques (99,9%) lui permit initialement de dépasser ce conditionnement quil avait lui-même essuyé. Dans sa pratique il favorise lécoute et une certaine forme dempirisme, au détriment des théories scientifiques.
Les platines cassettes
Nombreux sont les audiophiles qui préfèrent le son dune platine vinyle à celui dune platine de disque compact. Dautres encore préfèrent le son de leur platine cassette quils maintiennent et quils chérissent. Ces préférences, qui sont propres à chacun, dépendent non seulement du rapport privilégié entretenu avec lobjet technique, et allant de pair avec lhabitus dune expérience auditive, mais elles sont aussi naturellement liées aux types de sources audio dont on dispose : certains ont en effet toujours un très grand nombre de cassettes compactes quils souhaitent pouvoir continuer à écouter.
Une platine cassette est un lecteur/enregistreur de cassette compacte. La bande magnétique est protégée par ladite cassette. Ce format fut introduit par Philips en Europe en 1962 et aux Etats-Unis en 1964. Il succède aux bandes magnétiques quart-pouces pour magnétophones qui nétaient pas protégées. Les platines cassettes furent elles-mêmes remplacées par la massification progressive des platines CD dès 1984, mais il nétait pas possible denregistrer sur ces dernières, ce qui permit au format de cassettes compactes de perdurer quelques années.
Les platines cassettes les plus appréciées au sein de la communauté audiophile sont sans équivoques les Nakamichi. Elles disposent généralement de trois têtes de lectures et sont réputées pour la qualité du rendu sonore. Mais la mécanique nest pas très fiable et elles nécessitent souvent des réparations. Les platines TASCAM au contraire, sont davantage réputées pour leur fiabilité.
Les platines cassettes haut de gamme Vintage appréciées par les audiophiles, et quelle que soit la marque (dont quelques platines Akai, Sony, Pioneer, Technics, Denon, Aiwa, Marantz, Yamaha, JVC et Onkyo ) sont donc entretenues et réparées par leurs soins ou par un réparateur spécialisé, souvent audiophile lui aussi. Il existe un marché parallèle de composants de remplacement, tels que les courroies de transmissions fabriquées sur-mesure .
Certaines platines cassettes Vintage sont de véritables objets de collection, en particulier les Nakamichi, des Revox/Studer et des Tandberg (le modèle 3014A est considéré par de nombreux audiophiles comme une référence absolue). Lune des plus somptueuses et rares des platines cassette, la Nakamachi 1000ZXL Limited, avec une façade et des connecteurs plaqués or, est côtée à plus de 15,000 dollars.
Lobjectif dexcellence chez Nakamichi Research
Lentreprise Nakamichi Research Corporation Ltd fut fondée à Tokyo en 1948 par Etsuro Nakamichi. Elle fut ensuite dirigée par son jeune frère Niro, puis par le fils dEtsuro, Ted, jusquà aujourdhui. Avec plus de soixante ans dancienneté, cest lune des entreprises les plus anciennes de lindustrie de la Hi-Fi. La marque est particulièrement connue pour ses innovations techniques et la qualité de ses platines cassettes haut de gamme.
Lors de la création de lentreprise, lobjectif dEtsuro Nakamichi était de former la meilleure équipe possible dingénieurs et de scientifiques à mêmes daméliorer les techniques existantes, mises en uvre dans les matériels de lecture et denregistrement audio. Les premières années de lentreprise furent donc consacrées à la sous-traitance de la recherche et au développement et parfois à la réalisation de produits pour dautres marques. Mais à partir de 1957 Nakamichi développe ses propres produits, en commençant par des têtes de lecture de bandes magnétiques pour enfin produire des magnétophones à bandes en entier. Cest en 1967 que, fort de son expérience et de sa renommée, Nakamichi commence à produire des magnétophones à bandes pour de nombreuses compagnies étrangères telles que Harman Kardon, KLH, Advent, Fisher, ELAC, Sylvania, Concord, Ampex et Motorola.
En 1973, Nakamichi introduit pour la première fois des platines cassettes disposant de trois têtes de lectures (modèles 1000 et 700), mais il semblerait que cet honneur doit être partagé avec Sony qui sortit le modèle TC-117SD à peu près en même temps . Les fonctions étaient séparées pour chacune des têtes : une pour la lecture, une autre pour lenregistrement, et la troisième pour la suppression. Dans une configuration à deux têtes, la lecture et lenregistrement seffectuaient avec la même tête magnétique. Le mécanisme à trois têtes était optimisé pour chacune des têtes et permettait à lutilisateur de vérifier la qualité denregistrement en temps réel. Cette dernière fonctionnalité nétait permise quavec les modèles Nakamichi les plus haut de gamme. La qualité du rendu sonore constaté par les utilisateurs était telle quelle participa à labandon progressif des magnétophones à bandes, plus anciens et volumineux, mais dont la qualité était supposée supérieure. Nombreux étaient les particuliers qui souhaitaient acquérir les modèles 1000 et 700 mais les tarifs étaient prohibitifs. Nakamichi proposa donc des modèles moins onéreux, le 500 et le 600, dotés de seulement deux têtes de lectures. Il y eut également une version portable, le 550.
Les platines cassettes 1000 et 700 offraient en outre la possibilité de régler le niveau de qualité de la bande magnétique (« bias »), normal (IEC type I) ou élevé (IEC type II ou CrO2) . Certains concurrents proposèrent le réglage Ferri-Chrome (IEC type III ou Fe-Cr) mais Nakamichi ne concevait pas les choses ainsi. Il y eut à lépoque, et encore aujourdhui, une polémique quant à la qualité supposée supérieure du Ferri-Chrome sur les types I et II. Aussi, lentreprise Nakamachi produisait-elle des cassettes compactes vierges et seuls les formats normaux (EX) et élevés (SX) étaient en vente. A la fin des années 1970 Nakamichi proposa une mise à jour de ses platines cassettes de référence avec les modèles 1000 II et 700 II. Lentreprise se lança aussi dans la production et la commercialisation dautres appareils de la chaîne audio, tels que des amplificateurs et des haut-parleurs. Mais ces derniers produits ne furent jamais autant appréciés par les utilisateurs que les fameuses platines cassettes de la marque.
Platine cassette Nakamichi 1000 ZXL (1980).
Source : audio-database.com Lorsque le niveau de qualité Metal (IEC type IV) de cassettes compactes, plus coûteuses, fit son apparition en 1979, Nakamichi produisit dabord deux lecteurs compatibles, le 680 et le 582, disposants dun réglage à deux vitesses. Les réglages du « bias » sur ces deux modèles furent EX (normal), SX (élevé) et ZX (Metal). Le Ferri Chrome était toujours absent. En 1980 Nakamichi introduisit une troisième mise à jour de ses modèles de référence avec les 1000ZXL et 700ZXL, dès lors compatibles avec les bandes magnétiques de type Metal. Les tarifs de ces nouvelles platines étaient encore plus importants (respectivement $3,800 et $3,000) quauparavant alors que lentrée de gamme était désormais accessible à environ 200 dollars. Cest la période faste des lecteurs/enregistreurs de cassette, alors que lenregistrement numérique faisait ses premiers pas chez les professionnels. Les platines 1000ZXL et 700ZXL étaient dotées dun ordinateur intégré (A.B.L.E.) permettant de calibrer automatiquement et avec une précision inégalée la lecture et lenregistrement en fonction du type de bande . Le 700ZXE était une version moins coûteuse et moins évoluée. Quant au modèle 1000ZXL Limited, il se différencie principalement par sa façade et ses connecteurs plaqués or. Et il était doté dautres optimisations pour résister à la corrosion comme le châssis intérieur traité au chrome noir .
Mécanisme UDAR (Unidirectional Auto Reverse) de la platine cassette Nakamichi RX-505 (1984).
Source : wikimedia.org Lorsque lauto-reverse (la possibilité de lire une cassette compacte dans les deux sens) fit son apparition, les ingénieurs de Nakamichi avaient depuis longtemps remarqué que lemplacement de la bande magnétique nétait pas nécessairement optimisé lors des interventions manuelles des utilisateurs. Ainsi les modèles Dragon de la marque intégrèrent la fonctionnalité NAAC qui au lieu de lire la bande dans les deux sens, retournent les têtes magnétiques. Le mécanisme est extrêmement complexe et les ingénieurs cherchèrent une solution plus élégante. Cest alors que le système UDAR (Unidirectional Auto Reverse) fut introduit avec les modèles RX de la marque (RX-202, RX-303 et RX-505). La cassette est simplement retournée à linstar dune opération manuelle mais par un mécanisme automatique plus précis. La platine RX-505 est considérée comme lune des réalisations les plus accomplies de la marque et servira de modèle à la platine DAT 1000 qui sera réalisée en 1988.
Dès le début des années 1980, Nakamichi proposait par ailleurs une ligne de produits destinée à la sonorisation des automobiles, avec les autoradios cassettes TD-1200 (doté du mécanisme NAAC et dun pré-amplificateur externe) et TD-700. Au début des années 1900, Nakamichi fut aussi lune des premières firmes à proposer des changeurs de disques compacts intégrés sans juke-box externes. Mais cette complexité mécanique qui devenait une marque de fabrique nétait pas sans provoquer des problèmes de fiabilité. Dautres produits destinés à lautomobile furent produits tels que les amplificateurs PA-100, PA-1000 et PA-350 et lexcellent autoradio cassette TD-560 dont le rendu sonore arrivait au niveau des meilleures platines portables de la marque à la fin des années 1980. En 1988 le groupe Toyota choisit Nakamachi et Pioneer pour équiper les voitures Lexus. Leur partenariat durera jusquen 2001. Lors de lachat dune Lexus, léquipement sonore Nakamachi constituait loption la plus haut de gamme comparée à léquipement Pioneer. En 1990, Nakamachi introduis le système « Music bank » permettant dintroduire jusquà sept disques compacts par la même entrée sans chariot. Cétait une évolution des modèles précédents (CPC) qui fonctionnaient sur un modèle juke-box en carrousel ainsi quune preuve de supériorité technique sur les autres modèles du marché qui ne proposaient généralement quun seul magasin. Le système « Music bank » évolua encore 1992 (modèles MB) et devint le changeur de compacts disques le plus rapide du marché. Cependant, le concept du changeur rapide provoqua de fréquents blocages mécaniques et des bourrages de disques compacts. Le design fut revu et corrigé pour aboutir en 1994 à une version un peu plus lente mais plus fiable. Ceci eut un impact fortement négatif sur limage quavait le public de la qualité des produits de lentreprise.
En plus de ces difficultés, Nakamachi navait pas réellement percé le marché du numérique. Ses ventes damplificateurs Audio/Vidéo AV-1 et AV-2 introduits en 1993, étaient très modestes. Les amplificateurs très haut de gamme produits par la firme (les amplificateurs de puissance PA ainsi que les amplificateurs SR et TA) disposaient dun circuit électronique de pointe, nommé Stasis, qui était fourni et licencié par Nelson Pass. Le contrat avec Nelson Pass arrivait à son terme et Nakamachi perdit cet avantage technique vis à vis de la concurrence. La firme tenta de remédier à cela en proposant une technologie quelle développa elle-même, lHarmonic Time Alignment (HTA). Mais le résultat nétait pas meilleur quavec le circuit Statis. Plus globalement, la force dinnovation de la société Nakamachi était assez pauvre comparativement au passé et sa transition au numérique ne semblait pas tout à fait réussie.
En 1998, la société Nakamachi est rachetée par Grande Holdings, un groupe Chinois basé à Hong-Kong, qui comptait Akai et Sansui (autres grands noms de la Hi-Fi et de lélectronique japonaise ) parmi ses filiales. Nori Nakamachi, le frère dEtsuro Nakamachi qui était à la tête de lentreprise à ce moment là, quitte la même année pour fonder trois années plus tard, Mechanical Research Corporation. Il y produira dabord des amplificateurs aux propriétés techniques innovantes puis des produits home-cinéma plus classiques.
En 2000, Toyota arrêta de se fournir chez Nakamachi au profit dun autre constructeur de matériel audio : Mark Levinson, filiale dHarman International. Le président de Lexus, Bob Carter, justifia ce choix par un manque de retours positifs de la part des clients au sujet des équipements Nakamachi. Lentreprise Nakamachi en grande difficulté financière fut placée le 19 février 2002 sous la protection de la loi américaine sur les faillites . Après une période de stabilisation et la liquidation nayant pas eut lieu, lentreprise Nakamachi put reprendre ses activités. Elle se repositionna sur le marché de la Hi-Fi haut de gamme « design » à linstar de Bang & Olufsen et continua de produire des changeurs de CD pour ordinateurs, pour les automobiles et la Hi-Fi.
« Lindestructible » platine cassette professionnelle TASCAM 122
Platine cassette TASCAM 122 (1979)Lentreprise TASCAM, filiale du groupe TEAC Corporation, apporta les conditions de réalisation de la révolution des studio denregistrements amateurs (home studio) dans les années 1970 et 80. A des coûts abordables, les semi-professionnels et amateurs pouvaient rivaliser avec les professionnels en terme de qualité denregistrement audio. Les grands studios denregistrement aussi, séquipaient en matériels TASCAM et les platines de la marque constituèrent la référence en matière de lecture et denregistrement sur cassettes compactes tout au long des années 1980 et 90. Notamment la platine cassette TASCAM 122 était un standard pratiquement incontournable : la version originale de cette platine en 1979, puis ses évolutions mkII en 1987 et mkIII en 1993 équipaient systématiquement les studios denregistrement, les radios ainsi que les chaînes de télévisions. Destinées à un usage professionnel ou semi-professionnel, ces platines étaient dune constitution très robuste et elles sont encore réputées pour leur fiabilité. La première version de la platine 122 (1979) est plus facilement réparable que les versions ultérieures mkII et mkIII. Même la mécanique la plus fiable au monde doit être entretenue. Les platines TASCAM 122 et 112 (la version presque identique à la 122 mais ne disposant que de deux têtes) qui sont aujourdhui en vente sur les sites dannonces en ligne sont parfois hors services et nécessitent une réparation. Mais il faut savoir quavant dêtre hors services, celles-ci ont généralement fonctionné pour un usage intensif pendant des années et parfois même des décennies.
La filiale TASCAM
Lentreprise TEAC Corporation fut dabord fondée sous le nom de Tokyo Television Acoustic Company en 1953 par Katsuma Tani, ancien ingénieur en aéronotique. Lobjectif était de concevoir de nouvelles techniques denregistrement sur supports magnétiques, et destinées à lindustrie audio-visuelle. En 1956, son frère le rejoignit et ils fondèrent ensemble lentreprise Tokyo Electro Acoustic Company. Cest en 1964 que lesdites entreprises fusionnèrent pour former TEAC Corporation dans son appellation acronymique.
Lors de son projet initial en 1953, Katsuma Tani conçut la première ligne de produits de lentreprise : des magnétophones à bandes. En 1969, Katsuma Tani, son frère et le Docteur Abe, un ingénieur senior, qui travaillait avec eux, créèrent une entité spéciale nommée TASC (TEAC Audio Systems Corp.) dans le but de concevoir et de développer des produits destinés aux musiciens et aux studios denregistrements, à partir des technologies déjà développées au sein de TEAC. Ils établirent en 1971, toujours sous légide de la maison mère, lentité TASCAM aux Etats-Unis afin de distribuer cette ligne de produits particulière, sur le continent américain. Le premier siège de TASCAM (TASC AMerica Corp.) était situé dans la partie Ouest de Los Angeles, proche de la zone résidentielle portuaire, la Marina Del Rey.
Au début des années 1970, lindustrie musicale était en pleine expansion et les musiciens qui souhaitaient être repérés par les maisons de disques cherchaient un moyen efficace et bon marché denregistrer leur musique afin den diffuser une démonstration. La plupart des musiciens navaient pas les moyens dacheter du matériel audio professionnel ni même de louer les services dun studio denregistrement. TASC répondit à cette difficulté en proposant des produits audio dune qualité et dune fiabilité professionnelle à des tarifs relativement accessibles au grand public.
Les premiers produits conçus par lentité TASC furent commercialisés sous le nom de lentreprise mère TEAC en 1972. Il sagissait de magnétophones à bandes à 4 pistes (modèles A3340S et A2340S) et disposant de la fonctionnalité Simul-Sync pour les enregistrements multi-pistes. Le 4 mars 1973, les onze membres du conseil dadministration de la branche américaine de lentreprise TEAC décidèrent dintégrer TASC et duser de ce nom pour nommer cette ligne de produit destinée aux professionnels. TASC devint TASCAM et cela permit dès 1974 de différencier aux yeux de la clientèle, les produits spécifiquement destinés aux professionnels du son des produits grand public de la marque mère. Certains modèles TEAC et TASCAM furent cependant techniquement presque identiques : la platine TASCAM 122 de 1979 notamment, était très proche de la platine cassette TEAC C-3 qui sortit la même année. Ces platines sont facilement réparables et elles disposent naturellement de trois têtes de lectures, à linstar des platines cassettes Nakamachi.
La philosophie Unix, lOpen Source et les hackers
« Je peux définir le logiciel libre en trois mots : Liberté, Égalité, Fraternité »
Richard Mattew Stallman (Free Software Foundation)
La genèse du système dexploitation Unix
Le système dexploitation Unics (Uniplexed Information and Computing Service) fut dabord conçu par Kenneth Thompson sur un mini-ordinateur Digital Equipment Corporation (DEC) PDP-7 en 1969, aux laboratoires Bell Labs dAT&T. Sa femme et ses enfants étaient partis en vacances et il se consacra entièrement à son plan . Auparavant, il avait tiré les leçons de léchec du projet Multics auquel il avait participé. Le système Multics souffrait dune lourdeur insurmontable à cause de décisions techniques mal coordonnées. Les intervenants étaient trop nombreux. Le projet avait été commandé par la General Electric en coopération avec le MIT et les laboratoires Bell, dans lobjectif de construire un système dexploitation à temps partagé , cest-à-dire permettant à plusieurs utilisateurs demployer lordinateur en même temps. En réalité, cest lactivité du processeur qui est partagée, en réservant un temps de calcul à lun puis à lautre des utilisateurs. Mais ce détail est imperceptible à lutilisation à moins quil ny ait une surcharge, ce qui peut arriver lorsque trop dutilisateurs exécutent des tâches nécessitant beaucoup de puissance. Ken Thompson a repris cet objectif à son compte, mais il le réalisa à lui seul et en un seul mois. Précisément, il mit une semaine pour programmer chacun des composants fondamentaux du système dexploitation :
le noyau du système permettant de prendre en charge le matériel,
linterface dutilisation en ligne de commande (le Shell, en anglais),
un éditeur de texte
et un programme assembleur.
Le système Unix originel fut donc le fruit du travail dun seul homme et pendant une durée dun seul mois. Cest sur cette base, associée à linvention dans la même période du langage de programmation C par Dennis Ritchie , quune sous-culture toute entière, une philosophie qui a tous les aspects dune « technique » au sens cette fois-ci dun régime de pensée, va se développer et se développe toujours aujourdhui.
Une communauté divisée
La communauté du logiciel libre et open-source est intrinsèquement liée à lhistoire du système dexploitation Unix. Seulement, ce qui était à lépoque un échange libre et informel de bons procédés entres laboratoires de recherche et universités fut formalisé par des textes de lois tels que la General Public Licence (GPL) de la Free Software Foundation (FSF) afin de garantir, selon le fondateur de la FSF, Richard Matthew Stallman, la liberté de ces échanges dans un contexte de plus en plus commercial et inconfortable. Pourtant les licences Berkeley Software Design (BSD) et Massachusetts Institute of Technology (MIT) celles-ci ont globalement la même signification existaient déjà et elles définissaient avant lheure ce qui ne sappelait pas encore ni « logiciel libre » ni « open-source ». Ce nest en effet que lorsque les logiciels furent non plus partagés mais vendus à des fins commerciales et que programmeur devint une profession, que ces termes apparurent en réponse à la fermeture des codes sources des logiciels informatiques par les entreprises éditrices de logiciels.
Alors que les licences BSD et MIT autorisent tous les usages et offrent à tout à chacun (y compris aux entreprises) une liberté totale , la licence GPL impose de garder le code source ouvert. Cest en quelque sorte un copyright inversé dit aussi « copyleft ». Ainsi les entreprises peuvent utiliser des codes de programmation licenciés GPL mais sont tenues de mettre à disposition le code source des logiciels qui en résultent à leurs clients, que ces codes soient modifiés ou non. Cet aspect viral de la licence GPL est dénigré aux Etats-Unis par les éditeurs de logiciels commerciaux tels que Microsoft, mais la licence y est comprise et respectée par les cours de justices. Les licences de type BSD et MIT ne posent au contraire aucun problème aux éditeurs de logiciels commerciaux puisque ces derniers ont le droit den récupérer la substance sans restriction. Cest ainsi que Microsoft récupère la pile TCP/IP de lUniversité de Berkeley, ce qui permit bizarrement au système Windows de fonctionner correctement en réseau à partir de Windows 2000. Cest également ainsi quApple se dispensa de développer intégralement le noyau de son système dexploitation phare MacOS X, en reprenant en partie celui du projet FreeBSD . Il sagit là dun aspect viral dun tout autre type, bien plus intéressant à mon avis que son contraire juridique : ainsi, la matérialité des logiciels « libres » est encore aujourdhui en expansion. La communauté du logiciel libre et de lopen-source se divise donc en deux parties principales du point de vu des licences : dun côté ceux qui sont en faveur de la Free Software Foundation et de la licence GPL et de lautre, ceux qui préfèrent une organisation plus anarchique et valorisent une liberté fragile mais sans compromis.
La communauté et la sous-culture des logiciels libres et open-source se divisent sur bien dautres sujets par ailleurs et les grilles danalyse doivent être multiples. Les termes même de « logiciel libre » et « dopen-source » prêtent à confusion. Le premier est mis en avant par la Free Software Foundation et sa personnalité de premier plan, Richard Matthew Stallman. Ce sont le partage, la communauté, la fraternité et une forme duniversalité qui sont ici mis en avant. Stallman vient régulièrement en France à lécole Télécom ParisTech. Le second fut proposé par Eric Steven Raymond et inauguré par la création de lOpen Source Initiative en 1998. Ce sont là davantage lefficacité ou lexcellence du logiciel qui sont valorisées sans considérations morales ni éthiques.
Mais ce sont sans doute les oppositions quant au choix des distributions Linux qui sont les plus spectaculaires. Les interlocuteurs peuvent se descendre en flammes lors déchanges électroniques musclés. Ces échanges sont qualifiés de flame wars en anglais. Certains préfèrent la distribution RedHat Enterprise Linux, dautres Debian GNU/Linux ou Slackware Linux. Dautres encore valoriseront les Unices libres de type BSD. Ces divergences ne constituent pas pour autant des oppositions de fond. Elles doivent être considérées comme un jeu subtil et amical, qui révèle la variété des sensibilités des partisans dune même communauté. Les versions de Linux qui sont modifiées pour être utilisables par le grand public sont une cible facile. La distribution française Mandrake Linux (aujourdhui Mandrivia) fut largement critiquée. Les distributions qui ont le plus souffert de critiques récemment sont sans doute Novell SUSE Linux Enterprise Server et sa version de développement openSUSE, car laccord de 348 millions de dollars qui avait été signé entre Microsoft et Novell en 2006 nest pas très bien admis par la communauté . Cependant les attaques portent principalement sur des critères techniques, car cest uniquement ainsi quelles sont considérées pertinentes. Certaines dentre elles furent même formulées par des programmeurs employés chez Novell. Le blog « Linux Hater's » est particulièrement virulent envers de nombreuses distributions Linux. Contrairement à ce que lont pourrait supposer, ce blog est pourtant rédigé par des utilisateurs dUnices et de distributions Linux.
Les hackers et lOpen Source
Quest-ce quun « hacker » ? La véritable définition, acceptée par cette communauté, indique quil sagit de quelquun qui désire « comprendre comment ça fonctionne ». Il sagit dune disposition à légard des objets techniques électroniques et numériques. Selon Eric S. Raymond , on ne sautoproclame pas hacker, mais on reçoit ce titre lorsque quelquun autre vous nomme ainsi. Lautre définition, plus médiatique, assimile « hacker » à « cracker » ou encore à « pirate ». Ce dernier terme souffre lui-même damalgames plus désolants encore dans nos institutions. Télécharger un document musical sur Internet est considéré comme un acte de piraterie alors même que ce délit est perpétré par une majorité dutilisateurs initiés aux outils des NTIC mais qui sont très loin dêtre des experts en sécurité informatique. Cest sans doute en réponse à ce décalage entre la politique et les modes daction tout à fait naturels dans le monde numérique que des partis politiques se nommant eux-mêmes « Parti Pirate » se sont constitués dans divers pays dEurope, dont la France. Contrairement aux groupements politiques conventionnels, ces partis, certes peu orthodoxes, sont manifestement avertis du fait numérique. Ils sont très populaires en Suède et se développent fortement en Allemagne.
Les droits dauteur ne peuvent pas sappliquer au monde numérique, ce dernier nétant pas régi par les mêmes règles. Dans le monde réel, si deux personnes ont chacune un objet dans les mains, par exemple lune un vase, lautre une sculpture, elles se les échangent et chacune dentre elles naura au final quun seul objet dans les mains. Dans le monde numérique, deux intervenants ont au contraire la possibilité de séchanger et doffrir toute sorte de contenus sans pour autant sen voir privés. La notion de propriété exclusive ne sapplique pas. Garder un document numérique confidentiel nécessite que labsolue totalité des individus ayant accès (y compris les administrateurs systèmes et réseaux) saccordent à ne pas diffuser ledit document. « La lecture, cest la copie », disait si justement Thomas-Xavier Martin à luniversité de tous les savoirs en septembre 2000, ce qui résume assez bien ce qui ce passe techniquement. Parce que pour être lu, un contenu numérique est dabord copié dans la mémoire vive de lordinateur. La notion de « déplacement » porte aussi à confusion puisquelle implique le copiage dun document avant quil ne soit supprimé.
Un possible contre-argument à la libre circulation des contenus numériques est darguer que « ce nest pas parce quil est possible de forcer une porte quil faut absolument la forcer ». Même si lanalogie est intéressante, cest mal comprendre le monde numérique, ou précisément le monde envisagé par les hackers et membres de la communauté open-source. Leur message nest pas seulement de dire (et de prouver ) quil est possible de casser des protections quils considèrent comme fortuites. Ils montrent ainsi labsurdité de règles issues dun mode de pensée inadapté au numérique et ils dénoncent ces tentatives intrusives de contrôle par des entreprises sur un monde qui ne leur appartient pas et quelles ne comprennent pas. Aussi, le contre-argument énoncé ne tient pas compte du fait que les utilisateurs séchangent volontiers des documents musicaux et audiovisuels, quils souhaitent, pour reprendre la métaphore de la porte, ouvrir celle-ci à leurs amis et parfois même au public, ce qui est une procédure encore plus aisée. Linterdiction de partager un logiciel, un document musical ou un document audiovisuel est considérée comme la privation dune liberté élémentaire. Cest un peu comme si on vous forçait à garder la porte dentrée de votre maison fermée et den interdire lentrée à autrui.
Le mouvement open-source est cependant à différencier de ces questions commerciales et politiques qui lui sont finalement bien éloignées. Elle ne sintéresse originellement quà la libre circulation des programmes et de leurs codes sources. Les considérations relatives aux droits dauteur ne sont que la continuation logique dun mode de raisonnement ancré dans la pratique des réseaux informatiques. Si des dispositions politiques peuvent conditionner un rapport aux techniques, cest surtout linverse qui est ici vérifié. Pour faire une comparaison, le mode de pensée propagé par la Free Software Foundation est sans nul doute assez proche des considérations éthiques de gauche. La mise à disposition des programmes au public et celui-ci participe à leur élaboration a tous les aspects dune absence de propriété et peut être considérée comme la réalisation de modèles communistes. Si le communisme sest montré difficilement applicable dans la réalité, il est bien appliqué virtuellement sur linternet, dans le cadre de cette communauté qui nest dailleurs pas localisable. Celle-ci est naturellement internationale. Aussi est-ce bien parce que les membres de la communauté sont en possession de leurs moyens de production que cette révolution fut possible. Les partisans du logiciel libre sont parfois militants voire même prosélytes. Au contraire, ceux qui préfèrent les systèmes et licences BSD peuvent être assimilés à des anarchistes qui rejettent les spectres dune gouvernance en gestation. Ils sont traditionalistes, virtuellement anarcho-primitivistes, ou encore anarcho-capitalistes puisque ces licences permettent aussi la récupération du code à des fins mercantiles. Ils nont pas de revendication car leurs logiciels parlent deux-mêmes. Ils nont besoin daucun artifice juridique pour se répandre, y compris dans les applications et systèmes dexploitation propriétaires. Ils se placent du point de vue de leurs réalisations techniques, puisquils considèrent la liberté de leurs programmes plutôt que celle des utilisateurs.
La philosophie Unix
Le logiciel Unix véhicule une philosophie qui, bien quelle ne soit pas tout à fait étrangère au mouvement de lopen-source, nest aucunement politique. Au-delà des considérations commerciales ou anti-commerciales, cest avant tout un mode de pensée technique, une expérience et des compétences qui définissent les utilisateurs dUnices. Ceux-ci partagent un monde, un espace. Et cet espace nest pas matériellement localisable. Il prend forme quelque part entre le cerveau de linformaticien et son clavier. Il sagence dans un environnement de travail apparent en une seule dimension (la ligne de commande, le Shell) et il nest à ce stade déjà plus tout à fait individuel. Il séchange et se mélange sur les réseaux informatiques. Les développeurs et les administrateurs systèmes ces « artisans informaticiens » autonomes partagent et communiquent sur dinnombrables salons de discussion et des listes de diffusion spécialisées sur un thème unique : la pratique. Les familiarités et les blagues sont autorisées mais elles ne sont quaccessoires.
Charly Chaplin, Les Temps Modernes (1936)
Source : oranadoz.net A mon sens, le principal aspect de ce mode de pensée technique est une inclination vers la simplicité. Mais attention, la « simplicité » au sens de lUnixien paraîtra complexe aux non-informaticiens et à ceux qui sont habitués aux interfaces utilisateurs et graphiques. La simplicité dont il est question ici implique au contraire quaucune fioriture nest nécessaire au bon fonctionnement dun programme. Pour faire un parallèle avec larchitecture, cest en quelque sorte lapplication la plus stricte de laphorisme dAdolf Loos, « Lornement est un crime » . Cest à lutilisateur de faire un effort pour paramétrer les programmes tout en pénétrant leurs rouages , ce qui permet de mieux comprendre et de maîtriser ces derniers. Cest précisément en quoi consiste le métier dingénieur système Unices et réseaux. On peut décrire ce mode de pensée comme une intention minimaliste et le respect dune tradition des anciennes pratiques (pour linformaticien, « ancien » signifie les années 1970
) à lopposé diamétral des logiciels et des interfaces commerciaux parés dartifices pour séduire le grand public.
Certains dictons qui se retrouvent aussi dans dautres métiers et domaines dingénierie sont particulièrement présents dans les échanges et la culture relatifs à Unix. « Keep It Simple, Stupid » (KISS) est sans doute le plus marquant. Il nest pas forcément le plus fréquent mais il est en filigrane dans tous les échanges. Si Unix était un spectre, il sappellerait KISS. « Read The Freaking Manual » ou « Read The Fucking Manual » (RTFM), bien quagressif, est très utilisé sur les salons de discussion, mais ne résume pas à lui seul une philosophie. Les listes de diffusion et les salons de discussion Internet Relay Chat (IRC) sont privilégiés au détriment des forum de discussion Web . « If unsure, use brute force » est assez révélateur dune disposition mentale à la fois très logique et pragmatique. « Use the source, Luke » est une référence au champ dénergie appelé La Force dans La Guerre des étoiles de George Lucas, le code source du programme constituant la substance essentielle à son fonctionnement. « Because we can » et « Do It Yourself » dénotent linfluence américaine sur la culture dUnix et de lopen-source. A tel point que lon peut se demander si lOpen Source nest pas un médium du Soft Power ou un outil de limpérialisme américain. Quoi quil en soit, des éléments marquants de la culture américaine sont propagés par lintermédiaire de la sous-culture de la communauté open-source, qui est elle-même répartie sur tout le globe, en Occident, en Inde et au Japon. « Worse is better » annonce clairement quil est préférable de réduire le nombre de fonctionnalités dun programme pour en obtenir le meilleur fonctionnement. « Less is more » va dans le même sens. La notion de « qualité » est ainsi parfaitement définie : un programme de qualité est le plus léger possible, tout à fait minimaliste. La rétrospective historique sur le site des laboratoires Bell qui ont vu naître le système Unix évoque cette spécificité : « The system also fostered a distinctive approach to software design -- solving a problem by interconnecting simpler tools, rather than creating large monolithic application programs. ». Plutôt quune interface utilisateur prête à lemploi et aux lignes arrondies, Unix et notamment son interface en ligne de commande doivent au contraire être considérés comme une boîte à outils. Cest une simplicité relative à lobjet technique en soi qui est envisagée au détriment presque volontaire dune simplicité dutilisation a priori. Il savère en effet quaprès une phase dapprentissage ou dadaptation de lhomme à cet environnement et à ce langage, une certaine forme de simplicité dutilisation se manifeste à lutilisateur devenu « administrateur ». « Bricoleur » ou « artisan » seraient ainsi des qualificatifs dautant plus adaptés. Cette notion de simplicité marche en tandem avec la bonne compréhension des mécanismes du système et lacquisition du mode opératoire qui se réalise par lassimilation psychique de ses mécanismes. Cest ainsi que lhomme devient machine.
Aux débuts dUnix, les utilisateurs tiraient profit des services apportés en se connectant eux aussi en ligne de commande. Il ny avait aucune différence apparente entre les administrateurs et les utilisateurs. Mais depuis lavènement des interfaces graphiques et leur massification, les seuls usagers des lignes de commande Unices sont des administrateurs systèmes et réseaux qui, au contraire du seul usage pratique, configurent les programmes et des services pour que dautres les utilisent par lintermédiaire des réseaux informatiques, publics ou privés. Les serveurs de Google fonctionnent majoritairement avec Linux. Le fournisseur daccès internet Free Telecom, en France, fonctionne aussi principalement (si ce nest exclusivement) avec Linux, depuis sa création en février 1999. Environ 70% des serveurs Web fonctionnent avec le logiciel Apache qui est libre ou open-source. Cela signifie que, sans le savoir, les internautes utilisent Unix car Apache tourne principalement sur des Unices. Netcraft est lentreprise qui publie chaque mois les résultats de tests de fiabilité des serveurs Web du monde entier pour en extraire un top 100. Les systèmes Unix, en loccurrence des versions libres et open-source, sont non seulement prépondérants mais aussi généralement à la première place. Au mois de juillet 2012 par exemple on comptait six Linux, trois FreeBSD et un seul Microsoft Windows. La bourse de New York fonctionne avec RedHat Entreprise Linux, une distribution commerciale mais appréciée par la communauté. Les exemples de grosses installations de systèmes dinformations mettant en uvre Unix seraient trop longs à relater. En dautres termes et pour condenser mon propos, les systèmes dexploitation qui font fonctionner, encore aujourdhui, les systèmes informatiques des réseaux importants privés ou interconnectés sont des Unices.
« UNIX® » est une marque déposée et cette appellation pour nommer les systèmes dexploitation est en principe contrôlée par lOpen Group. Un système dexploitation ne devrait en théorie être qualifié dUnix quaprès avoir passé une série de tests auprès de ladite organisation. Les Unices candidats doivent être conformes à la « Single UNIX Specification ». Il sagit dun ensemble de spécifications définissant un standard, et dont norme POSIX est issue. Cette certification logicielle est payante ; les projets open-source ne jugent pas nécessaire de sy soumettre, dabord pour des raisons pécuniaires. Cest pourquoi les systèmes open-source devraient généralement être appelés « UNIX-like » au lieu dUnix, mais ces subtilités ne sont pas essentielles. Lécriture en majuscules ou en minuscules ne fait pas une grande différence non plus, quoique celle en minuscule (à lexception de la première lettre) soit théoriquement plus adaptée .
La trace dune humanité perdue
Des systèmes apparentés Unices de collection
Si lUnix de référence est sans doute celui qui fut développé au sein des laboratoires Bell dAT&T, notamment les versions numéro 6 et 7 en 1975 et 1979 , ceux furent moins répandus et évidemment plus rarement mis en production que dautres Unices et distributions Linux qui se généralisèrent 20 ans après. Le système était encore destiné à la recherche et développement. Quelques-unes des versions dUnix développées à lUniversité de Berkeley, les systèmes Berkeley Software Design (BSD), font aussi figure de référence et marquent le début de la massification dune communauté dinformaticiens en plein essor.
Softlanding Linux System (SLS) a été dès 1992, le premier système Linux complet au sens contemporain et distribué à grande échelle. Son développeur principal envisagea dabandonner le format traditionnel de fichiers binaires « a.out » au profit du format ELF plus complexe mais aussi plus flexible. Les utilisateurs de SLS nétaient pas convaincus de lutilité dune telle amélioration et se montrèrent bientôt favorables à la distribution Slackware Linux de Patrick Volkerding qui était lui-même un utilisateur de SLS. Son système dexploitation est une « fourche » (fork en anglais) ; il préféra garder le format dexécutables a.out dans un premier temps. Labsence de restriction des droits dauteur de logiciels libres donne la possibilité aux programmeurs indépendants de réaliser leur propre version dun logiciel lorsque ces derniers ne sont plus conformes à leurs idéaux et leurs besoins. Slackware Linux met aujourdhui en uvre le format binaire ELF à linstar de toutes les autres distributions en activité. Mastodon Linux dont la dernière version date de mai 2002 constitue la dernière tentative connue de pérenniser le format binaire a.out. Cette version de Linux peu orthodoxe au XXIème siècle fut proposée par David Parsons qui est un acteur discret mais extrêmement performant au sein du mouvement open-source. Celui-ci préfère dailleurs les modèles de licences absolument libres de types BSD et MIT. La version 3.3 de Slackware Linux est particulièrement réputée pour sa fiabilité, ou plus précisément pour la « stabilité » du noyau Linux et des outils quelle mettait en oeuvre. Il sagit dune réalisation optimale. Elle jalonne lhistoire des distributions Linux car elle matérialise en somme le plus haut niveau daboutissement des techniques dun temps donné, à savoir les débuts de leur popularisation. Si les distributions Linux avaient un Panthéon, cette version y figurerait sans doute, mais ce ne serait pas la seule.
Lautre branche majeure des systèmes Linux, constituant elle-même la lignée la plus massive des clones dUnix, est identifiable en RedHat Linux dont la version 1.0 fut annoncée le 3 novembre 1994 sur le groupe de discussion Usenet comp.os.linux.announce. Cest la version 6.2 de RedHat Linux (nom de code Zoot, annoncée le 3 avril 2000) qui a particulièrement marqué les esprits dans le sens dune pérennité. Ses caractéristiques techniques résument globalement laboutissement dune seconde époque de lévolution des systèmes Linux dans la mesure où elle offrait les conditions de réalisation de leur massification professionnelle. Cette distribution était considérée dune grande fiabilité et elle fournissait un environnement plus cadré quhabituellement. Un système Unix devient vite chaotique tel un atelier dartisan français, mais les systèmes RedHat ont la particularité dêtre bien encadrés par lusage doutils qui permettent plus de rigueur . En 1999-2000 les systèmes Linux étaient déjà réputés et jouissaient dune très grande popularité. RedHat Linux 6.2 en est un très bon exemple car au-delà des passionnés indépendants, il étendit considérablement le domaine dinfluence de Linux auprès des professionnels après que ces derniers en ont constaté la stabilité. RedHat Linux version 6.2 nétait pourtant pas tout à fait aussi « évolué » que les systèmes concurrents de la même période. Linterface graphique, notamment, nétait pas au goût du jour mais cela ny changeait rien puisquelle fut principalement utilisée en tant que serveur et à des fins professionnelles. Cest aussi lancienneté des outils et des logiciels qui fut mis en uvre et leur cohérence intrinsèque qui rendirent cette distribution techniquement si solide. En 2000, Slackware Linux figurait encore parmi les distributions recommandées pour un usage professionnel. Ce nest plus le cas aujourdhui, alors que le choix est plus varié. Cependant les distributions déployées en entreprises sont essentiellement de type RedHat. Globalement, seulement une partie des entreprises dont lactivité portent directement sur les NTIC, et qui comptent sans doute parmi elles quelques intégristes, font exception à la règle .
La polémique Winamp contre America OnLine : histoire dun boycott réussi
NullSoft DOS AMP version 0.7 (1er juin 1997).
Source : oldversion.com Loin dêtre un phénomène réservé aux ingénieurs systèmes Unix que jai suffisamment évoqués, la préférence pour danciennes versions de logiciels ainsi que la pérennité dun modèle de conception sont plus générales. Je démontre par ailleurs que ce principe sapplique à divers domaines dingénierie si tant est quils comportent des opposants aux altérations initiées par le commerce et perçues par divers groupes dutilisateurs comme un sacrilège. Il sagit ici de simples utilisateurs qui se sont opposés en masse aux modifications apportées au logiciel Winamp® de NullSoft. Il sagit dun lecteur de musique dématérialisée bien connu des utilisateurs du système dexploitation Windows® de la fin des années 1990 jusquau début des années 2000. Il sagit, en dautres termes, des débuts de la massification de la musique dématérialisée avec lapparition du format de fichiers MP3. Le principal avantage de Winamp fut dêtre pendant quelques années, et ce dès avril 1997 , le seul capable de lire ce nouveau type de fichiers dans un environnement Windows tout en étant gratuitement téléchargeable sur linternet. Lautre lecteur de musique dématérialisée et qui était déjà bien répandu était Winplay3 publié par linstitut Fraunhofer à partir de 1995. Ce lecteur était censé être payant mais il était largement diffusé par des groupements de crackers.
La première version de Winamp fut le résultat direct de leffort de Justin Frankel en vue de convertir la bibliothèque logicielle AMP mp3 initialement destinée aux systèmes Unices, de telle sorte quelle puisse fonctionner sur le système Microsoft DOS. Cette version dorigine du lecteur de musique ne sappelait dailleurs pas Winamp mais évidemment « DOSAmp ». Il sensuivit des versions graphiques qui, bien quextrêmement rudimentaires au début, permettaient de lire des fichiers MP3 sur Windows. Les fonctionnalités allèrent en grandissant et Winamp fut bientôt réputé comme le lecteur de musique dématérialisée le plus complet du marché. La société Nullsoft fut créée en janvier 1998 et la version 1.8 du logiciel fut publiée quelques mois après. Des centaines de peaux différentes (skin en anglais) étaient désormais diffusées sur linternet par des contributeurs indépendants afin den changer lapparence. Des mises à jour du logiciel continuent dêtre publiées. La version 1.9 inaugure la possibilité dajouter des fonctionnalités par lusage de plug-in . Alors que Winamp connaît un grand succès et comptabilise plus de 3 millions de téléchargements, lentreprise Playmedia Systems, qui après une série de rachats successifs détenait alors les droits dauteur sur la bibliothèque logicielle AMP mp3, attaque la société Nullsoft pour lusage illicite qui en était fait dans le lecteur. Nullsoft intègre alors dans Winamp le décodeur MP3 Nitrate, qui au contraire de la bibliothèque AMP, avait été développé en interne. Cest ainsi quapparaît, seulement quelques mois plus tard, le 9 août 1998, la version 2 du lecteur de musique dématérialisée qui fut sans doute le plus populaire au monde.
En 1999, le fournisseur daccès internet et de contenus numériques America OnLine (AOL) rachète Nullsoft pour 80 millions de dollars. Nullsoft continue dexister en tant que filiale et Justin Frankel reste à la tête de léquipe de développement. Nullsoft propose la version 3 du logiciel mais celle-ci nest pas appréciée par la communauté des utilisateurs de Winamp. Les nombreux « plug-in » disponibles pour lancienne version nétaient en effet plus compatibles. Le design global et les fonctionnalités avaient également évolué. AOL a alors été forcé de prendre en compte ce qui était devenu un mouvement de protestation massif sur ses propres forum. Cela nuisait à limage de la marque. Licône AOL que vous obteniez sur votre bureau Windows suite à linstallation des nouvelles versions de Winamp était aussi en cause, et les utilisateurs tenaient globalement AOL pour responsable du nouveau modèle de Winamp. La version 3 fut donc un échec et cest avec la version 5 de Winamp que la compatibilité avec danciennes peaux et des anciens modules complémentaires fut restaurée. Marqués par la rupture que constituait lintervention supposée de léditeur de logiciels AOL, nombreux furent les utilisateurs qui continuèrent néanmoins à utiliser la version 2 de Winamp au détriment de la version 5. Celle-ci avait effectivement le désavantage dêtre sensiblement plus « lourde », cest-à-dire quelle mettait plus de temps à démarrer que lancienne et quelle accaparait plus de ressources matérielles, ce qui est handicapant lorsque lordinateur est peu puissant et ne dispose que de peu despace en mémoire vive ou que lutilisateur manipule de nombreux programmes en parallèle. Après de longues années de polémiques sur les forum de discussion Web de Nullsoft entre les divers utilisateurs du logiciel, ce nest que depuis quelques mois que la marque offre une version allégée de Winamp et qui ressemble de très près à son ancêtre devenu légendaire.
La préservation et la restauration du matériel informatique
Ce nest quavec peu de surprise que le lecteur découvrira que quelques passionnés du système Unix aiment à jouer avec des monstres des années 1970 et 1980 plutôt quavec un ordinateur personnel moderne. Comme je lai indiqué plus haut, Unix fut conçu par Kenneth Thompson à laide dun ordinateur DEC PDP-7. Cest par la suite sur des PDP-11 (1970) puis des VAX (1977), tous des « mini-ordinateurs » DEC à lexception dun Interdata 7/32 , que le système dexploitation Unix évolua. Laccent sur le matériel est important car cest finalement le seul endroit dans un monde virtuel dans lequel il est possible de « localiser » quoi que ce soit. Il sagit aussi dun point de jonction rassurant entre le monde virtuel que jai évoqué qui est celui de linformaticien ayant développé une proximité psychique avec ses supports techniques et le monde réel. Lobjet reste accessible techniquement pour lélectronicien . Cest la seule matérialité identifiable dans un monde et dans une culture où tout est virtuel et presque inhumain. Paradoxalement, ces machines sont les dernières traces dhumanité dans des interactions sociales qui sont elles aussi dématérialisées et qui se résument souvent à des échanges dordre technique pour les informaticiens. Elles sont les traces dune humanité perdue. Ces monstres ne sont justement pas méchants. Ils sont à la fois capricieux et compréhensibles, au contraire des matériels récents qui tournent comme des horloges et dont la complexité est telle quil est impossible pour lutilisateur de les maîtriser véritablement. Jouer avec les premiers permet de se rassurer quant aux dangers que représente le spectre de la cybernétique. Sil y a un véritable risque de soulèvement des robots contre lespèce humaine, je doute fort quil résulte de développements élaborés en intelligence artificielle. Au contraire, jenvisagerais volontiers que ce risque découlerait de linaptitude au jeu de la pratique et dun manque de proximité entre lhomme et la machine. Ces événements malheureux se produiront lorsque lhomme aura perdu le fil de ses propres technologies et quil aura entièrement oublié la pratique. La volonté que je suppose aux machines est donc dun autre ordre quune intelligence artificielle fantasmée. Elle est intrinsèque à tout artefact dès lors que celui-ci est observé et a fortiori utilisé par lhomme. Cest la question de fond du chapitre à suivre.
Psychologie des techniques
« Head into another end
Thought you'd never see it
Rolled into what begins the end
Thought you'd never believe it
What happened to the perfect plan
In the Electric Machine »
Lori S. (Acid King)
Les Gremlins : Le jeu de la pratique
Considérer quune voiture est de bonne qualité ou quun est logiciel est particulièrement performant savère être, sans lusage de bancs dessai, une appréciation purement subjective et empreinte daffectif. Laffectif se transmet ou pour le moins se communique. Quelquun qui apprécie tout particulièrement son véhicule, pour la qualité de son moteur par exemple, en fera mention avant de la prêter, et influencera non seulement lidée que lautre se fait du véhicule mais aussi sa manière de lutiliser. Il y a dans la relation homme machine une composante psychosociale, de la suggestion, comme lorsque le Marquis de Puységur (1751-1825) pratique des expériences de magnétisation et observe des phénomènes exceptionnels chez ses sujets , qui sont appelées aujourdhui télépathie et clairvoyance. Les gens sont tellement persuadés que la machine est performante, que les utilisateurs en auront effectivement limpression. Leffet est compris comme étant fantastique et nous dirions que cest la machine qui est « magnétisée » alors quelle nest aucunement animale. Ces machines issues de lindustrie ancienne ou de fabrication artisanale se distinguent-elles par persuasion ou parce quelles ont effectivement des qualités techniques supérieures ? Poser la question en ces termes suppose déjà quil existe une vérité et des qualités techniques objectives, alors que comme je le démontrerai dans le chapitre suivant, les notions de qualité de confort, de performance et defficacité sont liées et relativisées par la perception. Les évaluations des concepteurs, utilisateurs et réparateurs sont logiquement les premiers critères de jugement. Mais ceux-ci sont amplement déterminés par le marketing et le commerce. Si cette détermination ne nétait pas recherchée dans le passé, puisque davantage issue de la pratique, elle est aujourdhui à tel point élaborée quon est en droit de se demander sil ne sagit pas dune manipulation.
Les artisans et les utilisateurs-réparateurs dont jai parlé nanthropomorphisent absolument pas les machines. Ils ne les mystifient aucunement puisque au contraire ils en maîtrisent les fonctionnements. Mais cest paradoxalement parce quils sen entourent à la fois comme des partenaires de jeu et des compagnons de route, quils leur attribuent une valeur affective. Une valeur démystifiée et parfaitement anti-romantique, mais qui nen est pas moins emplie démotions. À linstar dun animal de compagnie chéri à défaut dun enfant, les machines sont le réceptacle de tensions psychologiques. Elles peuvent même uvrer en tant que catalyseur dune libido débordante qui ne sexprime presque exclusivement que par leur exercice. Voilà somme toute, une bonne définition du « nerd ». Les machines noffrent cependant pas de retour nécessaire à une remise en question personnelle, elles sont placides et elles obéissent aux caprices aussi experts et avisés soient-ils. Le « jugement » de lingénieur nest rien dautre quun caprice à tel point certain et définitif quil dicte la conduite des choses. Les objets techniques offrent une parfaite malléabilité à qui sait leur parler. Leffort dadaptation qui est souvent nécessaire pour les manipuler est largement récompensé par la prévisibilité de leur réponse et la sensation de contrôle quils apportent à long terme. Les savoir-faire et les savoirs implicites sont permis respectivement par lempirisme et lapprentissage de ce langage qui nest pas quhumain, mais qui naît de la rencontre entre les aptitudes déductives de lhomme et les régularités de la matière. La fierté quun ingénieur peut légitimement avoir de ses savoirs implicites , nest pas nécessairement supérieure au plaisir profondément narcissique quil éprouve à dominer la nature et la réalité. Si cette domination nest évidemment que partielle, elle est suffisamment stable et reproductible pour en conforter lillusion. La fierté de lartisan réparateur sexprime en priorité en direction de ses pairs qui eux seuls sont autorisés à dépasser celle-ci car ils partagent le paradigme mécaniste dans laquelle les humains et les machines sont entremêlés.
Tout comme la conviction en la science contemporaine, dautres concepts comme lesprit mécanique, la technique et les savoir-faire peuvent être comparés à une forme de religion, sinon un paradigme avec des représentations qui lui sont propres. Il est intéressant de constater que lorsque ces techniciens tentent de prendre du recul sur leur propre activité et dassimiler les manifestations quils observent, mais ne peuvent expliquer, les explications sont parfois surprenantes. Par exemple, la notion de Gremlins est apparue durant la seconde guerre mondiale aux Etats-Unis pour désigner des petits monstres qui font des farces aux hommes en causant des problèmes mécaniques dans les avions de chasse. Les mécaniciens militaires maîtrisaient tellement les entrailles de leurs avions quils ne trouvèrent aucune autre explication aux pannes qui se manifestaient. Si ces militaires ne prenaient pas forcément leur propre théorie au sérieux, il sagit pour moi dun exemple pertinent de discours sur les techniques, puisquil révèle un régime de pensée volontairement archaïque dans lequel la technique se suffit à elle-même. Lultime recours au surnaturel permet dexpliquer les dysfonctionnements des machines en dépit des bonnes causes et des bonnes pratiques. En France, jai visité un prototype de moteur modifié dit « Pantone » dont linstallateur me soutenait que cétait les Gremlins qui permettaient de le faire fonctionner . Quelle hypothèse intéressante! Dans ce cas comment communiquer avec les Gremlins et faire en sorte quils se comportent au mieux ? Quoi quil en soit, son tracteur fonctionnait et consommait, me disait-il, 30% de carburant en moins. Le principe de fonctionnement de la motorisation Pantone nest pas reconnu dans lindustrie. Cette grille de lecture est passionnante, car dune façon simple et imagée elle met précisément le doigt sur une question de fond, celle de lâme des machines et de la substance du réel dont elles sont une modalité particulière puisque assimilée par lhomme.
La psychologie nest pas une science, mais une manière de comprendre les expériences individuelles et celles des autres en les analysant et en les partageant. Le rapport homme Gremlins est une façon très pertinente dimager la qualité de lintention du mécanicien ou la qualité de laffection quil investit dans son objet. Cette image est dautant plus appropriée quelle révèle toute lambivalence du rapport de lhomme à la machine. En effet, il sagit non pas dune représentation de laffection des humains, mais bien de petits monstres narquois et capricieux qui seraient plus aptes à représenter leurs complexes. Force est de constater que souvent, de très bons informaticiens, mathématiciens et ingénieurs nont plus la tête sur les épaules, mais bien dans le monde que leur ont ouvert leurs disciplines respectives. Puisque pour ainsi dire, leur tête est dans la machine, on peut comprendre quau final les deux se confondent. Les complexes de lun finissent dans les circuits de lautre. Imager ces phénomènes par des légendes en facilite lanalyse. Dire simplement quil sagit de projections ne permet pas de restituer cette richesse.
Réciproquement, la machine est aussi en quelque sorte dans la tête de lingénieur. Je minterroge sur le possible caractère néfaste de lactivité intellectuelle logico-mathématique exercée avec excès. Plus précisément, je minterroge sur les causes de son activité intensive, voire même exclusive chez certains de ces acteurs . Est-il nécessaire, pour produire ces machines qui traversent le temps et défient les lois du marché et de la consommation, dêtre socialement inapte et décalé humainement ? Si des informaticiens chevronnés ont tant appauvri la qualité de leurs échanges sociaux, ce nest pas seulement parce quils privilégient le monde des machines et ses méta-langages, mais sans doute aussi parce quils font lusage trop exclusif de leurs facultés logiques au détriment de leurs aptitudes affectives. Il y a manifestement à lorigine de lexcellence des praticiens passionnés de toutes sortes un phénomène de compensation de la libido . Lénergie quils investissent dans leurs créations est dautant plus importante quils ne parviennent pas à lexprimer normalement. Une personne relativement saine peut-elle investir autant dénergie dans son travail sans quelle ne provienne dun déséquilibre ? Un autre élément attire mon attention dans lactivité de mes sujets. Comment se fait-il quil y ait une telle brutalité dans les dictons dingénieurs, une telle austérité dans lapparence extérieure de leurs machines, et un tel intégrisme technico-religieux dans leur manière de procéder, à linstar des chercheurs au laboratoire du MIT de Linclon dans les années 1950-1960 ? Cette manière radicale de penser la technique nest-elle pas révélatrice de la primauté, au moins temporaire, dun mode de fonctionnement cognitif prenant le pas sur tous les autres et devenant ainsi plus efficace ? Non seulement cette faculté a la primauté, mais je pense quelle prend en charge lactivité dautres parties du cerveau comme laffectif et les émotions quelle permet de canaliser.
La cybernétique
La notion de simplicité que jai évoquée précédemment dans le chapitre sur linformatique et qui émerge au fur et à mesure de lutilisation du système Unix nest absolument pas humaine. Elle devient intuitive par expérience, mais elle nécessite une phase dadaptation voir de régression à chaque interaction entre lhomme et le Shell, linterface en ligne de commande. Ceci est dautant plus valable pour les programmeurs qui sont en face de leur interface de développement pour écrire dans des langages de programmations plus obscures encore que le Shell. Lorsque lutilisateur se place devant son terminal, il sy soumet. Il en respecte les règles et le langage. Il sadapte psychiquement à la machine en adoptant des raisonnements qui sont propres à celle-ci, afin dinteragir avec elle et de la maîtriser. Je minterroge sur ce qui reste dhumain dans cette pratique alors que les processus dingénierie qui sont à luvre ne peuvent sexercer que dans un environnement profondément binaire. Si la créativité de lartisan informaticien sexprime aujourdhui par des langages informatiques sans instruire directement lunité de calcul de zéros et de uns ou en assembleur, il nen reste pas moins que ces langages dits évolués sont dune piètre richesse comparées aux langages humains. Toutes la difficulté mais aussi la richesse et la subtilité des langues humaines résident dans les doubles sens, les associations de mots et dacceptions, telle une structure en réseau ordonnée quil ne faudrait pas troubler , nonobstant Jacques Lacan selon lequel linconscient est structuré par le langage.
La seule pratique corporelle qui subsiste est celle de taper sur le clavier tout en baissant la tête pour visualiser lécran. Cette position révèle leffet omnubilant de lappareil informatique et suggère la force dun magnétisme qui laspire dans une autre dimension y compris une autre dimension temporelle. Demandez à un informaticien de venir manger. Sil vous dit « jarrive dans 5 minutes », il est fort probable que vous attendiez une heure ou deux. Cela nest évidemment pas restreint à linformatique et sapplique généralement à lexercice des arts et métiers. La position assise, la tête recroquevillée vers lécran jusquà lavachissement, manifeste la soumission aux règles et à un langage dégradant pour lhomme. Mais cest aussi celui des autres techniques qui reposent essentiellement sur les même bases et senglobent dans un macro-paradigme qui domine depuis Copernic et inclus largement celui des informaticiens : la suprématie de la logique. Non seulement le programmeur met en uvre une logique strictement classique logique qui ne rend pas compte de lensemble des fonctionnements psychologiques naturels mais il se meut dans un monde qui nest lui-même constitué que de zéros et de uns. La seule échappatoire à cette froideur en expansion, telle une robotisation de la psyché, consiste en des projections emplies daffectif sur les objets virtuels et techniques mêmes de lespace virtuel. Cest pour compenser le manque dhumanité de cet espace et la pauvreté des relations sociales qui y ont lieu alors même que celles-ci peuvent être denses ce qui est dautant plus étonnant et révèle bien le paradoxe que les réalisations techniques sont sacralisées et quune substance, bien quayant une origine parfaitement artificielle, leur est supposée. Une substance dont le potentiel ne peut encore être que deviné puisque quelle na pas encore manifesté tout le potentiel de leffroi quelle devrait susciter. Plutôt que doffrir aux machines la possibilité de se retourner contre nous par lintermédiaire de techniques qui nous échapperaient, jindique simplement dans ce mémoire quil est impératif dentretenir avec celles-ci une relation de proximité. Les trois lois de la robotique dIsaac Asimov visant à protéger lespèce humaine ne sont pas suffisantes, voire même inutiles puisque leur nécessité prête déjà aux robots une volonté doublée dune supériorité militaire. Je ne crois pas énormément à cette éventualité ni à lémergence de la vie telle que nous la concevons dans lempire des machines et de linformatique. Cependant, la possibilité de la singularité ne doit pas être écartée et impliquerait nécessairement selon Bill Joy, sommité de la communauté open-source, léradication de lespèce humaine . Pour moi, ces peurs révèlent davantage quelque chose qui est en train de se passer et qui sest déjà produit. Les machines dominent car nous en perdons la maîtrise. Lobjet de ce mémoire est denvisager linversement de ce processus afin déviter une guerre. La perte du fil de nos techniques, technologies et savoir-faire est dautant plus grave que les machines intégreront bientôt nos corps. Le mélange homme-machine qui, comme je le démontrerai plus tard, est intrinsèque à lexercice de la pratique et déjà bien actif, sera ainsi à la fois virtuel et concret, ce qui fausse dautant plus les pistes du chemin de la réappropriation des techniques. La seule loi à envisager est celle de lauthenticité des techniques afin den préserver le contrôle par lhomme. Une éthique des techniques pour ainsi dire, qui stipulerait quelles doivent être accessibles. Force est de constater que ce type de réalisations techniques exceptionnelles est fréquemment le fruit du travail dune seule personne et pendant un seul mois .
La seule chose humaine qui subsiste dans la pratique informatique sont des savoir-faire. Lhomme est finalement à ce point mélangé à la matière dans son exercice pratique quil nen reste de véritablement humain que son esprit créatif. Il ne réfléchit plus. Il est à se point mélangé à son outil, quil agit non seulement par son intermédiaire mais aussi avec lui. Comme lindique Jacques Ellul, « avec la Technique, on ne réfléchit pas. On a des réflexes » . Seule la lumière de la créativité sépare encore lartisan de son outil, de sa machine. Cest peut-être dailleurs cette lumière qui de lautre côté du rideau celui des utilisateurs ou bien des spectateurs leur semble animer les machines qui deviennent le support de projections jusquà leurs attribuer une âme. Et pour cause, cette parcelle dâme semi-humaine et matérialisée manifeste un reliquat déjà dégradé dune intention initiée par son créateur. Cest lintention dun homme dont les fonctionnements psychologiques ont temporairement régressés en un exercice purement pratique et dont la créativité est somme toute assez restreinte. Cest ainsi que jexplique que le mélange entre lhumain et la machine qui nest pas une lubie mais une réalité. Nous sommes dans lère de la cybernétique depuis les années 1980. En quelque sorte, lartisan et lingénieur cherchent à sapprocher et retrouver leur propre humanité dans leur pratiques en cherchant à réaliser un « chef duvre ». La quadrature du cercle, le mouvement perpétuel ou le minimalisme Unix, telles sont les aspirations profondes ou le Graal des scientifiques, des artisans et des ingénieurs.
Cronenberg ou la suppléance dâme
Dans l'article Fluidité des corps motorisés (2012), j'aborde une modalité sociale du savoir-faire du pilotage dans un contexte particulier, à savoir la conduite automobile au Moyen-Orient . La manière de conduire et de s'insérer et dévoluer dans la circulation y est largement plus téméraire quen occident. La traversée de la place de l'étoile à Paris, qui n'est pourtant pas un rond-point de tout répit, ne nécessite pas le même degré de maîtrise du véhicule (notamment de ses dimensions) et de pilotage en agglomération (capacité de se faufiler et à anticiper). À Damas en Syrie, les voitures, moins puissantes qu'au Liban et en Occident, se frôlent à un centimètre sans qu'aucun n'accident n'ait lieu dans une circulation très dense. J'eu cette expérience au cours d'un voyage il y a quelques années, avant que la guerre civile n'ait lieu. Plutôt qu'une agressivité, la volonté de se faufiler s'exprime conjointement à la proximité des corps et des âmes. Dans une chorégraphie spontanée, les peaux se frôlent, telle une caresse sensuelle aux limites de ce que permet la tôle.
Dans le film Crash (1996) de David Cronenberg, les personnages mis en scène sont à la recherche de sensations fortes mais à la différence des sports mécaniques avec lesquels il s'agit de maîtriser l'art du pilotage et de repousser les limites du véhicule, c'est inversement les limites de l'homme par les techniques que Cronenberg dépasse avec ses fictions. Dans un monde entièrement technicisé, les personnages manifestent les signes d'une abdication face aux techniques . Plutôt que de préserver leur humanité en résistant à l'expansion des techniques jusque dans leur psyché, les personnages sy engagent sans réserve et sen remettent entièrement au spectre de la technique. Crash se distingue d'autres réalisations de Cronenberg telle que Vidéodrome (1982), dans lequel un l'homme intègre un magnétoscope dans son ventre, car les personnages principaux y montrent la poursuite d'une alliance spirituelle avec la machine que seule la brutalité dun choc viendrait concrétiser. Le corps des personnages dans Crash sont nus. Excepté lorsquils font lamour avant laccident, ils sont habillés de vêtements, mais leur corps ne sont pas mécanisés. Seul l'accident vient provoquer la rencontre physique entre lhomme et la machine. Lapproche de laccident offre un cadre à une excitation sexuelle qui redéfinit lâme humaine et sa sensualité. Les couples qui séchangent nont pour fidélité commune que la voiture qui les amène ensemble vers la jouissance. Ils vivent les derniers moments dhumanité avant leur destruction par la technique. La mort symbolise la jouissance ultime et les handicaps physiques résultant des accidents ne sont autres que des marques damour.
Dans louvrage L'évolution créatrice, Henri Bergson (1907) précise que, l'homme est un animal technique, l'homo Faber . La technique serait une caractéristique quasi biologique. C'est la vie en l'homme qui cherche à incorporer les outils et à le doter de prothèses. Henri Bergson, repris par Jacques Ellul qui remet en cause lacceptation indiscutée de la technique, n'envisageait cependant pas le corps ni la tôle des machines lorsqu'il disait qu'un « supplément d'âme » était nécessaire à l'homme pour accompagner la puissance croissante de ses instruments . Il supposait au contraire la nécessité dune plus grande sagesse chez lhumain. Ce sont pourtant des mouvements de l'âme qui sont montrés par ces deux analyses. La première, issue de mon expérience de la pratique du pilotage dans le contexte culturel musulman de la Syrie, suggère l'expansion du corps au véhicule dont le frôlement de tôle révèle une sensualité. La seconde, tirée de la science-fiction, révèle un profond encrage et une dépendance du psychique en la substance supposée des techniques, en conséquence de lenvironnement entièrement constitué par celles-ci de la société contemporaine. Si quelques romantiques veulent se rapprocher de la nature pour retrouver leur authenticité, lobsession des personnages dans Crash révèle une humanité tellement altérée quils recherchent leur vérité même dans la technique. Ils vont au contact des personnes sous le coup du choc traumatique de laccident pour en partager quelques enseignements. Sil ne sagit pas dune allégeance au spectre de la mort, quoi que leur pulsion révèle une morbidité certaine, cest peut-être la limite ontologique de la technique dans lhomme qui est poursuivie avec la plus grande violence que cela implique. Car dans Crash, les rapports sont inversés : lhomme ne cherche non plus à sétendre par la technique mais à y retrouver sa nature déjà redéfinie.
Imputée, tout en étant le fruit dune évolution provoquée par la continuation logique de lhomme moderne dans un monde empli de techniques qui lassimilent en retour, cette nouvelle nature humaine exprime en même temps le refus de la technique. À la différence dautres uvres de Cronenberg, ces personnages sont nus et affirment la suprématie de lhomme sur les techniques quils détruisent avec eux. Sils voient laccident comme seule rencontre possible entre lhomme et les techniques, cest parce quils refusent de les utiliser égoïstement. Ils refusent la technique tout en concédant à ses objets la qualité substantielle la plus authentique. Ils considèrent quà la rencontre des techniques, laccident est inévitable. Ils respectent la volonté des techniques. Ils ne valorisent pas particulièrement les objets techniques en eux-même, mais plutôt leur soupir exprimé par le froissement de tôle et la destruction. Cette volonté destructrice supposée aux machines ne sapplique pas quaux hommes mais aussi aux machines elle-mêmes qui tendent vers la mort. Leur volonté mélangée suggère quune bonne technique est une technique morte. Ce film renversant de Cronenberg affiche la victoire de lhomme sur des techniques par laffirmation dune insouciante et éternelle nudité en face delles.
Critique générale de la bulle spéculative de linnovation
« Tell all the people
That I'm on my way
There is no tomorrow for me
Anyway »
Lori S. (Acid King)
Régime doccupation dune pensée technique subtilisée
Avec le nouveau régime de pensée technique énoncé par Anne-Françoise Garçon , les produits ne sont plus seulement conçus dans un but fonctionnel, mais ils sont pensés conformément aux attentes et fantasmes supposés des consommateurs. Cette évolution exige de redéfinir la notion de « technologie » qui ne doit plus être comprise uniquement comme un méta-discours sur les techniques, mais comme une configuration dans laquelle les techniques en jeu sont désormais le résultat dune pensée ou dune idée qui les définit par avance. Les utilisateurs sont ainsi toujours plus tenus à distance de la technicité des techniques et par-là même de lobjet technique quils utilisent. Ils nentretiennent plus daffects avec leurs machines, dont la mystification artificielle va étrangement de pair avec un objectif commercial doccultation de leur technicité. Le romantisme qui compense labsence de connaissance et de maîtrise technique de lobjet était jusquici naturel dans lesprit des utilisateurs. Il est désormais récupéré et volontairement provoqué par les constructeurs. A mon sens, la propension des utilisateurs à élaborer des affects à légard des objets techniques est ainsi volée et pervertie.
Non seulement les consommateurs comprennent de moins en moins le fonctionnement des produits quils achètent, mais la possibilité de les maintenir et de les réparer eux-mêmes leur est progressivement retirée. Cest un phénomène particulièrement manifeste dans lautomobile, dans linformatique et sur les récents équipements électroniques portables ou de divertissement. Les remarques de Matthew Crawford au sujet des moteurs récents de chez Mercedes sont particulièrement pertinentes . Des appareils de plus en plus sophistiqués sont effectivement nécessaires pour identifier les pannes et mettre à jour le système informatique embarqué des automobiles. Les garages indépendants nont plus toujours la possibilité dintervenir face aux barrières techniques imposées par les constructeurs . Les éditeurs de logiciels informatiques professionnels privilégient presque systématiquement les applications de type Web qui noffrent pas la même rapidité ni la même réactivité des anciennes stations de travail DOS dans les commerces (dans les pharmacies et à la FNAC) et les institutions (aux postes de police, à la gendarmerie et dans les préfectures) ni même celles des Interfaces Homme-Machine graphiques dites aussi client lourd . La batterie du téléphone portable Apple iPhone sortie en 2007, idem pour la tablette iPad sortie en 2010, ne peut pas être changée et la version dorigine du système dexploitation installée par le constructeur est particulièrement restrictive . Le système dexploitation concurrent, Google Android, nest pas non plus exempt de critiques. Alors quil était censé être open-source (dont le code de programmation est accessible au public) nombreux sont les développeurs de cette communauté qui se plaignent du caractère de plus en plus fermé et titulaire de la plate-forme tenue par Google. Les derniers modèles des télévisions à écran plat Samsung ne peuvent plus être réparés avec des composants standards . Dans tous ces domaines, la réparation nest plus possible chez un réparateur de quartier. En cas de panne, le passage au service client du constructeur est devenu incontournable.
Ce phénomène ne pénalise pas que le grand public, les professionnels sont eux aussi désavantagés par la déferlante des « boîtes-noires » au sens imagé et péjoratif du terme . Les machines-outils à commandes numériques ont presque éradiqué les savoir-faire dusinage plus traditionnels. Ces savoir-faire sont pourtant fondamentaux pour la formation de lexpérience et du « jugement » de lingénieur, qui ne lui est dailleurs pas réservé. Les ouvriers qui ont encore cette capacité de jugement et quils ont acquie par la pratique des anciennes machines-outils sont en mesure de déterminer à lavance (avant la mise en production sur la machine-outil à commande numérique) si les plans de conception élaborés dans les bureaux détudes sont biaisés . Cest par la proximité avec lartefact quils réalisent et lexercice dune pratique quils sont à même de savoir progressivement et intuitivement ce qui est faisable ou non. La conception elle-même est à tel point assistée par ordinateur que les produits qui en résultent deviennent incompréhensibles y compris par les mécaniciens des constructeurs automobiles. Ceux-là mêmes sont progressivement privés de leurs savoir-faire puisquils sont amenés à utiliser des appareils électroniques qui réalisent les mesures automatiquement et annoncent pour eux les éventuels diagnostiques de pannes. Le métier de mécanicien cela est surtout valable pour les garages concessionnaires se résumera bientôt à un écran dordinateur.
Un confort très relatif
Intérieur dune Citroën C5 (2012)
Source : citroen.fr Le confort quun utilisateur peut expérimenter dans une voiture est tout à fait relatif. Ne serait-ce quen sy installant, ceux qui ont connu le plaisir de contempler la qualité du bois et de profiter de lespace dans lhabitacle dun véhicule de collection trouveront que les voitures récentes sont exiguës, alors même que les dimensions extérieures restent sensiblement les mêmes. Lintérieur dune Citroën C5 ressemble à un cockpit davion de chasse et cela même, devient un argument de vente qui suggère une conduite sportive. La capacité de mouvement est considérablement réduite. Le conducteur emmitouflé dans des renforts en plastiques ne tiendra théoriquement cette place que dans un seul but : piloter. Pourtant, les compétences de pilotage sont progressivement remplacées par des dispositifs électroniques. Les automobiles plus anciennes offrent un grand confort à leurs utilisateurs, pour des raisons objectives comme le supplément despace, mais aussi pour des raisons subjectives propres aux habitudes des utilisateurs. Ceux-ci développent au fil de leur usage du véhicule et des équipements une forme de savoir-faire, des bonnes habitudes ou des « bonnes pratiques » qui ne sont pas totalement éloignées de celles de lingénierie. Avec lapport dun confort toujours plus grand, lexpérience de lutilisateur est négligée. Cest pourtant bien la réproductibilité des expériences et la connaissance sinon lintuition des limites du véhicule qui apporte au consommateur une sensation de sécurité et finalement, un sensation authentique de confort. Sur quels critères définir la notion de confort, si ce nest le plaisir quéprouve le conducteur à piloter et les passagers à se faire transporter dans un véhicule ? Le confort revendiqué dans les messages publicitaires des constructeurs est à lopposée du plaisir du pilote et dune aisance acquise. Lhomme sadapte aux fabuleuses imperfections intrinsèques aux objets techniques que les différents fabricants sobstinent à peaufiner. Cette confiance entre lutilisateur et la machine ne peut sétablir sans une certaine ancienneté de la relation. Cette relation authentique, à savoir lhomme confronté aux techniques, ne peut sinstaurer quen labsence du simulacre dun confort issu du régime de la technologie.
Le charme dune imperfection
Limperfection de lobjet technique est ainsi nécessaire à lancrage des savoir-faire de lutilisateur. Mais elle est surtout intrinsèque aux techniques puisque celles-ci nexistent quafin de pallier nos limites dêtres humains. Si nous avions des ailes, nous naurions pas inventé lavion. Si nous nétions pas obligés de manger et de déféquer pour vivre, nous naurions inventé ni la casserole ni les toilettes. Lorsque les objets techniques, eux-mêmes composés déléments organiques, seront bientôt intégrés au corps de lhomme, on est en droit de se demander si ceux-ci seront aussi fonctionnels que les facultés qui pourraient être le fruit de lévolution naturelle de notre espèce. Si les sciences et techniques nous apportent des moyens de manipuler la Nature et de contrôler notre environnement, elles nous privent daptitudes qui dorment potentiellement en nous. À titre dexemple, mon grand-père était capable de prévoir la météo du lendemain, jusquà 48 à lavance, à lobservation des oiseaux et des nuages dans le ciel. Dautres comme lui et à la même époque saidaient dun baromètre pour établir leurs prédictions . Aujourdhui peu de gens en sont encore capables puisque lhégémonie de la vérité scientifique nous est infligée par les prédictions des centres météorologiques. Si celles-ci apportent une vision densemble à moyen-terme, elles ne sont pas plus précises. Elles manquent de subtilité comparées à la prédiction intuitive. La météorologie moderne nécessite de tels investissements humains, techniques et financiers que ses utilisateurs sont obligatoirement privés de cette technique. Car il sagit bien là aussi dune technique dont les moyens de production ne sont pas accessibles au public. A linstar de la perte de ces savoir-faire ancestraux, cest-à-dire prédire le temps quil fera demain, jémets lhypothèse que les réalisations de la technologie contemporaine priveront progressivement les utilisateurs de leurs savoir-faire jusquà la perte de leurs capacités cognitives à soulever un vase et jusquà lavilissement des capacités motrices. Les techniques en tant quextension de la personne sont un intermédiaire, un pont entre lhomme et la réalité ou du moins, le monde matériel. Cest non pas seulement le confort toujours plus moelleux quapportent les nouvelles techniques, mais la virtualisation et la perte du contact avec la matière quelles suscitent qui provoqueront ce type deffets secondaires. La seule échappatoire que jenvisage consiste à refuser autant que possible de sinscrire dans le champ de la consommation de masse en privilégiant les constructeurs et les réparateurs de quartier. Les techniques peuvent ainsi être réinsérées dans le champ social de lhomme. Leurs imperfections embrassent lactivité de lhomme plutôt que de le diminuer.
Des performances optimales
Ce que jai dit sur la relativité du confort sapplique aussi, dans une certaine mesure, à lefficacité et aux performances qui peuvent savérer subjectivement optimales. Si lappréciation objective des performances par les spécifications techniques permet dévaluer un produit, elle ne suffit pas. Dabord parce quen labsence dune profonde connaissance du fonctionnement de ces produits, les spécifications mentent. Elles sont mises en avant pour revendiquer une avance technique sur le papier alors quelles nont parfois aucun rapport avec lusage pratique ou en cache dautres modalités. Pour prendre un exemple, les performances des moteurs diesel PSA HDi sont sensiblement supérieures, sur le papier, aux motorisations XUD dotées dune injection indirecte. Pourtant, les utilisateurs qui ont eu loccasion dessayer ces deux types de véhicules attestent que lancienne motorisation est plus « punchy » . En effet, la courbe de progression du couple est assez linéaire avec les moteurs HDi alors que le turbo se fait bien sentir lorsquil se met en route avec le XUD. Il ne sagit pas là de critiquer lingénierie Peugeot qui conçoit régulièrement des moteurs diesel dexception, mais les réglages par défaut de la motorisation HDi qui sont exécutés par lélectronique sont manifestement davantage orientés pour faire des économies de carburant au grand détriment des performances. Jai évoqué un autre exemple, celui de laudiophilie : il est particulièrement pertinent dans ce sens car il brouille les pistes entre lobjectif et le subjectif car aucun équipement de mesure négale la capacité de la perception auditive de lhomme. Loutil de laudiophile est avant tout organique. Celui-ci développe un savoir implicite par lusage de ses oreilles qui lui permettent de juger une configuration Hi-Fi.
Savoir comment manipuler correctement un objet technique apporte non seulement la sensation de maîtrise (de lobjet et dans une certaine mesure, de ce quil recouvre) et de confort que jévoquais, mais détermine également lefficacité de lobjet. La qualité dun objet technique se mesure à létendue du savoir-faire qui en est extrait. Les produits issus du régime de pensée de la technologie privent les utilisateurs de cette qualité et de performances qui, par moments, se révèlent exceptionnelles. Les notions de confort et de performance sont liées dans lappréciation générale du produit par lutilisateur. Le plaisir apporté par le confort relatif invite lutilisateur à se satisfaire de performances limitées ou à se réjouir des bonnes performances. Inversement lappréciation des performances, qui ne se résument pas à des spécifications techniques mais à des sensations, inclue avec elle une large part de lévaluation relative du confort.
Au quatrième chapitre de son ouvrage Changing Order, Harry Collins remarque le paradoxe suivant. Pendant tout le processus de résolution de problème (il sagit de reproduire une expérience scientifique à laide dinstruments), le doute est omniprésent. Mais dès lors que linstrument fonctionne, le chercheur en revient à une vision passive et non récalcitrante de son objet et de la nature : les irrégularités sont expliquées par lerreur humaine. Je souhaiterais envisager la proximité du scientifique ou de lingénieur avec son outil, qui par la par la seule pratique empirique, réalise de formidables choses, à linstar de la détection dondes gravitationnelles par Joseph Weber avec son installation et quaucun autre laboratoire ne fut en mesure de reproduire . Telle une âme qui serait transmise aux machines, le degré dimplication de Joseph Weber, la qualité de son intention et la force de sa détermination assimilatrice du réel, transmettent les propriétés essentielles à leur bon fonctionnement. Cest aussi ce que suggère le témoignage de Kenneth Olsen au sujet de lélectronique au MIT de Lincoln dans les années 1950-1960. Lentreprise Digital Equipment Corporation quil dirige de 1957 à 1992, hérite directement de la tradition et de la philosophie dingénierie du MIT. Selon Kenneth, on entrait au laboratoire Lincoln du MIT comme dans une église ou un monastère : « Entering the laboratory was a little bit like going into a religious order. They had an attitude about reliability and how you build electronics which they believed religiously. You had to follow the rules and it was almost a fixed procedure that you had faith in, rather than something you knew worked. »
Le fantôme de lindustrie
Par ailleurs, le niveau de développement des techniques est suffisamment élevé dans bien des domaines pour ne pas nécessiter la surenchère sans cesse renouvelée des optimisations. Alors que nous entrons dans le régime de la technologie, lenjeu des techniques traditionnelles est de sadapter à la population. Il serait souhaitable quen parallèle de la consommation de masse, les groupes dutilisateurs, artisans et ingénieurs indépendants se développent. Mais quen serait-il de linnovation ? Les grands groupes seraient-ils toujours capables de financer leur recherche et développement alors quune partie de leurs clients en viendrait à préférer des produits alternatifs ? Certainement pas. Mais les groupes industriels daujourdhui ne sont pas à lorigine des innovations de rupture. Ils sinscrivent au contraire dans la continuité et aboutissent parfois à des formes doptimisation qui mènent à valider la notion dobsolescence programmée.
Si les ingénieurs français sont très souvent précurseurs comme le montrent tant dexemples en histoire des techniques, ces idées sont rarement mises en application ou sont récupérées puis mieux développées et vendues par des pays concurrents. Il ne suffit pas davoir de bonnes idées. Linvention ne peut être diffusée à grande échelle quaprès une phase de viabilisation et dun plan industriel soutenu financièrement. En France, cette volonté à la fois financière et industrielle fait défaut. Un des exemples le plus accablant est sans doute la disparition de lindustrie de machines-outils françaises annoncée dès les années 1970 par la finance qui ne considérait pas que ce domaine fût porteur . Alors que la France était un leader mondial dans les années 1950 et 1960, la référence sest progressivement déplacée vers lAllemagne. Un exemple similaire est celui des motorisations pour applications militaires et professionnelles équipant des chars de combat, des bateaux et plus rarement des camions. Le leader mondial en situation de quasi-monopole est aujourdhui le constructeur Allemand MTU. En France, la Société Alsacienne de Constructions Mécaniques (SACM) développait un moteur tout à fait novateur, sur lequel elle place un compresseur fonctionnant comme un turboréacteur à linstar dune turbine dhélicoptère. Mais les coûts nécessaires à lindustrialisation de son nouveau moteur étaient trop élevés. En 1993, SACM est rachetée par le constructeur Finlandais Wärtsilä, qui continuera déquiper les chars Leclerc. Les décideurs en France ne prennent pas de risques. Et généralement dans le monde, les grands comptes préfèrent acquérir les bonnes idées et les brevets de petites entreprises innovantes plutôt que dinitier eux-mêmes des ruptures techniques. Les véritables innovations ne sont donc pas menacées par louverture de la recherche et développement aux particuliers.
Doit-on en conclure quà un certain niveau de développement dune technique, la recherche et développement ne produisent plus rien dintéressant sinon des couches supplémentaires qui la dégrade ? Pas nécessairement. La régulation et les outils de conception entièrement dématérialisés sont des facteurs plus directs. Limmobilisme des grands groupes en matière dinnovation, alors même quils ne cessent de produire des optimisations, révèle un paradoxe. Est-ce un excès de formalisme ou lintervention de trop nombreux participants ou lassurance apportée par les bonnes parts de marché qui change la signification de linnovation ? Prenons un autre exemple que celui de lautomobile : le logiciel de traitement de texte Microsoft Word. Alors que la version 97 fonctionnait parfaitement et révélait une certaine maturité de loutil de traitement de texte, la version 2000 imposa une nouveau standard de document et cela se renouvela avec Word 2007, incitant ainsi les consommateurs à se procurer de nouvelles versions. Les industriels comme les éditeurs de logiciels nont pas nécessairement besoin dinnover du moment quils tiennent le marché. Celui qui tient les rênes du marché a le pouvoir et décide de lévolution de linnovation. Les procédés concurrents sont rachetés ou simplement méconnus du public. Si les grands constructeurs dautomobiles se livrent une guerre commerciale, ils partagent un intérêt commun : le maintien de leur place sur le marché permis par limmobilisme dun statut quo.
La notion dobsolescence programmée est controversée car elle suspecte chez les constructeurs une volonté de limiter la durée de vie et de restreindre lutilisation de leurs produits afin den assurer le renouvellement à des fins commerciales. Même si cette obsolescence est peut être involontaire, le terme « programmée » laisse peu de place au bénéfice du doute. Cette ambiguïté stigmatise les débats car elle fait écho aux mouvements conspirationistes contemporains qui, tout en posant des question pertinentes, apportent demblée des réponses qui révèlent une tendance paranoïaque. Diaboliser Big Brother ou les constructeurs manifeste à mon sens la fuite en avant des citoyens et des consommateurs devant leurs responsabilités. Je nai pas suffisamment déléments pour confirmer ou infirmer que, par exemple, la batterie non inter-changeable de lApple iPhone ni que les nouveaux condensateurs des écrans plats Samsung furent volontairement conçus afin den empêcher la réparation. Mon approche est différente. Jenvisage les risques de lérosion des savoir-faire des utilisateurs et des réparateurs tout en valorisant lalternative du système D pratiqué par les groupes dutilisateurs qui en arrivent parfois à mieux connaître et à maîtriser un produit que léditeur. Mon attention porte ici davantage sur le sens et la qualité de léchange entre lutilisateur et la substance éventuelle des machines.
Dans larticle From Realpolitik to Dingpolitik: An Introduction to Making Things Public, Bruno Latour propose un système parlementaire entièrement décentralisé et basé sur les groupes dutilisateurs ou dintérêts . Une forme de démocratie directe mais dont seuls les intéressés viendraient participer aux prises de décisions. Selon Latour, une politique parfaite et rationnelle, une tour de Babel qui prendrait en compte tout composant de la nature et tout objet culturel, sévèrement classifié dans un projet de compréhension intégrale, est un pari perdu davance. Les sciences dures ne sont pas la solution. Les métaphores de la philosophie politique non plus y compris celle de la Body politik. Lexpérience traumatique de lhomme en société ne peut pas être mise en forme. Et pour cause, selon lui lorganisme en question nest pas naturel : cest un monstre! Nous pouvons éventuellement en décrire quelques difformités comme celle de notre faiblesse projetée sur les politiques. Cette absence qui est la nôtre sur ce terrain, cest notre fantôme, le fantôme du public. Nous ny voyons rien, car nous ny sommes pas, et que cela na justement pas encore de forme. Le projet proposé dans cet article serait de composer un corps politique par la multitude des corps, et ce fantôme en serait lembryon. Je tends à penser que ce modèle de citoyenneté active est plus facilement applicable au domaine de la production de biens quà la politique . Étant donné leur esprit inventif, si les partisans du Do It Yourself (« système débrouille »), les ingénieurs et les derniers ouvriers de lindustrie française venaient à sallier pour définir les bases dune recherche et développement et dune industrie libre et décentralisée, capable de concevoir, de produire et de diffuser ses produits de façon suffisamment autonome, lindustrie française aurait une place mondialement assurée.
Les yeux tournés en coin vers lURSS
La référence à lURSS au titre de ce paragraphe est anecdotique puisquelle renvoie à louvrage du politicien de gauche Jules Moch, U.R.S.S : Les yeux ouverts en 1956, dans lequel il raconte sa découverte du modèle soviétique sur le terrain et le fonctionnement de ladministration. Jules Moch fait part de ses observations et propose une analyse moins tranchée que les pourfendeurs du modèle occidental de son époque. Il parle brièvement des « stations de machines et tracteurs » (M.T.S.) qui centralisent toute lactivité de maintenance des véhicules agricoles . Afin dassurer le bon fonctionnement de 100 tracteurs sur le terrain, la station devait en posséder 108 afin dassurer un fond de roulement à lactivité de maintenance. Lensemble de latelier était standardisé : les pièces de rechange et les procédures de réparation. Les produits de consommation de masse étaient eux aussi standardisés . Un seul type de téléviseur était répertorié à la vente et leur nombre était calculé à lavance par le Gosplan en fonction des salaires connus de lensemble des ouvriers. Cette petite parenthèse permettra de revenir plus bas sur la notion de « produits de référence » elle-même liée à la conception de nouveaux « standard ». Mais grâce à ce titre, cest surtout la prise en main des moyens de production par les utilisateurs que je voulais indirectement évoquer. Car il nest pas sans rappeler lexemple de linformatique où les logiciels libres et open-source montrent la réussite virtuelle dun modèle marxiste .
Phases de vie dun produit industriel
Source : laborandsense.comAprès avoir invoqué diverses causes possibles aux dégradations des techniques perpétrées par le régime de pensée de la technologie, il faudrait déterminer comment des choix techniques en viennent à être pris par des non-techniciens ; en loccurrence, par les départements marketing et commerciaux. Linfluence des départements marketing est sans aucun doute liée à la concurrence économique. La petite recherche et développement, les optimisations et gadgets sans véritable innovation sont la conséquence logique dune nécessité pour les constructeurs de trouver rapidement des arguments pour se démarquer de la concurrence. Léconomie industrielle indique en effet que les produits connaissent une phase dexpansion, une phase palier et une phase de déclin . Linvestissement financier initial est
amorti au cours de la phase palier, lorsque le produit se vend bien. Puis le produit connaît une phase de déclin lorsquil devient obsolète et est supplanté par dautres innovations. Il faut donc innover constamment. Et cette intention, au contraire dune volonté authentique dingénieur ou dartisan, produit que ce je qualifierais volontiers daberrations techniques. Jespère avoir montré par les contre-exemples de la première partie et les présentes considérations que les consommateurs des pays riches et émergents participent à la bulle spéculative de linnovation.
Il serait utopique de considérer que le régime de la technologie peut être dépassé uniquement par léducation des consommateurs. Dune part, je doute fort quils soient sensibles à mes arguments et dautre part cest précisément le déconditionnement de leurs habitudes de consommation que je promeus. Internet et les NTIC permettront sans doute dapporter les bases dun nouveau mode de sélection des produits de la consommation de masse par lintermédiaire dun système de notation généralisé et indépendant. Mais le caractère démocratique dun tel système nimplique pas nécessairement une grande qualité des notations. Dans le meilleur des cas, une partie grandissante de la population pourrait être sensibilisée au phénomène de l'occultation et de la propriétarisation des techniques par les constructeurs. À l'instar de l'alimentation biologique, un marché parallèle des biens de consommation « techniquement éthiques » pourrait ainsi se développer et ne serait pas limité comme cest le cas aujourdhui, aux quelques collectionneurs et irréductibles ingénieurs, artisans et aficionados. La plupart des consommateurs resteront toujours des « romantiques » et non des « réalistes » vis-à-vis des techniques . Ou plutôt, ils continueront volontairement duser de produits dont ils ne voudront pas connaître les rouages et permettre ainsi au marché de les maîtriser pour eux, ce qui a pour effet secondaire dintroduire les logiques du marché dans les objets mêmes. Ceux-ci ne sont plus des purs produits de lingénierie traditionnelle mais des artefacts hybrides entre le commerce et lindustrie. La naïveté des consommateurs, leur peur de la pratique et leur besoin dillusion sont à la source de la dégradation des techniques que je soulève. Ils consommeront des produits toujours plus éphémères et dont le packaging coûtera bientôt plus cher quun contenu bien pauvre.
Avec un certain réalisme économique, il serait tout à fait logique de considérer que ce régime de pensée technique avilissant ne puisse être contrecarré quà condition de remettre en cause le système compétitif qui le détermine. Léthique des techniques que je propose nest pas intrinsèquement incompatible avec le libéralisme économique. Nous pourrions même envisager quelle en est paradoxalement le produit dans la mesure où comme jai souhaité le montrer, la contre-culture des hackers, des audiophiles et de bons mécaniciens sinstaure en réponse à ce qui est considéré comme la dérive commerciale de lindustrie contemporaine. Ces contre-cultures sinscrivent donc elles-mêmes dans un rapport concurrentiel radicalisé vis-à-vis des marchés de la consommation de masse. Et les rapports entre les membres desdites communautés nest pas non plus exempt dune forme de compétition. Mais cette compétition est dun autre type et annonce le dépassement du paradigme industriel contemporain par la perpétuation du précédent. Elle se différencie de la concurrence commerciale parce quelle respecte dautres règles et poursuit un idéal. Les notions de qualité, de confort et defficacité se cristallisent dans la réalisation et lappréciation des objets techniques. Elles sapprochent davantage dun seul objectif de performance qui trouve léquilibre au goût du minimalisme. La nécessité minimaliste, à linverse des productions commerciales, va de pair avec « laccessibilité des techniques » dont Mattew Crawford sest fait le plaidoyer. Cette accessibilité associée au partage des connaissances favorise les innovations de rupture.
Ces ingénieurs sont aussi les utilisateurs de ces objets quils conçoivent et quils réparent. Ils sont parfois autodidactes. Nayant pas bénéficié dune formation qui fixe un cadre conceptuel, leurs compétences sont essentiellement basées sur la pratique empirique et les quelques théories scientifiques quils furent forcés dassimiler lors de son exercice. Ils se meuvent finalement dans un espace bien plus vaste que celui, plus dense et conditionné, dun diplômé décole dingénieur. Quant à ces derniers, ils doivent parfois pratiquer longtemps pour revaloriser leur expérience au détriment de quelques blocages conceptuels déterminés par leur formation . Dans son ouvrage An Engine, not a Camera, Donald MacKenzie (2008) montre le pouvoir dinfluence de la théorie sur son objet dans le domaine de la finance. Les théories économiques en finance sont un moteur qui modifie son fonctionnement plutôt quune caméra qui lobserverait simplement. Sa démonstration ne sapplique pas à lensemble des sciences et techniques mais elle suggère néanmoins que les connaissances théoriques déterminent parfois leur objet.
Une autre particularité des productions indépendantes est le faible nombre de versions proposées. Au contraire dun modèle Sloaniste , les artisans et ingénieurs indépendants ne planifient évidemment pas toute une gamme de produits. Il ny a, somme toute, pratiquement quun seul produit de très grande qualité à la vente. Sil arrive quils proposent diverses configurations de leurs matériels ou réalisations, cela est avant tout justifié par des critères techniques et de coût de production. Par ailleurs, sur le marché de loccasion, les modèles constituants des « références » sont prisés par les connaisseurs. La Citroën 2 chevaux, les Peugeot à motorisations XUD turbo diesel, les Mercedes W123 et a fortiori les W124 diesel (dont je nai pas parlé), les enceintes de la marque française aujourdhui disparue Audio Référence, les premières grandes enceintes conçues par Jacques Mahul (JMlab aujourdhui Focal-JMlab), les JBL originelles à quatre voies conçu par Greg Timbers , les haut-parleurs Altec Lansing de la série 416 et ainsi de suite, constituent des modèles de référence. Ceux-ci se distinguent de loffre éclectique du marché de seconde main par des tarifs plus élevés (par exemple les vendeurs de matériel Hi-Fi savent généralement ce que vaut leurs enceintes Vintage dautant plus quils ont eut loccasion de les écouter). Cette classification faite par les utilisateurs connaisseurs génère une forme de répertoire subjectif en fonction des domaines, des communautés et des sous-communautés. La notion de standard qui implique une spécification commune à plusieurs groupes industriels est redéfinie ipso facto et renforcée. Il faut trouver des pièces de rechange afin den assurer la maintenance. Dautres fois, des modèles devenus des références dimportance mais qui se font trop rare, sont rétro-conçues pour être reproduites. Cest notamment le projet de Thierry Cler et dAntoine Monnier (enseignant en philosophie et audiophile). Ils souhaitent réaliser des reproductions de quelques modèles très précis denceintes Audio Référence. Mais les haut-parleurs de marque Audax de ces modèles ne sont plus produits par ce fabriquant. Preuve à lappui, fort dun argumentaire bien rodé et du soutien dune petite communauté daudiophiles qui gravite autour de Thierry Cler, ils iront bientôt solliciter le constructeur Audax afin quil accepte de relancer la production de ces modèles exceptionnels de haut-parleurs.
Le voile de lécologie
Mon discours qui, je lespère, est suffisamment fidèle aux motivations des groupes dutilisateurs dont je recueille les témoignages, est parfaitement compatible et peut tout à fait être repris par les politiques de développement durable, de décroissance et de quelques considérations écologiques. Maintenir des techniques avérées plutôt que den créer et den consommer constamment de nouvelles permettrait évidemment de limiter un gaspillage effréné de matières premières. Mais lécologie est généralement absente des préoccupations des ingénieurs autonomes et des groupes dutilisateurs qui souffrent parfois dune régulation cachée sous le prisme de lécologie, sinon des normes de sécurité. Les régulations entravent leurs activités et les empêchent de diffuser leurs réalisations.
Les 2 chevauistes ont parfois des préoccupations dordre écologique mais leur choix manifeste une éthique technique dun autre ordre et totalement étrangère aux sentiers battus de la régulation par lécologie. Force est de remarquer que danciennes voitures et en particulier les 2 Chevaux ne sont pas forcément polluantes. Dabord parce que seulement deux chevaux de puissance fiscale ne consomment que peu de carburant, mais aussi et surtout parce que, je cite Christian Komaniecki, « on ne les produit pas donc elles ne sont pas polluantes, elles sont déjà là ». Il est tout à fait certain quun discours écologique en faveur dun parc automobile en perpétuel renouvellement nest pas sans présenter quelques signes dinquiétante irrationalité. La prime de 1000 euros accordée par lEtat à toute personne qui met à la casse sa voiture de plus de 10 ans en est un bon exemple. Car au-delà de lobjectif légitime de stimuler lindustrie automobile du pays, ce sont paradoxalement des motivations écologiques qui sont mises en avant avec lobjectif annoncé de réduire les émissions de gaz . Il est tout à fait évident pour cette communauté dutilisateurs, que la pratique du recyclage (nonobstant limpact écologique propre à cette activité) associée à la production effrénée de voitures neuves, ne peut pas compenser ni remplacer lécologie qui serait permise par lusage pérenne danciens véhicules.
Alors que lautomobile électrique est plébiscitée, son impact écologique est sous-estimé. Mis à part la question de la production de lélectricité qui débouche inexorablement sur le vaste sujet du nucléaire, il faut prendre en compte le faible taux de rendement énergétique des véhicules électriques comparés aux véhicules thermiques . La production et le stockage des batteries présentent également quelques difficultés. La solution écologique mise en avant par des hippies ou autres utopistes des années 1970 et 1980, aux Etats-Unis comme eu Europe, était celle du biodiesel . Mais tout automobiliste na pas forcément les moyens, le temps ni la place pour cultiver un champs de colza, nonobstant limpact sur lagriculture quimpliquerait la massification dune telle entreprise.
Conclusion
« Norm, I think I can beat these guys at their own game »
Kenneth Harry Olsen
Jai montré à quel point les produits Vintage sont appréciés par les connaisseurs dans diverses disciplines. Ces produits de lindustrie des années 1970-1980 et jusquau début des années 1990 dans lautomobile, ne sont pas seulement préférés aux produits contemporains pour des raisons sentimentales mais parce quils sont communément considérés comme étant de meilleure qualité, avec toute la subjectivité que cela implique. Et aussi troublant que cela puisse paraître, les anciens produits apportent réellement plus de confort à lutilisation. Outre ces appréciations du confort et de la qualité corrélatifs aux utilisateurs (et précisément à leur pratique), des éléments mènent à penser que ces techniques étaient déjà arrivées à maturité. Les motorisations sont sensiblement les mêmes depuis 40 ans hormis les complexités souvent considérées comme fortuites. Les usinages sont effectivement plus précis aujourdhui et permettent en théorie une réduction du nombre de pannes sur des productions à grande échelle. Nombreuses sont les Mercedes et Peugeot des années 1980 et début 1990 qui affichent plus de 700 000 kilomètres au compteur. Combien de Renault Mégane (de 1995 jusquà nos jours) afficheront le même palmarès ? Le statut de lobjet nest plus le même. Aujourdhui, ces produits se consomment et se recyclent en cohérence avec la législation afférente à lécologie avec tous les paradoxes quelle implique. Le recyclage encourage cette production incessante de nouvelles fonctionnalités, de nouveaux composants, de nouvelles motorisations et la sortie effrénée de nouveaux modèles. Ces nouveaux modèles aux lignes de plus en plus arrondie sont parallèlement de moins en moins fiables au sens dune accessibilité de la technique, car il est désormais impossible de les réparer autrement quen payant ce qui devient une forme de redevance au profit des éditeurs et des constructeurs. Kenneth Olsen fut confronté à cet état de fait dans les années 1950 face aux prestataires dIBM qui gardaient secrètement leurs connaissances alors quils venaient maintenir les mainframes du MIT . « Norm, I think I can beat these guys at their own game », dit-il en 1953 à lattention de son collègue Taylor Norman. Trois années et demie après, durant lesquelles il participa à la conception du TX-0, premier ordinateur à transistors, Kenneth Olsen fonda Digital Equipment Corporation et initia la première étape de la massification des équipements informatiques avec le proto-miniordinateur PDP-1 (1959).
Si les artisans et les ingénieurs aguerris peuvent se vanter de dompter une partie sans doute infime de la réalité, le consommateur contemporain est indéniablement réduit à létat de simple locataire dobjets dont la maîtrise lui est manifestement refusée. Lobjectif annoncé des messages commerciaux et des magazines dit spécialisés nattribue aujourdhui aux bureaux détudes que deux objectifs majeurs dans la conception des produits : ceux-ci doivent être non-polluants et surtout très confortables. Parallèlement à ces efforts écologiques et ergonomiques sopère loccultation de la technicité et, par-là même, la destruction des savoir-faire des utilisateurs et des réparateurs. Ce régime doccupation est-il délibérément raisonné par les constructeurs ? La réponse apportée par les passionnés de techniques est radicale et je la reformulerais ainsi : peu importe, car nous nous réapproprions les techniques.
Enquête et bibliographie
Introduction
Alfred Binet et Charles Féré, Le Magnétisme animal : Études sur l'hypnose, lHarmattan, 2006 [1887], 283 pages.
Donald MacKenzie et Graham Spinardi, « Tacit Knowledge and the Uninvention of Nuclear Weapons », dans Knowing Machines: Essays on Technical Change, sous la direction de Donald MacKenzie, p. 215-260, New edition, Cambridge: The MIT Press, 1998 [1996].
Michael Polanyi, « Tacit Knowing: Its Bearing on Some Problems of Philosophy », Reviews of Modern Physics, Vol. 34, n° 4, p. 601-615, Octobre 1962.
LAutomobile le motocycle
La notion de qualité dans lindustrie automobile
Patrick Fridenson, « Fordism and Quality: the French Case, 1919-93 », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 160-183, Coll. Fuji conference series, Oxford University Press, 1995.
Takahiro Fujimoto et Joe Tidd, The UK and Japanese Auto Industry: Adoption and Adaptation of Fordism, acte présenté à la Gotenba City Conference, 1993.
Takahiro Fujimoto, « A Note on the Origin of the 'Black Box Parts' Practice in the Japanese Motor Vehicle Industry », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 184-216, Coll. Fuji conference series, Oxford University Press, 1995.
Izumi Nonaka, « The Development of Company-Wide Quality Control and Quality Circles at Toyota Motor Corporation and Nissan Motor Co. Ltd. », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 139-159, Coll. Fuji conference series, Oxford University Press, 1995.
Lélectronique chez PSA
Pascal Griset et Dominique Larroque, Electricité, électronique. Un siècle de développement automobile, PSA Peugeot Citroën, 2003, 367 pages.
David Gestalder, 1999-2012, « Le radioguidage RDS », dans « Émetteurs », en ligne , consulté le 27 août 2012.
Jean Malvache (PSA Peugeot Citroën), Les boîtes de vitesses mécaniques pilotées à un embrayage, Société des Ingénieurs de l'Automobile, Document de présentation en PDF, conférence du 3 avril 2012 à Lyon.
Rob Wagner, « History of GM's OnStar », 2012, dans « eHow », en ligne , consulté le 29 août 2012.
Jean Bouleau , « Prométhéus et ISIS : la voiture intelligente », Décembre 1992, dans « Espace des sciences », en ligne , consulté le 27 août 2012.
« Historique », 2009, dans « Vivement la radio numérique », en ligne , consulté le 27 août 2012.
« History », 2011, dans « Clarion Japan », en ligne , consulté le 28 août 2012.
La Citröen 2CV
Entretien avec Christian Komaniecki, président du club 2 Chevaux de Sucy-en-Brie dans le Val-de-Marne.
Jean Chauvet, « Cétait la voiture des bonnes années », 23 juillet 2011, dans « Une année en France LeMonde.fr », en ligne , consulté le 07 août 2012.
La Peugeot 405
Entretien téléphonique avec Pierre Jennenez , responsable production du site PSA d Hérimoncourt en Franche-Compté, le 30 août 2012.
Entretien en 2012 avec le gérant de Destock Pièces Auto à Aulnay-sous-bois qui travaillait chez Mercedes avenue de la grande armée (sur les Champs Elysées aujourdhui).
« CX diesel turbo 2 », 15 avril 2012, dans « Mes Citroën CX », en ligne , consulté fin août 2012.
« Longévité de la culasse du moteur de la 2.5 TD », dans « Planète Citroën > Citroën XM », en ligne , consulté fin août 2012.
« Historique de la 405 », dans « La Peugeot 405 18 juin 1987 à fin 1996 (France) », en ligne , consulté fin août 2012.
« L'historique de la Peugeot 405 », dans « Le site de la Peugeot 405 », en ligne , consulté fin août 2012.
« Refroidissement DK5 (2.5TD PSA) », dans « Forum-405 », en ligne , consulté fin août 2012.
« Sujet: Peugeot 605 SVdt 2.5 ? », dans « FORUM Pratique > Discussions libres », en ligne , consulté fin août 2012.
Les W123 finlandaises
Journal local finlandais Ilkka, édition du 26 août 2012. Page numérisé en ligne , consultée le 4 septembre 2012.
Tom Anderson, « Hessian Heavyweights: 1992-98 Mercedes-Benz S-class », dans « Examiner.com », en ligne , consulté le 07 août 2012.
Angus MacKenzie, « 2007 Lexus LS 460: 4,053 miles », dans « Motor Trend », en ligne , consulté le 7 août 2012.
Richard Read, Audi, BMW, Mercedes Sell For 25% Off In China: Is This The End?, dans The Car Connection, en ligne , consulté le 7 août 2012.
Joni Uunila, Juillet 2012, « On the way from Gothenburg to Gatebil Rudskogen », dans « Black Smoke Racing », en ligne , consulté le 29 août 2012.
Joni Uunila, Juin 2012, « NEZ Round 1 Gardermoen », dans « Black Smoke Racing », en ligne , consulté le 29 août 2012.
« Flash Back Of The Day: History Of The Mercedes 123 Series », Décembre 2005, dans « eMercedesBenz », en ligne , consulté le 30 août 2012.
« Histoire Mercedes », 2012, dans « Elite-Auto », en ligne , consulté le 30 août 2012.
« Vajaapyttyisen Vastaisku », 2008, dans « Vajaapyttyisen Vastaisku », en ligne , consulté le 29 août 2012.
Suzuki 1100
Entretien avec Jean-Philippe, chargé de la clientèle au garage concessionnaire agréé Suzuki, Motohome ; 229 av. du Général Leclerc ; 94700 Maisons Alfort, Novembre 2011.
Jarmo Haapamäki, « Suzuki GSX-R1100 model history », 2012, dans « All Suzuki Motorcycles Ever Built », en ligne , consulté le 29 août 2012.
Marty Kane, « Streetbike Shootout rider Brock Davidson », Décembre 2004, dans « dragbike.com », en ligne , consulté le 29 août 2012.
« Harley Davidson », MegaFactories, Emeryville: Hoff Productions, n° 103, Documentaire télévisé, 28 janvier 2007. Reproduit et traduit dans « Les constructeurs de l'extrême : Harley Davidson » sur la chaîne Direct 8.
« History of Sports Bikes », 2010, dans « Auto Support Forum », en ligne , consulté le 28 août 2012.
« Suzuki GSX-R 1100 / 1000 Modell- und Entwicklungsgeschichte », 2012, dans « Die größte deutschsprachige Suzuki GSX-R Historie im Netz! », en ligne , consulté le 29 août 2012.
« Suzuki GSX-R1100 model history », 2012, dans « All Suzuki Motorcycles Ever Built », en ligne , consulté le 31 août 2012.
La Haute Fidélité acoustique
NAD Electronics
Michael Fremer, « Stereophile M3 Review », Sterophile, Janvier 2007
Steve Guttenberg, 16 juin 2011, « NAD 3020: Vintage hi-fi that still sounds great » dans « Product reviews and prices, software downloads, and tech news CNET », en ligne consulté le 20 mai 2012
Steve Guttenberg, 29 février 2012, « NAD 3020 vs. NuForce Dia: An analog-digital amplifier showdown » dans « Product reviews and prices, software downloads, and tech news CNET », en ligne consulté le 20 mai 2012
Daniel Lyons, 5 octobre 2004, « Digital Dislocation » dans « Information for the World's Business Leaders Forbes.com », en ligne consulté le 20 mai 2012
« NAD C316 », Mai 2012, dans « Carlton Audio Visual - Hi Fi & Audio Visual Store, Melbourne Australia », en ligne consulté le 20 mai 2012
« Ten Most Significant Amplifiers Of All Time », 15 avril 2011, dans « NAD Electronics :: High Performance Home Theatre and Hi-Fi », en ligne consulté le 20 mai 2012
« Retrotronics Sold Amplifiers », mai 2012, dans « Retrotronics - Vintage Audio Specialist », en ligne consulté le 20 mai 2012
Lucio Cadeddu, 1998, « NAD 3020 » dans « TNT-Audio - online review for HiFi and Music », en ligne consulté le 20 mai 2012
« AN/MST-T1A MUTES », 6 mai 2012, dans « www.manfred-bischoff.de », en ligne consulté le 20 mai 2012
« Hi-Fi That Rocked: NAD 3020 Integrated Amplifier », Hi-Fi Choice, Mai 2006
Un héritage assumé
« AN/MST-T1A MUTES », 6 mai 2012, dans « Manfred Bischoff », en ligne , consulté le 20 mai 2012.
« NAD 3020 modifié Cler: un amplificateur pas comme les autres », avril 2011, dans « Le forum des enceintes François H. », en ligne , consulté le 09 août 2012.
« Ampli audiophile très musical », août 2011, dans « Forum des audiophiles », en ligne , consulté le 09 août 2012.
Les platines cassettes (introduction)
« Vintage Cassette - The independent cassette deck resource », Mai 2012, en ligne consulté le 28 mai 2012.
Nakamachi Research
« Nakamichi 1000ZXL », Mai 2012, sur « Audio Database », en ligne consulté le 29 mai 2012.
« Nakamichi 1000ZXL Limited », Mai 2012, sur « Audio Database », en ligne consulté le 29 mai 2012.
« Nakamichi - Nakamichi hifi », Mai 2012, en ligne consulté le 28 mai 2012.
« History », Mai 2012, sur « :: Nakamichi :: », en ligne consulté le 29 mai 2012.
« About Us » sur « Nakamichi », Mai 2012, en ligne consulté le 28 mai 2012.
« Nakamichi 1000ZXL », Mai 2012, sur « Naks.com, the [unofficial] Nakamichi cassette deck resource. », en ligne consulté le 29 mai 2012.
« History of Nakamichi », Mai 2012, en ligne consulté le 28 mai 2012.
« Nakamichi 1000ZXL », Mai 2012, sur « The Vintage Knob », en ligne consulté le 29 mai 2012.
« Sony TC-177SD », Mai 2012, sur « The Vintage Knob », en ligne consulté le 29 mai 2012.
« Nakamichi 1000ZXL », Mai 2012, sur « The Vintage Knob », en ligne consulté le 29 mai 2012.
« Vintage Cassettes: 1963-2010 », Mai 2012, sur « Vintage Cassettes », en ligne consulté le 29 mai 2012.
« History of Compact Cassette », Mai 2012, sur « Vintage Cassettes », en ligne consulté le 29 mai 2012.
TEAC Corp. / TASCAM
Randy Alberts, Tascam: 30 Years of Recording Evolution, Hal Leonard Publishing Corp., 2003.
« Tascam History - Part 1 - Instrument Pro », Mai 2012, en ligne consulté le 28 mai 2012.
« TEAC Corporation - Company Profile, Information, Business Description, History, Background Information on TEAC Corporation », Mai 2012, en ligne consulté le 28 mai 2012.
« Tascam History », Mai 2012, en ligne consulté le 28 mai 2012.
« TEAC :: The leaders in digital music », Mai 2012, en ligne consulté le 28 mai 2012.
La philosophie Unix, lOpen Source et les Hackers
Paul E. Ceruzzi, A History of Modern Computing, Second edition, The MIT Press, 2003.
Adolf Loos, Ornement et Crime, Rivages, 2003, trad. Sabine Cornille et Philippe Ivernel.
Eric S. Raymond, « How To Become A Hacker », dans « Eric S. Raymond's Home Page », en ligne , consulté le 02 août 2012.
Eric S. Raymond, The Art of UNIX Programming, First edition, Addison Wesley, 2003.
Peter H. Salus, A Quarter Century of UNIX, First edition, Addison-Wesley Professional, 1994.
« Most Reliable Hosting Company Sites in July 2012 », août 2012, dans « Netcraft », en ligne, , consulté le 9 août 2012.
Les traces dune humanité perdue
Kevin Reichard, 4 avril 2000, « DistributionWatch Review: Red Hat Linux 6.2 », dans « LinuxPlanet », en ligne , consulté le 13 août 2012.
TImaniac (et commentateurs), « Microsoft Novell et Microsoft main dans la main ! », Novembre 2006, dans « L'actualité du Logiciel Libre et de Linux - LinuxFr.org », en ligne , consulté le 13 août 2012.
« Microsoft and Novell Announce Broad Collaboration on Windows and Linux Interoperability and Support », 2 novembre 2006, dans « Microsoft News Center », en ligne , consulté le 13 août 2012.
« The history of Winamp! », juin 2011, dans « OldVersion.com - Because newer is not always better », en ligne , consulté le 9 août 2012.
« Winamp », septembre 2009, dans « A Little Bit of History », en ligne < http://techretro.blogspot.fr/2009/09/winamp.html>, consulté le 9 août 2012.
La psychologie des techniques -- Lâme du réel assimilé par lhomme
Tournée AutonomiZation fin 2005, en France et en Belgique.
Alfred Binet et Charles Féré, Le Magnétisme animal : Études sur l'hypnose, lHarmattan, 2006 [1887], 283 pages.
Henri Bergson, Lévolution créatrice, Coll. « Les classiques des sciences sociales », document PDF, Gemma Paquet, 1907, p. 88.
Pierre-Philipp Braun, « Fluidité des corps motorisés », 12 mars 2012, dans « Quand la ville dort », en ligne < http://villedort.wordpress.com/2012/03/12/fluidite-des-corps-motorises/>, consulté le 2 septembre 2012. En annexe.
Harry Collins, Changing Order: Replication and Induction in Scientific Practice, New edition, University of Chicago Press, 1992 [1985].
David Cronenberg, Crash, d'après le livre de J. G. Ballard., Film en DVD, 1996, 1 heure 40 minutes.
Bill Joy, « Why the future doesn't need us. », Wired, n° 8.04, Avril 2000.
Carl Gustav Jung, « Du rêve », dans L'Homme à la découverte de son âme : Structure et fonctionnement de l'inconscient, Nouvelle édition, Albin Michel, 1987.
Donald MacKenzie et Graham Spinardi, « Tacit Knowledge and the Uninvention of Nuclear Weapons », dans Knowing Machines: Essays on Technical Change, sous la direction de Donald MacKenzie, p. 215-260, New edition, Cambridge: The MIT Press, 1998 [1996].
Michael Polanyi, « Tacit Knowing: Its Bearing on Some Problems of Philosophy », Reviews of Modern Physics, Vol. 34, n° 4, p. 601-615, Octobre 1962.
La bulle spéculative de linnovation et le fantôme de lindustrie
Entretiens avec Hervé Pouillet, Président Directeur Général ainsi quavec plusieurs ouvriers de lusine de Laroche SA. Septembre 2011.
Le carrossier SMCDA à Bonneuil sur Marne dans le 94, 2011. Entretien avec Didier, mécanicien.
Séances sur lhistoire sur des machines-outils par Serge Benoît (Université dEvry) dans le cadre du séminaire dhistoire des techniques (Paris 1) en 2011-2012.
Harry Collins, Changing Order: Replication and Induction in Scientific Practice, New edition, University of Chicago Press, 1992 [1985].
Matthew B. Crawford, Éloge du carburateur : Essai sur le sens et la valeur du travail, La Découverte, Mars 2010, trad. Marc Saint-Upéry. Matthew B. Crawford, Éloge du carburateur : Essai sur le sens et la valeur du travail, Logiques, Septembre 2010, trad. Marc Saint-Upéry. Matthew B. Crawford, Shop Class as Soulcraft: An Inquiry Into the Value of Work, Penguin Press Hc, 2009
Géminos, Introduction aux phénomènes, Paris : Les belles lettres, 2002, trad. Geneviève Aujac.
Acid King, Busse Woods, Disque compact, Rematricé, Small Stone Records SS-048, 55,21 min., 2004 [1999].
Bruno Latour, « From Realpolitik to Dingpolitik: An Introduction to Making Things Public », dans Making Things Public: Atmospheres of Democracy, sous la direction de Bruno Latour et Peter Weibel, catalogue of the show at ZKM, MIT Press, 2005.
Jules Moch, U.R.S.S : les yeux ouverts, Paris : Robert Laffont, 1956, 313 pages.
George Orwell, 1984, Gallimard, 1972, 438 pages.
Alexandre Hervaud, « Fichiers-moi la paix », 10 août 2012, dans « Libération », en ligne , consulté le 4 septembre 2012.
Paul Niedermeyer, « Curbside Classic: 1977 Mercedes 240D Diesel (W123) », Mars 2010, dans « The Truth About Cars », en ligne , consulté le 30 août 2012.
Robert M. Pirsig, Zen and the Art of Motorcycle Maintenance: An Inquiry into Values, First edition, William Morrow & Company, 1974, 418 pages.
Francesca Rochberg, The Heavenly Writing: Divination, Horoscopy, and Astronomy in Mesopotamian Culture, Cambridge: Cambridge University Press, 2004.
Greg Timbers, « L250 », dans Lansing Heritage, Don McRitchie, 2001. En ligne , consulté en 2011-2012.
Raymond Vernon, « International investment and international trade in the product cycle », Jounal of Economics, vol. 80, 1966.
« DEC Digital: From the Beginning promotional video », 28 juin 1989, dans « Computer History Museum », en ligne , consulté en juin 2011.
« iFixit: The free repair manual », 2012, en ligne , consulté le 3 août 2012.
« La mort programmée de nos appareils », dans Cash investigation, 1er juin, Documentaire télévisé, France 2, 2012.
« Prime à la casse », Décembre 2007, dans « Finances-perso.com », en ligne , consulté le 30 août 2012.
Conclusion
Pierre-Philipp Braun, Digital Equipment Corporation : La transmission dune culture dingénierie (années 1960 et 1970), Mémoire de Master, première année, EHESS, 2010-2011.
Lexique
Automobile
Compresseur : augmentation de la compression de lair envoyé dans la chambre à combustion ou à explosion (diesel ou essence) afin den améliorer les performances. Le compresseur est directement entraîné par le moteur pour compresser lair du circuit dadmission. Il sollicite le moteur et réduit ses performances dans de faibles proportions. Contrairement au turbo, il présente lavantage de fonctionner dès le bas régime du moteur.
Taux de compression : rapport entre la course haute et basse du piston dans le cylindre. 800 bars, 1300 bars puis 2000 bars avec la 3ème génération de motorisations Diesel PSA HDi.
Turbo : augmentation de la compression de lair envoyée dans la chambre à combustion ou à explosion (diesel ou essence) afin den améliorer les performances. Le turbo tire profit des gaz déchappement pour faire tourner une turbine centrifuge qui entraîne elle-même une turbine centripète et compresse lair du circuit dadmission. Il se met en route à un régime minimum, par exemple environ 2300 tours par minute sur un groupe moto-propulseur Diesel PSA XUD 1.9 Turbo Diesel avec intercooler.
Informatique
Administrateur de systèmes : cest la personne qui utilise lordinateur et le fait fonctionner par lintermédiaire du système dexploitation. Il se différencie de lutilisateur classique en ce sens quil mobilise des compétences pour préparer et configurer lordinateur qui sera utilisé par la suite. Cest le cas notamment pour la préparation des serveurs. Il est aussi appelé « ingénieur système » et « technicien système » dans le cadre professionnel.
Architecture matérielle : aussi appelée « plate-forme » (anglicisme). Il sagit du type dordinateur, ou type de processeur, en fonction de sa taille de Mot, de son jeu dinstructions et de son modèle de conception. Par exemple, les PC ont une architecture x86 (i286, i386
, x86_64). Les ordinateurs VAX ont une architecture qui leur est propre. Les serveurs et stations Alpha ont une architecture alpha. Quant aux ordinateurs Macintosh, il y eut diverses évolutions. Dabord constitués dun processeur Motorola 68000, il y eut ensuite les PowerPC (processeurs paradoxalement construits par IBM en version 32 bits) pour finalement aboutir à larchitecture x86 identique aux PC.
Client léger : permet presque les mêmes usages quune station de travail mais il sagit davantage dun terminal graphique dont le système local est inexistant (mis à part la mémoire morte) puisquil est chargé directement par les services réseau. Peut facultativement fonctionner de pair avec un système de virtualisation de postes clients (le terme en vogue de Cloud suppose notamment cela). Sun Ray Server System fut lun des premiers systèmes dinterface graphique à distance et centralisée sur un serveur.
Client lourd : application (ou logiciel) qui sinstalle sur le système dexploitation résident et qui permet daccéder aux services réseaux par son intermédiaire. Linterface et le programme sont locaux et sexécutent sur le poste de travail (seules les bases de données sont distantes). Voir son contraire : client léger.
Geek : forme socialisée du nerd, voir plus bas.
Logiciel : dans labsolu, la signification est identique à celle de « programme ». Mais cette dénomination est plus commune dans la mesure où elle fait référence aux « programmes fonctionnant sur des programmes », à savoir par exemple un traitement de texte installé sur un système dexploitation.
Mot (taille de) : unité de base manipulée par le processeur. Par exemple 12, 16, 18, 32, 36 ou 64 bits.
Nerd : terme désignant linformaticien à tel point investi dans son exercice ou son art quil en est devenu totalement asocial. Si le geek souffre du stéréotype dun visage ravagé par lacnée et chaussé de lunettes grossières, le nerd garde lauthenticité dun fauve.
Plug-in : « module complémentaire » ou « extension » en français. Supplément compatible et qui permet dagrémenter, dajouter une fonctionnalité et de faire évoluer un logiciel.
Programme : jeu dinstructions envoyé à la machine lui permettant dexécuter des ordres. Ce jeu dinstructions brut envoyé à lordinateur et à ses composants, ou « langage machine », nest pas écrit directement par le programmeur. Le programmeur écrit les ordres quil souhaite envoyer à lordinateur dans un langage de programmation, de bas (assembleur) ou de haut niveau (par exemple le langage C), et ces ordres sont traduits en langage machine par un programme assembleur ou un compilateur respectivement.
Serveur : à la différence dune station de travail, le serveur fournit des services à celle-ci. Larchitecture client-serveur qui caractérise bon nombre de réseaux informatiques établit très nettement cette distinction. Le poste « client », outre les logiciels qui fonctionnent hors connexion, peut utiliser des logiciels de communication : des logiciels appelés, techniquement et à juste titre, des clients de messagerie, des navigateurs ou clients Web, etc., faisant appel aux services dun serveur.
Système dexploitation : programme permettant de piloter les périphériques dun ordinateur tout en fournissant une base à son utilisation : le Shell, à savoir la ligne de commande (en une dimension) ou linterface graphique (deux dimensions).
Transistor : semi-conducteur à 2 jonctions mis au point en 1948 aux laboratoires Bell dAT&T. Il est à la base du développement de lélectronique. Le transistor le plus fréquemment employé, comme ceux installés sur les modules Flip Chip de DEC, porte le nom exact de thyristor (à trois jonctions au lieu de deux).
Web : modalité du réseau informatique public internet. Il sagit des communications qui utilisent le protocole HTTP et qui permettent généralement dafficher des contenus HTML : du texte, des images et des « hyperliens ». Linternet ne se résume pas au Web puisquil offre une quantité dautres protocoles et services.
Annexe -- Fluidité des corps motorisés
Le caractère agressif de la conduite en voiture au Moyen-Orient peut choquer aussi bien loccidental que lautochtone éduqué et sensible à son rapport aux autres. Mais ny a-t-il pas dans cette manière de conduire, lexpression dune harmonie joyeuse et dune fraternité latente ? Loin de vouloir idéaliser le monde arabe tel un anthropologue romantique, jai moi-même constaté il y a quelques années à quel point il fallait savoir piloter et se faufiler pour avancer à Damas. La place de létoile à Paris, à côté, cest du gâteau. Javais compris quil fallait avancer non seulement en ayant les yeux rivés sur les rétros, mais aussi à loreille, aux sons des klaxons environnants auxquels je me devais de participer. Dans lincertitude, on avance un peu, pas trop pour éviter laccident, mais on avance. Il y a une confiance dans lautre, une harmonie latente qui permet la circulation. Ce ne sont pas des règles formelles qui dictent la manière de conduire, mais une limite entre laccident, le froissement de tôles et la caresse chaleureuse, à un centimètre prêt, dun frère motorisé.
Cette proximité entre les conducteurs va de pair avec leurs capacités de pilotage. Le plaisir de conduire sallie au plaisir dappartenir et de se mouvoir dans cet agrégat de fous du volant. Mais elle est aussi selon moi, la manifestation dune confiance en lautre. Sagit-il dune modalité dexpression de lOumma musulmane ? Jai cru en effet déceler, derrière laspect anarchique de la circulation en Syrie, des règles latentes qui donnent du sens et ordonnent la société. Dailleurs, je ne suis même pas certain quil y ait proportionnellement plus daccidents en Syrie quen France. Le code de la route réduit à sa simple expression, à savoir quil faut éviter décraser les piétons et de percuter dautres véhicules, ma semblé suffisant dans ce cadre. Cest bien parce quil y a une règle latente damour et de respect du prochain quil est permis à un piéton de traverser à laveugle un torrent de voiture sans risquer de se faire percuter.
Cependant, les voitures ne sont généralement pas aussi puissantes en Syrie quau Liban, et mon expérience de conducteur en terre dIslam fut davantage urbaine que sur voie rapide, jusquà une exception près que je développe plus loin. Ce qui relativise mon propos : il se peut bien que la conduite au Liban ne soit pas aussi harmonieuse que je le suppose. Au-dessus de 50 km/h il est difficile de frôler ses compatriotes à un centimètre près. Même si une queue de poisson à haute vitesse peut aussi sapprocher dune forme de caresse. Mais les risques sont plus importants et cet équilibre dont je parlais, entre laccident et la caresse, est difficilement atteignable. Limpression de violence est décuplée, et les risques associés aussi. Cela ne se combine pas facilement avec le sentiment dharmonie et de fluidité des corps que jessaye içi dexposer.
Jai aussi conduit sur la voie rapide en Syrie, en allant à la mer. Il y avait deux voies comme sur nos autoroutes françaises. Jétais tout à fait surpris de croiser un bus qui avançait du même côté que moi, à contre sens, sur la voie durgence
La surprise lemportait sur le sentiment de communion, mais cétait amusant. Si le conducteur de bus est à ce point sûr de ne pas sexposer à un accident en faisant cela, il impliquait que les automobilistes quil croise ne se laisseraient pas perturber par sa présence et le sens inopiné de sa progression. Plutôt quune prudence excessive, ce sont les capacités des automobilistes à sadapter, à faire attention et à innover, qui sont valorisées. La prudence est ailleurs, elle est reléguée aux autres, ce qui impose à ces derniers un niveau important daptitude au volant et de concentration.
Une voiture cest comme une bulle, vous êtes « chez vous ». Mais cest aussi une extension de soi. Les machines ne font pas que remplacer nos compétences, mais elles les décuplent et elles en créent. Avec une voiture, nous savons non seulement rouler, tourner, freiner, et éventuellement déraper, mais aussi interagir différemment avec les autres usagers. Lorsque vous vous imposez pour prendre une place dans la mêlée, cest dans la confiance des capacités de lautre de ne pas vous rentrer dedans. Cest bien parce quil y a un respect établi, quil faut être engageant. Je dis dans cet article que cet entrain nest pas nécessairement « agressif » au sens négatif du terme, mais quil est lexpression dune compétence au volant et dune manière de communier avec les autres, et que ces deux axes salimentent lun et lautre. Celui qui nest pas aussi bon conducteur que ses compatriotes, nen partage pas moins ces règles informelles de bonne conduite.
La sensualité entre humains, qui passe habituellement par la peau comme lendroit et la limite de la rencontre des âmes existerait sous une forme diminuée mais bien présente dans la mélasse de la circulation. Le bon conducteur fait corps avec son véhicule. Le klaxon, lévitement et le passage en force, ces interactions sont imprégnées de chaleur humaine, entre les corps véhiculés ou non. Remercier lusager que nous venons de dépasser en faisant un signe de main ou dire pardon, ce qui revient en quelque sorte au même, tout comme nous aurions pu dire à la fois bonjour et au revoir fait parti, pour moi, des règles de bien-séance. Mais je suis occidental et ces manières ne sont pas nécessaires pour appartenir, même temporairement à cette masse joyeuse de pilotes de Formule 1 en herbe.
Je ne veux absolument pas occulter le fait quen réalité, aujourdhui, les gens se tirent dessus dans cette région, et que la fraternité nest pas au beau fixe. A vrai dire, je comprends mal comment la cohésion sociale que jai observée peut paradoxalement aboutir à des bains de sangs. Peut-être que jidéalise, tout simplement. Mais les règles de société imprégnées dune culture islamique standard mont parue être salvatrices. Aussi, je souhaitais souligner la confiance et le respect sous-jacent et paradoxal à cette agressivité apparente.
P.Ph. Braun
Publié sur le blog Quant la ville dort, le 12 mars 2012
Dans leur ouvrage Le magnétisme animal, Binet et Féré (1887) préfèrent précisément ce terme à celui « dhypnotisme » puisquil laisse une place au caractère fantastique et inexpliqué des phénomènes qui sont observés.
Michael Polanyi, « Tacit Knowing: Its Bearing on Some Problems of Philosophy », Reviews of Modern Physics, Vol. 34, n° 4, p. 601-615, Octobre 1962. Donald MacKenzie et Graham Spinardi, « Tacit Knowledge and the Uninvention of Nuclear Weapons », dans Knowing Machines: Essays on Technical Change, sous la direction de Donald MacKenzie, p. 215-260, New edition, Cambridge: The MIT Press, 1998 [1996].
Patrick Fridenson, « Fordism and Quality: the French Case, 1919-93 », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 160-183, Coll. Fuji conference series, Oxford University Press, 1995.
Izumi Nonaka, « The Development of Company-Wide Quality Control and Quality Circles at Toyota Motor Corporation and Nissan Motor Co. Ltd. », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 139-159, Coll. Fuji conference series, Oxford University Press, 1995.
Patrick Fridenson fait référence à larticle de Takahiro Fujimoto et Joe Tidd, The UK and Japanese Auto Industry: Adoption and Adaptation of Fordism, acte présenté à la Gotenba City Conference, 1993.
Takahiro Fujimoto, « A Note on the Origin of the 'Black Box Parts' Practice in the Japanese Motor Vehicle Industry », dans Fordism Transformed: The Development of Production Methods in the Automobile Industry, sous la direction de Haruhito Shiomi et Kazuo Wada, p. 184-216, Coll. Fuji conference series, Oxford University Press, 1995.
Pascal Griset et Dominique Larroque, Electricité, électronique. Un siècle de développement automobile, PSA Peugeot Citroën, 2003, 367 pages.
Je fais référence à la notion de contre-productivité dIvan Illich, dans laquelle les techniques, lorsquelles arrivent à un certain degré de sophistication, produisent linverse de ce pour quoi elles étaient conçues.
Jean Bouleau , « Prométhéus et ISIS : la voiture intelligente », Décembre 1992, dans « Espace des sciences », en ligne , consulté le 27 août 2012.
David Gestalder, 1999-2012, « Le radioguidage RDS », dans « Émetteurs », en ligne , consulté le 27 août 2012.
« Historique », 2009, dans « Vivement la radio numérique », en ligne , consulté le 27 août 2012.
« History », 2011, dans « Clarion Japan », en ligne , consulté le 28 août 2012.
Rob Wagner, « History of GM's OnStar », 2012, dans « eHow », en ligne , consulté le 29 août 2012.
Jean Malvache (PSA Peugeot Citroën), Les boîtes de vitesses mécaniques pilotées à un embrayage, Société des Ingénieurs de l'Automobile, Document de présentation en PDF, conférence du 3 avril 2012 à Lyon.
La notion dobsolescence programmée est controversée car elle suspecte chez les constructeurs une volonté de limiter la durée de vie de leurs produits afin den assurer le renouvellement à des fins commerciales.
Jaccumule nombre de témoignages allant dans ce sens en particulier par de nombreux chauffeurs de taxi qui contrairement aux autres automobilistes, risquent de perdre leur travail en même temps que leur permis de conduire, celui-ci nétait pas différencié dans ses usages professionnel ou personnel.
Moteur TMD-85 de 1,8 litres à 4 cylindres en ligne.
Idem, suivi du moteur XD88 de 2 litres à 4 cylindres en ligne.
Moteur XL4D de 1,3 litres.
Moteur OM-636 de 2 litres.
Moteur OM-621 de 2 litres.
Entretien en 2012 avec le gérant de Destock Pièces Auto à Aulnay-sous-bois qui travaillait à lépoque chez Mercedes avenue de la grande armée (qui semble avoir déménagé sur les Champs Elysées). Tout le personnel est curieux détudier la motorisation de Volkswagen et la concession (Mercedes) avenue de la grande armée achète ce modèle concurrent pour en soulever le capot.
La CX diesel Turbo 2 doit être différenciée de la CX diesel Turbo série 2 la nomenclature Citroën nest pas évidente à saisir. « CX diesel turbo 2 », 15 avril 2012, dans « Mes Citroën CX », en ligne , consulté fin août 2012.
Entretien téléphonique avec Pierre Jennenez , responsable production du site PSA d Hérimoncourt en Franche-Compté, le 30 août 2012.
« Histoire Mercedes », 2012, dans « Elite-Auto », en ligne , consulté le 30 août 2012.
Avec le moteur Mercedes OM617 de 3 litres, 5 cylindres en ligne et turbo.
Avec le moteur Indénor XD3T/TE de 2,5 litres, 4 cylindres en ligne et turbo.
« Sujet: Peugeot 605 SVdt 2.5 ? », dans « FORUM Pratique > Discussions libres », en ligne , consulté fin août 2012.
« Refroidissement DK5 (2.5TD PSA) », dans « Forum-405 », en ligne , consulté fin août 2012.
« Longévité de la culasse du moteur de la 2.5 TD », dans « Planète Citroën > Citroën XM », en ligne , consulté fin août 2012.
« Historique de la 405 », dans « La Peugeot 405 18 juin 1987 à fin 1996 (France) », en ligne , consulté fin août 2012.
« L'historique de la Peugeot 405 », dans « Le site de la Peugeot 405 », en ligne , consulté fin août 2012.
« Flash Back Of The Day: History Of The Mercedes 123 Series », Décembre 2005, dans « eMercedesBenz », en ligne , consulté le 30 août 2012.
Joni Uunila, Juin 2012, « NEZ Round 1 Gardermoen », dans « Black Smoke Racing », en ligne , consulté le 29 août 2012.
Journal local finlandais Ilkka, édition du 26 août 2012. Page numérisé en ligne , consultée le 4 septembre 2012.
Joni Uunila, Juillet 2012, « On the way from Gothenburg to Gatebil Rudskogen », dans « Black Smoke Racing », en ligne , consulté le 29 août 2012.
« Vajaapyttyisen Vastaisku », 2008, dans « Vajaapyttyisen Vastaisku », en ligne , consulté le 29 août 2012.
« History of Sports Bikes », 2012, dans « Auto Support Forum », en ligne , consulté le 31 août 2012.
« Suzuki GSX-R1100 model history », 2012, dans « All Suzuki Motorcycles Ever Built », en ligne , consulté le 31 août 2012.
Je pense notamment aux Hells Angels dont les groupements locaux existent à travers le monde et qui furent interdits aux Etats-Unis à cause de la criminalité quils provoquaient.
La motocyclette Harley-Davidson V-Twin Racing Street Custom (VRSC) anciennement V-Rod.
« Harley Davidson », MegaFactories, Emeryville: Hoff Productions, n° 103, Documentaire télévisé, 28 janvier 2007. Reproduit et traduit dans « Les constructeurs de l'extrême : Harley Davidson » sur la chaîne Direct 8.
Jean-Philippe est chargé de la clientèle au garage concessionnaire agréé Suzuki Motohome ; 229 av. du Général Leclerc ; 94700 Maisons Alfort.
Marty Kane, « Streetbike Shootout rider Brock Davidson », Décembre 2004, dans « dragbike.com », en ligne , consulté le 29 août 2012.
Dite aussi humoristiquement la maladie la CAA Changite Audiophile Aigüe. Le Wife Acceptance Factor (WAF) est un autre acronyme qui en dit long sur les tensions que peuvent générer dans les couples, lespace occupé par de monstrueuses enceintes dans le salon.
Foobar2000 (open-source) est considéré comme étant le meilleur logiciel de lecture de musique dématérialisée en environnement Microsoft Windows. « Does foobar2000 sound better than other players? » La Foire Aux Questions officielle du projet logiciel indique : « No. Most of sound quality differences people hear are placebo effect (at least with real music), as actual differences in produced sound data are below their noise floor (1 or 2 last bits in 16bit samples). foobar2000 has sound processing features such as software resampling or 24bit output on new high-end soundcards, but most of the other mainstream players are capable of doing the same by now ».
Daniel Lyons, 5 octobre 2004, « Digital Dislocation » dans « Information for the World's Business Leaders Forbes.com », en ligne consulté le 20 mai 2012
Digital to Analog Converter (DAC) : convertisseur numérique-analogique permettant de relier une source numérique à lamplificateur.
« Vintage Cassette - The independent cassette deck resource », Mai 2012, en ligne consulté le 28 mai 2012.
Un exemple dentreprise artisanale permettant de réparer danciens matériels audio : Enrique Pointe de Lecture, à Nîmes, en ligne consulté le 28 mai 2012.
« Nakamichi 1000ZXL », Mai 2012, sur « The Vintage Knob », en ligne consulté le 29 mai 2012.
« Sony TC-177SD », Mai 2012, sur « The Vintage Knob », en ligne consulté le 29 mai 2012.
Bandes magnétiques de cassettes compactes en Dioxyde de chrome inventées par Dupont et breveté par BASF. « History of Compact Cassette », Mai 2012, sur « Vintage Cassettes », en ligne consulté le 29 mai 2012.
« Nakamichi 1000ZXL », Mai 2012, sur « Audio Database », en ligne consulté le 29 mai 2012.
« Nakamichi 1000ZXL Limited », Mai 2012, sur « Audio Database », en ligne consulté le 29 mai 2012.
Les amplificateurs Sansui comme lAUX 901 de la fin des années 1980 sont toujours très appréciés par les audiophiles.
Mesure permise par la loi aux Etats-Unis qui au lieu dune liquidation, permet simplement de cesser lactivité activité et de rembourser les créancier par la revente des actifs de lentreprise.
TEAC Corp. of America
Peter H. Salus, A Quarter Century of UNIX, First edition, Addison-Wesley Professional, 1994, p.10.
Paul E. Ceruzzi, A History of Modern Computing, Second edition, The MIT Press, 2003, p.174.
LUnix originel de Thompson était écrit en assembleur.
À condition cependant de mentionner simplement lauteur dans les attributions de copyrights. Cest pour ainsi dire la seule différence avec le « domaine public ». Cest également le cas pour la GPL.
Lautre apport substantiel fut celui du projet MACH de lUniversité Carnegie Mellon aux Etats-Unis (Pennsylvanie).
41 ans en 1998 à San Francisco, état de Californie.
En français et dans les langues latines, le pluriel dUnix se dit « Unices ».
« Microsoft and Novell Announce Broad Collaboration on Windows and Linux Interoperability and Support », 2 novembre 2006, dans « Microsoft News Center », en ligne , consulté le 13 août 2012.
TImaniac (et commentateurs), « Microsoft Novell et Microsoft main dans la main ! », Novembre 2006, dans « L'actualité du Logiciel Libre et de Linux - LinuxFr.org », en ligne , consulté le 13 août 2012.
Sommité du mouvement open-source. Il publie en 2001 louvrage The Cathedral & the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary, 241 pages. Distribué en ligne ainsi que par léditeur O'Reilly Media.
Dont lexemple le plus marquant fut le cassage de la protection Content-Scrambling System (CSS) en octobre 1999 (DeCSS) qui permettait alors aux utilisateurs de Linux de visionner des DVD protégés.
Adolphe Loos, Ornement et Crime, Rivages, 2003, trad. Sabine Cornille et Philippe Ivernel.
A linstar dun passage aux effets spéciaux dans Les temps Modernes de Charly Chaplin.
Eric S. Raymond, The Art of UNIX Programming, First edition, Addison Wesley, 2003.
Cf. Lexique.
« Most Reliable Hosting Company Sites in July 2012 », août 2012, dans « Netcraft », en ligne, , consulté le 9 août 2012.
Peter H. Salus, A Quarter Century of UNIX, First edition, Addison-Wesley Professional, 1994.
AT&T Research UNIX version 6 et 7 (ou simplement V6 et V7).
27 ans en 1993 (Slackware 1.0). Il vient dobtenir sa licence en sciences informatiques à lUniversité détat du Minnesota, Etats-Unis. Ce sera son seul et dernier diplôme.
Mastodon Linux, 2 mai 2002, en ligne , consulté le 13 août 2012.
Le gestionnaire de paquets Redhat Package Manager (RPM), qui était présent dès la version 1.0 de RedHat Linux, permet une meilleure supervision des applications installées et facilite la maintenance sur le long terme.
Une version simplifiée du gestionnaire de fenêtres KDE avait été réalisée.
Par lusage de systèmes Debian GNU/Linux et FreeBSD notamment. Slackware Linux ou des versions moins orthodoxes encore ne sont globalement utilisées que lorsque les besoins sortent du cadre de la simple production de services réseau. NetBSD et des versions allégées et portées sur dautres plateformes (cf. Lexique architecture matérielle) de Linux sont modifiées et mises en uvre dans la réalisation de systèmes embarqués.
La première version de Winamp annoncée au grand public fut la 0.20 le 21 avril 1997.
Cf. Lexique
Le PDP-7, PDP-11 ainsi que le VAX sont des mini-ordinateurs. Comparativement aux grands systèmes, le mini-ordinateur était destiné à une clientèle plus large. Il est moins puissant, mais il est aussi beaucoup moins coûteux. Il est accessible aux bureaux détudes et laboratoires qui peuvent dès lors bénéficier dun ordinateur dédié plutôt que de partager un ordinateur central ou de le louer au constructeur au prorata temporis. Alors que les tarifs des ordinateurs centraux se chiffrent en centaines de milers à des millions de dollars, le CDC 160A (1960) est commercialisé à 60 000 dollars, le PDP-1 à 120 000 dollars en 1960 (sans doute le tarif était-il légèrement plus élevé en 1959 au moment de son lancement), le LINC (1962) à 43 600 dollars et le DEC PDP-5 (1964) à 27 000 dollars.
Premier mini-ordinateur à 32 bits (1974) et qui précédait dune année le VAX de chez DEC.
Les processeurs de calculs des ordinateurs récents sont parfaitement incompréhensibles : étant donné quils sont extrêmement élaborés, il est même difficile de savoir si quelquun est capable den comprendre le fonctionnement dans sa totalité.
Alfred Binet et Charles Féré, Le Magnétisme animal : Études sur l'hypnose, lHarmattan, 2006 [1887], 283 pages.
Cf. Lexique
Michael Polanyi, « Tacit Knowing: Its Bearing on Some Problems of Philosophy », Reviews of Modern Physics, Vol. 34, n° 4, p. 601-615, Octobre 1962.
Donald MacKenzie et Graham Spinardi, « Tacit Knowledge and the Uninvention of Nuclear Weapons », dans Knowing Machines: Essays on Technical Change, sous la direction de Donald MacKenzie, p. 215-260, New edition, Cambridge: The MIT Press, 1998 [1996].
Tournée AutonomiZation fin 2005, en France et en Belgique.
Cf. Lexique : Nerd
Selon Jung, lénergie vitale se comprend et se résume à lénergie sexuelle et les rêves sont luvre dun mécanisme de compensation. Les rêves à composante sexuelle ne doivent dailleurs pas être compris au premier degré. Carl Gustav Jung, L'Homme à la découverte de son âme : Structure et fonctionnement de l'inconscient, Nouvelle édition, Albin Michel, 1987.
Ou dun complexe. Chapitre sur les complexes dans Carl Gustav Jung, L'Homme à la découverte de son âme : Structure et fonctionnement de l'inconscient, Nouvelle édition, Albin Michel, 1987.
Je développerai ce témoignage de Kenneth Olsen (DEC) dans le paragraphe « le famtôme de lindustrie » dans le chapitre sur « La bulle spéculative de linnovation ».
Lordre conceptuel et lordre social sont inséparables. Les concepts et les conventions sont intégrés dans des « formes de vie » (Wittgenstein). Les concepts scientifiques et les conventions sociales se renforcent respectivement comme dans un réseau ou dans une systémie dont la matrice sous-jacente serait le maintient dun ordre global. Collins prend lintelligence artificielle comme contre-exemple : il est impossible à un logiciel de reconnaissance vocale de saisir les sens ambigu que peuvent parfois avoir les mots, à moins den comprendre le contexte. Comment des machines pourraient-elles partager avec les humains une même perception, une même compréhension ? Comment pourraient-elles participer à ce phénomène de renforcement mutuel des conceptions et de lordre social ? Elles ne le peuvent pas, tout simplement parce quelles nont pas bénéficié du processus social quest léducation. Comprendre son environnement, cest en quelque sorte lassimiler : nous effectuons des généralisations à partir dexpériences passées. Cest ce que Collins appelle « linférence inductive » et il reprend lexemple de la Boule de billard de Hume : notre raison sattend à voir une boule de billard frappée par une autre se déplacer à son tour, alors que le lien de cause à effet nest pas aussi certain. Cest la stabilité de la répétition, de la reproduction dexpériences passées qui détermine la perception et le sens que nous osons leur donner. Par exemple, nous ne monterions pas dans un bus sil changeait dapparence ou de nature à tour de rôle. Cest bien parce quil garde son apparence et sa fonction de bus que nous voulons y entrer et par-là même, dinteragir et de partager une même conception du bus avec dautres usagers. De même avec lidée que lon se fait des émeraudes : en dépit de leur couleur changeante en fonction de la luminosité, nous disons généralement delles quelles sont vertes et comprenons en commun et globalement la notion démeraude. Collins parle dailleurs dun entrelacement et dun renforcement mutuel des termes des mots « vert » et « émeraude » dans cette notion. Et cest là une manière dappliquer le Programme Empirique du Relativisme (Empirical Programme of Relativism) : il faut considérer le langage descriptif comme sil sappliquait à des objets imaginaires (Collins 1981). Ceci est lié au concept de réseau Hesse que Collins développe au chapitre 6. Si nous disons quelles sont vertes plutôt que de couleurs changeantes, cest bien parce que la notion de « vert » est mélangée à dautres notions dans ce contexte. Barnes, 1983, propose lexemple de la Baleine. Si nous découvrions une Baleine pour la première fois, sans en avoir jamais vue, devrait-on la ranger dans la catégorie des poissons et des « créatures qui vivent dans leau » ou plus généralement des animaux, puisque à la différence des autres créatures de ce type, la baleine respire à lair libre ? Tous les concepts sont modifiables, adaptables, mais ils ne le sont pas tous dans leur ensemble. Le réseau se réadapte et se réorganise, mais il fait cela dans le sens dune cohérence générale et dune stabilité, rendues possible par un renforcement inter-corrélé de ses parties. Collins est en accord avec ce modèle (Hesse) à la différence près quil ne croit pas quil sagisse dun mécanisme automatique probabiliste qui règle lordonnancement des objets dans leur concept. Encore une fois, lexercice « dembouteillage » nest pas réglé comme un ordinateur. Lordre est avant tout social, les règles sont incorporées et institutionnalisées dans des « formes de vie ». Collins voit davantage le réseau comme celui de pratiques sociales. Extrait danalyse de texte revu et condensé, sur Harry Collins, Changing Order: Replication and Induction in Scientific Practice, New edition, University of Chicago Press, 1992 [1985].
Bill Joy, « Why the future doesn't need us. », Wired, n° 8.04, Avril 2000.
« A one man one month job », mythe pour les industriels et réalité pour les artisans et ingénieurs passionnés et indépendants telle que lhistoire des logiciels informatiques le montre avec lUNICS originel de Thompson et Linux de Torvalds.
Jacques Ellul parle principalement des utilisateurs mais je ne les distingue pas des réparateurs et des ingénieurs. Ce qui les caractérise, cest précisément le partage dun régime de pensée technique dont les utilisateurs simprègnent à lusage et les réparateurs à la maintenance, par le référentiel de lobjet technique.
En annexe. Pierre-Philipp Braun, « Fluidité des corps motorisés », 12 mars 2012, dans « Quand la ville dort », en ligne , consulté le 2 septembre 2012.
Lidée « dabdication dans un monde empli de techniques » fut celle de Thomas Leroux, écrivain, lors dun échange.
Henri Bergson, Lévolution créatrice, Coll. « Les classiques des sciences sociales », document PDF, Gemma Paquet, 1907, p. 88.
« Plus la puissance de l'homme augmentera, plus il est important que l'homme ait un supplément d'âme. » Henri Bergson
Professeur dhistoire des techniques à lUniversité Paris 1 Panthéon Sorbonne.
Matthew Crawford est un universitaire américain qui décide de quitter ses activités institutionnelles pour monter un garage de réparation de motocyclettes. Il explique les raisons son choix dans son essai. Le travail manuel doit selon lui être valorisé. Il met en cause les modèles récents de la marque Mercedes car en en soulevant le capot, on est forcé de constater que la technique est volontairement occultée. On ny voit rien si ce nest une surface plane, à tel point que lobservateur est réduit au statut dignare ou de primate, à linstar de ceux qui dans 2001, LOdyssée de lespace de Stanley Kubrick (1968) qui contemplent le mur étrange et parfaitement rectangulaire qui grandit devant eux. Matthew B. Crawford, Éloge du carburateur : Essai sur le sens et la valeur du travail, La Découverte, Mars 2010, trad. Marc Saint-Upéry.
Le carrossier SMCDA à Bonneuil sur Marne dans le 94, bien quagréé Volkswagen, se fait prêter ce genre doutils de mesures électroniques très coûteux par un autre garage. Entretien avec Didier, mécanicien, 2011.
Cf. Lexique
Le groupement dutilisateurs iFixit montre comment changer la batterie soi même sur les diverses versions diPhone. « iFixit: The free repair manual », 2012, en ligne , consulté le 3 août 2012. Le logiciel Absinthe permet de débloquer (jailbreak) ce type dappareils afin de pouvoir installer les applications librement sans les restrictions de lApple Store.
Le logiciel Absinthe permet de débloquer (jailbreak) ce type dappareils afin de pouvoir installer des applications non répertoriées et sans les restrictions dApple Store.
Afin de pallier à des pannes récurrentes, le constructeur a remplacé les condensateurs bas de gamme quil installait dans ces écrans par des nouveaux qui lui sont propres et dont aucun équivalant nexiste sur le marché. « La mort programmée de nos appareils », dans Cash investigation, 1er juin, Documentaire télévisé, France 2, 2012.
La notion de « boîte noire » ou des « dessins approuvés » signifie autre chose dans lautomobile. Ils sagit dun accord entre le constructeur et le fournisseur pour partager les efforts de développement.
Entretiens avec Hervé Pouillet, Président Directeur Général ainsi quavec plusieurs ouvriers de lusine de Laroche SA, à Eragny dans le département du Val-dOise, équipementier de grands constructeurs automobiles ainsi que dans le domaine aérospatiale. Des usinages complexes y sont construits, cest à dire des pièces mécaniques à partir de matière brute. Septembre-octobre 2011.
Le commercial du concessionnaire Citroën à Créteil navait pas lair tout à fait convaincu de son propre argument.
Je dis bien « prédiction » et non « prévision » météorologiques et cela ne signifie pas nécessairement quil sagit dune pratique divinatoire tel que nous lentendons aujourdhui car lastrologie navait pour autre but initial que de prédire le temps quil fera au fur et à mesure de lannée afin de planifier les récoltes. Cf. dernier chapitre au sujet des prédictions, dans Géminos, Introduction aux phénomènes, Paris : Les belles lettres, 2002, trad. Geneviève Aujac. Et Francesca Rochberg, The Heavenly Writing: Divination, Horoscopy, and Astronomy in Mesopotamian Culture, Cambridge: Cambridge University Press, 2004.
Entretiens avec Laurent Giraud, propriétaire dinnombrables Peugeot et Citroen dont très nombreuses étaient équipées de motorisations XUD. 2010-2011à Barjac dans le Gard.
Harry Collins, Changing Order: Replication and Induction in Scientific Practice, New edition, University of Chicago Press, 1992 [1985].
« DEC Digital: From the Beginning promotional video », 28 juin 1989, dans « Computer History Museum », en ligne , consulté en juin 2011.
Pour la conception dun moteur par exemple, cette phase de viabilisation nécessite parfois dautres types dingénierie non seulement pour la reproduction du prototype mais aussi pour trouver les calibrages adéquats à laide de tests sur les bancs dessai.
Séances sur lhistoire sur des machines-outils par Serge Benoît (Université dEvry) dans le cadre du séminaire dhistoire des techniques (Paris 1) en 2011-2012.
Cf. Lexique
En référence au roman de George Orwell, 1984, Gallimard, 1972, 438 pages.
Système « Débrouille », au même titre que le Do It Yourself américain.
Bruno Latour, « From Realpolitik to Dingpolitik: An Introduction to Making Things Public », dans Making Things Public: Atmospheres of Democracy, sous la direction de Bruno Latour et Peter Weibel, catalogue of the show at ZKM, MIT Press, 2005.
Les deux sont liés, cependant, puisque quelques groupes dutilisateurs tentent déjà de faire pression sur les parlementaires qui sexprime sur des sujets quils ne maîtrisent pas. Jai parlé des Partis Pirates en Europe mais il y a aussi la Quadrature du Net qui fit pression sur le parlement français pour éviter ladoption de la loi Hadopi, sans succès. La loi Hadopi marque néanmoins la progression dun réalisme dans la régulation du numérique puisquau lieu dinfliger des amendes allant jusquà 20 000 euros aux accusés, comme le montre lexemple de James Climent, poète, 38 ans, dans le Gard en 2005 et en 2007, ce sont simplement des méls qui leurs sont envoyés juquà la coupure de laccès internet. Au sujet de James Climent. Alexandre Hervaud, « Fichiers-moi la paix », 10 août 2012, dans « Libération », en ligne , consulté le 4 septembre 2012.
Jules Moch, U.R.S.S : les yeux ouverts, Paris : Robert Laffont, 1956, p. 288.
Jules Moch, U.R.S.S. :Les yeux ouverts, Paris : Robert Laffont, 1956, p. 192-193.
Cf. chapitre « La philosophie Unix, lOpen Source et les hackers ».
Raymond Vernon, « International investment and international trade in the product cycle », Jounal of Economics, vol. 80, 1966.
Dans son roman de 1974, Robert Pirsig établit cette distinction et développe la pensée dun fantôme des techniques qui est assez similaire à la mienne au chapitre de la psychologie des techniques : le romantisme et le réalisme sinversent à un certain degré danalyse. Robert M. Pirsig, Zen and the Art of Motorcycle Maintenance: An Inquiry into Values, First edition, William Morrow & Company, 1974, 418 pages.
Je fais référence à lexemple de Thierry Cler qui réalise en électronique linverse de ce qui est enseigné dans les écoles dingénieurs. Confère au chapitre sur la haute fidélité acoustique, « Lamplificateur NAD 3020 ».
Le dicton dAlfred Sloan, président de General Motors, « A Car for Every Purse and Purpose » suppose une grande variété de modèles.
Lenceinte quatre voies conçue par Greg Timbers fut progressivement préférée par les employés mêmes, du constructeur JBL, y compris par le président du groupe, Dr. Sidney Harman, pour leur usage personnel. Au même titre quEdmond May qui initia la série de moniteurs studio 43xx à la fin des années 1960, Greg Timbers est lun des ingénieurs les plus éminents de lhistoire de lentreprise JBL. Greg Timbers, « L250 », dans Lansing Heritage, Don McRitchie, 2001. En ligne , consulté en 2011-2012.
« La prime à la casse doit accentuer l'engouement actuel pour les voitures écolos, émettant moins de 120g/CO2/km. ». « Prime à la casse », Décembre 2007, dans « Finances-perso.com », en ligne , consulté le 30 août 2012.
Agence de lenvironnement et de la maîtrise de lénergie (ADEME)
Paul Niedermeyer, « Curbside Classic: 1977 Mercedes 240D Diesel (W123) », Mars 2010, dans « The Truth About Cars », en ligne , consulté le 30 août 2012.
Un carburant issu de la culture du colza ou du tournesol.
Pierre-Philipp Braun, Digital Equipment Corporation : La transmission dune culture dingénierie (années 1960 et 1970), Mémoire de Master, Première année, EHESS, 2010-2011.
PAGE
PAGE 2