Titre du chapitre - Exercices corriges
En général: si un sujet se sent observé, il modifie son comportement. .....
Regroupe les divers organes, services et les relations entre eux (hiérarchique ou
fonctionnelle). En fait, il s'agit de ... c) Structure divisionnelle ... e) Structure
matricielle.
part of the document
Sommaire
TOC \o "1-3" \h \z \u HYPERLINK \l "_Toc270675597" Sommaire PAGEREF _Toc270675597 \h 1
HYPERLINK \l "_Toc270675598" Avant-propos PAGEREF _Toc270675598 \h 7
HYPERLINK \l "_Toc270675599" La valeur du système dinformation réside dabord dans ses actifs immatériels PAGEREF _Toc270675599 \h 8
HYPERLINK \l "_Toc270675600" Penser linformation avant les technologies PAGEREF _Toc270675600 \h 10
HYPERLINK \l "_Toc270675601" Une course aux technologies contre-productive sil y a un existant à gérer PAGEREF _Toc270675601 \h 11
HYPERLINK \l "_Toc270675602" Sans visibilité sur lexistant, pas dévolution efficace PAGEREF _Toc270675602 \h 12
HYPERLINK \l "_Toc270675603" La direction du SI, une question transverse de stratégie dentreprise PAGEREF _Toc270675603 \h 13
HYPERLINK \l "_Toc270675604" Linnovation par le système dinformation : une nécessité concurrentielle PAGEREF _Toc270675604 \h 14
HYPERLINK \l "_Toc270675605" Sans gestion proactive du patrimoine applicatif, lexistant devient une dette PAGEREF _Toc270675605 \h 16
HYPERLINK \l "_Toc270675606" À qui sadresse ce livre ? PAGEREF _Toc270675606 \h 17
HYPERLINK \l "_Toc270675607" Structure de louvrage PAGEREF _Toc270675607 \h 18
HYPERLINK \l "_Toc270675608" Partie 1 PAGEREF _Toc270675608 \h 19
HYPERLINK \l "_Toc270675609" Enjeux et risques dun SI qui évolue PAGEREF _Toc270675609 \h 19
HYPERLINK \l "_Toc270675610" Chapitre 1 PAGEREF _Toc270675610 \h 19
HYPERLINK \l "_Toc270675611" Lévolution face au poids de lexistant PAGEREF _Toc270675611 \h 20
HYPERLINK \l "_Toc270675612" Promesses des technologies et réalité de lexistant PAGEREF _Toc270675612 \h 20
HYPERLINK \l "_Toc270675613" Le défi de lintégration entre applications PAGEREF _Toc270675613 \h 24
HYPERLINK \l "_Toc270675614" Un héritage inégal selon les tailles dentreprises PAGEREF _Toc270675614 \h 27
HYPERLINK \l "_Toc270675615" PME/PMI : un héritage sous-estimé PAGEREF _Toc270675615 \h 27
HYPERLINK \l "_Toc270675616" Les entreprises en croissance : un héritage redondant au fil de leau PAGEREF _Toc270675616 \h 29
HYPERLINK \l "_Toc270675617" Des grands comptes menacés par des applications rétives aux changements PAGEREF _Toc270675617 \h 31
HYPERLINK \l "_Toc270675618" Chapitre 2 PAGEREF _Toc270675618 \h 32
HYPERLINK \l "_Toc270675619" Sadapter et anticiper : mission impossible ? PAGEREF _Toc270675619 \h 32
HYPERLINK \l "_Toc270675620" Linformatique et la productivité : des liens pas si directs PAGEREF _Toc270675620 \h 33
HYPERLINK \l "_Toc270675621" Le paradoxe de Solow : un déficit dimage pour les SI PAGEREF _Toc270675621 \h 33
HYPERLINK \l "_Toc270675622" Une vision bipolaire du SI, entre coûts et valeurs PAGEREF _Toc270675622 \h 35
HYPERLINK \l "_Toc270675623" Pourquoi lévolution de léconomie immatérielle pousse à la modernisation des SI PAGEREF _Toc270675623 \h 41
HYPERLINK \l "_Toc270675624" Chapitre 3 PAGEREF _Toc270675624 \h 45
HYPERLINK \l "_Toc270675625" Lobsolescence, facteur de risque PAGEREF _Toc270675625 \h 45
HYPERLINK \l "_Toc270675626" Lobsolescence : bien plus quun problème technique PAGEREF _Toc270675626 \h 46
HYPERLINK \l "_Toc270675627" Les systèmes dinformation sont-ils vraiment un avantage concurrentiel ? PAGEREF _Toc270675627 \h 48
HYPERLINK \l "_Toc270675628" Le patrimoine applicatif : entre ressource rare et corde au cou PAGEREF _Toc270675628 \h 51
HYPERLINK \l "_Toc270675629" Faire évoluer lexistant pour être plus agile PAGEREF _Toc270675629 \h 53
HYPERLINK \l "_Toc270675630" Fusions et acquisitions nécessitent restructuration et convergence de SI PAGEREF _Toc270675630 \h 54
HYPERLINK \l "_Toc270675631" Le commerce électronique impose louverture de lexistant PAGEREF _Toc270675631 \h 55
HYPERLINK \l "_Toc270675632" Rationalisez les données pour un meilleur pilotage PAGEREF _Toc270675632 \h 58
HYPERLINK \l "_Toc270675633" Prévenir les risques dobsolescence PAGEREF _Toc270675633 \h 60
HYPERLINK \l "_Toc270675634" Maintenir les bonnes conditions dutilisation et dévolutivité PAGEREF _Toc270675634 \h 60
HYPERLINK \l "_Toc270675635" Arbitrer entre les risques à prendre et ceux à ne pas prendre PAGEREF _Toc270675635 \h 62
HYPERLINK \l "_Toc270675636" Rester au bon niveau de compétences PAGEREF _Toc270675636 \h 63
HYPERLINK \l "_Toc270675637" Stagnation des compétences : résistances au changement en vue PAGEREF _Toc270675637 \h 63
HYPERLINK \l "_Toc270675638" Valoriser les compétences daujourdhui, anticiper celles de demain PAGEREF _Toc270675638 \h 65
HYPERLINK \l "_Toc270675639" Bien gérer son patrimoine SI PAGEREF _Toc270675639 \h 67
HYPERLINK \l "_Toc270675640" Partie 2 PAGEREF _Toc270675640 \h 68
HYPERLINK \l "_Toc270675641" La DSI et ses défis PAGEREF _Toc270675641 \h 68
HYPERLINK \l "_Toc270675642" Chapitre 4 PAGEREF _Toc270675642 \h 69
HYPERLINK \l "_Toc270675643" Réorganiser un centre de coûts en centre de valeurs PAGEREF _Toc270675643 \h 69
HYPERLINK \l "_Toc270675644" DSI : un rôle difficile PAGEREF _Toc270675644 \h 69
HYPERLINK \l "_Toc270675645" Le DSI idéal PAGEREF _Toc270675645 \h 69
HYPERLINK \l "_Toc270675646" Les variantes révélatrices dorganisation des DSI PAGEREF _Toc270675646 \h 72
HYPERLINK \l "_Toc270675647" La vision classique par fonctions informatiques PAGEREF _Toc270675647 \h 74
HYPERLINK \l "_Toc270675648" Lorganisation orientée services PAGEREF _Toc270675648 \h 76
HYPERLINK \l "_Toc270675649" Les modèles de positionnement de la DSI PAGEREF _Toc270675649 \h 79
HYPERLINK \l "_Toc270675650" Le centre de coûts PAGEREF _Toc270675650 \h 80
HYPERLINK \l "_Toc270675651" Le centre de services PAGEREF _Toc270675651 \h 80
HYPERLINK \l "_Toc270675652" Le centre de valeurs PAGEREF _Toc270675652 \h 80
HYPERLINK \l "_Toc270675653" Comment aller du centre de coûts vers le « centre de valeurs » ? PAGEREF _Toc270675653 \h 81
HYPERLINK \l "_Toc270675654" Chapitre 5 PAGEREF _Toc270675654 \h 83
HYPERLINK \l "_Toc270675655" Étapes cruciales dun pilotage réussi PAGEREF _Toc270675655 \h 83
HYPERLINK \l "_Toc270675656" Rendre le SI intelligible PAGEREF _Toc270675656 \h 85
HYPERLINK \l "_Toc270675657" Maîtriser ses coûts et son budget PAGEREF _Toc270675657 \h 89
HYPERLINK \l "_Toc270675658" Optimiser la relation avec les autres directions de lentreprise PAGEREF _Toc270675658 \h 94
HYPERLINK \l "_Toc270675659" Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif PAGEREF _Toc270675659 \h 94
HYPERLINK \l "_Toc270675660" Responsabiliser les métiers PAGEREF _Toc270675660 \h 100
HYPERLINK \l "_Toc270675661" Le nécessaire marketing du SI PAGEREF _Toc270675661 \h 104
HYPERLINK \l "_Toc270675662" La conduite du changement PAGEREF _Toc270675662 \h 109
HYPERLINK \l "_Toc270675663" Lautonomisation des métiers PAGEREF _Toc270675663 \h 111
HYPERLINK \l "_Toc270675664" Gérer efficacement les ressources et les moyens PAGEREF _Toc270675664 \h 113
HYPERLINK \l "_Toc270675665" La théorie du chaos PAGEREF _Toc270675665 \h 113
HYPERLINK \l "_Toc270675666" Le cycle de vie des applications PAGEREF _Toc270675666 \h 115
HYPERLINK \l "_Toc270675667" Anatomie des désastres PAGEREF _Toc270675667 \h 119
HYPERLINK \l "_Toc270675668" Limplication des utilisateurs au bon moment PAGEREF _Toc270675668 \h 123
HYPERLINK \l "_Toc270675669" Un pilotage multidimensionnel PAGEREF _Toc270675669 \h 129
HYPERLINK \l "_Toc270675670" Exploiter les bonnes pratiques PAGEREF _Toc270675670 \h 130
HYPERLINK \l "_Toc270675671" Gérer les compétences PAGEREF _Toc270675671 \h 135
HYPERLINK \l "_Toc270675672" Chapitre 6 PAGEREF _Toc270675672 \h 138
HYPERLINK \l "_Toc270675673" Activer les leviers de création de valeur PAGEREF _Toc270675673 \h 138
HYPERLINK \l "_Toc270675674" La valeur passe avant le ROI PAGEREF _Toc270675674 \h 139
HYPERLINK \l "_Toc270675675" La vue partagée 360° du SI PAGEREF _Toc270675675 \h 140
HYPERLINK \l "_Toc270675676" Apprivoiser le changement PAGEREF _Toc270675676 \h 140
HYPERLINK \l "_Toc270675677" Sinspirer de la théorie de la simplexité PAGEREF _Toc270675677 \h 142
HYPERLINK \l "_Toc270675678" Le processus de décision : des règles pour passer de la vue locale à la vue globale PAGEREF _Toc270675678 \h 144
HYPERLINK \l "_Toc270675679" Lanalyse de la valeur PAGEREF _Toc270675679 \h 147
HYPERLINK \l "_Toc270675680" La gestion du portefeuille applicatif PAGEREF _Toc270675680 \h 152
HYPERLINK \l "_Toc270675681" Contrôler ses biens logiciels PAGEREF _Toc270675681 \h 152
HYPERLINK \l "_Toc270675682" Évaluer la valeur des applications PAGEREF _Toc270675682 \h 155
HYPERLINK \l "_Toc270675683" Partie 3 PAGEREF _Toc270675683 \h 158
HYPERLINK \l "_Toc270675684" Approches tactiques pour la modernisation PAGEREF _Toc270675684 \h 158
HYPERLINK \l "_Toc270675685" Chapitre 7 PAGEREF _Toc270675685 \h 159
HYPERLINK \l "_Toc270675686" À chaque solution, un contexte PAGEREF _Toc270675686 \h 159
HYPERLINK \l "_Toc270675687" La gouvernance de lhéritage PAGEREF _Toc270675687 \h 159
HYPERLINK \l "_Toc270675688" Lévolution préventive PAGEREF _Toc270675688 \h 161
HYPERLINK \l "_Toc270675689" Chapitre 8 PAGEREF _Toc270675689 \h 162
HYPERLINK \l "_Toc270675690" Tactiques orientées solutions PAGEREF _Toc270675690 \h 162
HYPERLINK \l "_Toc270675691" Quand choisir dabandonner, de réutiliser ou de rénover lexistant ? PAGEREF _Toc270675691 \h 163
HYPERLINK \l "_Toc270675692" Faire une croix sur lexistant PAGEREF _Toc270675692 \h 164
HYPERLINK \l "_Toc270675693" Réutiliser des services de surface PAGEREF _Toc270675693 \h 166
HYPERLINK \l "_Toc270675694" Rénover en profondeur avec la réingénierie logicielle PAGEREF _Toc270675694 \h 167
HYPERLINK \l "_Toc270675695" Comment débuter ? PAGEREF _Toc270675695 \h 168
HYPERLINK \l "_Toc270675696" Le champ de la réingénierie logicielle PAGEREF _Toc270675696 \h 171
HYPERLINK \l "_Toc270675697" La rétrodocumentation PAGEREF _Toc270675697 \h 171
HYPERLINK \l "_Toc270675698" La conversion de langage PAGEREF _Toc270675698 \h 172
HYPERLINK \l "_Toc270675699" La ré-architecture de code PAGEREF _Toc270675699 \h 175
HYPERLINK \l "_Toc270675700" La migration de plates-formes PAGEREF _Toc270675700 \h 181
HYPERLINK \l "_Toc270675701" Quelle solution privilégier ? PAGEREF _Toc270675701 \h 183
HYPERLINK \l "_Toc270675702" Lanalyse de la valeur, la clé du choix PAGEREF _Toc270675702 \h 183
HYPERLINK \l "_Toc270675703" Analyser le patrimoine : les référentiels à mettre en place PAGEREF _Toc270675703 \h 185
HYPERLINK \l "_Toc270675704" Les phases de la rénovation progressive PAGEREF _Toc270675704 \h 187
HYPERLINK \l "_Toc270675705" Diagnostic PAGEREF _Toc270675705 \h 188
HYPERLINK \l "_Toc270675706" Redocumentation PAGEREF _Toc270675706 \h 189
HYPERLINK \l "_Toc270675707" Simplification/rationalisation PAGEREF _Toc270675707 \h 190
HYPERLINK \l "_Toc270675708" Transformations dinfrastructures PAGEREF _Toc270675708 \h 191
HYPERLINK \l "_Toc270675709" Introduction du paramétrage PAGEREF _Toc270675709 \h 191
HYPERLINK \l "_Toc270675710" Contrôle de lévolution PAGEREF _Toc270675710 \h 191
HYPERLINK \l "_Toc270675711" Chapitre 9 PAGEREF _Toc270675711 \h 192
HYPERLINK \l "_Toc270675712" Principes darchitecture dentreprise le SI durable PAGEREF _Toc270675712 \h 192
HYPERLINK \l "_Toc270675713" Le concept de SI durable PAGEREF _Toc270675713 \h 193
HYPERLINK \l "_Toc270675714" Gouverner lhéritage du passé pour contribuer au futur PAGEREF _Toc270675714 \h 193
HYPERLINK \l "_Toc270675715" Modernisation et urbanisation : les deux faces de Janus PAGEREF _Toc270675715 \h 199
HYPERLINK \l "_Toc270675716" Durabilité et chaîne dagilité PAGEREF _Toc270675716 \h 202
HYPERLINK \l "_Toc270675717" Les cartographies PAGEREF _Toc270675717 \h 206
HYPERLINK \l "_Toc270675718" Référentiel de lecture ou référentiel spatio-temporel PAGEREF _Toc270675718 \h 207
HYPERLINK \l "_Toc270675719" Lutile et lindispensable PAGEREF _Toc270675719 \h 208
HYPERLINK \l "_Toc270675720" Le temps comme repère PAGEREF _Toc270675720 \h 209
HYPERLINK \l "_Toc270675721" Le temps de cartographier PAGEREF _Toc270675721 \h 209
HYPERLINK \l "_Toc270675722" La carte nest pas le territoire PAGEREF _Toc270675722 \h 211
HYPERLINK \l "_Toc270675723" Les référentiels PAGEREF _Toc270675723 \h 212
HYPERLINK \l "_Toc270675724" La cartographie des référentiels sur la « vue 360° » du SI PAGEREF _Toc270675724 \h 212
HYPERLINK \l "_Toc270675725" Les référentiels darchitecture dentreprise PAGEREF _Toc270675725 \h 214
HYPERLINK \l "_Toc270675726" Du bon usage des référentiels PAGEREF _Toc270675726 \h 216
HYPERLINK \l "_Toc270675727" Chapitre 10 PAGEREF _Toc270675727 \h 218
HYPERLINK \l "_Toc270675728" La prétention à lindustrialisation PAGEREF _Toc270675728 \h 218
HYPERLINK \l "_Toc270675729" Le triptyque coût/délai/qualité et ses limites PAGEREF _Toc270675729 \h 219
HYPERLINK \l "_Toc270675730" Les modèles de lindustrie qui font rêver linformatique PAGEREF _Toc270675730 \h 221
HYPERLINK \l "_Toc270675731" Lamélioration continue PAGEREF _Toc270675731 \h 221
HYPERLINK \l "_Toc270675732" La roue de Deming et le sens du mouvement PAGEREF _Toc270675732 \h 223
HYPERLINK \l "_Toc270675733" Lhumain, moteur de lévolution PAGEREF _Toc270675733 \h 225
HYPERLINK \l "_Toc270675734" Industrialisation des logiciels PAGEREF _Toc270675734 \h 226
HYPERLINK \l "_Toc270675735" Le principe dusine logicielle PAGEREF _Toc270675735 \h 226
HYPERLINK \l "_Toc270675736" De latelier logiciel à lusine PAGEREF _Toc270675736 \h 227
HYPERLINK \l "_Toc270675737" Lindustrialisation de la maintenance PAGEREF _Toc270675737 \h 227
HYPERLINK \l "_Toc270675738" Les unités duvre PAGEREF _Toc270675738 \h 230
HYPERLINK \l "_Toc270675739" La standardisation PAGEREF _Toc270675739 \h 234
HYPERLINK \l "_Toc270675740" Les avantages des standards PAGEREF _Toc270675740 \h 234
HYPERLINK \l "_Toc270675741" Standardisation : le trop est lennemi du bien PAGEREF _Toc270675741 \h 236
HYPERLINK \l "_Toc270675742" Linformatique en flux tendu PAGEREF _Toc270675742 \h 238
HYPERLINK \l "_Toc270675743" Le pilotage de la chaîne logistique PAGEREF _Toc270675743 \h 239
HYPERLINK \l "_Toc270675744" Le parallèle avec la production de SI PAGEREF _Toc270675744 \h 240
HYPERLINK \l "_Toc270675745" Chapitre 11 PAGEREF _Toc270675745 \h 242
HYPERLINK \l "_Toc270675746" Pour évoluer : innovation et Intelligence organisationnelle PAGEREF _Toc270675746 \h 242
HYPERLINK \l "_Toc270675747" Linnovation PAGEREF _Toc270675747 \h 243
HYPERLINK \l "_Toc270675748" Différenciation ou nécessité : quand innover ? PAGEREF _Toc270675748 \h 244
HYPERLINK \l "_Toc270675749" Domestiquer la « courbe des tendances » PAGEREF _Toc270675749 \h 246
HYPERLINK \l "_Toc270675750" Le paradoxe dAchille et la tortue PAGEREF _Toc270675750 \h 248
HYPERLINK \l "_Toc270675751" « Cest avec la logique que nous prouvons et avec lintuition que nous trouvons » PAGEREF _Toc270675751 \h 250
HYPERLINK \l "_Toc270675752" La reconnaissance et la liberté des réseaux du Web : un ferment de linnovation ? PAGEREF _Toc270675752 \h 251
HYPERLINK \l "_Toc270675753" Lévolution des compétences et des organisations PAGEREF _Toc270675753 \h 252
HYPERLINK \l "_Toc270675754" Le lien entre savoir-être et savoir-faire PAGEREF _Toc270675754 \h 253
HYPERLINK \l "_Toc270675755" Des binômes agiles pour lévolution PAGEREF _Toc270675755 \h 258
HYPERLINK \l "_Toc270675756" Conclusion PAGEREF _Toc270675756 \h 259
HYPERLINK \l "_Toc270675757" Annexe PAGEREF _Toc270675757 \h 262
HYPERLINK \l "_Toc270675758" Un héritage hétérogène PAGEREF _Toc270675758 \h 262
HYPERLINK \l "_Toc270675759" Chapitre A1 PAGEREF _Toc270675759 \h 263
HYPERLINK \l "_Toc270675760" Les fondations PAGEREF _Toc270675760 \h 263
HYPERLINK \l "_Toc270675761" Lévolution des langages : du binaire au concept PAGEREF _Toc270675761 \h 263
HYPERLINK \l "_Toc270675762" La cohabitation entre langages : une nécessité et des contraintes PAGEREF _Toc270675762 \h 265
HYPERLINK \l "_Toc270675763" Le défi de la communication PAGEREF _Toc270675763 \h 270
HYPERLINK \l "_Toc270675764" Chapitre A2 PAGEREF _Toc270675764 \h 273
HYPERLINK \l "_Toc270675765" Les changements de paradigmes PAGEREF _Toc270675765 \h 273
HYPERLINK \l "_Toc270675766" Première époque : la période centralisée (années 1950-1960) PAGEREF _Toc270675766 \h 274
HYPERLINK \l "_Toc270675767" Le règne des titans PAGEREF _Toc270675767 \h 274
HYPERLINK \l "_Toc270675768" Les amorces du changement PAGEREF _Toc270675768 \h 275
HYPERLINK \l "_Toc270675769" Deuxième époque : la rupture des systèmes ouverts (décennies 1970-1980) PAGEREF _Toc270675769 \h 276
HYPERLINK \l "_Toc270675770" Les systèmes transactionnels PAGEREF _Toc270675770 \h 276
HYPERLINK \l "_Toc270675771" Unix : une rupture significative PAGEREF _Toc270675771 \h 278
HYPERLINK \l "_Toc270675772" Larrivée des ordinateurs personnels PAGEREF _Toc270675772 \h 279
HYPERLINK \l "_Toc270675773" Un nouveau modèle économique PAGEREF _Toc270675773 \h 281
HYPERLINK \l "_Toc270675774" Troisième époque : les architectures distribuées (1990-2000) PAGEREF _Toc270675774 \h 282
HYPERLINK \l "_Toc270675775" Le modèle client-serveur PAGEREF _Toc270675775 \h 282
HYPERLINK \l "_Toc270675776" Les niveaux darchitecture PAGEREF _Toc270675776 \h 283
HYPERLINK \l "_Toc270675777" Les débuts dInternet PAGEREF _Toc270675777 \h 286
HYPERLINK \l "_Toc270675778" Internet : lévolution des modèles vers plus de portabilité et dagilité PAGEREF _Toc270675778 \h 288
HYPERLINK \l "_Toc270675779" Java et le rêve dindépendance aux plates-formes PAGEREF _Toc270675779 \h 288
HYPERLINK \l "_Toc270675780" Les logiciels libres : lunion fait la force PAGEREF _Toc270675780 \h 291
HYPERLINK \l "_Toc270675781" Une nouvelle façon de penser les développements PAGEREF _Toc270675781 \h 292
HYPERLINK \l "_Toc270675782" Lévolution des modèles de conception PAGEREF _Toc270675782 \h 294
HYPERLINK \l "_Toc270675783" Vers une gestion de projets logiciel agile PAGEREF _Toc270675783 \h 295
HYPERLINK \l "_Toc270675784" Les différents modèles de cycle de vie des projets PAGEREF _Toc270675784 \h 296
HYPERLINK \l "_Toc270675785" Agilité et logiciel PAGEREF _Toc270675785 \h 300
HYPERLINK \l "_Toc270675786" Du service informatique aux services informatisés PAGEREF _Toc270675786 \h 302
HYPERLINK \l "_Toc270675787" Vers un SI construit par assemblage de services PAGEREF _Toc270675787 \h 304
HYPERLINK \l "_Toc270675788" Chapitre A3 PAGEREF _Toc270675788 \h 306
HYPERLINK \l "_Toc270675789" Web et maîtrise de linformation : les forces en marche PAGEREF _Toc270675789 \h 306
HYPERLINK \l "_Toc270675790" De la communication à la connaissance PAGEREF _Toc270675790 \h 307
HYPERLINK \l "_Toc270675791" Une évolution en cours PAGEREF _Toc270675791 \h 307
HYPERLINK \l "_Toc270675792" Le monde interactif de linformation PAGEREF _Toc270675792 \h 308
HYPERLINK \l "_Toc270675793" La surexposition de linformation PAGEREF _Toc270675793 \h 313
HYPERLINK \l "_Toc270675794" Maîtrise de linformation : régulation et coordination PAGEREF _Toc270675794 \h 313
HYPERLINK \l "_Toc270675795" Donner du sens à linformation : lambition du futur PAGEREF _Toc270675795 \h 315
HYPERLINK \l "_Toc270675796" Les deux pressions dévolution sur le SI PAGEREF _Toc270675796 \h 315
Avant-propos
Le commencement est la moitié de tout.
Platon
Après cinquante ans dexercice en entreprise, linformatique ne devrait plus être un secteur si nouveau quil faille en vulgariser lapproche pour les spécialistes.
Rien nest moins sûr, pourtant. Les technologies de linformation et des communications sont une chose ; les systèmes dinformation dentreprise, une tout autre. Une vérité première que les directions doivent enfin comprendre pour piloter intelligemment le levier stratégique dadaptation à léconomie immatérielle: leur système dinformation.
Ce livre a pour ambition déclairer les différentes parties prenantes, chefs de projets, directions des systèmes dinformation mais aussi directions générales et directions métier, sur lenjeu du bon pilotage dun système dinformation. Il offre une méthode pour faire évoluer les comportements, les organisations et lhéritage du passé pour exploiter pleinement ce levier potentiel.
Il nous paraît nécessaire de rappeler sept vérités :
La valeur du système dinformation réside dabord dans ses actifs immatériels, pas dans une logique purement tayloriste.
Le système dinformation nécessite davoir réfléchi sur linformation avant de réfléchir aux technologies.
La course aux technologies est contre-productive quand on a un existant à gérer.
Lévolution ne tire pas ses nouveautés du néant. Elle travaille sur ce qui existe déjà. Sil ny a pas de visibilité sur lexistant, on ne peut évoluer efficacement.
La direction des systèmes dinformation est une question transverse de stratégie dentreprise.
Linnovation par le système dinformation peut rendre les petites entreprises aussi concurrentielles que les grandes.
Sans gestion proactive du patrimoine applicatif, lexistant devient une dette.
La valeur du système dinformation réside dabord dans ses actifs immatériels
En effet, ce nest pas une logique purement tayloriste qui fonde la valeur dun système dinformation.
Quand on parle de productivité et dindustrialisation, les abaques et les mesures des secteurs industriels producteurs de matières, en particulier la logique du taylorisme, ne sont pas applicables à un système dinformation dont la valeur se mesure surtout à laune dactifs immatériels. Or, ce type de mesure est mal maîtrisé (voir lencart ci-après « Comment mesurer lintangible ? »).
Les actifs immatériels XE "actifs immatériels" sont des biens non physiques de lentreprise mais qui représentent un patrimoine à valeur ajoutée, par exemple la valeur dune marque connue, ou des bases de données contenant de précieuses informations sur les clients ou les fournisseurs. Ces biens ont une valeur certaine mais implicite et rarement formalisée clairement dans un portefeuille de gestion des actifs, ainsi que les risques associés. Pour les entreprises qui assimilent encore leur informatique à un « centre de coûts XE "centre de coûts" » (voir chapitre 4, p.80) les définitions de centre de coûts, centre des services et centre de valeur), il serait utile quelles réfléchissent aux conséquences financières, sur leurs ventes de produits et services, dune interruption totale de tous leurs systèmes, voire de la simple perte de données client. Pour les entreprises qui a contrario souhaitent évoluer vers la mise en place dune DSI pilotée par la valeur, les chapitres 4,5 et 6 développent des pistes concrètes en ce sens.
Comment mesurer lintangible ?
Une économie immatérielle XE "économie immatérielle" à 86 %
« Selon une étude de la Banque mondiale, léconomie française est immatérielle à 86 %. Sur les grandes places financières, lévolution est de même nature. Ainsi, la valeur immatérielle des entreprises cotées est devenue nettement supérieure à leur valeur comptable. Enfin, les normes IAS-IFRS XE "IAS-IFRS (normes)" accompagnent ce mouvement en reconnaissant un nombre important dactifs incorporels et la nécessité de les mesurer précisément. »
Cet extrait est issu du portail de lobservatoire de limmatériel XE "observatoire de limmatériel" (www.observatoire-immateriel.com) dédié à la mesure des actifs immatériels. Créé en 2005, suite au constat de limportance financière et managériale de ces derniers dans la gestion dentreprise et au manque de normes et méthodes de mesures, ses contributeurs ont entrepris un important travail de recherche pour proposer un premier référentiel européen de mesure de ces actifs à laide dun outil « baromètre » qui organise la mesure, la comparaison et la progression de 9 actifs fondamentaux, 71 critères danalyse et 175 indicateurs de mesure.
Le système dinformation figure au titre des 9 actifs fondamentaux, mais son rôle est particulier. Jean-Pierre Corniou, président dEDS Consulting Services qui livre son témoignage sur ce même portail, souligne : « Dans lère immatérielle, nous sommes passés de la main duvre au cerveau duvre. Le système dinformation est le bras armé du cerveau duvre », et de préciser : « la capacité du SI à fédérer lensemble du capital immatériel XE "capital immatériel" de lentreprise représente un facteur stratégique pour lentreprise [
] en créant une communauté virtuelle efficace entre tous les acteurs ».
Les critères danalyse du SI comprennent les coûts, la couverture métier actuelle en termes dindicateurs de données, sorties et traitement mais également en terme de réactivité par rapport aux besoins dévolution fonctionnelle. Les limites techniques dobsolescence matériel et logiciel sont également suivies ainsi que les niveaux de maturité sur les dimensions culture (de linformation), humaine (compétences), infrastructure (architecture, intégration, pilotage), processus de connaissance. Les niveaux de services sont considérés à travers les axes robustesse, disponibilité et sécurité.
Le baromètre ne propose pas de métriques et dindicateurs métiers pour évaluer lapport du SI à lentreprise (par exemple temps de traitement dune facture avec ou sans le SI). Par contre, il permet de mesurer la maturité de lentreprise vis-à-vis de son SI et sa capacité à évoluer, notamment à travers les mesures de réactivité et dobsolescences.
Reste à définir la contribution du SI aux autres actifs de lentreprise. C'est-à-dire, dans chaque entreprise, pour chaque cas dusage dune application ou dun service informatique, lapport que représente son utilisation. Que ce soit en termes de réduction de temps de travail, diminution de litiges et de pertes daffaires grâce à des informations plus fiables, obtention de chiffre daffaires, amélioration dune image de marque, etc, Ce qui nécessite, avant tout projet applicatif, destimer lapport attendu avec les utilisateurs en termes métiers, et de convenir de moyens réalistes de mesurer cet apport, lapplication une fois en production.
Penser linformation avant les technologies
Un système dinformation ne se résume pas à un assemblage de technologies, loin sen faut. En effet, lobjectif final de ces fameux systèmes dinformation est de stocker, préserver, exploiter et échanger des informations pour automatiser des tâches réplicables de façon plus sécurisée que ne le pourrait une intervention humaine, ou fournir à des utilisateurs les informations indispensables pour leur permettre dagir à bon escient et plus vite.
Les fameuses statistiques déchecs de projets informatiques (voir chapitre 5, p.113, REF _Ref260503033 \h \* MERGEFORMAT La théorie du chaos) nillustrent pas seulement une faiblesse éventuelle de pilotage ou des difficultés dordre technique, mais également la défaillance de la nécessaire composante humaine, organisationnelle et architecturale de tout projet de changement dun système dinformation.
Comment architecturer ces informations, comment en expliquer et en diffuser lutilisation ? Pour le comprendre, il faut mener une réflexion en amont sur la valeur de linformation à manipuler.
Il sagit de déterminer non seulement qui a besoin de quelles informations, mais quels sont les processus et les règles métiers auxquels elles contribuent. Il reste à qualifier la fiabilité des données dont on dispose pour construire le système, de vérifier si elles existent déjà et sous quelle forme, de comprendre les contraintes éventuelles liées à leur diffusion et dinstaurer des règles de création, de modification et de consultation pour un partage de linformation en toute sécurité.
Cette réflexion amont revient à concevoir tout système dans le cadre dune architecture dentreprise, avec les concepts de système dinformation durable développés dans le chapitre 9.
Sans cela, le système risque fort dêtre insatisfaisant pour les utilisateurs, voire de conduire à une plaie commune aux entreprises de toutes tailles : une floraison de petites applications à droite et à gauche, développées par des utilisateurs sur des applications bureautiques (en particulier grâce aux macros ©Microsoft Excel) ; autant dapplications créées au fil de leau, pour reconstituer rapidement les informations oubliées ou difficilement accessibles des systèmes institutionnels. Les conséquences pour la cohérence de lensemble sont facilement imaginables.
Une course aux technologies contre-productive sil y a un existant à gérer
Le cycle de vie des applications en entreprise nest pas celui des technologies et la course folle vers les dernières nouveautés peut se révéler contre-productive si on oublie « lhéritage » des cinquante dernières années.
Une application en entreprise peut vivre quarante ans sur des technologies dont le support sur le marché ne dure pas aussi longtemps. Reste, bien entendu, à mesurer aussi toutes les conséquences de lobsolescence et à comprendre comment prévenir les seuils critiques dobsolescence plutôt que de réagir quand ils sont atteints, au risque de mettre en danger la viabilité de lentreprise toute entière (voir chapitre 3, « lobsolescence, facteur de risque » et p.60 « prévenir les risques de lobsolescence »).
Ils lont dit
Passer systématiquement dune technologie à la nouvelle : un coût aberrant, par Paul Strassmann XE "Strassmann, Paul"
« Tous les sept ans, nous avons mis à la poubelle ce qui avait été fait auparavant et recommencé. Il y a eu huit cycles de mise en place et abandon depuis 1946. Le premier a coûté 100 millions de dollars américains ce qui correspondait à 7 % des investissements dentreprise à lépoque. Le dernier à coûté 2 milliards, soit 47 %. Le suivant aurait coûté 5 000 milliards mais nous étions à court dargent : nous sommes arrivés à la fin de lhistoire telle que nous la connaissions. »
Paul A. Strassman, ancien patron des systèmes dinformation de General Foods, Kraft, Xerox et du Département de la Défense américain.
Sans visibilité sur lexistant, pas dévolution efficace
La réflexion en amont ne suffit pas si elle ne prend pas en compte les contraintes ou les forces de lexistant. Les schémas directeurs qui sous-estiment la connaissance déjà enfouie dans les systèmes existants sans même parler des habitudes dusage sont voués à léchec. Leurs grandes lignes directionnelles doivent tenir compte des capacités et contraintes de départ.
Certains de ces systèmes sont le fruit de nombreux investissements, opérationnels depuis des années, et peuvent avoir recueilli les meilleures pratiques suite à des demandes dévolution de la part des utilisateurs. En outre, ils soutiennent parfois des opérations critiques pour le métier des organisations.
En parallèle, ils doivent faire face à une pénurie de compétences et à une perte de connaissances car ils sont bâtis sur des technologies anciennes non enseignées, ou conçus par des personnes qui ne sont plus disponibles pour les faire évoluer.
De surcroît, la logique de conception ancienne ne répond probablement pas à lagilité requise aujourdhui par le contexte économique, cest-à-dire la capacité à répondre rapidement à de nouveaux besoins fonctionnels et métier. Dès lors, la tentation est grande dopter pour des solutions de remplacement ou de refonte. Or, sans lecture approfondie des avantages et des limites de ces solutions, non seulement par rapport aux nouvelles fonctions et nouveaux services quelles pourraient fournir, mais aussi par rapport à leur capacité de couverture de tous les services existants, la réponse sera insatisfaisante.
Malheureusement, les services existants ne sont pas suffisamment visibles dans leur ensemble pour que cette lecture ait lieu sans effort conséquent.
De ce fait, le paradoxe est le suivant : à cause des difficultés à mettre de lordre dans lexistant, à le faire réagir plus rapidement et à donner plus de visibilité à sa valeur, on rajoute des couches hétérogènes les unes sur les autres. On construit alors une architecture accidentelle où chaque nouveau besoin conduit à une nouvelle application, jusquà ne plus avoir du tout de visibilité sur la valeur réelle du système dinformation global à lentreprise devenu une sorte de tour de pise construite par strates et pas plus de capacité à y mettre de lordre. Une gestion de portefeuille applicatif bien menée (voir chapitre 6, p.152) peut a contrario prévenir ce scénario.
La direction du SI, une question transverse de stratégie dentreprise
La direction des systèmes dinformation nest pas uniquement affaire de maîtrise des technologies de linformation ; elle est aussi nécessairement transverse. En effet, la transversalité est indispensable pour remonter vers la qualification de la valeur de linformation évoquée ci-dessus.
Ainsi, si le principe des architectures orientées services XE "architectures orientées services" \t "Voir SOA (Service Oriented Architecture)" (AOS ou SOA Service Oriented Architecture XE "SOA (Service Oriented Architecture)" ) na pas abouti au succès escompté, cest en partie faute davoir pris conscience de limplication profonde des autres directions de lentreprise dans la démarche et davoir aussi donné du temps à cette prise de conscience. On ne brusque pas le changement (voir optimiser la relation avec les autres directions de lentreprise, p.94).
Ensuite, la transversalité est nécessaire pour piloter des ressources très différentes, alliant des problématiques dinfrastructure technique à celles de gestion des ressources humaines. Il sagit de mobiliser des compétences hétérogènes, multiculturelles et multidisciplinaires, couplées à celles de fournisseurs internes et externes à lentreprise. Celle-ci ne peut plus être seule garante de disposer de toutes les compétences.
La transversalité est également nécessaire pour éviter les « silos » et ne pas découper le système dinformation en applications ou en organisations verticales. Les conséquences de ce découpage sont souvent les mêmes : difficulté à gérer des processus métier de bout en bout ou à maintenir la continuité entre lémission dune demande métier, le développement ou la maintenance évolutive y afférant, et la mise en production dune application.
Enfin, la transversalité doit aller au-delà dune vision projet, fût-il dentreprise. Nous sommes à une époque charnière où les systèmes dinformation dépassent le cadre de lentreprise du fait de lInternet, et le centre de gravité de léconomie des pays développés bascule des productions lourdes vers léconomie immatérielle.
Linnovation par le système dinformation : une nécessité concurrentielle
Cette innovation marque larrivée à maturation dun processus lancé en 2000. Le niveau déquipement des ménages (accès Web, smartphone) progresse de telle manière que les offres purement numériques, cest-à-dire issues dun système dinformation, ont une audience de plus en plus large, et sont même attendues des usagers. Linnovation a rencontré le marché, et créé une nécessité.
Des entreprises nouvelles fondées sur le commerce électronique font leur apparition. Leur modèle repose sur lusage intensif des technologies de linformation, à tel point que le ratio du budget de la Direction des systèmes dinformation (DSI), par rapport au chiffre daffaires de lentreprise, avoisine les 50 % (par exemple price minister), là où les entreprises traditionnelles, tous secteurs confondus, se cantonnent à des pourcentages moyens à un chiffre.
Cest aussi une formidable opportunité pour les petites et moyennes entreprises de renverser la donne qui voulait jusquà présent que seules les organisations ayant suffisamment de moyens en budget et en ressources humaines compétentes pouvaient bâtir des systèmes dinformation performants.
La plate-forme Internet a généré de nouveaux modèles de léconomie matérielle, car elle a permis lémergence et la diffusion des offres autour des logiciels libres ou des solutions de type Software As A Service, ou plus largement X As A service et jusquau cloud computing (voir définition chapitre 9, p. 194).
Aujourdhui des infrastructures puissantes dentreprise, ou même des briques logicielles pointues, sont à portée de tous et permettent de se concentrer sur la valeur des services et non sur les contraintes de la technique. Dès lors, linnovation XE "innovation:par le SI" par le système dinformation peut être un critère de différenciation des David contre des Goliath. Reste à comprendre les principes de ce type dinnovation et la distinguer dune nécessité dévolution par rapport à la maturité dun marché, ainsi que le développe le chapitre 11, p.237. Il faut également adapter la direction des SI aux nouveaux modèles dorganisation induits.
La pression dInternet sur les DSI
Les plates-formes de services vont modifier le rôle des DSI
. La mise à disposition dune infrastructure réseau mondiale à travers une interface conviviale (Web), a progressivement conduit à faire dInternet un tissu cellulaire de léconomie immatérielle en étant un réseau déchanges dinformation et dachats/ventes de biens et services reliant entreprises, clients, fournisseurs et partenaires. En France, les ventes en ligne brassent aujourdhui des milliards deuros de chiffre daffaires et poursuivent une croissance à deux chiffres. Pourtant, Internet est loin de se cantonner uniquement à la vente en ligne et à de nouveaux canaux de ventes.
Le Web (qui ne cesse dévoluer avec le 2.0) a favorisé léclosion de nouveaux services, de nouveaux modèles économiques, de nouvelles logiques darchitecture, de nouvelles bases dinformation et de connaissance et de nouveaux modes dorganisation. Le mouvement est loin dêtre achevé, en particulier pour les DSI .
Des intranets des débuts aux sites Internet institutionnels en passant par les extranets reliant des partenaires, puis aux « ASP XE "ASP (Application Service Provider)" Application Service Provider » (débuts balbutiants du Software As A Service XE "Software As A Service" \t "Voir Saas" qui a amorcé des logiques dhébergement dapplications chez le fournisseur accessible au client par Internet), les technologies et les niveaux de maturités ont conduit à de véritables plates-formes de services profitant dune puissance dinfrastructure démultipliée par les techniques de virtualisation et de cloud computing (voir définitions au chapitre 9, p. 194).
Lenjeu de modernisation des SI nest dès lors pas seulement technique ou applicatif mais aussi organisationnel. Avec les offres Saas (Software as A Service) et Cloud Computing, la DSI est attendue au tournant sur sa capacité à être réactive. Si lorganisation et la logique des directions des SI ne changent pas, elles risquent fort de disparaître au profit de solutions entièrement externalisées. Au-delà des débats sur les réelles économies de ces solutions ou des risques sur la sécurité des données, la DSI doit être capable de trouver des réponses efficaces et rapides aux besoins des utilisateurs en montrant une plus value face aux offres externes. Pour cela il faut quelle arrive à instaurer le dialogue entre tous les acteurs et à adapter ses propres processus, ne pas chercher à savoir faire, mais savoir comprendre le besoin, choisir et gérer au mieux la réponse, interne ou externe, tout en gardant cohérence à lensemble et en veillant à sa sécurité.
Aujourdhui, il y a nécessité et urgence pour toutes les entreprises traditionnelles daugmenter leur offre de services numériques ainsi que leur usage interne de ces technologies, désormais largement diffusées à lextérieur. Sans cela, elles risquent de perdre des parts de marché face à des entreprises plus agiles, qui démarrent sans passif dexistant ou de codes spécifiques à maintenir.
Avec le Web 2.0, nous avons passé un tournant : lusage des nouvelles technologies est aussi mature, sinon plus, à lextérieur des entreprises quen interne. Dautre part, les applications dentreprise proposées sur Internet surclassent parfois en fonctionnalités et en fiabilité des applications développées en interne. Dès lors, les utilisateurs et les clients sont plus exigeants sur les services informatiques qui leur sont proposés. Si les directions des systèmes dinformation des entreprises narrivent pas à sadapter à la demande car contraints de gérer un existant coûteux sans plus value face aux offres externes, cest non seulement la viabilité de leur fonction qui va être mise en cause, mais également le potentiel dadaptation de lentreprise face aux autres. Ainsi que développé dans le chapitre 5, le patrimoine applicatif peut être une ressource de différenciation, comme il peut devenir une dette.
Sans gestion proactive du patrimoine applicatif, lexistant devient une dette
Pour rester compétitives, les entreprises doivent réfléchir à lintégration à part entière du système dinformation dans leur stratégie. Il sagit daller bien au-delà dune déclinaison tactique des enjeux métier qui consisterait à aligner le système dinformation à une stratégie dentreprise déjà déterminée.
En parlant dalignement stratégique, on risque dinduire implicitement que le système dinformation suit les décisions stratégiques de lentreprise. Cest ce qui se passe au mieux dans les entreprises déjà matures. Le retard est énorme, car le tournant se situe aujourdhui davantage dans une approche proactive, où le système dinformation doit participer aux orientations stratégiques, en impliquant les bons acteurs dans les comités de direction.
Or, pour que les directions des systèmes dinformation puissent peser sur les décisions stratégiques et prétendre à un apport de valeur, elles doivent avoir la capacité à prendre du recul et voir plus loin que la gestion des contraintes opérationnelles de continuité de services qui est leur première mission.
Pour cela, elles doivent se libérer autant que possible des contraintes non justifiées par la valeur mais imposées par linertie dun existant, cest-à-dire appliquer en premier lieu à « lhéritage patrimonial XE "héritage patrimonial" \t "Voir legacies" » cette fameuse gouvernance des systèmes dinformation dont on parle depuis quelques années. Cest en effet sous le terme « legacies XE "legacies" » que nos amis Anglo-Saxons désignent les applications existantes. Elles savèrent être aussi bien des legs précieux que des dettes, si on ne sait pas les faire évoluer en utilisant les meilleures pratiques et référentiels de la profession.
En effet, sans gestion volontaire de leur patrimoine, les directions des systèmes dinformation peuvent se retrouver asphyxiées en permanence par le maintien à niveau dun existant de plus en plus rigide et coûteux, qui demande de plus en plus defforts pour fournir a minima les mêmes services aux utilisateurs. Pour cela il faut prévenir les risques dobsolescences et maintenir les bonnes conditions dutilisation et dévolutivité, selon des critères développés au chapitre 5, p.60.
À qui sadresse ce livre ?
Ce livre veut montrer en quoi il est nécessaire pour les entreprises davoir une approche des systèmes dinformation et des organisations associées qui soit guidée par la valeur.
Cela implique de faire évoluer un héritage dapplications et de pratiques existantes à travers une véritable gestion de patrimoine immatériel. Louvrage dresse les pistes pour y arriver, nécessairement transversales et multiaxes selon le niveau de maturité et le contexte de lentreprise, et propose quelques principes de bon sens doublés de bonnes pratiques.
Nous espérons donner au lecteur les moyens de comprendre le pilotage des systèmes dinformation existants, pour que, armé dune vision de ce que devrait être la place stratégique du système dinformation dans lentreprise, il puisse élaborer des trajectoires dévolution.
Au-delà de cette ambition première, lobjectif de cet ouvrage sera atteint si tout lecteur amené à prendre une décision dévolution sur son système dinformation, quelle que soit la direction à laquelle il appartienne et la taille de son entreprise, puisse y trouver matière à organiser sa réflexion sur la stratégie dévolution et sa déclinaison opérationnelle.
Nous souhaiterions également lui donner envie de partager cette réflexion avec ses pairs, car le DSI idéal (voir chapitre 4 p.69, Le DSI idéal) qui rassemblerait toutes les qualités nécessaires est un
collectif de compétences !
Aussi ce livre, sil traite du pilotage des systèmes dinformation, ne sadresse pas seulement aux fonctions transverses et de directions propres aux métiers des systèmes dinformation, cest-à-dire directeur des SI, responsables de services informatiques ou de domaines applicatifs, urbanistes, architectes, chefs de projet
Il sadresse également à tout acteur de lentreprise souhaitant mieux comprendre comment faire du système dinformation un atout gagnant pour la stratégie de son entreprise et comment piloter la transition vers cet état.
Aussi, pour ne pas perdre ses lecteurs, ce livre prendra le parti de revenir, grâce à de multiples apartés, sur du jargon technique ou sur des fondamentaux des systèmes dinformation qui paraissent évidents aux spécialistes mais quil est toujours bon de rappeler, ainsi que sur quelques historiques qui ont semblé à lauteur ne pas manquer dintérêt pour comprendre les évolutions.
Structure de louvrage
Louvrage est divisé en cinq parties. En premier lieu, il part du constat du legs dun patrimoine hétérogène et traite des enjeux exogènes de lévolution des systèmes dinformation (pressions externes dues au contexte socio-économique) et des risques au niveau de lentreprise. En seconde partie, il développe les défis et les moyens de la DSI pour se diriger du pilotage opérationnel vers le pilotage par la valeur, et ouvre la troisième partie sur les solutions tactiques de la modernisation. On expose en quatrième partie les meilleures pratiques de lévolution. Lannexe revient sur les étapes historiques qui ont mené aux difficultés à faire communiquer des strates hétérogènes et montrent en quoi Internet est devenu un véritable catalyseur de lévolution.
Lévolution est exigée par la bascule vers une économie majoritairement immatérielle, où les systèmes dinformation sont devenus les colonnes vertébrales des entreprises. Or, le manque dagilité de ces derniers peut conduire les entreprises au bord de la paralysie face à des enjeux dévolution qui requièrent des systèmes flexibles, rapidement adaptables. Outre le risque du manque dagilité face à un environnement concurrentiel mouvant, risque loin dêtre neutre, lobsolescence des systèmes conduit à dautres risques certains pour les entreprises. Cest ce que décrivent les chapitres 2 et 3 de la partie 1.
En partie 2, les chapitres 4, 5 et 6 décrivent lévolution des organisations vis-à-vis de leurs systèmes dinformation (chapitre 4), les enjeux et défis des DSI (chapitre 5) et les méthodes dactivation des leviers de création de valeur pour faire du SI un levier dévolution dentreprise (chapitre 6).
La partie 3 souvre sur la mise en perspective des solutions de modernisation (chapitre 7) pour expliquer ensuite les différentes options tactiques (chapitre 8) et la méthode dapproche pour une rénovation progressive de lexistant.
La partie 4 aborde les meilleures pratiques de lévolution, autant en termes dapproche architecturale de construction des systèmes dinformation quen termes dindustrialisation ; dune part, pour que les SI puissent sadapter dans la durée et disposer de composants recyclables dans un cadre de cohérence global (chapitre 9), dautre part, pour exploiter le potentiel dindustrialisation de certains processus propres au développement et à la maintenance des systèmes (chapitre 10). Pour finir sur lavenir et la création de valeur, les meilleures pratiques de lévolution intègrent les dimensions indispensables de linnovation et de lévolution des compétences (chapitre 11).
Partie 1
Enjeux et risques dun SI qui évolue
Chapitre 1 Lévolution face au poids de lexistant
Chapitre 2 Sadapter et anticiper : mission impossible ?
Chapitre 3 Lobsolescence, facteur de risques
Dans cette partie, nous décrivons les leviers de la modernisation des systèmes dinformation au niveau exogène. Il sagit des enjeux dadaptation et danticipation auxquels sont confrontées les entreprises dans un environnement mouvant modelé par les technologies de linformation qui poussent à moderniser des systèmes existants, devenus incapables dy répondre. Nous abordons également le pourquoi de cette incapacité en traitant les risques de lobsolescence et leurs conséquences.
Chapitre 1
Lévolution face au poids de lexistant
Pour prévoir lavenir, il faut connaître le passé, car les événements de ce monde ont en tout temps des liens aux temps qui les ont précédés. Créés par les hommes animés des mêmes passions, ces événements doivent nécessairement avoir les mêmes résultats.
Nicolas Machiavel
Si beaucoup de choses ont évolué depuis cinquante ans dinformatique en entreprise, si des architectures et des méthodes de conception et de développement émergent pour rapprocher la mise en uvre de services informatiques des besoins métier auxquels ils doivent répondre, lhéritage a également évolué de son côté, pour devenir de plus en plus complexe. Tant quil ne sera pas traité à sa juste mesure, les systèmes dinformation auront une épée de Damoclès au-dessus deux, ne tenant quà un fil écartelé entre risques et valeur.
Promesses des technologies et réalité de lexistant
Une entreprise qui souhaite mettre en place un nouveau service informatique pour répondre à ses besoins, dispose aujourdhui de moyens techniques ou de solutions logicielles beaucoup plus performants quil y a vingt ou même dix ans et chaque décennie apporte son lot de progrès (on pourra se référer à lannexe pour les retracer sur cinquante ans).
Les sociétés ayant des ressources en interne pour assurer des développements en réponse à des besoins spécifiques, peuvent puiser dans un cadre structurant pour sécuriser et accélérer ces développements. Ainsi les méthodes agiles (voir Agilité et logiciel, p.300), les environnements de développements intégrés (voir p.292, une nouvelle façon de penser les développements), les bibliothèques de programmes, les approches standardisées autour des services Web, leur assurent une évolution vers un mode de production de logiciels de plus en plus industrialisé (voir le principe de lusine logicielle p.226).
Lessor des logiciels libres (voir p.291, « logiciels libres, lunion fait la force), couplé avec la réutilisation des services web, autorise également la recherche de « briques » open source pour pouvoir se concentrer sur les développements vraiment différenciateurs et réutiliser des parties déjà développées, partagées par toute une communauté qui garantit leur maintenance et leur évolution.
Reste quutiliser des logiciels libres requiert a minima des compétences pour les choisir, les installer et les maintenir.
Dun autre côté, pour les entreprises qui nont pas besoin de développements extrêmement spécifiques et ne disposent pas déquipes de développement, loffre de solutions clés en main sétoffe.
Dune part, parce que loffre de progiciels se diversifie de par la concurrence entre acteurs commerciaux et solutions open source, dautre part avec lapparition des offres de « services logiciels » externalisées sur le Web, ou Saas (Software As A Service) et plus largement le Cloud Computing .
La facilité dutilisation de ces dernières est clairement une opportunité pour des petites entreprises qui nont ni les ressources ni les moyens à consacrer à un développement logiciel ou une installation de progiciel, même libre.
Progiciels XE "progiciels" : lembarras du choix
Un choix de fonctions riches mais aussi de mode de commercialisation, entre les progiciels sous licence (mode classique) , les progiciels open source et les progiciels « à la demande »
Le jeu de la concurrence et les rachats ont consolidé le paysage des éditeurs de progiciels de gestion intégrés (ERP) internationaux « classiques», autrefois composé dune pléiade dacteurs, à trois concurrents majeurs : Oracle, SAP et Microsoft (avec Navision entre autres).
Face à ces grands acteurs que lon retrouve souvent chez les grands comptes, des acteurs locaux se maintiennent auprès des PME/PMI , pour des raisons historiques ou parce quils répondent à des besoins verticaux métier précis.
Ainsi dans le classement 2010 du truffle des dix premiers éditeurs du secteur logiciel français, on trouve Cegedim Acitv, en 9e position, spécialisé dans les progiciels pour les acteurs de l'assurance à la personne (régime obligatoire, complémentaire, prévoyance...)., ainsi que Generix group, spécialisé dans la gestion des commerces et de la chaine logistique ; A la 8e position figure Esi group qui commercialise une solution de prototypage et de simulation de produit, prenant en compte la physique des matériaux.. Si Dassault systems occupe sans surprise la première place, on trouve CEGID en 4e position, qui domine encore le marché français des progiciels de gestion auprès des petites et moyennes entreprises.
Côté progiciels open source, loffre sest étoffée en quelques années, suffisamment pour concurrencer sérieusement les progiciels propriétaires.
Au-delà de la distribution linux Redhat, du serveur web Apache, du serveur dapplication Jboss et de la base de données mysql, les communautés du libre ont été fécondes en solutions, jusquà couvrir désormais bon nombre de domaines fonctionnels. On trouve des solutions de CRM (avec SugarCRM, lun des plus connus), des solutions de GED/groupware (tels Alfresco, knowledgeTree, etc.), une suite bureautique (Sun open office) et un client de messagerie (Mozilla thunderbird) capables de concurrencer Microsoft office et Microsoft Outlook. On trouve également des progiciels de gestion intégré (tels Adempierre, compiere, ERP5, Jfire, Openbravo, OpenErp, etc.), des solutions de gestion de données (tels Talend) ou décisionnelles (tels Jaspersoft) et des CMS (content Management System), tels Wordpress, qui nont rien à envier aux offres sous licences commerciales.
Quant aux offres de services sur abonnement (Saas), les premiers acteurs tels que SalesForce (CRM), Taleo (RH) Citrix Online (virtualisation et briques dinfrastructures) ont été rejoint par une pléiade de nouveaux dans tous les domaines (marketing, ventes, gestion de la chaîne logistique, gestion administrative et financière, RH, etc.). Parallèlement, les éditeurs traditionnels proposent de plus en plus leurs solutions en ce mode. Quant aux plateformes de services, si Salesforce a ouvert la voie avec Force, une plate-forme de développement dapplications qui fournit toutes les briques de bases pour se concentrer sur lassemblage de services, google apps propose une plate-forme concurrençant la suite office de Microsoft. Ce dernier répliquant à son tour avec les web apps doffice 2010.
Pour autant, les risques existent toujours aussi bien dans les développements, indépendamment des techniques utilisées que dans le choix de solutions « clés en mains ». Outre le fait que les progiciels sont structurants et que leur mise en uvre requiert un projet organisationnel, le jeu des rachats entre concurrents peut mettre à mal certaines promesses sur le long terme.
Certains progiciels peuvent tout simplement disparaître au cours du temps, soit parce quil sagit de progiciels de niche, sur un marché sectoriel très restreint et que léditeur na pas survécu à une année moins faste que les autres, soit du fait de multiples rachats, nombreux dans un univers où la meilleure façon déliminer son concurrent consiste parfois à le racheter. Cest une manière de récupérer sa base installée, pour convaincre petit à petit les utilisateurs de migrer vers les propres solutions de lacheteur.
Dautre part les offres de type « X as A service » nécessitent de prendre des précautions sur la sécurité et la capacité à rapatrier des données externalisées ultérieurement.
Ce sont pourtant des risques visibles, ils ne sont pas des freins à lévolution dès lors quon les prend en considération. La problématique dintégration avec un existant et de modernisation de ce dernier savère autrement préoccupante.
Il nest pas rare de trouver des applications en production de plus de quinze ans dans bon nombre dentreprises, bien antérieures aux nouvelles pratiques et aux standard générés par le développement dInternet. Une grande partie des projets de développement du système dinformation consiste à étendre le champ des fonctionnalités et des services de ces applications. Outre la difficulté à trouver des compétences sur des langages qui ne sont plus enseignés, ses applications sont les « parentes pauvres » de lévolution des techniques. Dune part, les architectures présentent des freins structurels aux échanges dans un monde ouvert et les langages utilisés ne disposent pas denvironnement de développement intégré ou de bibliothèques de composants. Dautre part, les méthodes de développement « agile » sont rarement applicables en maintenance, pour faire évoluer un existant en production depuis un moment.
Lexistant logiciel ayant vocation à se complexifier inéluctablement (voir les lois de lehman, p. 118), la capacité à le modifier nécessite de comprendre où réaliser une modification pour obtenir lévolution souhaitée, quels sont ses impacts sur les différents programmes et comment garantir la « non régression », c'est-à-dire la continuité de services des anciennes fonctions avec la même qualité. La plupart du temps, il faut retrouver la connaissance à partir du code, sans interlocuteur métier pour faciliter la compréhension du système en place. Ici, à linverse des méthodes agiles, la documentation de la connaissance est clé, les tests de non régression également et lexpertise du système nest pas partagée.
Pourtant, malgré leur ancienneté, beaucoup de ces systèmes existants sont conservés car ils contiennent une réelle logique métier spécifique à lentreprise quaucune offre du commerce ne peut remplacer. Cependant, le manque douverture darchitectures datées face aux besoins dévolution dun environnement économique global, où le système dinformation devient le système nerveux des échanges avec les clients et les partenaires, peut savérer épineuse, voire bloquante à terme. Dès lors, il est impératif pour les entreprises de moderniser leur existant à temps pour être plus agile, par exemple afin de bénéficier des perspectives du commerce électronique (voir p.55) ou pouvoir sadapter aux changements législatifs.
Dautre part, le patrimoine applicatif est un héritage constitué le plus souvent de fonctions, données et processus imbriqués.
Le défi de lintégration entre applications
Les applications sont rarement autonomes, elles ont besoin déchanger avec dautres soit pour récupérer des données, soit pour fournir à leur tour des informations. Un processus métier sappuie souvent en transverse sur plusieurs applications et alimente lui-même dautres processus métier. Les flux des échanges sont supportés par des protocoles, des formats déchange et des outils de communication (par exemple : http, smtp, rpc, queue de messages, middleware, etc.), plus ou moins évolués, plus ou moins standardisés.
Dailleurs, quand une entreprise adopte des standards, cest le plus souvent pour les futurs développements des applications. Reste à faire fonctionner ces dernières avec les applications patrimoniales, dont les développements ont été antérieurs à larrivée du nouveau standard.
Comment ça marche ?
Processus métier XE "processus:métier" et informatique
Selon la norme ISO 9001:2000, un processus est un ensemble dactivités corrélées ou interactives qui transforment les éléments dentrée en éléments de sortie. Par « éléments », il faut comprendre objets matériels ou information.
Dans une organisation, il existe des processus XE "processus:opérationnel" principaux opérationnels directement liés au cur de métier de lentreprise (production de biens ou de services) et des processus secondaires, dits « de support », dont les résultats sont nécessaires pour lexécution des processus principaux (comptabilité, paye, RH, par exemple). Il existe également des processus de pilotage et de décision pour contrôler latteinte des objectifs au regard de la stratégie de lentreprise. En réalité, tous ces processus sont des processus métier au sens où ils décrivent les activités de transformation de différents métiers sexerçant dans lentreprise.
Un processus métier nest pas forcément automatisé. Il peut lêtre pour partie, ou pas du tout. En revanche, le système dinformation ne se conçoit pas sans sa finalité de support ou de mise en uvre de processus métier (au sens large). Doù lintérêt de cartographier les processus métier de lentreprise, pour une meilleure visibilité (quoi et pourquoi) et lisibilité (quoi et comment) de lapport du système dinformation à chacun, afin de mieux comprendre la valeur du SI (le coût quil y aurait à faire sans) et ses possibilités dévolution (les bénéfices de faire avec).
La maturité des entreprises par rapport à lalignement de leur système dinformation avec leurs enjeux dépend aussi de leur capacité à évaluer en quoi celui-ci supporte les objectifs de leurs processus métier, et en quoi il pourrait aider à faire mieux, ou autrement.
Lévolution des sigles relatifs à la conception et à lautomatisation des processus métier XE "automatisation des processus métier" dans le système dinformation montre bien lévolution des préoccupations, de la vision technique à la vision métier. Ainsi a-t-on dabord parlé de workflow XE "workflow" (flux de travail) pour lautomatisation dun processus, puis de BPM XE "BPM (Business Process Management)" (Business Process Management) pour évoquer une couche de gestion des processus orientée métiers au-dessus de leur automatisation, à la suite de quoi lOMG XE "OMG (Object Management Group)" (Object Management Group) a essayé de standardiser la formalisation des processus métier pour mieux passer de la modélisation fonctionnelle à son instanciation outillée, avec le BPMN (Business Process Modeling Notation).
Il ny a pas que lhétérogénéité des langages et des plates-formes pour constituer un défi dintégration entre applications. Ces dernières ont souvent été développées au coup par coup des besoins, sous légide dune entité organisationnelle, et intégrées au point par point, suivant une logique de tuyaux et de flux dune application à une autre, pour ses besoins immédiats déchange. La conception nenvisage pas le plus long terme. Le résultat est un « SI spaghetti XE "SI spaghetti" », véritable casse-tête de lintégration.
sispaghetti.png
Figure 1-1
Le SI « spaghetti »
Il est alors difficile de considérer une intégration avec une autre application comme un simple branchement. Par ailleurs, les applications développées en « silos organisationnels » présentent des redondances avec dautres à léchelle du système dinformation dentreprise.
Certaines briques applicatives présentent des recouvrements de fonctionnalités ou de données. Dautre contiennent dans leurs bases de données des informations métiers historiques essentielles, par exemple, sur les clients, les contrats, les produits, les articles, les données techniques ou les services de lentreprise. Dès lors il est difficile de remplacer proprement une application en interne par un progiciel ou une application externalisée sans prendre en compte son insertion dans une architecture densemble des services fournis par le système dinformation, tant en termes de processus, de fonctions que de données.
La possibilité dévaluer leffort de ce quon maintient en exploitation au regard du bénéfice diminue en proportion des redondances, tandis que la complexité et les coûts de maintenance augmentent.
Cette approche darchitecture globale nest pas tant affaire de choix techniques dinfrastructure que danalyse de la valeur des portefeuilles applicatifs et projets. La visibilité (quest-ce qui fait quoi ? qui lutilise ?) et la lisibilité (à quoi ça sert ?) de ce quapporte le système dinformation est à ce prix, comme louvrage le développe en partie 2.
Si une infrastructure dintégration dentreprise peut également savérer nécessaire pour mieux contrôler lévolution, elle représente un investissement davantage du ressort de grands comptes ou dentreprises de taille intermédiaires (ETI) dont la croissance rapide a conduit a des problématiques dintégration complexes.
Un héritage inégal selon les tailles dentreprises
PME/PMI : un héritage sous-estimé
Bien que leurs problématiques dintégration ne soient pas à léchelle de grands comptes, les PME ont également un héritage à gérer en système dinformation. Leur survie dans un environnement concurrentiel, ou le succès dune reprise, peuvent dépendre de la bonne gestion de ce « leg » et son évolution.
Certes, les PME françaises ont encore du chemin à faire pour considérer leur système dinformation comme partie intégrante du pilotage de leur entreprise et en tirer partie en ce sens. Pour beaucoup, leur SI représente encore une fonction de support sur laquelle réduire les coûts au maximum. A lextrême, certaines nont ainsi pas de responsabilité désignée pour le système dinformation ni de service informatique, mais une personne chargée des achats informatiques entre autres fonctions.
Pour la plupart, elles nont ni la maturité en système dinformation issues de lexpérience des grandes entreprises ou des entreprises de taille moyenne, ni les moyens financiers ou humains pour investir dans des solutions relativement complexes à mettre en uvre. Une bonne partie ne souhaite pas avoir à maintenir des développements spécifiques, même externalisés.
Dès lors, leurs choix se fondent essentiellement sur lergonomie, la simplicité de mise en uvre et dimplémentation de solutions qui répondent spécifiquement à des besoins métiers verticaux ( distribution de médicaments, gestion de concessions automobiles, industries agroalimentaires
).
Bon nombre disposent de progiciels locaux pour des applications de gestion de la production (GPAO) ou de comptabilité (tels CEGID, SAGE, CIEL, etc) pour lesquels elles préfèrent les éditeurs hexagonaux, plus ciblés PME, que les acteurs internationaux qui cherchent pourtant à adapter leur offre à ce segment.
Leur système dinformation est relativement peu complexe. Si certaines ont franchi le pas du « tout intégré », le plus souvent le SI est structuré autour de deux ou trois progiciels, peu dapplications spécifiques, un intranet et un site internet.
Là où le bât blesse, cest dans lutilisation appropriée des progiciels et dans la gestion de lobsolescence des solutions utilisées.
Ainsi pour prendre un exemple simple, faute de formation, un responsable commercial peut se mettre à extraire et manipuler des tableurs (par exemple Microsoft Excel) pour réaliser un reporting des ventes, alors quun paramétrage du logiciel dédié aurait suffit pour obtenir simplement les informations, à jour et fiables, en moins de temps.
Les commerciaux quant à eux verront dun mauvais il la mise à jour et le partage de leurs contacts dans un outil central. Mais sans les sensibiliser à cette gestion centralisée et en laissant les contacts être gérés individuellement, éventuellement sous forme de cartes de visites, un jour viendra où lentreprise naura plus lhistorique des liens avec ses clients (départ des commerciaux, retraites,
).
Il reste également aux PME à franchir létape des applications « en silos » pour considérer le partage dinformation en transverse. Ce qui savère parfois plus facile à réaliser pour une PME que pour un grand compte dans la mesure où des solutions progicielles intégrées répondent à lensemble de leurs besoins. Encore faut-il faire ce choix.
Même si leurs besoins ne sont pas tous couverts, loin sen faut, par leurs applications, bon nombre de PME rechignent à investir dans de nouveaux équipements matériels ou logiciels, ou à migrer vers des versions supérieures, sans de fortes contraintes. Faute dattention à la prévention des risques de lobsolescence, elles se retrouvent ainsi avec de vieilles versions de progiciels et des systèmes propriétaires datés. Au fil des ans, elles ont à faire face à des obsolescences avérées, qui se traduisent par labsence de support ou des contraintes structurelles darchitecture qui freinent des évolutions stratégiques (voir chapitre 3, p.53).
Ainsi des PME industrielles ont encore des GPAO sous DOS, comme il existe un parc installé chez des PME de progiciels verticaux sur des moyens systèmes propriétaires des années 80, iseries et AS400. Ces derniers peuvent présenter des limitations structurelles pour laccès aux données, contraignant la mise en place dapplications décisionnelles ou louverture au web.
Des solutions tactiques de migration existent (voir partie 3, chapitre 8). Pour autant, « mieux vaut prévenir que guérir ». Dautant quil existe une alternative désormais à la migration. En choisissant le cloud computing et les plate-formes de services, les PME peuvent faire abstraction de linfrastructure et ne pas se préoccuper de développements, dinstallation, ni de montées de version.
Le choix reste toutefois à faire au cas par cas selon le degré de spécificité des fonctionnalités existantes, les données à garder, les compétences internes. On renverra ici aux chapitres 3 et 5 sur les analyses à faire pour une meilleure gestion des choix dévolution du patrimoine applicatif.
Les entreprises en croissance : un héritage redondant au fil de leau
Si les redondances XE "redondances" se conçoivent éventuellement dans des grands groupes du fait quune entité puisse ignorer ce qua déjà réalisé une autre ce qui suppose de ne pas gérer le portefeuille applicatif au niveau global à lentreprise , cas qui na malheureusement rien dexceptionnel les sociétés de moyenne importance ne sont souvent pas mieux loties.
En effet, elles ont souvent à gérer deux facteurs dextension de leur système dinformation, liés à la croissance, qui génèrent la redondance, la complexité et les coûts croissants de maintenance. Le premier facteur est lhéritage de briques applicatives disparates du fait de rachat de sociétés ayant leur propre système dinformation. Le second est le développement dapplications au « fil de leau » des besoins, réalisé par de petites équipes informatiques qui se trouvent vite débordées dès lors que la société, souvent PME au départ, poursuit une croissance rapide tant en terme de chiffre daffaires que demployés.
En effet, la redondance naît souvent dun manque dhomogénéisation des développements, de labsence de cadres de référence (standards, recommandations et référentiels) et de labsence de recherche de réutilisation. Il est souvent plus facile, à court terme, de copier-coller du code, que de réfléchir à une fonction, un module qui puisse être factorisé et, dès lors, réutilisable, pourquoi pas en termes de service métier, dans les futurs développements du système dinformation.
Si les développements seffectuent au « fil de leau » XE "fil de leau (développement)" , il ny a en général pas de recherche de mutualisation ou de réutilisation. Un client interne exprime son besoin, et à un besoin correspond une application. Dès lors, il y a de fortes probabilités pour quaucun dispositif dintégration de type middleware, EAI, et encore moins ESB (Enterprise Service Bus), nait été mis en place. Les interfaces sont vraisemblablement en mode point à point, asynchrone, et lintégration de toute nouvelle application éventuellement héritée du rachat ou de la fusion avec une autre structure nécessite décrire une interface par échange de flux.
Ne pas concevoir les fonctionnalités ou les services des applications dans une logique de réutilisabilité implique une redondance probable de fonctions et de données, voire des incohérences dans la manipulation de données de référence. Le cas est particulièrement criant pour les applications de gestion de la relation client (de la gestion des contacts à la campagne marketing en passant par la gestion des forces de ventes). La multiplication des applications implique souvent des opérations lourdes de dé-doublonnage de bases ou de fichier clients.
Par contrainte de délais et faute dune vision globale des applications, les modèles conceptuels des données des applications de gestion sont également souvent négligés.
En conséquence, les directions utilisatrices ayant besoin dune donnée manquante dans une application, à des fins opérationnelles ou de reporting, vont être tentées de développer une solution de facilité « à côté » des applications officielles, qui leur permettront de collecter et de manipuler simplement des données, ce quoffrent les principaux tableurs du marché.
À terme, la multiplication de ces solutions de contournement conduira à des redondances et des incohérences de données, et au non-partage dans lorganisation dinformations cruciales pour tous.
La problématique est donc de reprendre le contrôle de ses actifs logiciels. Une entreprise qui souhaite fédérer les applications existantes et poursuivre des rachats peut avoir tout intérêt à mettre en place un ESB (Enterprise Service Bus). Il permettra dencapsuler des applications existantes, même propriétaires, sous forme de services, afin de pouvoir les faire communiquer avec dautres au sein dun processus global. Ensuite, petit à petit, on peut remplacer des briques ou en rajouter quand lensemble est structuré autour dun bus central. Linvestissement de départ peut sembler important à léchelle dun projet. A léchelle dune entreprise et comparé aux coûts de maintenance et aux risques des si spaghetti, son importance est autrement justifiable.
Cette infrastructure dintégration ne suffit pas pour autant pour reprendre la maîtrise du système dinformation. Encore faut-il auditer lexistant et en cartographier les processus, les données et flux de données pour identifier dune part les redondances, dautre part analyser le patrimoine applicatif en termes de coûts, risques et valeurs, afin de pouvoir décider des évolutions pertinentes.
Des grands comptes menacés par des applications rétives aux changements
Sil nest pas rare de trouver des applications de plus de quinze ans encore en exploitation en entreprise, les grands comptes, particulièrement dans les secteurs industries et banques/assurances, maintiennent parfois des applications plus anciennes encore.
Lévolution de ces applications devient progressivement difficile à contrôler du fait de leur architecture, encore souvent sur des systèmes propriétaires et de leur volumétrie. Il sagit de milliers de programmes contenant des millions de lignes de code avec une documentation non à jour. Le défi est de préserver les fonctionnalités dun patrimoine spécifique et stratégique.
Face à lobsolescence des systèmes propriétaires, la perte dexpertise et de connaissance des fonctions et des langages, le manque de compétences, des entreprises sont tentées de refondre complètement ces applications, parfois en les réécrivant totalement. Malheureusement, les projets de réécriture sont souvent pharaoniques et ne conduisent pas aux résultats escomptés. Ainsi, une entreprise de crédit, il y a 5 ans, a abandonné son mainframe et son langage de programmation de 3e génération, pour réécrire lensemble en Java, dans un environnement distribué. Le nouveau système cible nayant été ni prêt, ni performant, aux dates escomptées, lentreprise a dû reprendre lusage de son mainframe, avec des programmes de centaine de milliers de lignes à remettre au niveau des fonctionnalités attendues, car leur évolution avait été bloqué sur plusieurs années.
La réécriture nest pas la seule solution de modernisation, il en existe dautres qui permettent de préserver les fonctionnalités du système existant, comme développé en partie 3 dans les solutions tactiques de modernisation.
Toutefois, avant daborder les solutions tactiques de modernisation, souvent envisagées pour tout dire « au pied du mur », quand les contraintes des systèmes existant deviennent telles que la rénovation ne peut plus être repoussée, les entreprises de toutes tailles doivent comprendre que lévolution de leur patrimoine applicatif nécessite une gestion permanente. Cette dernière nécessite de garder lil sur les enjeux dévolution exogènes qui vont nécessiter la modernisation de leurs systèmes dinformation ainsi que sur les risques dobsolescence qui menacent leur capacité à sadapter.
Chapitre 2
Sadapter et anticiper : mission impossible ?
La modernisation commence là où les pratiques existantes narrivent pas à répondre aux objectifs.
ADM.OMG.ORG
Par enjeu dévolution, nous entendons les enjeux de changement auxquels lentreprise et les directions concernées sont confrontées dans leur environnement économique et qui peuvent pousser à la modernisation de systèmes existants pour les rendre plus agiles, cest-à-dire capables de réagir plus rapidement aux nouveaux besoins en proposant des réponses appropriées.
Linformatique et la productivité : des liens pas si directs
Le paradoxe de Solow : un déficit dimage pour les SI
Le défi de lhéritage des systèmes dinformation nest pas seulement technique. Il y a un déficit dimage qui a amené les directions générales à considérer les directions informatiques dabord comme des centres de coûts.
Ajoutez au fameux paradoxe de Solow XE "Solow Robert" (voir encadré page suivante), les déclarations au milieu des années 1980 de Paul Strassmann XE "Strassmann, Paul" sur la non-existence de relation directe entre le montant des investissements informatiques dune entreprise et ses performances, et vous avez une génération dentreprises prêtes à considérer linformatique comme un centre de coûts XE "centre de coûts" à réduire. Cela en sautant sur des conclusions hâtives, sans passer par lanalyse des raisons du constat.
Les causes sont pourtant de plusieurs natures : dune part, il est difficile de mesurer sur du court terme des effets qui ne deviennent visibles que sur du long terme (3 à 7 ans). Dautre part, ainsi que le souligne P. Strassmann, on ne peut mesurer que la productivité XE "productivité" des individus, pas celle des ordinateurs.
Est-ce la productivité des individus quil faut dailleurs mesurer, ou ladéquation de linformation quon leur fournit par rapport à lenjeu de meilleure productivité ? En effet, les ordinateurs ne sont là quen tant que ressources dun dessein plus large, celui de manipuler efficacement de linformation utile, quel que soit son format (données, texte, images, sons, etc.), pour exécuter au mieux des processus métier, dans et entre des organisations.
Comment déterminer lutilité dune information ? Par lanalyse des enjeux auxquels elle doit répondre, car la valeur de linformation nest pas absolue. Pour en revenir aux définitions, le Petit Larousse nous en fournit plusieurs pour le mot « information », dont on retiendra les trois suivantes :
action dinformer, fait de sinformer ;
renseignement obtenu de quelquun sur quelquun ou quelque chose ;
élément de connaissance susceptible dêtre codé pour être conservé, traité ou communiqué.
Les deux premières montrent bien une dynamique qui fait que lintérêt dune information dépend de son public et de sa cible car il y a volonté et action pour la capter. La dernière introduit implicitement les systèmes dinformation dentreprise en tant que gestionnaires des moyens et opérations pour capter, utiliser, transmettre et stocker les informations afin dexploiter au mieux ces éléments de connaissance.
La difficulté du paradoxe de Solow XE "Solow Robert" est de vouloir faire une équation directe entre des technologies dautomatisation et des bénéfices de productivité, comme il pouvait y en avoir par le passé avec lintroduction dautomates pour le travail à la chaîne. Seulement, il ne sagit pas ici de travail manuel.
Sans analyse préalable de la valeur XE "analyse de la valeur" de linformation, sans reconnaissance par les utilisateurs de lapport du système dinformation pour partager et manipuler cette dernière dans les processus métier, il ny aura pas adhésion leur part, et donc pas de levier de productivité: ils continueront à faire autrement.
Les individus ne sont pas contre le changement sils en voient clairement les bénéfices. Or, sils ne sont pas accompagnés dans lusage de nouvelles applications et/ou technologies qui viennent changer leurs habitudes, ils perdront dabord de la productivité à comprendre ou à expliquer (pour ceux qui ont compris) le nouveau système.
Le problème est dabord organisationnel et de pilotage avant que dêtre affaire de technologies. Depuis le milieu des années 1980, les mentalités ont heureusement évolué et lapparition de méthodes de « conduite du changement» (voir p.109) ont fait progresser les entreprises jusquà ce quau milieu des années 1990, on puisse enfin mesurer indirectement les apports des systèmes dinformation dans la productivité des entreprises.
Le paradoxe de Solow XE "paradoxe de Solow"
Le péché originel de la productivité XE "productivité"
En 1987, Robert Solow XE "Solow Robert" , économiste américain, fit cette remarque : « Nous voyons des ordinateurs partout, sauf dans les statistiques de productivité», remarque à lorigine du fameux « paradoxe de Solow». Le constat de Solow validait une déception quant à la productivité attendue des systèmes dinformation, puisque lintroduction massive des ordinateurs dans léconomie, contrairement aux attentes, ne se traduisait pas par une augmentation statistique de la productivité dentreprise.
Solow a reconnu aujourdhui que son paradoxe nexistait plus (la tendance sétant inversée depuis le milieu des années 1990).
Reste que le « péché originel » na pas fini davoir des effets. Ainsi, une récente étude du cabinet Ernst & Young (octobre 2009) révèle que « la perte de productivité d un salarié lorsqu il est face à des outils informatiques qu il ne maîtrise pas peut atteindre 4 000 ¬ par an. Face à l ampleur de ce constat, il devient stratégique pour toute PME dynamique de consolider les efforts de formation bureautique auprès de ses collaborateurs ». Ce constat « stratégique » est un peu tardif, mais mieux vaut tard que jamais.
Une vision bipolaire du SI, entre coûts et valeurs
Si le « paradoxe de Solow» nexiste plus, les attentes des entreprises vis-à-vis de leurs systèmes dinformation sont encore extrêmement modelées par une vision bipolaire.
En effet, le système dinformation est vu à la fois comme un accélérateur de productivité et comme un vecteur de changement. Il nest dailleurs pas sûr que les entreprises le voient de ces deux façons en même temps, comme nous y reviendrons dans le positionnement des DSI.
Ainsi, à la question « Quels sont les enjeux dévolution dentreprise qui poussent le plus à la modernisation des SI ?», posée en 2009 et 2010 à un échantillon représentatif de DSI par le cabinet Sapientis dans son observatoire « Modernisation des systèmes dinformation et maturité des entreprises », la « réduction des coûts de fonctionnement » et la « création de nouvelles offres/services » sont arrivés en tête deux années de suite.
EnjeuxEvolutionSI.png
Figure 2-1
Les enjeux dévolution dentreprise
Source : © Sapientis
En premier, les entreprises attendent toujours beaucoup des systèmes dinformation en matière de productivité, notamment en réduisant les coûts de traitement de certaines opérations grâce à lautomatisation de tâches jusqualors manuelles. Outre le fait de réduire les temps de traitement, cette automatisation a également lavantage, en échangeant des données numériques, de réduire des risques éventuels derreur de ressaisies qui pourraient générer des litiges dans un processus de facturation, par exemple.
La nouvelle donne de léconomie immatérielle, ce monde plat cher à Thomas Friedman (voir encadré ci-dessous), apporte un autre éclairage à cet aspect « réduction de coûts de fonctionnement » en autorisant la recherche de partenaires et de fournisseurs à nimporte quel endroit du monde, sans logistique lourde associée.
Ils ont dit
Le monde est plat, Thomas Friedman XE "Thomas Friedman" journaliste, 2004
Thomas Friedman est surtout connu dans le monde informatique en raison de son ouvrage The World is Flat. Dans ce livre, écrit en 2004 et réactualisé en 2006, le journaliste lauréat du prix Pulitzer avait fourni sa vision de lévolution vers laquelle tendait le vingt-et-unième siècle : un monde plat où les distances sabolissent avec les nouvelles technologies de linformation, où les échanges saccélèrent et où le centre de gravité politique et économique se déplace vers lAsie avec la globalisation. Un monde également où toute tâche peut être délocalisée là où la capacité à faire est la plus optimum.
La connexion Internet devient la clé vers ce monde plus ouvert que plat. De même, la collaboration et léchange intermétier et intergéographie au sein dune même entreprise, peuvent bénéficier dapplications collaboratives, conduisant à des réductions dallers-retours ou de déplacements et, donc, de réductions des coûts.
Mais cette vision du système dinformation le cantonne encore essentiellement à un rôle de support. Cest ici un accélérateur de changement, pas un catalyseur. Il ne modifie pas le métier de lentreprise, il contribue seulement à aller plus vite en réduisant les risques derreur et les coûts.
Or, dun autre côté, de plus en plus dentreprises ont conscience dêtre entrées dans lère de léconomie immatérielle. En corollaire, leurs clients ont changé. Ils sont surtout de plus en plus équipés de portables, PDA, téléphones mobiles intelligents, etc. De plus en plus déquipements mobiles font office dinterfaces avec le monde numérique.
La convergence des canaux de diffusion des informations sest accélérée en quelques années. Les particuliers attendent des entreprises et des institutions quelles prennent en compte ces changements dans leurs modes de relations avec eux. De nouveaux services peuvent être potentiellement délivrés en utilisant exclusivement les technologies de linformation et des communications et en tirant partie des différents équipements de connectivité. Ainsi voit-on apparaître des sociétés dont le modèle économique repose en premier sur les plates-formes déchange et de diffusion à travers des portails de services.
Comment ça marche ?
B2B XE "B2B" , B2C XE "B2C" , B2B2C XE "B2B2C" , m-commerce XE "m-commerce" : le B.A-BA du e-commerce XE "e-commerce"
Dans la relation commerciale sur Internet, le système dinformation (la manipulation et le contrôle de linformation numérique) est la clé des échanges de lentreprise avec ses clients ou avec ses partenaires.
B2C Business To Consumer, se dit des relations de commerce en ligne entre une entreprise et ses clients particuliers.
Parmi les différents modèles économiques, il y a celui des boutiques dachats en ligne, laffiliation, avec des acteurs plus larges comme Amazon, par exemple, les mises à disposition de contenu par abonnement (portails de services dinformation), ou le modèle publicitaire qui est celui retenu par les moteurs de recherche. Avant Google, le modèle classique était dutiliser un système de bannières publicitaires affichées sur les pages de résultats. Avec Google et lachat de mots-clés, il y a un affichage plus discret de liens publicitaires correspondants aux thématiques de la recherche et le paiement se fait au « clic ». Lannonceur ne paie quen proportion du nombre dactivation des liens qui pointent vers son site commercial et le positionnement du lien dans la liste des liens commerciaux dépend de la somme quil est prêt à verser.
B2B Business To Business, se dit des relations commerciales entre entreprises via le commerce en ligne, et notamment des « places de marché » qui mettent en relation fabricants, fournisseurs et clients, pour des échanges commerciaux ou des projets de collaboration (Exostar pour laéronautique et la défense, par exemple).
B2B2C Business to Business to consumer, se dit déchanges ou transactions commerciales en ligne où une entreprise vend un produit ou un service à un consommateur en se servant dune autre entreprise comme intermédiaire.
m-commerce : il sagit des échanges et services commerciaux via les téléphones ou équipements mobiles (par exemple envoi dune facture par sms, eticketing, achat/téléchargement de sonneries, etc.). En particulier, la technologie NFC XE "NFC (Near Field Communication)" (Near Field Communication), le « sans contact mobile » permet déchanger ou de collecter des informations en toute simplicité. Il suffit pour cela de positionner un téléphone portable équipé à quelques centimètres dune borne. Un mobile NFC XE "NFC (Near Field Communication)" peut servir, par exemple, de titre de transport, de billet de concert, de moyen de paiement et de carte de fidélité chez un commerçant, de code daccès à une entreprise, de lecteur détiquettes électroniques apposées sur un produit ou un équipement urbain, ou même de système déchange entre deux téléphones.
Le système dinformation peut ici, au-delà daugmenter la productivité au regard de processus existants, apporter de la valeur au cur de métier dune entreprise, par exemple en permettant la création de nouvelles offres multicanal, par une approche et un suivi différents du client et de ses besoins, ou par des échanges nouveaux avec les clients et/ou partenaires en exploitant toutes les possibilités du commerce électronique dans un monde où le PC nest plus le seul moyen daccès aux offres numériques.
Le système dinformation peut aussi augmenter la qualité dun processus par une meilleure traçabilité XE "traçabilité" et un contrôle dinformations financières, de flux logistiques ou de biens matériels. Il peut également aider à optimiser la mobilité des employés (interventions dagents terrain ou de commerciaux, télétravail) et répondre à des niveaux dengagement élevés.
Comment ça marche ?
Mobilité XE "mobilité" : les nomades urbains et loptimisation des interventions sur le terrain
Quentend-t-on par mobilité ? Il sagit de la capacité des personnels itinérants ou nomades à communiquer avec leur entreprise et à effectuer des transactions depuis leur lieu dintervention en sappuyant sur les nouvelles solutions technologiques.
En réalité, la mobilité couvre de nombreux cas de figures, des collaborateurs dits « nomades » qui veulent retrouver leur bureau hors des murs de lentreprise et disposer des mêmes services que leurs collègues en poste fixe, en toute sécurité, aux techniciens de maintenance en passant par les forces de vente sur le terrain. En accédant en temps réel au SI de lentreprise, les forces sur le terrain peuvent disposer dinformations pertinentes pour réduire les temps de déplacement, gérer plus rapidement les données logistiques, optimiser les tournées
La mobilité permet également de la télésurveillance en temps réel des chaînes déquipements constituant un réseau de distribution (eau ou électricité, par exemple), en fournissant des informations via RFID XE "RFID (Radio Frequency Identification)" (Radio Frequency IDentification) sur ces composants tels que tuyaux, pompes, réservoir, vannes, installations de retraitement
Les commerciaux, de leur côté, ont la possibilité daccéder aux informations clients et produits sur site, et peuvent établir des devis ou des promotions sur place.
Derrière ces enjeux dévolution, il y a à la fois les nouvelles technologies qui rendent possible ces gains, le nécessaire questionnement sur les choix dinfrastructure, déquipements, dintégration et de sécurité des échanges, mais surtout la prise en compte des changements dorganisation sans lesquels les gains ne pourront être obtenus. La mobilité a une dimension transformationnelle pour les processus de lentreprise.
Au-delà des équipements de la mobilité, terminaux mobiles tels que PDA, tablette PC, smartphone, chez les agents, téléphones plus intelligents, plus interactifs chez les clients (NFC XE "NFC (Near Field Communication)" ), technologies de communication (3G, GPRS, WiFi
), progiciels de gestion des interventions, géolocalisation XE "géolocalisation" , il ne faut pas négliger le « middleware XE "middleware" dintégration », cest-à-dire la couche dintégration des technologies entre elles. Cest cette dernière qui va permettre dhomogénéiser les accès vers le SI. De même, il faudra adapter linfrastructure de sécurité à lenjeu mobilité.
Reste que pour répondre à ces deux natures de besoins «réduction des coûts de fonctionnement et création de valeur le système dinformation, afin dêtre crédible, doit, dune part, éliminer ses propres coûts récurrents XE "coûts:récurrents" sils ne sont pas justifiés au regard de la productivité recherchée et, dautre part, faire rapidement la preuve de sa valeur dans la création de nouveaux services différentiateurs au sein dun environnement de plus en plus concurrentiel.
Or, si lévolution est freinée par un héritage lourd, aussi bien en matière de contraintes darchitecture technique que de freins organisationnels, le système dinformation ne sera pas en mesure de répondre aux attentes de valeur ajoutée.
Il existe également un engrenage pernicieux. Quand lexistant a été construit par strates hétérogènes, que le résultat au fil des ans sest transformé en un « SI spaghetti » avec non seulement un entrelacs de connexions point à point entre applications, mais également des redondances de fonctions, de données et des codes sources complexes, les coûts récurrents de maintenance et dexploitation dapplications en production grossissent de façon disproportionnée.
Ces coûts dexploitation et de maintenance deviennent si élevés quils laissent peu de place à linvestissement sur de nouveaux projets, et en particulier ceux qui devraient contribuer à réduire les coûts récurrents en restructurant le système dinformation pour plus dagilité et de flexibilité. Lengrenage de lévolution se grippe de lui-même, progressivement et sûrement.
Si, en revanche, lentreprise prend la peine de rationaliser ses coûts récurrents, non dans une optique financière court terme mais bien avec lambition de réinjecter les économies ainsi obtenues dans le système dinformation pour financer une architecture globale plus agile, alors, dune part, les coûts récurrents diminueront progressivement et, dautre part, le système dinformation saura en proportion être plus réactif aux demandes dévolutions fonctionnelles.
LevierEvolution.png
Figure 2-2
Les leviers dévolution
Si les deux leviers coût et agilité sont bien perçus comme corrélés, ils peuvent contribuer à mettre une dynamique vertueuse en place. À linverse, mis en opposition, ils figent le système.
Reste que réinvestir les économies de rationalisation des coûts récurrents XE "coûts:récurrents" dans une restructuration de lagilité de larchitecture peut sembler très théorique. Pour que le projet puisse aboutir, il faut procéder par étapes, avec des résultats intermédiaires visibles et qui démontrent concrètement lapport des changements effectués pour la mise en uvre de nouveaux services.
La démarche pragmatique consiste donc à inclure autant que possible la modernisation dun existant dans tout projet métier auquel il peut contribuer.
Pourquoi lévolution de léconomie immatérielle pousse à la modernisation des SI
Le monde plat où les clients sont connectés à lentreprise, les employés nomades, les partenaires « en flux tendu XE "flux tendu" » directement connectés dans une logique dentreprise étendue XE "entreprise étendue" , tout cela nécessite une intégration toujours plus forte de technologies très hétérogènes entre elles. En corollaire, cela impose également des contraintes très fortes douverture du système dinformation avec les problématiques de sécurité liées, ainsi que la nécessité de réutilisabilité des fonctions et services sous peine de ne pas avoir la flexibilité nécessaire face à des besoins et des comportements nouveaux.
Les systèmes dinformation ne sont plus totalement dans une logique de développer des applications pour des utilisateurs internes à lentreprise. Les frontières se sont déplacées sur plusieurs axes à la fois.
Laxe géographique : les applicatifs sont devenus mondiaux, les utilisateurs mobiles et internationaux.
Laxe temporel : les services doivent parfois fonctionner en continu, 24 h/24, 7 j/7. La raison en est autant la mondialisation que lexigence des clients qui ne se déplacent plus en boutiques ou en agences, mais vont consulter les informations sur leurs comptes ou effectuer des achats via Internet et au-delà (PDA, smartphone
), à toute heure.
Laxe services : qui, en définitive, utilise les services du système dinformation dune entreprise ? Au-delà de la logique interne où les utilisateurs sont des employés, les utilisateurs sont aussi les clients, à qui il faut fournir des services dinformation via des technologies de communication de plus en plus variées. Ce sont également des fournisseurs, des partenaires dans la logique dentreprise étendue. En particulier, lentreprise doit apprendre à mieux partager ses services dinformation, par exemple pour les collaborations de type ingénierie, en conception mais aussi en après-vente, sur des savoir-faire pointus (référentiels et catalogue de données techniques), ou pour les collaborations de type achat/vente sur des catalogues doffres.
Dès lors, les enjeux dévolution poussent à la modernisation des SI afin quils puissent fournir les services permettant la mise en place dun modèle dentreprise en réseau, communicante, ouverte et sécurisée.
En particulier, il sagit de fournir une infrastructure banalisée daccès au SI et aux outils de communication, à tout moment, depuis nimporte où et en toute sécurité. Ensuite, il faut pouvoir partager les données efficacement, optimiser encore les processus, voire les changer en prenant en compte les nouveaux modes de travail et dinteractions avec le SI.
Les systèmes dinformation hérités du passé sont loin davoir la flexibilité requise, en raison dune architecture rarement pensée de façon globale (en particulier pour la sécurité) et, le cas échéant, pas assez orientée vers un usage de services partagés, au-delà même des murs de lentreprise. Leur logique applicative est même en cause car elle a souvent entraîné des silos de données et de fonctions, avec pour conséquence des doublons, des incohérences, des redondances. Dailleurs, quand bien même une application donnerait satisfaction aujourdhui, cela ne garantit en rien son adaptabilité future.
En annonçant à la fin de lannée 2007 sa banque « Web 2.0 XE "Web 2.0" », ou la mise en service dun environnement personnalisable avec les dernières technologies du Web pour quune clientèle aisée puisse gérer ses comptes en ligne, la Banque Barclays préfigurait ce que sera linformatique de demain.
Cette dernière est fondée sur un nouveau paradigme extension de lapproche centrée client réservée jusqualors aux solutions de gestion de la clientèle (CRM). Il sagit ici de changer lapproche des systèmes dinformation pour quils ne soient plus des usines à collecte et retraitement de linformation, mais des organismes adaptables, perpétuellement capables de saligner avec les besoins des utilisateurs et des clients finals en recyclant linformation nécessaire.
En quelque sorte, une théorie de lenvironnement appliquée au numérique. Exit donc la vieille définition de traitement de linformation et, dès lors, la séparation entre informatique industrielle et informatique de gestion.
Définition
Informatique ou informatiques ?
Longtemps, une distinction a été fait entre :
linformatique industrielle : traitement de linformation liée à lindustrie et, au sens large, tout ce qui a trait aux activités de production ;
linformatique scientifique : traitement de linformation issue de la recherche scientifique applicable à la recherche opérationnelle, la bio-informatique, etc. ;
linformatique de gestion : traitement des données de gestion.
Linformatique au sens large devient un outil pour optimiser des services dinformation à des clients, quils soient internes à lentreprise (on parlera alors dutilisateurs) ou externes, cest-à-dire clients de lentreprise elle-même. Linformatique devient le nerf de certains métiers et non plus un outil de support au traitement des données comme elle a pu être considérée auparavant. De la même manière, les outils dentrepôts de données (datawarehouse) ont évolués vers des outils danalyse et daide à la décision adaptés aux métiers (BI pour Business Intelligence).
Cette évolution nest pas que de pure forme, nen déplaise aux esprits chagrins. Cela change fondamentalement les règles de gestion des systèmes dinformation et a de lourds impacts en modernisation de systèmes existants. En voici quelques exemples concrets : une société du domaine de lénergie avait jusquà récemment considéré ses clients à travers les compteurs et les points dentrée de distribution dénergie. Ce faisant, établir de nouvelles règles de gestion ou de nouvelles offres qui cumuleraient sur une même facture pour un client donné, sa maison principale et sa maison de campagne, voire son entreprise dans le cas dartisans, supposait de modifier des systèmes existants qui, voyant deux ou trois compteurs différents, établissaient automatiquement deux ou trois factures différentes sans avoir la capacité à lier ces factures en fonction de leur point commun : le client. Cest la conception des liens entre données métier qui est à revoir et cela modifie profondément limplémentation.
De même, de nombreuses compagnies dassurance souhaitent évoluer dun modèle traditionnel de gestion par produits vers un modèle client multiproduit. Le changement peut transformer lorganisation à léchelle de lentreprise et, là encore, la conception des systèmes dinformation est à revoir.
Car si les règles de gestion des anciens systèmes exécutent une logique métier stable depuis des dizaines dannées, ce nest pas forcément à la manière souhaitée aujourdhui par les utilisateurs. Cest là où la modernisation devient clé pour accompagner le changement.
Le tableau suivant montre, pour différents enjeux dévolution dentreprise, le type denjeu de modernisation du système dinformation existant à considérer.
Tableau 2-1
Enjeux dévolution et modernisation
Enjeu dévolutionOccasion de modernisationAccroissement de la productivitÉ des salariÉs dans toute lentreprise et rÉduction de coûts
Réduire les coûts de processus internes et externes. Mise en uvre de processus administratifs internes dématérialisés grâce au Web. Déport de services et de support en ligne (opérations réalisées par le client).Mise en place de workflow XE "workflow" collaboratif et de référentiels internes. Automatisation des requêtes internes (demande de congés, notes de frais) et autorisations en ligne. Mise en place dun annuaire des employés.
Si existence de données ou base de connaissance à préserver, migration de données à envisager.
Si documents et archives, idem.
Mise en place de contrats cadres pour les achats auprès des fournisseurs.
Rationalisation de lapprovisionnement par des techniques de-procurement XE "e-procurement" (achats en ligne).
Optimisation des coûts de lexploitation informatique.CrÉation de nouvelles offres/servicesAugmenter le chiffre daffaires par un canal favorisant latteinte de nouveaux clients et utilisateurs, réduire le coût dacquisition client.
Améliorer le service apporté aux clients existants via des nouveaux services en ligne.
Accéder à de nouveaux clients en mettant en uvre des offres spécifiques à des secteurs de clientèles particuliers (« jeunes actifs », « retraités », etc.).
Sadapter aux changements des modes de consommation ou à de nouvelles opportunités de ventes de par la régulation.
Exploiter la demande client et/ou loffre pour mieux cibler la production et/ou le prix.
Augmenter la visibilité dune marque.Mise en place dune architecture plus moderne autorisant laccessibilité Web et mobiles, et un meilleur usage de services partagés (SOA XE "SOA (Service Oriented Architecture)" ) ainsi quune flexibilité dans la gestion des règles métier XE "règles métier" .
Favoriser une meilleure gestion de la relation client via un référentiel de données client unique et centralisé pour obtenir une vue 360°.Optimisation de lentreprise ÉtendueAméliorer la coopération entre les donneurs dordre et leurs sous-traitants.
Augmenter la collaboration avec des partenaires locaux.
Engager la collaboration avec des partenaires internationaux.Améliorer les capacités dintégration des systèmes existants avec des systèmes dinformation externes (éventuellement via une architecture orientée services).
Améliorer la gestion des données de références pour mieux contrôler les flux de données et les échanges avec les acteurs externes (fiabilité, cohérence, etc.).DÉveloppement de le-administration XE "e-administration" \t "Voir eservices" et des e-services XE "e-services" Rencontrer les attentes des citoyens avec des services de proximité via le Web pour le gouvernement.Voir « Optimisation de lentreprise étendue » et « Création de nouvelles offres/services ».Économie internationale et rÉgulation
Obtenir un meilleur contrôle des coûts et des risques opérationnels.
Faire appliquer les règles de conformité et les directives légales.Simplifier la complexité des codes.
Mettre en place un référentiel pour le suivi de la qualité des applications.Consolidation de sociÉtÉs (y compris fusions et acquisitions)Étendre sa clientèle par acquisition dune base « client » installée ou dune image de marque.
Acquérir des services de proximité.
Se lancer dans une extension géographique.
Effectuer des regroupements dintérêts.
Compléter une offre par des produits à valeur ajoutée.Mettre en place des moyens de pilotage et de consolidations des informations financières communes.
Aligner les modes de fonctionnement aux nouveaux contextes métier (services 24/24, 7/7, banques multicanal, etc.).
Reprendre connaissance des applications logicielles spécifiques à travers un inventaire global et un diagnostic de létat des applications. Redocumenter lexistant.
Collecter et rationaliser les données de référence XE "données de référence" (pour préparation à la migration ou intégration).
Exploiter au mieux le meilleur des deux systèmes dinformation, faire converger les applications, résoudre les problématiques dintégration, optimiser le partage des données (base clients par exemple).
Recenser les compétences nécessaires à la préservation du « patrimoine applicatif » et créer un référentiel de compétences.Chapitre 3
Lobsolescence, facteur de risque
En juillet 2005, HSBC a admis quune panne hardware, la pire de toute son histoire, a provoqué un crash majeur ayant des répercussions sur des milliers de clients des distributeurs et des services en ligne.
En décembre 2006, une interruption machine a empêché des contrôleurs aériens en Floride didentifier et de suivre 200 vols, permettant dès lors à des avions de sapprocher trop près les uns des autres.
En novembre 2004, une panne machine au Department for Work and Pensions (DWP) a empêché 80 000 employés de traiter les retraites et remboursements sur plusieurs jours.
En 2005, la New Zealands Reserve Bank doit subir une interruption de service, a priori due à une mise à niveau dun microcode sur un disque IBM shark qui a mis en danger la capacité de la banque à procéder à des règlements internationaux.
Ces exemples sont autant davertissements pour les entreprises qui négligent les risques que représentent lobsolescence ou le manque de support attaché à leur système dinformation.
Il en existe dautres moins retentissants mais tout aussi dommageables, où des entreprises nont pas réussi à mettre en uvre des évolutions souhaitées, faute dagilité de leur système dinformation. Nombre sont celles qui ont payé ce retour dexpérience avec des projets coûteux de réécriture devenus des fiascos. Avant den arriver là, une bonne gestion des risques simpose et commence par la gestion de lévolutivité des systèmes. Dans ce chapitre, nous montrerons les différentes natures de risques, leurs conséquences et pourquoi il faut en appeler à une gouvernance de lévolution des SI.
Lobsolescence : bien plus quun problème technique
Le manque dagilité XE "agilité" est le plus grand des risques de lobsolescence.
La gestion des risques de lobsolescence ne consiste pas seulement à gérer des risques dinterruption de service due à un matériel ou un logiciel obsolète, où il faut trouver le niveau de maintenance préventive économiquement viable pour cibler les opérations indispensables de modernisation technique. Cet aspect peut relativement bien se gérer, dans la mesure où lobsolescence technologique des infrastructures saccompagne le plus souvent darrêts de support programmés, ce qui conduit les entreprises à réagir en fonction déchéances et de coûts assez bien connus.
Toutefois, même des problèmes techniques prévisibles montrent limpréparation des entreprises pour gérer les risques dobsolescence. Elles préfèrent traiter ces derniers le plus tard possible en comptant sur le remplacement progressif des applications quelles laissent vieillir dans lintervalle.
Le problème de lan 2000 XE "An 2000 (problème de)" renouvelé en 2019
Des formats de dates IEEE qui attendent lan 2019 pour poser problèmes
Le problème de lan 2000, aussi relativement simple quil a été à première vue date codée sur les deux derniers chiffres des années a provoqué une première prise en compte des répercussions catastrophiques potentielles des risques dobsolescence. En effet, une simple modification répercutée à léchelle de millions de lignes de code a montré brusquement lampleur des enjeux relatifs à lévolution de systèmes devenus obèses, utilisant des techniques de codage obsolètes sans typage de structure, par exemple et, de facto, peu flexibles. Lan 2000 na pas suffi toutefois à atteindre le seuil de conscience nécessaire à une remise en état programmée des vieux systèmes. Lapproche a été essentiellement réactive.
En effet, les corrections de programmes ont été effectuées au niveau local (sur quelques applications), pour un problème spécifique de date, sans chercher à traiter au niveau global (sur lensemble du portefeuille) dautres problèmes prévisibles identiques. Par conséquent, le même type de problème nous attend pour 2019. Les formats de dates IEEE, pour les programmes C et C++ couplés à certaines versions de bases de données relationnelles, sont prévus pour stocker des dates à partir de 1889 sur un différentiel de 4 milliards de secondes
ce qui nous amène à envisager un problème potentiel en 2019.
Dici là, me direz-vous, toutes les applications auront été remplacées. Quen savons-nous ?
Des applications écrites en 1965 ont duré jusquen 2000, voire au-delà. Pourquoi des applications écrites il y a cinq ou six ans ne dureraient pas jusquen 2019 telles quelles ont été écrites ?
Or, les cycles de remplacement ne sont pas assez courts pour empêcher quune application ne souffre dobsolescence durant son cycle de vie XE "cycle de vie:des applications" . Il nest pas rare aujourdhui de trouver des applications en entreprise qui sont en production depuis une vingtaine dannées. Les applications durent souvent beaucoup plus longtemps que ne lenvisageaient leurs concepteurs et développeurs initiaux. Mais faut-il toutes les laisser durer et comment gérer efficacement le cycle de vie des applications en production ?
Comment et jusquà quand une entreprise peut-elle justifier dune application si cette dernière nest pas si spécifique quelle ne puisse être reproduite par dautres et proposée comme une offre de service partageable, moins coûteuse que des développements et avec une maintenance en interne ?
Comment et jusquà quand une entreprise peut-elle dépenser de largent uniquement pour maintenir une application en état, sans être capable ni de la faire évoluer ni de la remplacer ?
Laisser « durer » des applications sans gestion réfléchie de son patrimoine applicatif, cest sexposer à dautres risques que techniques, souvent mal évalués. En particulier, le risque du manque dagilité par rapport aux nouveaux besoins métier. En effet, certaines applications deviennent très difficiles à modifier rapidement en raison de la complexité de codes mal structurés et volumineux, accompagnée dune mauvaise documentation des logiciels, voire de la disparition des compétences XE "perte de compétences" .
Depuis lan 2000, la pression des marchés ouverts et la concurrence mondiale conduisent à vouloir accélérer les temps de mise sur le marché de nouvelles offres, dans une économie où linformation numérique et la vente en ligne deviennent des incontournables. Le débat sur limportance et la valeur de différenciation XE "différenciation" que les technologies de linformation et des télécommunications, et leurs applications, peuvent ou non permettre, a tout lieu dêtre car les opportunités à saisir ne dureront jamais longtemps.
Il ne sagit pas seulement de créer de nouvelles applications agiles mais de ne pas laisser des applications existantes hypothéquer le futur économique de lentreprise, parce quelles empêchent déjà lagilité de lensemble du système dinformation et sa capacité à créer de la valeur.
Les systèmes dinformation sont-ils vraiment un avantage concurrentiel ?
Si les entreprises ont lobligation de se servir des systèmes dinformation à bon escient pour ne pas jouer avec un arc et des flèches dans une guerre économique mondiale, il reste une question. Est-ce que ces systèmes dinformation sont des ressources rares, stratégiques, fondamentales pour asseoir un avantage concurrentiel majeur ? Ou est-ce que la standardisation des ressources de stockage, traitement et transport des données, ne fait pas simplement des TIC (Technologies dinformation et de communication) une composante de plus de linfrastructure économique à comparer aux systèmes deau potable, dirrigation, dassainissement, aux routes, aux trains, à linfrastructure électrique
?
Cette question, Nicholas G. Carr, un écrivain américain, se lest posée et y a répondu avec un scepticisme au moins égal à lenthousiasme de Thomas Friedman XE "Thomas Friedman" vis-à-vis de son monde plat, quant à limportance stratégique des technologies de linformation pour les affaires.
En effectuant un parallèle avec le développement de lélectricité et celui de lère numérique, il argumente que les TIC sont devenus une commodité semblable aux technologies liées aux transports et à lélectricité, incontournables, certes, mais non stratégiques. Aucune entreprise ne construit sa stratégie sur lusage de lélectricité. Doù le conseil de G. Carr de gérer les TIC par les risques et les coûts, car « quand une ressource devient essentielle pour la compétition mais sans conséquence sur la stratégie, les risques quelle crée deviennent plus importants que les avantages quelle procure ».
Ils lont dit
IT doesnt matter
Cest en premier le titre dun article de Nicholas G. Carr XE "Carr, Nicholas G." , publié en mai 2003 dans lédition de la Harvard Business Review. Cest ensuite devenu un livre de lauteur : Does IT Matter? Information Technology and the Corrosion of Competitive Advantage, publié par les Éditions de la Harvard Business School.
Dans cet article, lauteur examine lévolution des technologies de linformation dans les affaires et établit le parallèle avec lévolution de technologies plus anciennes telles que lénergie électrique et les transports ferrés. Pour lui, lévolution est strictement similaire et, si pendant une période, les TIC ont offert une opportunité pour les compagnies visionnaires de gagner un avantage compétitif sérieux, à partir de maintenant, la disponibilité dapplications standardisées et la diminution des coûts dacquisition et de possession rendent les TIC invisibles aux yeux de la stratégie, ce qui fait que les « TIC nont pas dimportance ».
Selon Nicholas G. Carr, « derrière le changement de pensée envers linformatique [considérée dabord comme un outil de bas niveau puis une valeur stratégique] repose une hypothèse simple : comme la puissance et lomniprésence des TIC ont augmenté, il en est de même de leur valeur stratégique. Cest une hypothèse sensée, et même intuitive. Mais elle est erronée. Ce qui rend une ressource réellement stratégique ce qui lui donne la capacité à être à la base dun avantage concurrentiel durable nest pas lomniprésence mais la rareté. Vous ne pouvez gagner une longueur davance sur vos rivaux quen ayant ou en faisant quelque chose quils ne peuvent avoir ou faire. Dès à présent, le noyau même des fonctionnalités de lIT le stockage, le traitement et le transport de données, est devenu accessible et abordable pour tous. Leur puissance et leur présence même les a transformés de ressources potentiellement stratégiques en des commodités facteurs de production. Les TIC sont devenus des coûts pour faire des affaires que tous doivent payer sans pour autant fournir de différenciation à aucun ».
Il faut toutefois nuancer la vision de Nicholas G. Carr. Il a en grande partie raison mais il a aussi tort.
Il a raison dans le sens où nous sommes effectivement arrivés à un point de bascule, aujourdhui, où beaucoup dapplications propriétaires pèsent plus lourd en coût quelles ne valent.
Une petite entreprise peut très rapidement avoir accès à des puissances serveurs et des fonctionnalités qui étaient lapanage des grandes il y a peu. On voit bien, en effet, lévolution des plates-formes applicatives, des applications en mode services qui viendront, tôt ou tard, concurrencer les éditeurs de progiciel.
Car tout ce qui existe et a pu être pensé en termes dédition logicielle aujourdhui se verra progressivement proposé sous la forme dabonnement de services, sans infrastructure lourde, sans équipe, sans développement spécifique à gérer, compte tenu de la rapidité des évolutions mises à disposition de tous. Vouloir concurrencer ce futur est inutile et coûteux. Cest le moment de profiter des opportunités quil offre. Mais cela sera plus facile pour des petites structures agiles que pour les groupes, moyens ou grands, qui nont pas su gérer leur héritage.
Quand ce qui a été développé en interne est devenu une meilleure pratique disponible sous forme de services Web, il est recommandé de basculer comme utilisateur de ces services plutôt que de maintenir un existant à tout prix. Ainsi, Carr évoque à juste titre lexemple de AHS (American Hospital Supply), précurseur en 1976 avec ASAP, un système développé en interne qui permettait aux hôpitaux de passer des commandes électroniques de médicaments. Ce système, à lorigine de profits pendant plus de dix ans, a été dépassé par lévolution dInternet et du commerce en ligne dans le tournant des années 1990 et est devenu depuis une corde au cou des dirigeants, selon une étude de cas de la Harvard Business School.
En effet, les applications vieillissent et il y a un moment où ce qui a été développé en interne est à revoir. Ne rien faire amène inéluctablement à payer plus cher le manque de vision.
Cest là où Nicholas G. Carr a tort, quand il recommande de prendre une position défensive plutôt quoffensive vis-à-vis des TIC, et dattendre la disponibilité de nouveaux services plutôt que dinvestir. Lapproche nest pas si manichéenne dans les choix. Geler linvestissement fait peser le risque sur lévolution des applications existantes et certaines ne peuvent pas se trouver sous forme de services communs à tous.
Nicholas G. Carr a doublement tort parce quil confond technologies informatiques et systèmes dinformation. Sa vision est celle qui a conduit à dévoyer le découpage maîtrise douvrage/maîtrise duvre vers un découpage inefficace entre organisations métiers et organisations informatiques (voir chapitre 5, « REF _Ref261026164 \h \* MERGEFORMAT Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif » p.95).
Un système dinformation dentreprise ne manipule pas que des données parfaitement standardisées dans des tuyaux parfaitement interopérables, loin sen faut ! Il représente une modélisation du cerveau et du corps dune entreprise, il est la mémoire de ses processus et les informations échangées ont un impact totalement différent suivant qui les lit. Pour poursuivre la comparaison avec lélectricité, si le besoin de lumière est quasiment le même partout, les besoins en partage dinformation varient selon les objectifs individuels et collectifs.
Il y a des applications spécifiques qui peuvent apporter un avantage concurrentiel sérieux à des entreprises quand elles portent sur les processus XE "processus:métier" liés à leur cur de métier. Il sagit là de la distinction que G. Carr fait lui-même entre les technologies propriétaires et ce quon peut appeler les technologies dinfrastructure. Parce que ces applications spécifiques nappartiennent quà une seule compagnie et quelles ne sont pas facilement réplicables car liées profondément à son savoir-faire, à ses ressources humaines, à ses informations historiques (qui, soit dit en passant, sont aussi des biens de lentreprise), lusage de ces applications est un atout concurrentiel.
Oui, les systèmes dinformation sont des armes à double tranchant. Ils peuvent servir à des innovations dusage et fournir des opportunités de différentiation. Mais si on les utilise pour développer ou maintenir en spécifique une application pour faire ce que tout le monde fait, fût-ce avec les dernières technologies, on se trompe de cible. Dautres sauront le faire à moindre coût et proposer des services que vos concurrents gagneront à acheter.
En effet, le service ou la fonction fournis par linformatique nétablissent pas de réelle différenciation XE "différenciation" métier dès lors quils sont largement adoptés, et standardisés dans les modes de fonctionnement de la plupart des entreprises. Ce sont là des commodités dont Nicholas G. Carr peut dire sans hésiter quon ne peut pas ne pas les avoir, sans pour autant quelles soient stratégiques.
Le patrimoine applicatif : entre ressource rare et corde au cou
À linverse, indépendamment de leur âge, les applications existantes peuvent être des systèmes-clés et receler une logique métier spécifique à lentreprise tant en termes de données que de règles de gestion et de processus. Cette proximité avec le métier de lentreprise est difficilement remplaçable par des applications en mode services Web ou par un progiciel standard du marché, et représente souvent une gageure en temps et coûts pour un redéveloppement complet. Dès lors, les applications patrimoniales XE "applications patrimoniales" représentent réellement cette ressource rare que les concurrents ne peuvent avoir ou cette longueur davance quils ne peuvent franchir aisément.
Mais ce type de bien, tout immatériel quil soit, se dégrade inéluctablement plus ou moins vite. Ne pas faire defforts pour gérer son patrimoine en système dinformation, cest progressivement perdre le contrôle dune bonne partie de ses biens immatériels. Cest sexposer dès lors à transformer un avantage concurrentiel en « corde au cou », selon la formule du AHS (American Hospital Supply).
Dès lors, la question de la modernisation se pose en ces termes :
Les composants de mon système existant représentent-ils une valeur métier ou de productivité spécifique à mon entreprise ? Si oui, est-ce que je les valorise et les préserve de façon appropriée à mes enjeux ? Si non, est-ce que je peux en abandonner certains, en remplacer dautres, selon lanalyse de la valeur ?
Quels sont leurs états dobsolescence et quels sont les risques à ne rien faire (ne pas agir de façon proactive en prévention de lobsolescence) ?
Est-il possible den faire un meilleur usage pour les nouveaux besoins de lentreprise, pour soutenir les changements auxquels elle doit faire face, à moindre coût, plus vite et à moindre risque quen choisissant de lécarter au profit de nouvelles solutions ?
Comment sinsère la modernisation de ce système dans une gouvernance globale du système dinformation ?
À présent que nous sommes effectivement dans une économie immatérielle, quand léconomie accélère, ou quitte une vitesse de croisière adossée à quelques paradigmes (sociétés considérées comme stables, cours dactions, comportement des acheteurs, situation de monopole, cours des matières premières, etc.) et change de paramètres, le manque de contrôle des systèmes dinformation devient flagrant, dans leur incapacité à prendre rapidement en compte la fluctuation des paramètres.
Les systèmes dinformation existants nont jamais que les capacités de contrôle et dadaptation que les organisations leur ont prévues. Force est dadmettre que cela na pas été leur préoccupation jusquà présent. Il est grand temps pour les entreprises de faire lanalyse de la valeur XE "analyse de la valeur" de ce dont elles disposent, de nettoyer, faire évoluer, écarter, remplacer, les composants de leurs systèmes. Sinon, effectivement, lapport de ces systèmes ne se lira plus quen termes de coûts et de risques.
Faire évoluer lexistant pour être plus agile
Mieux vaut prévenir que guérir
Les entreprises ont donné priorité au pragmatisme ces dernières années en ciblant leurs actions sur latteinte dobjectifs tels que la réduction de coût et les gains de productivité en maintenance et exploitation, compte tenu des coûts visibles et quantifiables associés à ces postes. Doù des actions tactiques telles que donner la maintenance à des tiers (TMA XE "TMA (Tierce Maintenance Applicative)" Tierce Maintenance Applicative) pour rationaliser les processus de maintenance et leur pilotage sur la base de services définis à la cible (SLA XE "SLA (Service Level Agreement)" Service Level Agreement), ou de loutsourcing pour diminuer les coûts de main duvre.
Toutefois, ces actions ne diminuent pas le risque du manque dagilité car elles nont pas pour objectif la gestion de lagilité des applications. Or, tous les risques, en particulier celui du manque dagilité, se traduisent finalement en coûts. Ne pas faire à temps la modification du système dinformation que le métier ou les exigences externes imposent est un risque économique non négligeable. Lagilité doit donc faire lobjet de procédures préventives, sauf à laisser se dégrader jusquau point de non-retour ladaptabilité des applications au fil du temps.
En quoi consiste le risque du manque dagilité, comment le contourner ? De nombreuses sociétés se satisfont depuis longtemps de systèmes mainframe XE "mainframe" qui tournent bien, au sens où ils répondent à des volumes de transactions très importantes, et de manière sécurisée. Beaucoup de distributeurs dargent automatiques reposent encore sur des transactions cobol sur mainframe. Il nest pas rare de trouver dans des entreprises particulièrement dans les secteurs finance et industries des applications ayant près de 40 ans de « bons et loyaux services ».
Pour autant, il serait illusoire de croire que ces applications sont hors du champ des changements de paradigmes dun monde en évolution. Continuer à faire toujours mieux ce que lon sait bien faire est un principe de bon sens qui ne devrait pas pour autant en occulter un autre : dans un monde en mutation, les savoir-faire peuvent avoir à sadapter ou à changer. Les mainframes sont dailleurs loin dêtre les seules applications à se moderniser. Des applications dune dizaine dannées réalisées en Java souffrent de défaut de conception pour avoir été rapidement développées.
Fusions et acquisitions nécessitent restructuration et convergence de SI
Le domaine bancaire est sujet à de nombreuses fusions et acquisitions dans un contexte international. Un rapport du Gartner XE "Gartner" met en exergue que les acteurs internationaux convergeant sur des marchés traditionnellement desservis par des banques de proximité, ont trouvé difficile détablir des économies déchelle en raison des challenges associés aux applications informatiques existantes tels quinflexibilité, cycle de développement long, et modifications non documentées.
Pour donner un exemple concret, ce type de fusion et acquisition impose à des systèmes prévus pour fonctionner en transactionnel sur des fenêtres de temps restreinte (9 h-17 h, par exemple, pour un créneau horaire) une disponibilité 24 h/24 et 7 j/7. Par conséquent, le traitement des données en « batch XE "batch" » de nuit, héritage danciens systèmes, nest plus possible. Il faut passer à des traitements quasi temps-réel sous peine de ne plus être concurrentiel au niveau des temps de réponse aux clients ou au niveau de la mise en ligne de nouveaux produits et services, ou encore au niveau du traitement des transactions financières.
La question à se poser est donc : Dois-je refondre mon système (sans garantie sur le délai) ou trouver un moyen de restructurer son architecture en réponse à ce besoin de transaction 24 h/24, 7 j/7 ?
Au-delà du domaine bancaire, la croissance par acquisitions de certaines sociétés peut être mise en difficulté quand les systèmes dinformation des organisations qui se rapprochent ne permettent pas de mettre en place des moyens de pilotage et de consolidations des informations financières communes.
Sans visibilité sur les applicatifs, données et flux de données, la convergence des SI va forcément poser problème. Lagilité dans ce contexte consiste dabord à maintenir un SI dans un état « lisible ».
Le commerce électronique impose louverture de lexistant
Autre exemple, la nécessité de gérer louverture vers les clients et/ou partenaires et fournisseurs à travers le Web. En particulier, lintégration de prises de commandes de clients en lignes ou laccès à distance à travers un portail Web pour des partenaires pour le suivi des achats, des bons de commande, des factures, des stocks, etc.
Cet aspect a, pour les systèmes centralisés sur mainframe XE "mainframe", été géré dans un premier temps par le développement dinterfaces Web en lieu et place des anciens 3270. Le bénéfice immédiat a été de remplacer une interface graphique peu attrayante et à risque derreurs (codes et abréviations à saisir au lieu de menus déroulants) par une interface ergonomique permettant de réduire la durée de traitement des dossiers et de déporter une partie de la saisie chez les clients et/ou partenaires usagers.
Cette étape de modernisation cosmétique ne modifie pas les fonctions existantes et le code des traitements reste souvent inchangé. Cest une première étape simple dont le retour sur investissement est rapidement démontrable.
On peut également choisir pour ce premier stade, suivant le coût ou le risque dobsolescence des plates-formes, de migrer vers des architectures client/serveur n-tier, qui impliquent de facto une séparation données/traitement/présentation et une couche de présentation Web.
Pour tirer pleinement profit de louverture au Web des processus de prise de commande, la modification des interfaces doit être accompagnée dune approche de rationalisation des données XE "rationalisation des données" , pour pouvoir construire une vue client unique (la fameuse vue 360 XE "vue 360°:CRM" ° du CRM), essentielle dans le commerce électronique, dont les avantages sont de trois natures :
centralisation des informations clients pour faciliter les prises de décision opérationnelles par une meilleure connaissance du dossier client ;
possibilité détablir des stratégies marketing via une meilleure exploitation des données ;
meilleure satisfaction des utilisateurs.
Cette approche peut se faire en réutilisant au maximum les systèmes et logiciels existants. Il sagira dabord détablir un dictionnaire de données XE "dictionnaire de données" de références client (référentiel client standardisé), grâce à la réingénierie du code et des données, puis, dans un second temps, de confier lorchestration des données (en particulier la synchronisation) à un Master Data Management (MDM). Ce dernier évitera toutes redondances et duplications de données ou risques dincohérence et simplifiera les flux.
Comment ça marche ?
MDM XE "MDM (Master Data Management)" Les données de référence XE "données de référence" auraient-elles trouvé leur maitre ?
Les données de références (Master Data) sont des informations essentielles pour lentreprise, manipulées dans la plupart des processus métier et qui existent indépendamment des applications. Ainsi en est-il des données clients, fournisseurs, produits, employés, sous-traitants, comptables, contractuelles
Le meta-group a défini une méthode de gestion de ces données (MDM) destinée à qualifier et à uniformiser le mode de description des informations pour en garantir une prise en compte correcte. Elle englobe ainsi tous les moyens pour constituer un référentiel de qualité comme le nettoyage des données, la mise en cohérence, la consolidation, la mise à jour, lélimination des doublons et létablissement des descriptifs des données de référence de lentreprise.
Par extension, les solutions sappuyant sur cette méthode ont pris le nom de MDM et comprennent la base de stockage de données maîtres et les outils de leur gestion.
À ce stade, lapplication nest pas tellement plus flexible. Elle est plus accessible, plus rationnelle au niveau des données, mais ni plus structurée, ni plus flexible. Introduire une nouvelle offre pour un segment de clientèle particulier impliquera encore un cycle de développement et de mise en production long, pour ce qui pourrait nêtre quune modification mineure dun montant dans une règle de gestion, et la séparation en deux modules dun traitement indifférencié.
En effet, cette modification a priori simple peut-être complexifiée par laspect monolithique du code de programmes de centaine de milliers de lignes. Il est très difficile de retrouver dans des millions de lignes non documentées où les données sont manipulées et où la règle se déclenche, et quels sont les impacts de la modification sur les autres programmes, etc.
Une nouvelle réflexion quil faut entreprendre ici consiste à pouvoir sortir du monolithe les aspects métier et les rendre paramétrables en dehors du cycle de développement et de mise en production, pour ne pas retomber dans le cycle de lobsolescence, et pouvoir réagir simplement à un changement de pure logique métier.
Dès lors, on sintéressera à la modularisation XE "modularisation" de code (par des techniques de restructuration), à lextraction des règles métier XE "règles métier" que lon pourra gérer en dehors du code grâce à un moteur de règles XE "moteur de règles" et à lenchaînement des modules autonomes à travers un orchestrateur de processus XE "orchestrateur de processus" .
Laissez la maîtrise des règles de gestion aux métiers
Sadapter à une concurrence féroce qui impose des cycles de mise sur le marché dinnovations courts, nécessite de rendre les systèmes plus adaptables afin quils autorisent des modifications doffres ou de services au niveau des métiers et non de linformatique.
Il existe aujourdhui des solutions (moteur de règles XE "moteur de règles" , par exemple) qui autorisent les utilisateurs à modifier des règles de gestion sans pour autant entrer dans un cycle de remise en production (avec les tests de non-régression et les fenêtres de mise en production associés).
Si hier loffre se déclinait par une règle de gestion XE "règle de gestion" écrite directement dans le code des programmes, demain, la modélisation de la règle dans un moteur de règles permettra un autre modèle pour son évolution : celui de laisser faire les modifications à un utilisateur par un simple changement de paramètres. Ainsi, il ny aura pas nécessité à repasser par les équipes informatiques avec un cycle de remise en production complet, comprenant développements et tests unitaires, intégration, recette et déploiement. Dès lors, il y aura possibilité de faire évoluer plus rapidement certaines offres de services.
Comment ça marche ?
Les règles du jeu des règles de gestion
Les règles de gestion partagent en général trois aspects : un aspect de calcul, un déclenchement conditionnel et des règles de contrôles sur les données ou des contraintes.
Le calcul peut être une formule simple ou un algorithme complet.
Voici deux exemples de déclenchement conditionnel :
Si la quantité disponible en stock devient inférieure à la limite, déclencher le processus de réapprovisionnement.
Le mode de calcul du salaire de retraite dépend du montant net (selon le montant net, le programme nappellera pas la même branche).
Quant aux règles de contrôle sur les données/contraintes, en voici quelques exemples :
Le salaire dun employé ne peut pas régresser.
Une facture comporte au moins une ligne de facture.
Le montant total des factures non réglées par un client ne peut pas dépasser le crédit autorisé pour ce client.
Pour cela, il faut pouvoir identifier les données métier de références dans le code existant et les rationaliser, cest-à-dire supprimer les redondances, les polysémies, les incohérences et établir des règles de nommage. Ensuite, on pourra identifier à partir des données métier les règles de gestion qui sy appliquent dans les programmes et extraire ces règles en respectant les contraintes de programmation pour pouvoir les modéliser dans un système externe qui autorise la modification par paramétrage XE "paramétrage" (moteur de règles).
La mise sur le marché plus rapide de nouvelles offres de services aux clients passe dabord par une meilleure gestion des données, éventuellement par une migration de systèmes avec des structures de données vieillissantes, le cas échéant, vers des bases de données relationnelles pour répondre aux besoins en structuration et manipulation de données.
Rationalisez les données pour un meilleur pilotage
Aux exemples précédents, il faut ajouter les besoins en pilotage par consolidation dinformation et en manipulation de données. En effet, pour pouvoir améliorer toute performance, en particulier en termes de productivité XE "productivité" ou de compétitivité XE "compétitivité" dune entreprise sur son marché, il faut avoir les données nécessaires pour la mesurer.
Or, les systèmes vieillissants souffrent de problèmes de structures de données, de sécurité, de redondances, daccès et de flexibilité, notamment pour la capacité à exporter simplement les données dans une forme facilement manipulable. On notera en particulier la difficulté à changer les structures de données ou dajouter de nouvelles tables dans les systèmes de stockage de données sous fichier ou les bases de données pré-relationnelle.
Les besoins en statistiques et en alimentation dinfocentres XE "infocentres" ou dentrepôts de données XE "entrepôts de données" (datawarehouse) peuvent ainsi justifier dun projet de modernisation dune application de type rationalisation de données ou migration vers une base de données relationnelle. Il en est de même dans les cas de gestion de données sensibles (dossiers assurés, dossiers patients) où la protection des données est évidemment primordiale.
Tout projet impliquant la cohérence de données et la récupération de données existantes sous de nouveaux formats, tel que la fusion de systèmes dinformation, linstallation dun progiciel ou dun nouveau développement, le transfert de fichiers entre machines hétérogènes, la mise en uvre dinterfaces entre applications, lalimentation dun entrepôt de données, devrait impérativement avoir un chantier modernisation dédié aux données.
En effet, les applications de gestion vieillissantes partagent toutes des besoins en rationalisation de données, car elles ont développé au cours du temps un ou plusieurs des exemples dincohérence suivants :
règles de nommage XE "règles de nommage" incohérentes : une même donnée peut avoir différents noms dans différents programmes ;
structures de champs XE "structures de champs" incohérentes : un même attribut peut avoir une longueur différente dans différents programmes ;
valeurs par défaut incohérentes : des programmes différents peuvent affecter des valeurs par défaut différentes à la même donnée logique. Cela peut provoquer des problèmes dans les programmes qui nont pas créé la donnée ;
différence dunité (devise locale versus euro) selon les programmes pour une même information : conséquences majeures sur les transactions financières ;
différentes règles de validation appliquées selon les programmes ;
différentes conventions sémantiques dans différents programmes, doù des rejets non justifiés.
Moderniser un programme pour le rendre plus flexible au sens métier passe donc par une étape indispensable de rationalisation XE "rationalisation du code" du code où, en plus de la restructuration de larchitecture du code, les données de références devront être identifiées et, grâce à des techniques de propagation, dextension de champs XE "extension de champs" , remises en cohérence dans lensemble des programmes.
Prévenir les risques dobsolescence
Maintenir les bonnes conditions dutilisation et dévolutivité
Les risques de lobsolescence des applications patrimoniales XE "applications patrimoniales" sont en grande partie liés à leur degré dutilisation et leur degré dévolutivité XE "degré dévolutivité" .
Quentendre par degré dutilisation XE "degré dutilisation" et degré dévolutivité? Il sagit à la fois de ce quun capital doit respecter pour être utilisé (et réutilisable) et ce quil doit assurer afin de pouvoir mettre en uvre rapidement des évolutions fonctionnelles et être réactif à lapparition de nouveaux besoins, même sur des signaux faibles. Les critères à mesurer pour vérifier que le système est utilisable et évolutif sont décrits dans le tableau 3-1.
Lobsolescence des applications est liée à une baisse inévitable des degrés dutilisation et dévolutivité pour de multiples raisons, notamment laltération de la qualité du code du fait de multiples interventions en maintenance, laltération physique des supports, lobsolescence des formats, des difficultés prévisibles comme larrêt du support dun produit, limpossibilité pour un système, de par sa conception, de prendre en compte un produit plus récent ou une architecture plus récente, etc.
Tableau 3-1
Usage et évolutivité XE "évolutivité"
degrÉ dutilisationdegrÉ dÉvolutivitÉcritères À mesurer (À respecter par le système pour être utilisable ou évolutif)Système connu (documentation complète et à jour).
Système validable (on peut prouver à tout moment quil est conforme aux spécifications).
Système facilement accessible (fonctions accessibles par les utilisateurs).
Système maintenu et supporté.Le système assure :
des modifications sur des temps de développement ultra-courts ;
une scalabilité instantanée (pour des pics de charge imprévisibles de fréquentation de sites Web, par exemple) ;
la fiabilité et la robustesse : des temps de non-fonctionnement réduits au maximum et la possibilité de mise à niveau des systèmes sans les arrêter ;
louverture des interfaces et laccessibilité aux données : afin de répondre aux multiples besoins dintégration et déchanges avec des systèmes internes ou externes connus et/ou futurs ;
la sécurité : en termes dintégrité des données et des contenus, et en termes de sécurité des échanges.Dès lors que les conditions dutilisation et dévolutivité énoncées ne sont plus remplies, lentreprise risque dêtre confrontée à :
des temps de non-fonctionnement hors de prix : si lapplication nest plus connue, le support dun composant dinfrastructure interrompu, le temps de mise à niveau des systèmes nest plus prévisible ;
des défauts catastrophiques sur limage de marque : sil ny a pas eu de période de rodage, si les tests ont été insuffisants car lapplication nest pas assez documentée, la mise en production se fait en dépit de la qualité et la satisfaction des clients est directement mise en danger ;
des difficultés dintégration : le système peut avoir des limites dans la capacité à exploiter des ruptures technologiques ou architecturales majeures (objet, web, SOA) par difficulté dintégration avec lexistant ;
des délais de réaction inacceptables : en particulier, ces délais peuvent devenir catastrophiques par rapport aux modifications de lenvironnement concurrentiel, notamment face à la nécessité de faire converger des systèmes dinformation pour consolider des données financières.
Arbitrer entre les risques à prendre et ceux à ne pas prendre
Ne rien faire et garder des applications obsolètes nest souvent ni la solution la moins risquée ni la plus économique. Lévolution est inévitable. Elle est guidée par lévolution du marché, lenvironnement économique et technique, la stratégie de lentreprise. Elle nest pas guidée par lutilisation qui est faite dune application dans un système particulier.
Il faut donc établir au plus tôt une stratégie de rénovation pour pouvoir proposer des politiques patrimoniales à long terme, au-delà de lurgence de la sauvegarde quinduisent les réactions aux points de rupture et du court terme de linnovation technologique.
Cette stratégie consiste à trouver, dès les premiers signes de ruptures prévisibles XE "ruptures prévisibles (signes de)" , le meilleur compromis entre le risque et le coût de limmobilisme et ceux de lévolution.
En parallèle, pour se prémunir des manques dagilité, il faut déterminer un seuil de criticité XE "seuil de criticité" par application, mesuré en fonction du degré dutilisation et celui dévolution qui, si tôt franchi, devrait déclencher une action dentretien et une rénovation systématique en prévention des risques.
Le tableau suivant illustre les signes des ruptures prévisibles et indique sur quels critères évaluer à la fois les coûts et les risques dimmobilisme XE "risques dimmobilisme" ainsi que ceux de lévolution.
Tableau 3-2
Ruptures prévisibles et critères destimation des risques
Signes de ruptures prÉvisiblesRisques et coÛts de limmobilismeRisques et coÛts de lÉvolutionFacteurs exogÈnesAnnonce de la fin de support ou la fin de commercialisation par un vendeur :
de plates-formes, de bases de données ou de langages du système ;
de lun des progiciels du système.
Nécessité dintervenir sur le système à travers un grand chantier dévolution, quil soit dû à des besoins métier, de nouvelles réglementations ou du besoin de convergences de systèmes dinformation (suite à consolidation de sociétés).Coût élevé dun support ou dune maintenance spécifique.
Coût élevé dune infrastructure appropriée (compétences, matériel).
Non-respect des obligations vis-à-vis du client final de lentreprise.
Rupture de services (non-disponibilité) et pertes de chiffre daffaires ou dimage de marque.
Non-compétitivité (incapacité de délivrer de nouveaux services).Possibles répercussions sur dautres systèmes vendus par lentreprise.
Risque de ne pas pouvoir assurer la disponibilité en continu (la « bascule » de lancien système vers le nouveau doit être transparente).
Coût de maintien éventuellement de deux systèmes en parallèle pendant un temps.
Difficulté de maîtriser les services cibles (courbe dapprentissage).
Délais et coûts du projet de modernisation.Facteurs endogÈnesDécision stratégique de basculement sur un progiciel qui peut avoir à échanger des données avec dautres systèmes existants.
Apparition dune nouvelle application ayant à échanger avec les systèmes existants.Disfonctionnements pouvant apparaître dans les systèmes existants dus à des échanges non standardisés.
Lourdeur de lintégration et rajout de « tuyaux » en point à point.
Redondance de processus de fonctions, de données.Cohérence système (possibles répercussions sur les autres applications ou progiciels du système).
Possibles répercussions sur la gouvernance des systèmes dinformation de lentreprise.
Nouvelles compétences à acquérir.
Coût de la restructuration darchitecture.Rester au bon niveau de compétences
Stagnation des compétences : résistances au changement en vue
Tout changement peut potentiellement entraîner des résistances. Un projet de modernisation dune application implique une rupture dans le quotidien des équipes en charge, aussi ne faut-il pas sous-estimer limpact organisationnel et planifier laccompagnement au changement XE "accompagnement au changement" dès le départ.
En réalité, la problématique à adresser en premier précède la décision dun projet de modernisation. Il sagit de définir et dévaluer les réels enjeux de changements humains au même titre que les enjeux dévolution. Ainsi, les questions fondamentales à résoudre vont bien au-delà dune vue projet ponctuelle, et sont les suivantes :
Peut-on anticiper les besoins RH de la DSI en fonction de facteurs exogènes tels que les évolutions technologiques ou les évolutions du marché IT ?
Peut-on accompagner lévolution des compétences XE "évolution des compétences" quimpliquent de nouvelles méthodes (ITIL, CMMI), de nouveaux modes de fonctionnement des directions des systèmes dinformation ?
Peut-on organiser le transfert des compétences XE "transfert de compétences" entre générations et préserver la maîtrise des savoir-faire spécifiques ?
Si ces questions ne sont pas envisagées dans le cadre dune approche globale, on prendra le risque davoir à gérer des conflits locaux au cas par cas des applications à rénover car ne rien faire en matière dévolution des compétences XE "évolution des compétences" revient, de la même manière que de garder des applications obsolètes, à prendre par défaut une solution risquée et coûteuse.
Dune part, en raison de la raréfaction des ressources XE "raréfaction des ressources" quon laisse sinstaller, dautre part, de par lultra-spécialisation de ressources sur des systèmes anciens. En effet, avec la pyramide des âges, des compétences disparaissent naturellement de lentreprise (suite aux départs de la génération du papy boom). Il faut reformer des personnes ou sous-traiter pour prendre la relève et assurer la continuité opérationnelle.
Par ailleurs, la connaissance fonctionnelle et technique nétant plus documentée et les compétences technologiques peu réutilisables hors dun contexte applicatif particulier, les personnels expérimentés ne sont plus valorisés que par la détention individuelle dune connaissance incontournable.
Dès lors, tout changement entrepris pour rendre lapplication intrinsèquement plus utilisable et évolutive est vécu comme un risque de mise à lécart et provoque naturellement des freins. Or, un facteur-clé de réussite du changement est la collaboration des équipes en place.
Valoriser les compétences daujourdhui, anticiper celles de demain
La mise en place dune politique de GPEC (Gestion prévisionnelle des emplois et des compétences XE "GPEC (Gestion prévisionnelle des emplois et des compétences)" permet de proposer une démarche globale pour anticiper et accompagner les évolutions des métiers et des compétences.
Définition
GPEC Gestion prévisionnelle des emplois et des compétences
Cette notion légale est apparue depuis janvier 2008. Les entreprises de plus de 300 salariés sont obligées de négocier la mise en place dun dispositif de GPEC. Cette loi de programmation de cohésion sociale dite « loi Borloo » a été votée le 18 janvier 2005 (loi n° 2005-32) et devait donner lieu à louverture de négociations jusquau 20 janvier 2008. Depuis cette date, les syndicats peuvent exiger une négociation sur la GPEC.
Selon le rapport du CIGREF XE "CIGREF (Club informatique des grandes entreprises françaises)" « Outil de scénarisation prospective des besoins RH de la DSI : facteurs clés de l'évolution des métiers et des compétences » de 2007, cette loi met en place une politique qui permet :
de capitaliser sur les compétences individuelles et collectives ;
danticiper les compétences émergentes et le recrutement ou la formation des personnes concernées ;
danticiper les compétences obsolètes et le reclassement des personnes concernées ;
de limiter la perte dexpertise suite notamment aux départs.
Doù lintérêt de cette démarche globale dans une approche « gouvernance XE "gouvernance:du patrimoine SI" du patrimoine SI », car elle accompagne la rénovation progressive XE "rénovation progressive" des systèmes sous langle ressources humaines.
En parallèle, pour tout projet de modernisation, on veillera, dès la planification, à accompagner le changement de paradigme technologique, le changement des modes de travail et des rôles et, enfin, le changement culturel dans la vision du système dinformation.
Les modernisations par migration de base de données, de langages ou de plates-formes, introduisent de nouveaux styles technologiques. Quand une grande partie de la logique et des composants du système source peut être préservée et autogénérée sur de nouvelles cibles darchitectures, il est possible de préserver une grande partie des acquis de lexistant et des compétences, et daccompagner le changement par un transfert de compétences XE "transfert de compétences" ainsi que par la mise en place déquipes mixtes, à la fois expérimentées dans les expertises de type mainframe et sur les nouvelles technologies telles que J2EE et .net. Quant les interactions et les transformations entre les deux mondes sont claires, cest également plus facile dadopter de nouvelles expertises sur les plates-formes cibles.
De nouvelles méthodes accompagnent souvent les nouveaux paradigmes. Les principes danalyse des demandes de changement XE "demandes de changement" de lexistant évoluent, de même que les méthodes pour tester les évolutions et les référentiels pour capitaliser. De nouveaux rôles apparaissent, les rôles existants se transforment et sont attribués différemment, des nouvelles expertises sont requises, notamment sur le plan managérial et relationnel, ou sont à acquérir (comme par exemple en matière de pilotage dans le cadre de loffshore XE "offshore" ), et dautres deviennent obsolètes.
Ce changement peut être loccasion de tirer profit dun capital de connaissances acquis par des personnels expérimentés afin de valoriser leurs expériences terrain, du métier de lentreprise et des bonnes pratiques informatiques, en leur proposant une évolution de périmètre métier (par exemple en passant dune fonction opérationnelle à une fonction de contrôle).
Enfin, il faudra faire comprendre que lenjeu nest plus de répondre à un besoin par un projet qui ajoute une nouvelle application à partir des données répliquées dapplications existantes. Il sagit désormais, dune part, de mieux aligner la dépense en applications sur les bénéfices métier et, dautre part, de travailler à léchelle du SI, ce qui conduit progressivement à passer dune logique dapplications à une logique de processus et de services.
Pour lexistant, la poussée de nouveaux modes dexternalisation XE "externalisation" de la maintenance et la nécessité de faciliter une rénovation progressive XE "rénovation progressive" inscrite dans des schémas dévolution durables se traduit par un besoin de contrôle dautant plus poussé des transformations et des évolutions. Ce contrôle sera dautant plus accepté par les équipes en place quil sera décliné de manière progressive et flexible et quelles y verront la possibilité dadhérer à une vision dentreprise.
On ne peut traiter complètement les risques liés à lobsolescence sans évoquer également le risque humain. Ce dernier est souvent laissé de côté au profit de critères plus déterministes. Pour autant, une politique de gouvernance des applications patrimoniales ne sera pas complète si elle ne prend pas en compte lévolution des compétences, les nécessaires transferts de connaissances et la capitalisation sur les compétences déjà acquises. Le facteur humain est primordial dans la réussite dun projet de modernisation.
Bien gérer son patrimoine SI
La rénovation des applications patrimoniales XE "applications patrimoniales" est une nécessité qui se planifie. En termes de durée et de périodicité des remises à niveau, elle entraîne des coûts qui doivent être prévus et acceptés à lavance. Elle impose une gouvernance XE "gouvernance:du patrimoine SI" destinée à minimiser limpact de ces rénovations, qui implique de détecter les signes de ruptures et de mesurer en permanence le seuil de criticité.
Ainsi faut-il veiller à ne pas descendre en dessous du seuil fixé pour les degrés dutilisation et les degrés dévolution afin de maximiser lutilisation du patrimoine existant au sens large, cest-à-dire le code déjà existant, les progiciels déjà connus, les compétences déjà acquises.
De même, il faut minimiser la nécessité de développer du nouveau code, dintroduire de nouveaux progiciels à intégrer dans une infrastructure, dobtenir de nouvelles compétences, si rien de cela ne sinsère dans une approche long terme du système dinformation.
Certaines opérations de modernisation se justifient delles-mêmes de par la réduction de coût XE "coûts:réduction de" ou de par les risques dobsolescence technique liés à un arrêt définitif de support. Toutefois, lier une approche de modernisation seulement à des critères de réduction des coûts ou des risques immédiats savère dangereux sur le long terme. Les conditions dadaptation à un environnement économique mouvant incluent linvestissement dans la modernisation du système dinformation pour plus dagilité. En focalisant sur les risques et les coûts, on réagit tactiquement à des contraintes immédiates, sans élaborer de stratégie pour le futur.
À linverse, la mise en uvre dun grand programme de rationalisation pour la modernisation des applications existantes est rarement envisageable, car il présenterait le même risque que les grands projets de cartographie de lexistant : séloigner très vite de lapproche pragmatique quimplique le rythme des changements et perdre ainsi leur crédibilité, faute à pouvoir présenter des retours sur investissement dans un délai acceptable.
Aussi faut-il appeler à une gouvernance du patrimoine SI qui sintègrerait dans une gouvernance globale, au sens où tout nouveau projet, toute demande métier devra être loccasion dune étape de modernisation dont le retour sur investissement permettrait de budgéter la suivante.
Partie 2
La DSI et ses défis
Si le système dinformation est un levier fort dévolution pour accompagner les changements vers une économie de plus en plus immatérielle, les entreprises vont attendre quil les serve avec agilité, cest-à-dire rapidement et efficacement. Or, si lagilité est contrainte par un existant rigide, le système dinformation ne servira pas lévolution sans avoir à
évoluer lui-même. Notamment en mettant tout en uvre pour disposer dune flexibilité qui lui permette de répondre rapidement à des nouveaux besoins métier, en restant aligné sur une stratégie dentreprise.
Cette évolution est difficile en raison non seulement dun héritage technique éventuellement contraignant, mais également du regard porté sur loutil informatique par les directions générales.
Les mesures de ROI XE "ROI (Return On Investment)" (Retour sur Investissement XE "Retour sur Investissement" \t "Voir ROI" ) appliquées aux systèmes dinformation sont aujourdhui insatisfaisantes car axées sur des critères de coût quantifiables directement, sans prendre en compte tous les coûts induits, les chiffres daffaires indirects et le prix du « non-investissement ». Comment gérer économiquement et globalement un SI ? Comment passer dune vision du SI en tant que « centre de coût » à une vision du SI en source defficacité et de création de valeur pour lagilité et la performance de lentreprise ? Comment incorporer lévolution vers un univers numérique pour faire de la stratégie SI une part intégrante de la stratégie dentreprise ?
Au-delà dun outil support, voire accélérateur dune stratégie, le SI peut être lui-même un axe stratégique de conquête de marchés, de clients, lélément générateur de nouveaux produits et services. Dès lors, comment réorganiser lentreprise pour que la fonction SI devienne lisible et visible, fournisse une vision claire de ce quelle apporte économiquement et, pro-activement, de ce quelle pourrait apporter ?
Lobjectif de cette partie est daborder ces différentes questions en mettant en relief les enjeux et défis de lévolution et les réponses possibles, tant en termes dorganisation que de pilotage des SI.
Chapitre 4
Réorganiser un centre de coûts en centre de valeurs
Tout est changement, non pour ne plus être mais pour devenir ce qui nest pas encore.
Épictète
Ce chapitre traite de lévolution des rôles et des modèles dune direction des systèmes dinformation, du modèle « centre de coûts » au modèle « centre de valeurs ».
DSI : un rôle difficile
Le DSI idéal
La liste à la Prévert qui suit est extraite des desiderata exprimés de « chasseurs de tête de DSI » : passionné, technophile, stratège, charismatique, visionnaire, opérationnel, gestionnaire, communiquant, leader, fédérateur, porteur didées nouvelles
Le profil unique pour réaliser tout cela demeure un idéal souvent impossible.
Il nest en effet pas forcément opportun de demander au même profil dêtre opérationnel au jour le jour, dassurer la continuité de systèmes existants complexes hérités du passé, tout en réduisant les coûts et en fournissant une vision stratégique de la contribution du SI à la valeur intrinsèque de lentreprise, sans même parler de fournir des idées nouvelles pour une création de valeurs. Laspect gestionnaire et laspect innovateur restent des états desprits qui ne sont pas cumulables au même moment et on ne peut pas demander lun et lautre sans être clair sur le poids de lun par rapport à lautre.
Or, les directions qui recrutent le DSI ne sont pas forcément claires sur le rôle de la mission à lui attribuer, dautant que, nayant pas de visibilité sur la valeur, elles se rattachent le plus souvent à des objectifs tangibles et visibles de coût, tout en attendant cette valeur, ce qui positionne le DSI demblée dans une situation difficile.
Il vaut mieux voir la direction des SI comme une collégiale de compétences complémentaires en systèmes dinformation guidée par une vision commune de lentreprise plutôt quun individu unique, fut-il surdoué. La direction des systèmes dinformation doit chapeauter des responsables gestionnaires et des innovateurs métiers technophiles, des innovateurs techniques passionnés du métier et des concepteurs, des développeurs, des architectes et des techniciens opérationnels, elle doit piloter en transverse des fonctions très différentes et na pas pour vocation que le directeur, responsable de la stratégie, les prenne en direct.
Mais pour prétendre à la création de valeur, elle a vocation à prendre des risques, à être force de proposition et darbitrage et non uniquement force dexécution. Cette vocation doit être légitimée par la direction générale. La direction des SI idéale serait donc celle qui donne de la visibilité sur ce quelle fait et sur la valeur du système dinformation, celle qui est constituée dune collégiale de compétences et dintelligences transverses à toute lentreprise, et qui interagit au niveau de la stratégie dentreprise avec le soutien de la direction générale.
Cela ne suppose pas forcément de recruter davantage de profils mais de faire intelligemment avec les profils existants et de combler les manques éventuels par du recrutement si le besoin est essentiel et permanent, ou sinon de faire appel à du conseil externe par choix de compétences quil sagisse daider à prendre des directions stratégiques à un tournant ou dapporter des connaissances pointues, méthodologiques ou technologiques. Il paraît également judicieux pour une DSI de développer des communautés dintelligence avec des pairs pour partager les meilleures pratiques et disposer dun miroir réfléchissant afin dévaluer son propre niveau de maturité.
Les missions du DSI
Quelles sont les missions « régaliennes » du directeur des systèmes dinformation ? Celles sans lesquelles le système dinformation dentreprise nexisterait pas et qui ne peuvent être confiées à aucune autre direction ?
La direction des SI est dabord et avant tout une direction au service des autres directions de lentreprise ou des utilisateurs. Elle utilise des systèmes dinformation pour fournir des services transverses à lentreprise ou des services sectoriels (propres à une branche ou à un métier). Ces services sont des services dinformation, quils soient de contrôle, daccès, de diffusion, dexploitation. Lutilité du service, sa valeur dusage, dépend tout autant de la pertinence XE "pertinence" , de la fiabilité XE "fiabilité" et de laccessibilité XE "accessibilité" de linformation pour son utilisateur que du fait daccélérer les échanges ou de mettre en cohérence des sources dinformation variées.
Derrière chacun de ces mots et concepts-clés (pertinence, fiabilité, accessibilité, accélération des échanges, mise en cohérence) se trouve une des missions dune DSI.
Derrière le concept de pertinence se cache la mission de traduction par la direction des SI dexigences métier en matière de manipulation dinformation, en une logique darchitecture de linformation efficace. Les composants dun système logique et physique devront semboîter pour fournir des informations directement exploitables par lutilisateur, sans gymnastique intellectuelle supplémentaire. Il sagit daligner le service dinformation aux besoins auquel il doit répondre et de qualifier linformation en fonction de son utilité et de ses usages.
Derrière le concept de fiabilité se cache la mission dassurer la robustesse du système qui stocke les informations, de façon à ce que celles-ci soient efficacement sauvegardées et mises à jour régulièrement, sans perte ni de linformation, ni de la connaissance de son utilité et de ses usages.
Derrière le concept daccessibilité se cache la mission dassurer, dune part, la disponibilité de tout service dinformation et, dautre part, den assurer un usage simple, compréhensible, sans « temps derrance » pour lutilisateur.
Définition
Lutilisateur errant
Le temps derrance XE "temps derrance" est à la fois un coût souvent caché, car non mesuré, et le temps perdu par un utilisateur dans la prise en main dun nouvel outil informatique à rechercher la bonne information sur un paramétrage ou une utilisation, voire à solliciter dautres collègues (dont la mobilisation représente elle-même un coût) parce que le déploiement de loutil na pas inclus suffisamment de support ou de formation.
On estime que ce temps improductif dans lusage des moyens informatiques en entreprise peut atteindre jusquà 9 % de la masse salariale totale (soit 20 à 30 fois le coût dun service dassistance de type help Desk).
Derrière « laccélération des échanges » se cache la mission dêtre à lécoute du potentiel de transformation des technologies de linformation et de la communication pour simplifier les modes déchange entre hommes et/ou machines et repousser des contraintes de temps et despace pour trouver de nouveaux usages, ou renouveler des modes de fonctionnement jusqualors limités.
Derrière « la mise en cohérence » de sources dinformation variées se cache la mission dune DSI de faire du système dinformation un système daide à lintelligence collective XE "intelligence collective" dentreprise, capable de fédérer la connaissance des différents métiers et suivre les activités de lentreprise, pour en reconstituer un ensemble cohérent et un accélérateur daide à la décision.
La maturité dune direction des SI vis-à-vis de ses missions ne sévalue pas à la maîtrise des moyens technologiques dont elle dispose. Il sagit ici dune condition sine qua non mais pas suffisante. Tout le défi est de dépasser lambiguïté des rôles et des responsabilités entre ceux qui demandent le service et ceux qui le fournissent. La maturité dune direction des SI sévalue dans les méthodes et les critères utilisés pour définir le service avec les utilisateurs et en évaluer le coût de mise à disposition avec une logique de valorisation complètement compréhensible par toutes les parties prenantes, afin que la logique dinvestissement se fasse en toute connaissance de cause.
Les variantes révélatrices dorganisation des DSI
Il existe différents types dorganisation de DSI. Elles dépendent autant de la taille de lentreprise, de lorganisation de lentreprise elle-même (si cest une holding avec des filiales, par exemple), que de la maturité de lentreprise par rapport au métier de la direction des SI. Lentreprise peut considérer la direction des systèmes dinformation comme un métier à part entière, générateur de valeur de la même façon que les autres métiers de lentreprise, ou comme une fonction de support encore mal définie dont il est difficile de percevoir la contribution à la création de valeur pour lentreprise. Le cas échéant, rien ou quasiment, nest mis en place pour mesurer et évaluer la valeur et le pilotage se fait essentiellement par les coûts.
On peut toutefois, dans cette multitude dorganisations, déterminer deux axes pour positionner les typologies dorganisation : lun orienté « fonctions informatiques », lautre orienté « services informatiques », selon que ce découpage est orienté vision interne de la structure dune DSI et de ses rôles, ou vision externe, cest-à-dire plus proche de la finalité des fonctions (rendre des services à des utilisateurs clients) que des moyens pour les assurer.
Il existe beaucoup de variantes entre ces deux visions, selon, par exemple, quil y a un mixte entre fonctions et/ou métiers propre à la DSI et services fournis aux métiers, ou que le découpage en termes de services soit purement vertical (par secteur métier de lentreprise) ou matriciel (services spécifiques à des divisions métiers et services transverses). Lenjeu dévolution est toutefois de sortir dun découpage vertical, quil soit interne, orienté vers les activités du cycle de vie logiciel, ou externe, orienté vers les donneurs dordre. Cela est indispensable pour éviter les silos techniques ou applicatifs et pour aller vers un découpage matriciel qui soit à léchelle des besoins de coordination dune architecture dentreprise orientée services.
Il faut bien comprendre également que selon le type dorganisation de la DSI, la maîtrise du budget, la répartition des coûts par activité et la possibilité dimpliquer plus ou moins la maîtrise douvrage dans lévaluation de la valeur et des coûts, seront plus ou moins facilitées.
Le schéma ci-dessous illustre les typologies dorganisation qui pourraient apparaître selon ces deux axes. Les paragraphes suivants détaillent, dune part, lapproche organisationnelle historique et classiquement répandue du découpage de la DSI par fonctions informatique, dautre part, lapproche matricielle.
OrganisationSI.png
Légendes figurant dans limage
Figure 4-1.
Typologie des directions des Systèmes dinformation
La vision classique par fonctions informatiques
Ce type, « classique » au sens historique, est une organisation fonctionnelle orientée autour des étapes du cycle de vie des logiciels. Ainsi y aura-t-il des entités spécialisées par grandes étapes du cycle de vie de développement et, plus largement, du cycle de vie de lapplicatif.
Ce sont des découpages organisationnels quon retrouve dans bon nombre dentreprises, en particulier pour la fonction « exploitation et production », comme lillustre dans la figure ci-dessous un des résultats de lobservatoire Sapientis sur la « Modernisation des SI et maturité des entreprises » à laquelle on se référera tout au long de louvrage. En 2010, 60 % des participants ont déclaré avoir une entité « Production et exploitation » et 55 % une entité « Étude, développement et intégration ».
DecoupageOrga.png
Figure 4-2.
Découpages organisationnels reconnus. Sapientis©
Pour la partie amont, « Études et développement », une entité se verra chargée deffectuer les études de faisabilité et de gérer le développement (souvent appelé le Build, par opposition au Run qui est lexploitation) des projets afin de répondre aux expressions de besoin des directions générales et métier. Suite à la mise en production, il faut gérer lexploitation des applications patrimoniales, maintenir leur qualité et prendre en compte les demandes de changement XE "demandes de changement" des utilisateurs, quil sagisse de corriger des anomalies ou détendre des fonctionnalités.
Une entité « Production et exploitation » est le plus souvent dédiée à cela, tandis quune autre entité gère les aspects « infrastructures » (serveurs, plates-formes, réseaux, télécommunications) qui se sont complexifiés au fil du temps.
Dans ce type dorganisation, il nexiste pas toujours dentités transverses responsables de la cohérence et de la coordination des projets et des applicatifs entre eux, et les fonctions support ne sont pas forcément centralisées dans un centre de services dédié. La figure suivante illustre lorganigramme classique de ce type dorganisation avec, en pointillé, les structures qui peuvent ou non y exister.
OrgaDSI1.png
Figure 4-3.
Organigramme « classique » dune DSI
La maturité de ce modèle dépend en partie du type de relations entre la DSI et les directions métier, et la présence de fonctions transverses nécessaires à la coordination globale. Si les relations entre DSI et directions métier sont de type « client-fournisseur » mais non formalisées, il y a fort à parier que linformatique soit perçue comme une boîte noire ne pouvant évaluer sa contribution aux autres directions métier, comme un « centre de coûts XE "centre de coûts" ». Le support aux utilisateurs dans ce contexte ne sera pas géré comme la vitrine des services de linformatique quil doit être, mais plutôt comme un passage obligé pour répondre aux bugs, aux plantages, aux problèmes techniques, sans garantie dengagement de services.
Si, au contraire, les relations sont formalisées, des fonctions transverses de planification, de conception darchitecture globale, de mutualisation ou de stabilisation des fonctions de base, existent et si le service utilisateur est bien géré, ce modèle peut contribuer à une direction informatique performante. Reste que la dimension pilotage des systèmes dinformation avec les métiers, manque à ce paysage.
Lorganisation orientée services
Lobjectif de cette approche est dorganiser les moyens et les ressources de la DSI autour de sa finalité, fournir des services dinformation transverses à lentreprise ou sectoriels (par métiers de lentreprise), qui contribuent à la performance de lentreprise sur son marché.
Dans cette approche, il est essentiel de définir et de formaliser le type de prestations fournies par la DSI auprès des clients internes (directions opérationnelles ou fonctionnelles), ainsi que la façon dexprimer, de valider et de tracer la demande (gérer les « exigences XE "exigences" »).
Les clients sont les entités responsables de la demande de prestations qui auront à prendre en charge les coûts correspondant dans un compte dexploitation.
La définition des prestations passe par un catalogue de produits et services XE "catalogue de services" qui servira ensuite de base pour évaluer aussi bien le respect des engagements de la DSI que sa performance, la satisfaction des utilisateurs au regard du périmètre attendu, etc. Cest une condition indispensable à ce que la DSI ne soit pas traitée comme un centre de coûts mais bien comme une direction opérationnelle comme les autres directions métier.
Le catalogue doit non seulement être compréhensible par les clients (sans jargon trop technique), mais également correspondre à des services où les engagements des parties prenantes peuvent être clairement définis, ainsi que présenter la mesure de limpact des services rendus au niveau des métiers (performance des ressources humaines, gains quantitatifs et qualitatifs des traitements, volume dinformation générée ou traitée automatiquement, etc.).
Afin dimpliquer davantage les donneurs dordre, cest-à-dire les clients internes à lorigine des demandes de services à linformatique, lorganisation de la DSI peut inclure des divisions dédiées à un client ou à une typologie de clients, et ensuite estimer les coûts par activité pour refacturer les services aux directions opérationnelles ou fonctionnelles.
Toutefois, la structure ne peut être seulement divisionnelle car ce serait négliger la mutualisation de services transverses, la vision urbanisation de larchitecture dentreprise, et la nécessaire coordination du portefeuille des applications et des projets en fonction des enjeux et des priorités de lentreprise.
Il faut donc ajouter à ce découpage vertical, cest-à-dire par métiers de lentreprise, un découpage horizontal, cest-à-dire transverse à tous les métiers, pour les activités qui relèvent dune nécessaire vision globale. Ainsi en est-il des méthodes, de larchitecture et de la sécurité (qui doivent, pour être efficaces, être nécessairement vues dans le contexte global de lentreprise).
Pour des organisations larges, plus particulièrement des grands comptes, on trouvera en outre des fonctions transverses liées :
à la communication : il sagit ici de communiquer à lavance sur les changements (futurs services, modification dun service existant, interruption de services) et du nécessaire marketing de la fonction DSI sur lequel on reviendra ;
aux achats informatiques : selon le volume, il peut y avoir une entité dédiée chargée de mutualiser, dobtenir des contrats cadre, etc. ;
aux ressources humaines spécifiques à la DSI, ce qui se conçoit dans des groupes où linformatique interne compte des centaines, voire des milliers de ressources ;
au contrôle de gestion IT : la DSI devenant une entité opérationnelle, elle doit avoir un compte dexploitation et son budget dépendra à la fois du volume de la demande et de sa performance dans la réalisation du service correspondant.
La figure 4-4 illustre le type de découpage organisationnel XE "type de découpage organisationnel" . Dans ce découpage, ne sont pas abordés les aspects stratégiques du système dinformation dans lévolution de lentreprise.
Il sagit ici dévoluer vers une direction générale des systèmes dinformation reconnue au même titre que les autres directions métier.
OrgaDSI2.png
Figure 4-4.
Organigramme dune DSI matricielle
Les modèles de positionnement de la DSI
Les enjeux, défis et contraintes des DSI peuvent être sensiblement les mêmes dune entreprise à lautre, mais les priorités changeront de façon drastique suivant le positionnement de la DSI au sein de lentreprise, celui-ci étant directement corrélé à la vision que peut avoir la direction générale sur lapport du système dinformation à ses enjeux et objectifs.
Le rattachement hiérarchique du DSI est dailleurs en lui-même une illustration symptomatique des positionnements que nous décrivons plus loin, en cela quil ne reporte pas systématiquement à la direction générale (seulement 40 % selon létude Sapientis) et quil est souvent proche du directeur financier à qui il reporte directement ou indirectement.
Proximite.png
Figure 4-5.
Niveau de proximité du DSI avec le DG ou le DAF. Proche signifie un lien de personne (accessibilité), non hiérarchique
Source : observatoire « Modernisation des SI et maturité des entreprises », © Sapientis
Aujourdhui, il y a trois modes de positionnement : centre de coûts XE "centre de coûts" (50 % des organisations), centre de services (45 %) et centre de valeurs XE "centre de valeurs" (5 % des organisations). Lévolution vers ce dernier reste difficile.
Le centre de coûts
Dans ce modèle, il ny a pas de formalisation des services rendus par linformatique ni de refacturation XE "refacturation (des services)" desdits services aux métiers.
La DSI a un budget de fonctionnement. Cette direction rend compte de son activité essentiellement à travers les dépenses de fonctionnement (coût matériel, logiciels, ressources humaines, formations
).Les résultats sont très rarement mesurés en termes de gains et bénéfices métiers. Ce qui conduit a un mode réactif et correctif piloté par les coûts, avec un budget menacé de constante diminution au regard du manque de visibilité sur la valeur.
Le centre de services
Dans ce modèle, la DSI agit comme une société de service interne. On constate une formalisation forte de la relation client-fournisseur qui va jusquà la création dun catalogue de services XE "catalogue de services" précisant la définition des services rendus par la DSI et la refacturation aux métiers avec des logiques de tarification plus ou moins élaborées de la prestation. Ces logiques vont du calcul de coût à lhomme jour du service, à des principes de partage de gains/bénéfices.
Si le modèle permet dobjectiver cette fois-ci les résultats de la DSI aux regards des enjeux donnés, il peut présenter deux inconvénients majeurs. Le premier est daccentuer la relation client-fournisseur au préjudice dune relation partenariale et stratégique avec la direction générale. Le second est de piloter par un ROI XE "ROI (Return On Investment)" (Return On Investment) axé sur le profit comptable qui peut freiner la pérennisation de la création de valeur XE "la création de valeur" et lanticipation/innovation.
Le centre de valeurs
La direction des systèmes dinformation est un partenaire stratégique de la direction générale, à qui elle rapporte. Elle est jugée sur des résultats objectivés mais au regard dune analyse de la valeur XE "analyse de la valeur" de lenjeu pour lentreprise. Il sagit dapporter une valeur différenciatrice, que ce soit dans des services support qui augmentent la productivité interne, ou par lutilisation des SI pour que les produits/services de lentreprise soient plus compétitifs sur leur marché. Le formalisme existe aussi pour contrôler linstanciation de la stratégie, mais il ne sarrête pas au niveau comptable. Dans ce modèle, il y a une véritable gestion du portefeuille des actifs immatériels du SI.
Comment aller du centre de coûts vers le « centre de valeurs » ?
Lévolution du modèle centre de coûts XE "centre de coûts" vers le modèle « centre de valeurs XE "centre de valeurs" » ne se fait pas sans heurts mais il est indispensable, dans cette évolution, de passer par le modèle « centre de services XE "centre de services" » pour donner une visibilité tangible aux services rendus par linformatique et pour être en mesure daméliorer les performances sur la base de mesures factuelles.
Cette approche « fournisseur de services », particulièrement quand elle intègre une logique de refacturation XE "refacturation (des services)" interne, peut sembler un peu rigide pour certains. Elle présente à leurs yeux le risque de ramener la direction des systèmes dinformation à un prestataire interne soumis à concurrence avec des prestataires externes, sans prendre en compte le niveau de connaissance et dexpertise qua développé la DSI sur les applicatifs et le métier de lentreprise.
Cest une évolution qui peut ainsi être vue à double tranchant, comme un premier pas vers lexternalisation XE "externalisation" , mais cest se tromper sur son utilité et lemployer à mauvais escient, le cas échéant. En effet, lapproche fournisseur de services qui refacture en interne ne suffit pas pour décider dune stratégie dexternalisation, sauf à être dans une tactique court terme de réduction de coûts. Il y a des logiques complexes de benchmarking XE "benchmarking" dunités duvre XE "unités duvre" et de gestion des compétences stratégiques quune comparaison rapide sur les coûts ignore.
Cette évolution vers le centre de services est nécessaire en dépit, parfois, dun niveau de satisfaction élevé au sein de lentreprise vis-à-vis des services informatiques. Cest la seule garantie déchapper à une vision réductrice de services de frais généraux, car la satisfaction quune entreprise peut avoir de son informatique ne la dispense pas de formaliser les relations entre sa DSI et les autres directions opérationnelles.
Une DSI à taille humaine peut développer avec les utilisateurs métier des relations très cordiales en acceptant de mettre en place « au fil de leau » les modifications demandées. Lentreprise pourra être très satisfaite de la réactivité de son informatique, jusquà ce quelle ait à affronter une croissance rapide. Elle devra alors affronter les conséquences des développements au fil de leau évoqués au chapitre 1.
Dautre part, la direction des SI étant en mode réactif par rapport aux demandes métier, elle naura pas développé avec les directions métier un dialogue sur lensemble du parc applicatif pour pondérer les investissements au regard des enjeux, et il ny aura aucune responsabilité pour déterminer le sort des applications plus ou moins « obsolètes » ou, du moins, à remplacer par des standards dont le coût de maintenance et dexploitation vient « polluer » le budget SI.
Les limites du centre de services
Si on voit bien la nécessité de passer par un centre de services, il faut néanmoins être très prudent sur plusieurs aspects. Ainsi, réduire lévaluation de la performance informatique à la lecture des indicateurs dun tableau de bord serait aussi dangereux que de se fonder sur une satisfaction a priori.
Le tableau de bord peut être « au vert », quoique le service mauvais et les utilisateurs mécontents. Si la définition des indicateurs na pas été faite en collaboration avec toutes les parties prenantes, les mesures ne sont pas significatives. La consolidation dindicateurs est importante en ce sens.
Si la direction des SI mesure sa performance en termes de délais de temps de corrections des anomalies, elle naura pas une vision de limpact utilisateurs. Une anomalie dite critique sur une application peu utilisée na pas le même poids que sur une application fréquemment utilisée, mais si cette application est elle-même critique, une seule anomalie sur une fonction essentielle peut induire des risques supérieurs que dans des cas fréquents dutilisation, etc.
De même, si une anomalie est rapidement corrigée, cela ne signifie pas que la correction est de qualité. La pression des délais conduit souvent les techniciens de maintenance à effectuer des copier-coller de code avec, en conséquence, des codes « obèses » de plus en plus difficiles à maintenir. Sans indicateurs de qualité, la rapidité de corrections peut être à double tranchant.
Il y a également un nécessaire devoir de marketing de la direction des SI XE "marketing de la DSI" qui ne se réduit pas à une prestation tarifée client-fournisseur : être à lécoute des clients pour leur proposer les bons services, les informer au mieux des services existants et en améliorer continuellement la qualité. Cest une évolution vers lanticipation des bons services qui ne peut se produire quà condition davoir des relations de confiance entre la direction générale, les directions métier et la direction des SI.
Quant à la refacturation XE "refacturation (des services)" interne, elle doit privilégier des unités duvre XE "unités duvre" définies avec les métiers et adoptés par eux, et lisser autant que possible les coûts des services transverses. Par exemple, il serait catastrophique de faire payer au premier projet métier le surcoût dinvestissement initial dune architecture SOA XE "SOA (Service Oriented Architecture)" .
Il faut donc prévoir une logique dabonnement, comme pour les offres Saas où tous les clients bénéficient de la mutualisation XE "mutualisation" , le modèle économique se basant sur le volume. Cela évite une facturation excessive aux premiers clients qui, de surcroît, ne bénéficieront pas tout de suite des bienfaits de la rationalisation dune architecture, ces derniers portant sur la réutilisation ou lintégration.
Dans le cas contraire, on sexpose à la mise en uvre de solutions de contournement. Ainsi, un grand groupe international avait mis en place une structure interne type centre de services pour le déploiement et lutilisation dun EAI XE "EAI" (Enterprise Architecture Integration) dans toutes les filiales du groupe. Lesquelles étaient refacturées pour chaque application connectée à lEAI XE "EAI" sur la base dindicateurs non métier et sur une facturation supérieure à ce que leur aurait coûté une intégration point à point. Cest dès lors ce dernier mode dintégration qui sest répandu, non officiellement mais rapidement, dans le groupe.
Chapitre 5
Étapes cruciales dun pilotage réussi
La liberté consiste à être gouverné par des lois et à savoir que les lois ne seront pas arbitraires.
Montesquieu
Nous avons vu précédemment que le DSI, entre réduire les coûts et investir, dispose dune marge de manuvre étroite et risque de se retrouver coincé dans un engrenage figé si la rationalisation des coûts ne permet pas de réinvestir dans dautres projets informatiques. En réalité, sa marge de manuvre dépend de sa capacité à rendre le SI lisible, cest-à-dire à expliciter et valoriser les services fournis, ou limpact de ceux demandés. Pour cela, il se trouve confronté à plusieurs défis, dont quatre principaux que nous détaillerons dans ce chapitre.
Tout dabord, il doit rendre le SI intelligible : la méconnaissance de ce que fait lexistant et comment il le fait ne permet pas doptimiser les coûts récurrents. Cette méconnaissance est structurelle car elle est due à un système de construction des SI où la gestion des connaissances et les concepts durbanisation (voir chapitre 9, p.200) nont pas été suffisamment pris en compte. Le chapitre suivant (Activer les leviers de création de valeur, p. 138) détaillera davantage ce défi, mais force est de reconnaître que sans visibilité sur son parc applicatif, sur les contrats liés et les coûts dispersés, le DSI peut difficilement actionner les dispositifs de mutualisation, dexternalisation, de data centers ou de rationalisation des applicatifs et/ou des contrats fournisseurs.
Ensuite, il lui faut maîtriser les coûts et le budget : les coûts informatiques XE "coûts:informatique" sont rarement bien gérés, à la fois pour des raisons historiques et organisationnelles. Le DSI lui-même na pas forcément tous les coûts liés aux systèmes dinformation sous sa responsabilité directe. Ce qui est plus gênant, cest quil nen ait pas non plus la visibilité globale, notamment pour les coûts afférant à la maîtrise douvrage ou les coûts cachés de non-productivité des utilisateurs, par exemple. Sans connaissance étayée des coûts des services, il est illusoire pour le DSI de vouloir gérer son budget comme celui dun compte dexploitation, ce qui est toutefois nécessaire pour inscrire la direction des systèmes dinformation comme une direction métier.
Il sagit donc de connaître les coûts mais, pour quils aient un sens (sont-ils trop élevés ? faut-il les réduire ou au contraire investir ?) en tant que paramètres de décision du budget de la DSI, connaître le coût dun service ne suffit pas. Il faut également, dans lévaluation des services fournis, faire entrer la nature et le niveau de qualité des services ainsi que leur contribution à la valeur de lentreprise, aussi bien immédiatement que dans le futur.
Troisièmement, il lui faut optimiser la relation avec les autres directions : limplication des utilisateurs métier dans la conception, la réalisation, lévolution et le pilotage des systèmes dinformation est un facteur-clé de succès des services fournis et une condition indispensable pour pouvoir réellement les valoriser. Pour autant, cette implication ne se fait pas sans difficulté, faute du dialogue adéquat entre les parties prenantes. Ne pas prendre le temps du dialogue au bon moment sous prétexte de coûts ou de lourdeurs immédiats, ne fait que reporter ces coûts en les multipliant à dautres moments.
Certes, lintervention dune direction générale (DG) en sponsor des SI, a contrario dune DG indifférente, facilite le dialogue. Il reste toutefois à formaliser plus clairement les processus et les instances de décision, les rôles et les responsabilités des uns et des autres pour que la relation bâtie sur la connaissance des engagements de chacun se fasse sereinement.
Enfin, il lui faut gérer efficacement les ressources et les moyens : la gestion de projets informatiques nest pas une science exacte, en partie en raison des trois défis précédents. La méconnaissance de lexistant, le manque de sponsoring de la direction générale, linsuffisance dimplication des utilisateurs aux moments appropriés (notamment pour définir les objectifs et le périmètre métier) et le non-suivi des coûts globaux, sont autant de facteurs engendrant des dérapages en coûts et délais des projets. Il en résulte également beaucoup dinsatisfaction quant à la couverture fonctionnelle et la qualité des résultats obtenus.
Mieux gérer les projets informatiques est donc un défi damélioration en termes de moyens de la direction des SI. Cette dernière a également un potentiel damélioration dans la gestion de ses propres processus et ressources, humaines et matérielles. Cest dans cette démarche damélioration que les meilleures pratiques, méthodes ou référentiels de la profession peuvent fournir des guides doptimisation appréciables.
Rendre le SI intelligible
La complexité des systèmes dinformation a beaucoup augmenté durant les deux dernières décennies. Les entreprises ont souvent réagi à des pressions de réactivité en répondant à un besoin par un projet de développement qui a ajouté une nouvelle application avec des données répliquées à partir des applications existantes. Larchitecture qui en a résulté est accidentelle et le parc applicatif obèse, avec des redondances de données et de fonctions.
La plupart des entreprises neffectuent pas dinventaire global de leurs applications, ni de benchmark.
Le manque de visibilité sur leur parc applicatif est une des premières causes de difficultés des DSI. Une étude du BPM Forum (maintenant connu sous le nom de BPI Network) en 2004 mettait en exergue le fait que 25 % seulement des sondés effectuaient une fois lan un inventaire global de leurs applications. 73 % des entreprises ne disposaient daucun moyen de détection des applications obsolètes XE "applications obsolètes" ou redondantes XE "redondances" .
Lobservatoire Sapientis confirme ces constats en 2009. Les sondés ont reconnu majoritairement avoir des limitations darchitecture applicative en redondance de fonctions. En 2010, la majorité des sondés ne faisait pas dinventaire annuel (avec des chiffres toutefois en augmentation et plus satisfaisants que ceux de létude du BPM forum) et nemployait pas de méthode systématique pour étudier les capacités de lexistant avant tout projet de refonte.
LimitationArchi.png
Figure 5-1
Les limitations darchitecture qui contraignent lévolution du SI
Source : observatoire « Modernisation des SI et maturité des entreprises », © Sapientis 2009
Inventaire.png
Figure 5-2
Pratiques dinventaire du patrimoine applicatif
Source : © Sapientis 2010
EtudeExistant.png
Figure 5-3.
Pratiques détude de lexistant avec refonte
Source : © Sapientis 2010
La méconnaissance de lexistant sexplique, dune part, par la difficulté à maintenir une documentation à jour pour des modifications au fil de leau des programmes et, dautre part, par des difficultés à trouver le bon grain de collecte ou la bonne représentation (au sens dune modélisation partageable par toutes les parties prenantes) des informations décrivant le système dinformation. Les projets de cartographie XE "cartographie" de lexistant, sans parler des choix de méthodes difficiles à évaluer, pèchent par leur inertie (temps de retard sur les besoins métier) et narrivent pas à être en ligne avec laccélération des rythmes dévolution quimpose une économie désormais mondiale.
Les causes peuvent se comprendre à laune des logiques dorganisation qui privilégient le court terme (la réactivité à la demande exprimée par le client) au long terme (inscrire la réponse à la demande dans un cycle vertueux de mise à jour des connaissances). Reste les conséquences : dans certains cas, pour retrouver la connaissance du système dinformation, pour savoir réellement ce quil fait et comment, il faut plonger dans les programmes des applicatifs existants.
Est-ce le côté aride des bases de données ou des algorithmes de programmation (peu lisibles naturellement par un non-technicien), le manque de liens sémantiques, qui fait que lexploitation de la valeur de la connaissance codée des systèmes dinformation de gestion hérités du passé est insuffisante ? Toujours est-il que beaucoup de ce quon appelle la logique métier est enfoui dans des codes sources et peu ou pas utilisé.
Parce que linformation ne répond pas à des critères de qualité tels que laccessibilité XE "accessibilité" (il est souvent difficile de lidentifier et de la localiser dans des millions de lignes de code pour partie obsolète), la fiabilité XE "fiabilité" (le manque de précision sur le contenu, la fréquence de mise à jour, le type de source, etc.), la pertinence XE "pertinence" (sans qualification, il est difficile pour un utilisateur de lexploiter), et que, ne connaissant pas le réel intérêt de cette information « presque » perdue, le coût de remise à niveau de la qualité est jugé souvent prohibitif, jusquà, bien entendu, être mis en demeure de le faire.
On imagine le coût de maintenance XE "coûts:de maintenance" et la perte de connaissance XE "perte de connaissance" liés aux 11 millions de lignes de code en macro-assembleur de la société américaine Union Pacific, pour que cette dernière se lance dans un programme de migration de 150 à 200 millions de dollars, dont la fin est prévue en 2014.
Le défi à relever, sil est devenu partiellement technique au sens où il peut être nécessaire de faire appel à des technologies de rétro-ingénierie XE "rétro-ingénierie" (voir p.168) pour aider à reconstituer une cartographie de lexistant, est à lorigine essentiellement organisationnel.
En effet, il ny a le plus souvent pas de responsabilité (de rôle ou dentité sponsorisé par la direction) désignée à lévaluation du portefeuille applicatif, cest-à-dire :
à la mesure de la qualité des applications existantes et ce, en termes pragmatiques de valeur métier, de capacité à évoluer et de risques dobsolescence
à la prévention des risques dobsolescence ;
à la suppression des applications obsolètes ou redondantes ;
à lévaluation a posteriori des réutilisations possibles, cette évaluation étant complexifiée par ladhérence des anciennes applications à des technologies et des plates-formes spécifiques.
Il sagit donc pour le DSI de reprendre connaissance de lexistant, non seulement en termes dinfrastructures techniques et dapplicatifs, avec un diagnostic de létat de lieux, mais également en termes de mesures lisibles par toutes les parties prenantes, de lapport du SI. Pour cela, il ne peut agir seul. Il a besoin de la nécessaire implication des directions métier, ce qui est un autre défi à relever.
Maîtriser ses coûts et son budget
Que représentent les dépenses informatiques ? À quoi correspondent-elles ? Quels sont les postes de coûts et dinvestissements à prendre en compte ? Si on peut noter linitiative de lIGSI XE "IGSI (Institut de la gouvernance des SI)" (Institut de la gouvernance des SI fondé en commun avec le CIGREF XE "CIGREF (Club informatique des grandes entreprises françaises)" , Club informatique des grandes entreprises françaises, et lAFAI XE "AFAI (Association française de laudit et du conseil informatiques)" , Association française de laudit et du conseil informatiques), pour mettre en place un benchmarking des coûts informatiques XE "coûts:informatique" , on peut également noter le manque de maturité des entreprises vis-à-vis de la maîtrise des coûts informatiques.
Ainsi, si le ratio budget IT XE "budget IT" sur chiffre daffaires de lentreprise est souvent cité comme mesure de comparaison dune entreprise à lautre pour évaluer limportance de linformatique pour le métier, force est de constater que cette comparaison est peu fiable, tout simplement parce que les entreprises nutilisent pas les mêmes méthodes pour mesures leurs coûts. Lorsque, dans son observatoire le cabinet Sapientis a interrogé les participants à lenquête sur leur usage de méthode normalisée de mesure des budgets IT, 84 % des répondants ont reconnu utiliser leurs propres méthodes.
Methode.png
Figure 5-4.
Méthodes de mesure des budgets informatiques
Source : observatoire « Modernisation des SI et maturité des entreprises », © Sapientis 2010
Certes, lIGSI remarque que « malgré toutes les difficultés quont les directeurs des systèmes dinformation à justifier des coûts associés à leur activité, nous constatons aujourdhui une volonté croissante du management à considérer la DSI comme un centre de services partagés, stratégique pour lentreprise ».
Cest donc un premier pas vers le fait de considérer la direction des SI comme une direction métier, même si elle est encore orientée vers une direction de service support, comme les services généraux ou les services comptables. Or, la gestion des coûts de la direction des SI est plus complexe que pour ces services, dune part, car tous les coûts liés au fonctionnement dun service informatique (fonctionnalité rendue par une application ou service de transmission/échange dinformation comme la messagerie) nentrent pas dans le budget sous la responsabilité du DSI et, dautre part, parce quil y a des coûts de fonctionnement incontournables et dautres dinvestissements, des coûts liés au fonctionnement propre de la DSI et des coûts liés à ses services. Il y a également à distinguer les charges informatiques récurrentes (frais de maintenance, par exemple) et la dotation aux amortissements qui permet damortir linéairement les achats de matériels type serveurs sur plusieurs années.
Les « coûts cachés XE "coûts cachés" \t "Voir TCO" » de la mise en uvre et du déploiement ont été mis en relief avec le concept de TCO (Total Cost of Ownership ou coût total de possession XE "coût total de possession" \t "Voir TCO (Total Cost of Ownership)" ) de Gartner.
Définition
TCO : coût total de possession
Le « TCO XE "TCO (Total Cost of Ownership)" » est un terme inventé par Gartner XE "Gartner" pour intégrer tous les coûts qui entrent dans la constitution dun bien IT (logiciel, services
) tout au long de son cycle de vie, en prenant non seulement en compte les aspects directs (coûts matériels tels quordinateurs, infrastructures réseaux, etc., ou logiciels tels que le coût des licences), mais également tous les coûts indirects (coûts cachés) tels que la maintenance, ladministration, la formation des utilisateurs et des administrateurs, lévolution, le support technique et les coûts récurrents (consommables, électricité, loyer, etc.).
Au-delà du terme qui sest répandu, le TCO est un modèle de justification des investissements et doptimisation des coûts. Il est supposé fournir le véritable coût lié au soutien dune ressource informatique tout au long de sa durée de vie utile.
Le tableau 5-1 illustre partiellement sur quelques postes de coûts les éléments globaux à considérer.
Tableau 5-1
Exemples de postes de coûts
Postes de coÛtsCommentairePersonnelSalaire chargéPour le personnel, on peut considérer les coûts réels direct (salaire chargé + formation + déplacement +
) ou un coût standard complet (tarif journalier moyen) fourni par la DRH, incluant les charges patronales et salariales, les congés, formations, réduction de temps de travail, etc.FormationFrais de déplacementsEnvironnement de travailRecrutementOutils de travailApplicationAcquisitionCoût dacquisition des matériels et logiciels sous forme damortissements, de location, de licences, de leasing, de maintenance.
Suivant le type de serveur, les unités de mesure du coût ne seront pas les mêmes.SécuritéStockage et archivages des donnéesFormation, support, documentationMaintenance correctiveMise en productionIl a fallu lapparition des data centers, centres dinfogérance XE "infogérance" où étaient hébergés des serveurs et la partie infrastructure à des fins de mutualisation XE "mutualisation" (sauvegarde, ressources
), pour que certaines entreprises réalisent les coûts délectricité liés au fonctionnement des machines, coûts jusquà présent imputés sur le budget des services généraux et non reliés à lactivité des applications en exploitation.
Il faut à présent le questionnement sur les services, le catalogue de services et la refacturation XE "refacturation (des services)" des services aux métiers, pour sinterroger sur la part de financement du budget informatique par les utilisateurs internes. Il faudrait considérer également dans léquation les coûts propres à la maîtrise douvrage, cest-à-dire les propriétaires ou donneurs dordre des projets, pour calculer réellement le coût total dun projet informatique.
Pendant longtemps, la charge en jours-homme dun projet informatique a été calculée en fonction des ressources de concepteurs, développeurs et testeurs impliqués. Reste également à évaluer et mesurer la nécessaire contribution des utilisateurs-clés autour de lexpression des besoins, la conception, la conduite du changement XE "conduite du changement" , la validation, le déploiement de lapplication. Tout cela nest pas anodin, loin de là (jusquà 50 % des coûts dun projet) !
Le défi du DSI est par conséquent de mettre en place une démarche de gouvernance XE "gouvernance:du système dinformation" pour contrôler les coûts informatiques XE "coûts:informatique" , qui obtienne ladhésion des autres parties prenantes. Sans cela, le budget mesuré sera incomplet et non significatif.
Bien sûr, au-delà de la mesure, reste également à rapporter les coûts, ou les investissements, aux enjeux auxquels ils répondent. Dans labsolu, les coûts ne signifient rien sans échelle de mesure qui permette dévaluer la nécessité dengager les dépenses, ou de les réduire.
Cest là que le concept de « tableau de bord prospectif du SI XE "tableau de bord prospectif du SI" », autrement dit, lIT Balanced Scorecard XE "IT Balanced Scorecard" , prend tous son sens.
Un peu dhistoire
Le « Balanced scorecard » un tableau « bien balancé »
À lorigine du concept, un article de 1992 par Robert S. Kaplan et David Norton, publié dans la Harvard Business Review, devenu en 1996 le livre The Balanced Scorecard: Translating Strategy Into Action (Harvard Business School Press, 1996). Lobjectif du balanced scorecard est de donner un outil de pilotage orienté vers les enjeux, prenant en compte, au-delà des indicateurs financiers traditionnels, lensemble des indicateurs opérationnels clés qui conditionnent le succès de lentreprise à moyen ou long terme. Pour cela, ils ont ajouté à la vue financière, trois vues supplémentaires (les perspectives clients, les processus internes, linnovation/la formation) pour mettre en perspective les différents objectifs liés à la stratégie de lentreprise, ainsi que les moyens pour les atteindre.
ITBalancedScorecard.jpg
Figure 5-5.
Exemple des vues et indicateurs du balanced scorecard ou tableau prospectif des SI
LIT Balanced Scorecard traduit une vision équilibrée puisquil permet de construire une vision sur plusieurs axes de point de vue : celui des clients internes ou externes de la DSI (la contribution des SI à la productivité des utilisateurs, aux développements des métiers, à la stratégie de lentreprise en général), celui du directeur financier (les coûts et aussi les perspectives financières de rentabilité), celui des processus internes de la DSI (performance opérationnelle, meilleures pratiques) et celui du futur, dans la gestion des compétences (formation) et la capacité à créer de nouveaux usages contributeurs de valeur (innovation).
Chaque axe doit faire lobjet de la définition dindicateurs pertinents à consolider. Ainsi, laxe des perspectives financières nécessite une première réflexion sur les axes danalyse des coûts. Une approche complète des coûts viserait à examiner, dune part, les coûts par activité ou par nature de prestations, selon les méthodes ABC/ABM (Activity Based Costing/Activity Based Management) XE "ABC/ABM (Activity Based Costing/Activity Based management)" , cest-à-dire dexpliquer les coûts non par leur origine (doù viennent-ils ?) mais par leur destination (que servent-ils à réaliser ? Par exemple, lexploitation), dautre part, les coûts par services, ou a minima par domaines applicatifs, et par projets.
Lanalyse de ces coûts doit éviter les écueils classiques des coûts cachés ceux quon oublie à savoir les coûts logistiques liés au projet (salle, équipement, électricité), la valorisation du temps passé par la maîtrise douvrage ou les coûts de gestion du changement, dont la formation.
Optimiser la relation avec les autres directions de lentreprise
Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif
La distinction initiale entre « maîtrise douvrage XE "maîtrise douvrage" » et « maîtrise duvre XE "maîtrise duvre" » ( voir lhistorique p.272), marquait une évolution majeure dans lévolution de linformatique en entreprise, en France. En effet, il formalisait le passage dune vision technologique où linformatique était une somme de composants et doutils qui pouvait servir à lautomatisation de tâches de manipulation de données plutôt simples (une évolution mais pas une rupture avec les anciennes techniques de mécanographie) à une vision plus globale de système dinformation.
Un peu dhistoire
La « mécanographie XE "mécanographie" » : lancêtre de linformatique dentreprise ?
« Ancienne méthode de dépouillement, de tri ou détablissement de documents administratifs, comptables ou commerciaux, fondée sur lutilisation de machines qui traitaient mécaniquement des cartes perforées » (Le Petit Larousse).
« La mécanographie sest développée de la fin du xixe siècle jusquau milieu des années 1960 sous deux formes très différentes, concurrentes ou complémentaires :
lemploi dateliers de machines à cartes perforées ;
lemploi dateliers de machines comptables.
Ces deux outils de gestion ont été remplacés par lemploi dordinateurs, progressivement à partir de 1962, et complètement au début des années 1970 » (source Wikipedia).
Dans cette vision, ce nest plus lautomatisation de tâches de calcul qui prévaut, mais bien la logique dusage globale. Le système dinformation est là pour formaliser, fluidifier et fiabiliser léchange des informations entre acteurs et ressources de lentreprise pour que cela produise des résultats valorisables.
En dautres termes, il contient linformation sur les processus de lentreprise et les informations dont ces processus ont besoin, avec lobjectif de garantir la qualité de linformation et lefficacité des échanges.
En caricaturant, un système dinformation peut commencer avec une feuille de papier pour décrire les processus de lentreprise et en rester là. Mais il ne sera pas efficace en termes de rapidité de mise à jour et de communication des informations, et inadapté au stockage et à la manipulation de gros volumes de données. Il deviendra efficace quand il apportera clairement un gain en temps, en fiabilité ou en pertinence dans les échanges et les manipulations (traitements) dinformation.
Cest là que les technologies de linformation et des communications interviennent et que se fait le distinguo entre une base dinformations numérisées et un système dinformation de la même manière quil existe une distinction entre une base de données et un système de gestion des bases de données XE "Système de Gestion des Bases de Données" .
Il est intéressant à ce stade dintroduire la définition de lorigine de la fonction « maîtrise douvrage » extraite du site du Club des maîtres douvrage des systèmes dinformation :
« Une distinction entre système dinformation et système informatique apparaît progressivement au sein des entreprises depuis quelques années : le système dinformation comporte les processus de lentreprise, les informations manipulées par ces processus et les fonctions qui traitent ces informations. Le système informatique comporte les composants techniques (traitements, données, matériels) qui supportent le système dinformation en permettant de lautomatiser et le distribuer. Dans ce contexte, la fonction de maîtrise douvrage du système dinformation émerge et se structure de façon à assurer progressivement la responsabilité du système dinformation, en sappuyant sur un maître duvre interne ou externe du système informatique. »
Pour décrire les processus et qualifier les informations, nul besoin dêtre un spécialiste des infrastructures, des systèmes et des réseaux, un développeur performant, un administrateur de base de données ou tout autre spécialiste de linformatique. Il faut juste pouvoir modéliser les processus, les fonctions et les données en ne perdant pas de vue le sens de cette modélisation, cest-à-dire lobjectif de valeur (pour les acteurs) assigné au processus quand il transforme des éléments en entrée pour produire un résultat en sortie.
En effet, le processus est en lui-même une notion de représentation du réel qui ne vaut que sil est utile à lobjectif poursuivi. Cette représentation doit faire ressortir les points auxquels on sintéresse et répondre aux questionnements liés, ce qui demande une réflexion qui mélange abstraction et compréhension des enjeux de lentreprise, de ses métiers et des potentiels dautomatisation.
Si une maîtrise douvrage sappuie sur un maître duvre pour automatiser et distribuer ce qui peut lêtre, elle ne doit pas se contenter dexprimer une liste de besoins à la Prévert. Elle doit comprendre et faire comprendre le sens de linformation, cest-à-dire lobjectif poursuivi dans léchange, le partage, le traitement de linformation et se faire aider pour comprendre comment les technologies peuvent contribuer à lobjectif.
Sans viser à lidéal et à la complexité du corps humain, la première chose à établir, quand on veut un SI agile, cest le bon niveau de dialogue entre le « cerveau » (le niveau conceptuel du SI : à quoi ça sert ?) et le « corps » (comment ça marche ?, à savoir le système existant, lensemble des systèmes implantés sur lensemble des couches réseaux, applicatives, etc.).
Dans cette représentation, qui est le cerveau et qui est le corps ? Le rôle que doivent jouer les métiers dans les systèmes dinformation est primordial. Il ny a pour sen convaincre quà revenir aux causes déchec des projets de systèmes dinformation (voir Anatomie des désastres, p.119). Pour autant, il ne faut pas faire de raccourci et limiter la maîtrise douvrage au client final la direction métier utilisatrice du service informatique (applications ou autre) et la maîtrise duvre à une entité responsable des moyens informatiques, a priori, la direction du SI.
Ce serait, dune part, dévoyer le découpage initial où la réflexion précède laction indépendamment de toute logique organisationnelle et, dautre part, revenir en arrière sur la notion salutaire de système dinformation. La direction des systèmes dinformation nest pas assimilable à un constructeur de matériels ou à un éditeur de logiciels (si elle en crée, cest un moyen, pas une finalité).
La DSI est une direction dun métier de services. Il sagit daider à concevoir, construire et faire fonctionner opérationnellement des systèmes dinformation pour produire un service ayant de la valeur pour lentreprise, de façon globale, ou à travers le bénéfice retiré par une direction opérationnelle. La DSI peut donc être vue comme une direction métier opérationnelle qui a ses propres processus, méthodes et outils ainsi que des clients les directions métier (y compris elle-même) et la direction générale. Ce nest pas neutre.
Cela veut dire aussi que la DSI ne se réduit pas au comment ça marche et que la maîtrise douvrage ne sarrête pas à lexpression dun besoin, autrement, il sagirait juste dautomatiser des processus existants, déjà plus ou moins bien formalisés, en les comprenant plus ou moins bien, et darriver à cette expression célèbre : « Garbage In, Garbage Out ».
Les technologies de linformation et des communications ont un potentiel transformationnel ; le système dinformation a un rôle de levier dévolution. Tout projet de système dinformation a pour objectif de fournir une prestation de service utile à un bénéficiaire. Si lutilité du service pour ce dernier est nul (pas de nécessité impérative, pas de gain quantitatif ou qualitatif), le projet na pas lieu dêtre. Toutefois, il y a plusieurs difficultés quant à lidentification de la valeur dusage. Lune delles, et pas des moindres, réside dans le fait que le gain sobtient souvent au prix dun changement dans les modes de fonctionnement et quil est difficile den mesurer tout limpact à lavance.
Or, les solutions et les technologies évoluent plus vite que la maturité organisationnelle des entreprises. Les directions dentreprise ou les directions métier ne savent pas forcément ce quil est réaliste ou non de demander comme services au SI. Elles nont pas conscience des limitations éventuelles ou des difficultés dintégration dues à lexistant, pas plus que des possibilités de transformation de certaines technologies qui devront venir pour en obtenir un bénéfice dusage et chambouler leurs pratiques de fonctionnement traditionnelles.
Cela conduit à deux extrêmes quand il ny a pas dintermédiaire entre un maître douvrage direction métier néophyte en SI et le maître duvre, la DSI. Dun côté, la DSI répondra toujours positivement à toutes les demandes, fussent-elles irréfléchies, si elle est en position dinfériorité hiérarchique ; de lautre, la DSI, en position de force ou de statu quo, répondra négativement à des demandes qui pourraient être satisfaites, tout ou partiellement, par des solutions simples de contournement néanmoins satisfaisantes, mais dont lexpression de besoins mal réalisée laisse envisager des usines à gaz.
Si la DSI dit « oui », elle va se retrouver dans une position très désagréable avec un cahier des charges de réalisation fluctuant au rythme des prises de conscience de la direction métier et avec beaucoup de difficultés de dialogue. Le projet a peu de chances daboutir car la direction métier se désolidarisera très vite de la réalisation pour nexprimer que ses besoins bruts, sans forcément comprendre la nécessité de son implication à diverses étapes du projet. La DSI palliera le manque dimplication avec sa propre perception des enjeux et de la traduction des besoins en matière darchitecture dinformation. Si le projet aboutit, le résultat a de grandes chances de ne pas satisfaire le commanditaire qui sera autant insatisfait de sa relation avec la DSI quavec un refus initial.
On arrive ainsi à une dichotomie directions métier/direction du SI, en plaquant sur le découpage maîtrise douvrage/maîtrise duvre un découpage organisationnel sans commune mesure avec lobjectif poursuivi.
Lerreur est donc organisationnelle dans la définition des rôles et des responsabilités. Avant de lancer un projet, le commanditaire doit pouvoir convaincre du bénéfice en sappuyant sur un conseil pertinent en système dinformation pour en valider les principes et les conditions de gains, les contraintes éventuelles de lexistant, les possibilités dévolution, et aider à établir une première échelle de grandeur de linvestissement requis et du planning nécessaire. Si le projet est validé par lentreprise, le conseiller du commanditaire établira un cahier des charges plus détaillé afin de donner à une maîtrise duvre les éléments qui lui sont nécessaires pour proposer une solution technique réaliste.
Ce conseil peut être ou non issu de la DSI, charge au commanditaire den décider, mais il ne doit pas y avoir dambiguïté sur les responsabilités. Cest le donneur dordre qui doit sengager pour porter linvestissement. Cest donc lui la maîtrise douvrage stratégique, si on reprend le distinguo du Club des maîtres douvrage, le conseil étant la maîtrise douvrage opérationnelle.
Comment ça marche ?
Les « niveaux » de maîtrises à luvre
Maîtrise douvrage stratégique (MOAS XE "MOAS (Maîtrise douvrage stratégique)" ) :
« Le maître douvrage stratégique (parfois appelé maître douvrage commanditaire, ou simplement maître douvrage) est le responsable opérationnel de lactivité qui sappuie sur un système dinformation. Il sagit donc dune (ou dun ensemble de) personne(s) qui ne sont pas des professionnels du système dinformation », selon la définition issue du Club des maîtres douvrage. Selon le service attendu du système dinformation, il peut sagir de la direction de lentreprise ou dune direction métier. Dans le second cas, il serait judicieux dimpliquer systématiquement la direction générale (ou en fonction du gain attendu et/ou du niveau dinvestissement) pour responsabiliser lensemble des acteurs sur la pertinence XE "pertinence" de la solution pour lentreprise.
Maîtrise douvrage opérationnelle
« Le maître douvrage opérationnel (parfois appelé maître douvrage délégué ou simplement maître douvrage) assiste le maître douvrage stratégique dans lexercice de sa fonction. Cest un professionnel du système dinformation », (Club des maîtres douvrage). Cest une fonction de conseil qui doit bien connaître les applications existantes de lentreprise, les logiques métier, les besoins dévolution, les référentiels XE "référentiels:de lentreprise" , le cadre architectural et qui doit être une interface légitime et naturelle entre les utilisateurs et les équipes techniques.
Assistance à maîtrise douvrage XE "maîtrise douvrage"
Une maîtrise douvrage peut vouloir être conseillée par des intervenants externes ayant une expertise dans le domaine des systèmes dinformation pour la faisabilité du projet, ou être assistée dans la réalisation des tâches dont la responsabilité lui incombe dans le déroulement du projet (conception, tests et recettes
).
Maîtrise duvre (MOE XE "MOE (Maîtrise duvre)" )
La maîtrise duvre a la responsabilité de proposer une solution technique à la MOA XE "MOA (Maîtrise douvrage)" , dans lenveloppe budgétaire et les délais requis, et dalerter cette dernière si ces derniers présentent un risque. Elle supervisera le bon déroulement des travaux, le respect des délais et du budget ainsi que la qualité et la pertinence XE "pertinence" de la solution, en veillant à faire intervenir les compétences requises pour lexécution. Dans le cas où elle devra faire appel à des fournisseurs externes, elle coordonnera leurs livraisons et sassurera de leur qualité.
Peu importe lorganisation dont le maître duvre opérationnel est issu sil est légitime et crédible pour :
comprendre les enjeux dentreprise derrière les besoins métier, les parties prenantes ;
questionner, clarifier, expliciter les besoins métier ;
comprendre en quoi les technologies de linformation et des communications peuvent être un levier dévolution, les opportunités dinnovation éventuelles dans les organisations, les contraintes éventuelles de lexistant, la cohérence de lensemble à respecter ;
analyser et aider à modéliser les processus fonctions et données en jeu, établir ou superviser les spécifications générales ;
faire linterface entre toutes les parties prenantes, tout au long du projet, en particulier entre les métiers ayant exprimé des besoins, la DSI et les responsables dapplications patrimoniales éventuellement concernées ;
organiser et piloter le(s) projet(s) avec la maîtrise duvre afin, entre autres, de pouvoir faire intervenir les bons interlocuteurs ou obtenir leurs réponses face aux questionnements qui surgiront dans le déroulement du projet.
Ce rôle, historiquement reconnu plus ou moins sous le vocable de maîtrise douvrage opérationnelle XE "maîtrise douvrage:opérationnelle" dun projet, tend à se professionnaliser sous un autre terme, au fur et à mesure quil apparaît quil ne sarrête pas au périmètre dun projet. En effet, les notions durbanisations, la part structurante, voire stratégique, que les systèmes dinformation prennent dans les entreprises, amènent à considérer un autre niveau dinterface pour faire dialoguer directions générales, directions métier et direction des systèmes dinformation, faire émerger les enjeux et aider à exploiter les opportunités des systèmes dinformation pour améliorer la compétitivité de lentreprise. Il sagit de la profession de business analyst XE "business analyst" ou analyste daffaires XE "analyste daffaires" .
Le chapitre français de lAssociation professionnelle internationale de lanalyse globale defficience (Business Analysis) (International Institute of Business Analysis IIBA XE "IIBA (International Institute of Business Analysis)" ®) exprime ainsi cette évolution sur son site :
« Les analystes daffaires longtemps considérés comme des maîtres douvrage, revendiquent une fonction plus stratégique qui consiste à faire le pont entre les deux mondes de lentreprise, le monde technique et le monde des affaires. Une double culture qui préfigure de la réussite de ce métier et qui demande une véritable faculté dadaptation, découte et de synthèse. Souvent associé aux métiers de linformatique, lanalyste daffaires est présent dans tous les projets de lentreprise, de la conception dun produit à la réalisation dune interface homme-machine. »
Responsabiliser les métiers
La direction des SI, comme tout fournisseur de services, prend des risques à ne pas formaliser clairement sa relation client-fournisseur avec les autres directions de lentreprise, quitte à établir des contrats de service, en précisant les attendus clients, lengagement de niveau de services, voire des modes de refacturation XE "refacturation (des services)" en interne.
Sinon, ce nest pas seulement la DSI, mais toute lentreprise qui subira les conséquences de la non-formalisation, dont :
le manque de visibilité des services rendus par la DSI ;
les niveaux dengagement de services mal formalisés, doù réduction de coûts nuisibles à la qualité ;
labandon ou le dérapage de projets coûteux ;
la gestion du court terme de la demande fonctionnelle, pas dévolution des systèmes existants jusquà ce que lévolution soit une nécessité coûteuse impliquant des investissements dans lurgence ;
le désalignement progressif du système dinformation avec les enjeux dentreprise.
Comment ça marche ?
La contractualisation des services XE "contractualisation des services"
Si la DSI est perçue comme un fournisseur de services dans bon nombre dentreprises, la relation « client-prestataire de services » est rarement formalisée dans un contrat.
Pour autant, ce dernier a pour objet de clarifier les conditions opérationnelles de la fourniture de service. Ainsi, pour une application en exploitation, le contrat décrit le niveau de fonctionnement et de support auquel le prestataire fournisseur du service sengage vis-à-vis de lutilisateur, lequel reconnaîtra explicitement connaître le cadre dexploitation de lapplication et les limites du service fourni.
Ce contrat a pour mérite de ramener les coûts de linformatique a un référentiel de mesures qui permette de les qualifier en fonction du niveau de service rendu et non de manière intrinsèque, comme dans un ratio de type coût de lexploitation rapporté au poste de travail, qui na pas de sens. Une application qui doit fonctionner 24 h/24, 7 j/7, na pas les mêmes contraintes de disponibilité que les autres, et son coût de développement et de fonctionnement en est tributaire.
Ainsi, les niveaux de services formalisés dans le contrat peuvent prendre en compte les plages horaires du support, les performances attendues, le niveau dassistance fonctionnelle à lutilisation, les temps de correction en cas danomalies et selon leur nature, le temps de rétablissement du service en cas de panne, les sauvegardes, les fonctionnements en mode dégradé, etc. Tous sont autant de paramètres qui influent sur les coûts.
Le contrat formalise également les indicateurs qui vont permettre de suivre lengagement de services et les modalités de revues de ces engagements.
Ce sont des pratiques courantes en infogérance XE "infogérance" qui peuvent être reportées sur lexploitation et la production interne. Le terme anglo-saxon qui sest répandu pour désigner ses engagements de niveaux de service est « SLA Service Level Agreement ». XE "SLA (Service Level Agreement)"
Si le client na pas à sengager sur le coût des investissements pour un projet, sil nest pas tenu de contribuer au coût de fonctionnement des services quil utilise, sil na pas à clarifier dans ses demandes dévolution ou de changement le gain attendu, et justifier de ses enjeux, le champ des demandes peut être infini. La direction du SI ne sera pas en mesure de faire le tri, ne disposant pas des critères qui pourraient le lui permettre, et répondra de manière réactive en fonction des pressions exercées et non des axes de développement stratégiques pour lentreprise.
Il sera difficile dutiliser réellement le SI comme levier de création de valeur dans ces conditions.
En effet, les applications développées ne seront pas alignées sur les véritables enjeux consolidés au niveau de lentreprise, puisque réalisées au coup par coup des pressions souvent accompagnées de délais irréalistes par méconnaissance des contraintes de réalisation.
Quant aux applications patrimoniales existantes, comment évaluer leur valeur et les risques liés à leur obsolescence (donc a fortiori les éventuels efforts à faire pour remédier à ces risques), si on a peu ou prou didées de ce quil coûterait à lentreprise « à faire sans » ?
Lobservatoire Sapientis déjà évoqué le montre ici également, il y a un potentiel dévolution extrêmement important dans le fonctionnement des organisations sur ce point.
MoyenPilotageAmélioration.png
Figure 5-6.
Moyens de pilotage estimés à améliorer
Source : © Sapientis 2010
Sans limplication des métiers commanditaires dans la définition de ce qui est attendu dun projet dinvestissement, il a une forte probabilité dêtre voué à un échec onéreux, nous y reviendrons dans les chapitres suivants. Mais limplication ne suffit pas, encore faut-il que le commanditaire sengage à porter tout ou partie de linvestissement du projet, puis le coût de fonctionnement du service, au prorata de son utilisation (sil est le seul utilisateur, la « facture » globale lui incombe).
À partir de là, il sera plus prudent dans ses demandes et sinterrogera sur les indicateurs de réussite du projet demandé. En effet, aucun client nest naturellement prêt à payer pour le fonctionnement dun service dont il narrive pas à mesurer les gains à son niveau, sauf à être dans lobligation légale de le faire. À quoi verra-t-on le changement par rapport à lexistant ? Comment mesurera-t-on le succès du changement ? Comment illustrer concrètement le changement ?
Le rôle de la DSI nest pas de répondre à ces questionnements, cest le rôle du commanditaire du projet de se les poser avant le lancement, en prenant bien soin, comme nous lavons évoqué précédemment, de sentourer du conseil pertinent pour trouver les réponses et de définir à leur suite les bons indicateurs métier qui pourront être suivis opérationnellement par la suite.
Si les utilisateurs des services rendus par linformatique ne sont pas responsabilisés en amont de leur développement, il y a fort à parier que la DSI devra les solliciter par la suite pour retrouver la lisibilité du service rendu. Avec probablement des difficultés pour les impliquer, comme le montre la figure 5-7.
Implicationutilisateurs.png
Figure 5-7.
Implication des utilisateurs dans les indicateurs métier
Source : © Sapientis 2010
La refacturation XE "refacturation (des services)" des coûts de fonctionnement par la DSI à ses clients, en fonction de leur utilisation des services ou tout autre moyen de corréler les coûts à lusage et aux gains, cest-à-dire de valoriser les services aura au moins un effet vertueux. Les utilisateurs seront plus enclins à ne réclamer que le niveau de qualité dont ils ont réellement besoin. Cela limitera drastiquement des fausses contraintes de disponibilité 24 h/24, par exemple, en raison des surcoûts induits. A contrario, cela obligera à définir les niveaux de criticité pour chaque application et le niveau de maintenance préventive.
De plus, mettre cette valorisation sous la responsabilité des métiers induira également un bilan du projet sur la base dindicateurs réalistes définis en amont. On pourra vérifier les prévisions de rentabilité du projet et progressivement construire un référentiel pour juger de la crédibilité des estimations de gains liées aux demandes, au regard des coûts et résultats réels. Sinon, les estimations resteront déclaratives et sans engagement, laissant les projets risquer les échecs et la DSI en porter le poids.
Le nécessaire marketing du SI
Pour aller plus loin dans la logique de la relation client-fournisseur, il peut être utile de rappeler certaines définitions au sujet des approches que doivent mettre en place tous les fournisseurs de produits/services. Avant de distribuer une offre, cest-à-dire de proposer des services ou des produits à des consommateurs (clients qui utilisent cette offre), il faut établir une stratégie marketing XE "stratégie marketing (du SI)" .
De nombreuses définitions existent sur cette dernière, en voici quelques unes :
« Cette stratégie vise à mettre lentreprise concernée en adéquation avec les exigences implicites ou explicites du marché sur lequel elle agit. Les bases de cette stratégie sont de découvrir les besoins des consommateurs potentiels et de définir les produits et services. La politique de communication, la publicité, la promotion et lorganisation de la vente des produits nest quant à elle que la partie la plus visible du marketing auprès du grand public » (extrait de la définition donnée à la stratégie marketing dans la page Wikipedia dédiée au marketing).
« Le marketing est leffort dadaptation des organisations à des marchés concurrentiels, pour influencer en leur faveur le comportement de leurs publics, par une offre dont la valeur perçue est durablement supérieure à celle des concurrents » (Mercator, 8e édition, 2006).
« On appelle stratégie marketing XE "stratégie marketing (du SI)" lapproche que lentité concernée met en place pour atteindre ses objectifs, à partir de décisions prises sur les cibles, le positionnement, le mix et le niveau dengagement de dépense », selon Philip Kotler et Bernard Dubois.
De nombreuses écoles de pensée existent pour définir ce quest ou ce que nest pas le marketing stratégique et quelle est, ou non, sa préséance sur une stratégie commerciale. Lévolution des dernières années montre en tout cas que les notions de marketing se sont répandues en dehors des entreprises commerciales pour atteindre les associations et les organisations à but non lucratif, soit pour répondre mieux aux besoins de leurs membres, soit pour mieux faire connaître leurs actions, obtenir des subventions, des partenariats, etc.
Dans le cas des services dune direction du SI, on retiendra essentiellement que la stratégie marketing XE "stratégie marketing (du SI)" est la démarche danalyse et de réflexion pour réaliser ladéquation offre-demande qui sinscrit dans la stratégie globale de lentreprise.
Certes, une DSI ne cherche pas à vendre un produit réplicable de mauvaise qualité en masse, ni influencer ses clients pour quils achètent plus en leur vendant des solutions miracles. Au-delà de cette idée caricaturale du marketing que peuvent avoir certains ingénieurs, il faut garder en tête quune DSI fournit des services en réponse à une demande qui doit sinscrire dans la stratégie globale de lentreprise.
Il y a donc nécessité, afin dobtenir un réel alignement stratégique des systèmes dinformation aux affaires XE "alignement stratégique des SI" , cest-à-dire ladéquation du SI aux objectifs stratégiques de lentreprise, de passer par une approche marketing autour des services du SI. Cette approche comporte deux niveaux :
Le niveau stratégique, à savoir lanalyse des enjeux de changement ou dévolution, la définition des services métier prioritaires à développer et pour qui, la définition de services mutualisables à léchelle de lentreprise (stratégie doffres et de développement daffaires), la validation des budgets dinvestissement, la conduite du changement, la décision des alliances stratégiques.
Le niveau opérationnel, cest-à-dire la réalisation du service, la décision des alliances opportunistes (liées à un projet/service), le déploiement, laccompagnement au changement et la communication envers les utilisateurs finals autour des services ainsi que la collecte des besoins daméliorations auprès de ces derniers.
Cette approche de stratégie marketing nécessaire à la création dune réponse en adéquation aux besoins, est souvent délaissée au profit dune lecture de « lalignement du SI » réductrice et militaire : le SI devrait filer droit avec des processus industrialisés pour lui-même et pour les métiers.
Avant denvisager une industrialisation quelconque (avec ses limites éventuelles), il faut rechercher ladéquation de loffre à la demande et à la stratégie globale. Cela exige réellement un effort dadaptation. Il ne faut pas refaire avec cette séparation stratégique et opérationnelle, lerreur précédente faite sur la séparation maîtrise douvrage/maîtrise duvre. La stratégie marketing du SI demande la participation dun comité de direction incluant le DSI et des profils de type analyste daffaires pour faire le lien ente les affaires et la technique.
Le rôle de responsable marketing stratégique du SI doit être une responsabilité rattachée à la direction générale.
Par ailleurs, au niveau opérationnel, il est indispensable que la DSI communique sur ses offres et les prestations de services quelle peut proposer. Elle doit donner de la visibilité aux utilisateurs sur les services et les produits disponibles ainsi que leur valorisation en fonction dunité duvre XE "unités duvre" ou de critères non seulement vérifiables et significatifs, mais également exprimé en termes utilisateurs.
Comment ça (ne) marche (pas)?
Les ratios à éviter pour valoriser les services XE "valoriser les services"
Le ratio coût rapporté au poste de travail
Le coût au MIPS XE "MIPS (Million Instructions Per Second)" ou CPU unité de mesure des coûts des serveurs mainframes est à la fois non significatif et incompréhensible pour lutilisateur.
Donner aux utilisateurs des indications sur le coût du service en termes de capacités de stockage, ou en nombre de jours/homme nécessaire à son développement, voire le tarif journalier moyen de la maintenance, sans rapport avec les services fonctionnels rendus.
Pour donner cette visibilité, la direction du SI sappuiera sur plusieurs outils, décrits ci-dessous.
Le catalogue de produits et services XE "catalogue de services" : simple et exhaustif, il décrit les produits et services que la DSI fournit aux utilisateurs finals. Les applications du poste de travail, le poste de travail en lui-même (équipé et maintenu), laccès au réseau, les formations, les services dassistance, de support et de dépannage, les conditions dintervention, etc., figurent au titre des services.
Les contrats de services XE "contrats de services" associés pour formaliser les engagements de niveau de service (ce qui nest pas toujours le cas).
Une politique de communication appropriée aux changements (cibles, fréquence, moyens). Cette dernière sera déclinée dans le cadre dune conduite du changement plus globale qui en fixera les enjeux (voir p. 109).
Une vitrine soignée de la relation client, cest-à-dire un point daccès unique aux services dassistance et de support pour lensemble des moyens informatiques mis à disposition de lutilisateur final. Cette vitrine ou « service desk XE "service desk" » va accompagner lensemble des clients internes et externes du SI afin de leur faciliter lusage des services informatique rendus. Si on fait le parallèle avec les centres dappels téléphoniques, la réactivité et la crédibilité des réponses de ce service jouera sur la perception de la performance de la DSI, à tous les niveaux (les directions sont également consommatrices des services du SI).
La DSI aura donc tout intérêt à veiller sur les compétences relationnelles des équipes en charge et sur lefficacité de ses processus de support en termes de résolution dincident au premier niveau dappel, ainsi que sur les processus de gestion des incidents, gestion des demandes de changements, etc.
Si on voit aujourdhui une évolution vers cette approche « marketing » du SI, elle reste encore cantonnée davantage à une partie opérationnelle que stratégique. Cest pourquoi le catalogue de produits et services nest pas répandu dans toutes les entreprises, encore moins avec des notions de valorisation tarifée, comme le montre ci-dessous un autre résultat de lenquête Sapientis.
SHAPE \* MERGEFORMAT
CatalogueProduitServices.png
Figure 5-8.
Existence dun catalogue de produits et services pour les métiers
Source : © Sapientis 2010
La première démarche quaura donc à effectuer une direction marketing « stratégique » du SI sera de réaliser une analyse SWOT XE "SWOT (Strengths Weaknesses, Opportunities and Threats)" » (Strengths Weaknesses, Opportunities and Threats, soit MOFF XE "MOFF" \t "Voir SWOT" en français : Menaces, Opportunités, Forces, Faiblesses) du système dinformation, en collaboration avec toutes les parties prenantes. Un exemple de SWOT est indiqué ci-dessous.
SWOTSI.png
Figure 5-9.
Exemple de matrice SWOT dun SI
Lanalyse SWOT va faciliter la détermination et linstanciation de questions-types :
Comment exploiter les opportunités et les forces ?
Comment neutraliser ou éviter les menaces ?
Comment éviter ou minimiser les faiblesses ?
Sil sagit dun outil danalyse rapide pour avoir un guide dinvestigation, il ne se substitue nullement à une analyse de valeur multidimensionnelle du SI que nous décrivons plus loin (voir p. 147).
Définition
Le SWOT XE "SWOT (Strengths Weaknesses, Opportunities and Threats)" du SI : un nouveau concept marketing ou un outil utile ?
Lanalyse SWOT est un outil daudit marketing de lentreprise et de son environnement (concurrence). Il aide lentreprise à se concentrer sur les questions-clés. Une fois ces dernières identifiées, elles sont introduites dans des objectifs marketing. La matrice SWOT est employée en parallèle avec dautres outils daudit et danalyse. Cet outil est très populaire parce quil est rapide et facile à utiliser. Lanalyse SWOT se fait au moyen dune grille visuelle à quatre quadrants.
La conduite du changement
Quest-ce quune démarche de conduite du changement XE "conduite du changement" ? Quel est son périmètre, ses méthodes, ses outils ?
À entendre les discours des uns, il sagirait essentiellement de communication, de formation et daccompagnement au changement XE "accompagnement au changement" . À entendre les autres, laccompagnement au changement est justement la partie communication et formation de la conduite du changement. Mais ne sommes-nous pas là en train de parler des moyens au détriment de lobjectif ?
En réalité, lambiguïté qui prévaut sur le terme « conduite du changement » naît de la difficulté qui réside toujours dans lentreprise à bien déterminer les rôles et les responsabilités en matière denjeux concernant les systèmes dinformation et, surtout, à bien faire dialoguer les acteurs entre eux en évitant de sombrer dans des découpages hiérarchiques ou organisationnels.
La conduite du changement porte sur lensemble de la démarche qui va de la perception dun problème dorganisation ou dune opportunité dévolution organisationnelle à la mise en uvre satisfaisante dune solution de transformation via la définition dun cadre dactions humaines pour lélaborer, la choisir, la mettre en place.
À cette définition plutôt alambiquée, on peut préférer celle quon trouvera sur le blog de Christophe Faurie XE "Christophe Faurie" , spécialiste des changements de lentreprise : la conduite du changement, « cest identifier la transformation que doit subir lentreprise et la mener à bien. »
De nombreuses sociétés de services en intégration de systèmes, après avoir longtemps proposé des prestations de conduite du changement dans le cadre de projets liés aux systèmes dinformation, les ont rebaptisé « accompagnement au changement », faute de pouvoir agir sur la direction de la « conduite ». Tout simplement parce que leurs méthodes et approches consistaient à définir et décliner un plan de communication ou de formation sur la base, au mieux, denjeux partiellement définis, au pire, du calendrier projet et des fonctionnalités prévues.
Si lentreprise se repose sur cette seule nature daccompagnement pour réussir sa transformation, elle manque une étape essentielle, celle didentifier la transformation. Conduire le changement, cest :
identifier et formaliser les axes stratégiques de la transformation ;
analyser les enjeux des parties prenantes, apprécier les dynamiques de changement, les points de résistance, leurs raisons ;
construire une vision équilibrée et partagée des enjeux avec les acteurs pour identifier la trajectoire de transformation ;
piloter par les enjeux, à coût/objectif, pour garder le cap et fixer les bonnes priorités, voire sadapter à bon escient ;
obtenir ladhésion XE "adhésion (utilisateur)" en impliquant les utilisateurs au plus tôt dans la définition et la conception de la solution, en communiquant, en formant ;
faire porter le changement par lencadrement, mais sappuyer sur des spécialistes pour le propager indépendamment du lien hiérarchique, afin que ces évolutions prennent en profondeur et dans la durée ;
procéder par itération et ajuster le plan daction et la trajectoire au rythme de son évolution.
Tout lart de la conduite du changement XE "conduite du changement" consiste donc à comprendre la politique et les structures dune organisation et faire émerger un dialogue ouvert entre les parties prenantes sur les objectifs réels de lentreprise, sans se laisser contraindre par des partis-pris, pour pouvoir établir des recommandations de transformation qui aideront lorganisation à atteindre ces objectifs.
Pour Christophe Faurie, « apprendre à conduire le changement, cest donc apprendre à maîtriser les mécanismes qui permettent au groupe de se transformer en évitant les limites de lhomme ».
Cela peut entrer dans le cadre des fonctions de liaison revendiquées par les analystes daffaires XE "analyste daffaires" . Formation, communication, accompagnement seront les trois leviers pour décliner opérationnellement la vision des enjeux en transformation réelle de lorganisation.
Lautonomisation des métiers
Force est de reconnaître que la vision prospective dil y a cinquante ans dun service informatique aussi pratique à lusage que le branchement de lélectricité est encore illusoire. Certes, lavancée des modèles comme Google ou Sales force, avec les plates-formes dapplication et la possibilité dutiliser virtuellement la puissance dun superordinateur avec des milliers de processeurs et des millions de disques durs, dessinent un monde avec un nombre réduit de super-fournisseurs de puissance serveur.
Ils lont dit
The world needs only five computers
Le responsable technique de Sun Microsystems, Greg Papadopoulos paraphrasait en 2007 cette phrase attribuée au PDG dIBM dans les années 1940.
En sappuyant sur le modèle des eBay, Amazon, Google, Yahoo et autres Salesforce.com, il envisage un mode où la puissance de calcul des ordinateurs se vendra comme de lélectricité avec quelques supers multinationales de lénergie il en cite sept, et même un état, la Chine disposant de centrales géantes. Il faut comprendre par là des « réseaux dordinateurs » fournissant la puissance et la performance dun ordinateur à grande échelle et, dès lors, toute la gamme envisageable de services associés. Les entreprises ne paieront plus la machinerie et les ressources, elles paieront le résultat, grâce au nouveau modèle du « Software As A Service ».
Reste que les fonctionnalités des applications disponibles en mode service sur le Web sont encore loin de répondre à tous les besoins des utilisateurs en entreprise. Les bonnes vieilles applications patrimoniales XE "applications patrimoniales" qui répondent spécifiquement aux besoins ont encore de beaux jours devant elles. Lennui, cest quau fil du temps, elles vieillissent, deviennent complexes, et la moindre demande dévolution prend du temps.
Un temps trop long pour les utilisateurs qui ne comprennent pas la nécessité dattendre trois mois pour le changement dune simple règle de gestion métier dans le code, quand la demande de changement tient en quelques lignes (changement dune échelle de comparaison, dun plafond dautorisation, du mode de calcul dun champ, etc.).
La faute en incombe à des conceptions et des architectures qui nécessitent de passer par le code pour effectuer ces modifications, et donc, par les processus de développements, de tests et de mise en exploitation classique.
La réflexion autour dune architecture agile qui, grâce à une logique de composant et de paramétrage XE "paramétrage" , autorisera lutilisateur à saisir lui-même, autant que possible, les changements quil souhaite au niveau de la logique métier sans toucher à limplémentation physique, telle est la clé de la facilité dusage du service informatique en entreprise.
Cette « autonomisation des métiers XE "autonomisation des métiers" » est cette fois un défi de modernisation darchitecture qui entre dans la construction des offres, au titre de marketing produit.
Elle contribuera, comme les autres fonctions de marketing du SI, à rendre loffre simple et lisible et, dès lors, toutes les directions clients en percevront mieux les bénéfices.
Gérer efficacement les ressources et les moyens
La théorie du chaos
Combien de projets de systèmes dinformation échouent avant datteindre leurs objectifs ? Selon le Standish group XE "Standish group" \t "Voir théorie du chaos" , célèbre pour sa « théorie du chaos XE "théorie du chaos" » (voir encadré ci-dessous), beaucoup
Certes, des polémiques sélèvent parfois sur la véracité de ces statistiques, dont une étude réalisée par les universitaires Sauer, Gemino et Reich qui aboutit à des chiffres inférieurs, le taux de projets en échec étant ramené à un tiers. Une amélioration qui correspondrait à une meilleure analyse des retours dexpérience, voire à des méthodes et des outils plus mûrs pour la gestion des projets informatique. Néanmoins, comme le soulignait en 2007 une enquête de Dynamic Markets pour le compte de Tata Consultancy Services, 43 % des responsables informatique sattendent à rencontrer des problèmes dans leurs projets.
Un peu dhistoire
La théorie du chaos en informatique
En 1994, le Standish group, un organisme indépendant danalyse et de recherche de la performance des TIC, publie son premier « rapport du chaos », documentant à travers des enquêtes et des interviews les types déchec de projets, les facteurs majeurs déchec et les pistes de réduction de ces derniers. Les premiers chiffres de 1994 sont alarmants : des milliards de dollars sont dépensés pour des projets de développement logiciel jamais achevés. Depuis 15 ans, le Standish group livre annuellement des statistiques abondamment reprises et publiées par tous les spécialistes en performance des systèmes dinformation. Si les cinq dernières années illustraient une modification positive de la tendance laissant penser à une maturité plus grande du pilotage de projets, le rapport du chaos 2009 est un net retour en arrière.
Seulement 32 % des projets réussiraient à être achevés en respectant le contrat temps, budget et fonctionnalités. 44 % finissent hors délai et en dépassement de budget et/ou avec moins de fonctionnalités que prévues, et 24 % échouent et sont annulés avant dêtre achevés ou livrent un résultat jamais utilisé. Effet de la crise ? Lannée 2009 représente le plus gros taux déchec depuis une décennie.
Les critères dinfluence sur le succès dun projet considéré par le Standish group sont au nombre de dix avec, par ordre dimportance : support de la direction, implication des utilisateurs, chef de projet expérimenté, objectifs métier clairs, périmètre minimisé au possible, infrastructure logicielle standard, exigences fondamentales affirmées, méthodologie formelle, estimations fiables, autres critères (mesuré avec un poids global à lensemble : la compétence des ressources, un planning décomposé en étapes avec des jalons intermédiaires et des échéances courtes).
Mais pourquoi les projets échouent-ils ? Est-ce la faute des outils informatiques ? Des compétences? Des équipes ? Des difficultés techniques ? Compte tenu, dun côté, de la maturité des environnement de développement et dans la majorité des cas, des techniques utilisées, et de lautre des compétences des développeurs, de plus en plus disponibles sur des technologies largement répandues comme .Net ou Java/J2EE, la cause profonde la plus commune déchec nest pas à chercher là.
Cest à la fois plus simple et plus difficile à gérer : les difficultés sont essentiellement dordre organisationnel et de pilotage. Faute de procéder méthodiquement, progressivement, avec les bons intervenants ayant les bons rôles au bon moment, les bons questionnements et les indicateurs qui en découlent, les projets sont voués à dériver, et une gestion serrée des coûts et délais ny changera rien, sauf à diminuer la couverture fonctionnelle et la qualité du résultat livré.
Si les projets qui dépassent leur calendrier ou leur budget ne sont pas rares, les bilans de projets et le partage des retours dexpérience le sont davantage. Pour autant, ils pourraient mettre en lumière un constat général.
Si les outils et les méthodes existent, dans les faits, le facteur humain XE "facteur humain" est prépondérant car un projet de construction de tout ou partie dun système dinformation fait essentiellement appel à une construction intellectuelle, ce qui nécessite beaucoup plus de concertation, de compréhension et de communication quun projet de construction de bâtiments, même si le vocabulaire des acteurs emprunte à ce domaine (architecture, maîtrise douvrage, maîtrise duvre, etc.).
Ils lont dit
Butller group, 2005 Pourquoi les projets échouent XE "raisons déchecs (des projets)" ?
« Une des raisons majeure est quil existe un énorme fossé entre les développeurs qui travaillent sur les projets dapplication et les responsables qui en ont fixé les objectifs. »
Lawrence Charles Paulson, professeur à luniversité de Cambridge (Computer Laboratory)
« On peut tester un pont avec des charges extrêmes et sassurer ainsi quil ne seffondrera pas avec des petites charges. Avec un logiciel, chaque entrée est une situation différente. Nous avons des modèles mathématiques pour les ponts, pas pour les logiciels. »
Frederick P. Brooks, auteur du livre The Mythical Man Month
« Plus vous commencez tôt, plus cela va vous prendre du temps. »
« Rajouter du monde sur un projet en retard, cest uniquement rajouter du retard. »
Le cycle de vie des applications
En matière denvironnement, de développement, dateliers logiciels, de gestion de configuration, de référentiels dexigences et de tests, de nombreux outils perfectionnés existent pour couvrir le « cycle de vie des application XE "cycle de vie:des applications" » (ou « ALM» pour Application Lifecycle Management).
Définition
ALM XE "ALM (Application Lifecycle Management)" : le cycle de vie dune application
« Le cycle de vie dune application est le continuum des activités requises pour supporter une application dentreprise du projet dinvestissement initial jusquà son déploiement et loptimisation des systèmes. »
« LApplication Lifecycle Management (ALM) intègre et pilote, tout au long du cycle de vie dune application, les différentes phases de planification, définition, conception, développement, test et déploiement. »
Sources : http://www.eclipse.org/proposals/eclipse-almiff/
Ces outils autorisent la collaboration entre équipes de développement géographiquement dispersées, facilitent la recherche de défauts, les tests, etc. Ainsi nest-il guère surprenant den arriver à un stade où les communautés open source garantissent une qualité du code au moins égale à celle des éditeurs de progiciels.
Il existe également, en plus des outils de développement et de tests, des outils de planification, de gestion de portefeuille projets, etc.
Cela vaut pour le développement initial dune application, mais force est de reconnaître quune fois une application en production, le contexte change et particulièrement quand lapplication vieillit.
Cest un constat : la gestion des développements liés aux évolutions des applications patrimoniale est moins outillée dans les approches de type « ALM » aujourdhui. LOMG XE "OMG (Object Management Group)" (Object Management Group) pointe avec raison ce manque dans le cycle de vie dans la mesure où, a minima, en moyenne 50 % du temps des équipes informatique est passé sur la maintenance. Dautant que la durée de vie dune application en production est bien supérieure à la durée du projet qui lui a donné le jour. Si certains de ces projets sont longs, que dire dapplications en exploitation depuis quarante ans ?
On estime que les coûts XE "coûts:de maintenance" de la maintenance vont jusquà 67 % du coût total dune application sur sa durée de vie (si on considère tous les postes de coûts, de linvestissement initial en matériel, logiciel, développements, formation, etc.), dont 48 % sont consacrés à réparer les défauts.
Or, ce temps consacré à réparer les défauts pèse lourd, dautant plus quand ceux-ci auraient pu être évités en amont (on y reviendra dans limplication des utilisateurs au bon moment, p.124) et quand la validation du problème remonté et lanalyse de la modification à faire pèsent énormément sur le cycle de vie XE "cycle de vie:de la maintenance" de la maintenance.
En théorie, un projet dévolution en maintenance a une grande similitude avec un projet de développement, au sens où tous deux partagent un cycle de vie, une pression permanente, des phases danalyse, de développement et de tests. En pratique, il y a de grandes différences. Pour nen citer que quelques unes, les jalons sont moins bien formulés, les livrables moins explicites, les dérogations plus nombreuses (hot fixes), les objectifs sont moins bien définis et les tests incluent des tests de non-régression, indispensables.
Aussi, les modèles destimation de chiffrage traditionnels ne sont pas forcément dun grand secours en maintenance, comme le montre une approche comparée des deux cycles tels quillustrés dans la figure suivante.
Nota bene : les valeurs de pourcentages indiquées sont des moyennes à adapter en fonction du contexte.
CyclesdevieProjetMaintenance.png
Figure 5-10.
Comparaison des cycles de vie projet et maintenance
Une approche incrémentale dapprentissage par la pratique des estimations de coûts et de temps, basée sur des données historiques, fonctionne mieux en maintenance que les ratios projets classiques. En effet, il est difficile de disposer dun benchmarking XE "benchmarking" , destimations exploitables dans tous les cas de figure, tant lhéritage applicatif change les perspectives.
Il faut en particulier insister sur le fait que, dans une application complexe et vieillissante, la compréhension des problèmes se fait au détriment des validations, ce qui entraîne des risques danomalies qui, à leur tour, entraîneront des demandes de modification, et ainsi de suite
On voit le déclenchement du cercle vicieux qui conduit à ne plus maîtriser la maintenance des applications, cest-à-dire ne plus maîtriser ses biens logiciels.
Il ne sagit pas seulement de délai de compréhension dun problème, mais également de rigueur dans le processus des tests et validations XE "processus:de test et validation" Les modifications les plus simples sont celles qui ont le plus de chances dintroduire des erreurs, selon le tableau ci-dessous
Tableau 5-2
Les modifications sources derreur.
Nombre de lignes modifiées151020Probabilité dintroduire une erreur50%75%50%35%Souvent, les modifications simples ne sont pas prises au sérieux, les tests ne sont pas systématiques
Selon L. R. Weiner, les trois erreurs les plus coûteuses de lhistoire de linformatique sont liées à la modification dune seule ligne de code
Un peu dhistoire
Une seule ligne de code vous manque et tout
ne fonctionne plus
22 juillet 1962
Un programme qui comportait une omission mineure dans une équation coûta 18,5 millions de dollars au contribuable américain parce quon détruisit par erreur une fusée Atlas-Agena. Cette fusée transportait la sonde Mariner I destinée à lexploration de Vénus. Il manquait une « barre » dans léquation, un trait horizontal sur un symbole indiquant quil fallait utiliser des valeurs moyennes et non pas des données brutes.
Fin juin début juillet 1991
Aux États-Unis, le téléphone ne répond plus dans de nombreux États. À lorigine de coupures en série, un programme de commutation réalisé par DSC communications. Trois lignes non testées, ajoutées à un programme de plusieurs millions de lignes de code, testé au préalable pendant treize semaines, ont suffi à provoquer la situation.
À lorigine de ce cercle « vicieux », des lois de lévolution des logiciels incontournables, énoncées depuis longtemps par Lehman et Belady XE "Lehman et Belady" \t "Voir Lois de lévolution des logiciels" que lon pourrait résumer en deux principes majeurs. Dabord, tout programme qui est utilisé sera modifié car il ny a pas dapplication en production qui vive sans demande de changement et/ou de corrections. Ensuite, la complexité dun logiciel augmente naturellement avec le temps si aucun effort spécifique additionnel nest effectué pour la contenir ou la réduire.
Que les causes soient connues ne veut pas dire quon les traite. Peu dentreprises, surtout éduquées dans lesprit de réduire les coûts informatiques, sont prêtes à payer leffort spécifique additionnel évoqué par les lois de Lehman et Belady pour réduire la complexité. La meilleure démonstration en est la difficulté croissante quont bon nombre de DSI à maîtriser les coûts de maintenance. Cela leur coûte cher au-delà de la valeur monétaire, autant pour leur crédibilité que pour leur capacité à investir dans linnovation, par manque de budget.
La complexité croissante du code entraîne une baisse de productivité des programmeurs et lincapacité à réagir rapidement aux besoins fonctionnels. Quant à la difficulté à tester la qualité du code, voire limpasse sur des tests rigoureux, ils entraînent des pertes économiques pour lentreprise elle-même qui ose passer en production des systèmes insuffisamment testés. En mai 2002, un rapport du NIST, « Les impacts économiques dune infrastructure pour les tests logiciels », estimait que le coût de logiciels défectueux en production aux États-Unis sévaluait en termes de dizaine de milliards de dollars par an.
Il est surprenant, dans ces conditions, de voir se développer des logiques de gestion de portefeuilles projets XE "gestion de portefeuilles projets" sans quil y ait de corollaire équivalent : la gestion du portefeuille dapplications XE "gestion du portefeuille dapplications" et la gestion du cycle de vie des évolutions XE "cycle de vie:de lévolution" (voir chapitre 6, activer les leviers de création de valeurs, p.139).
Reste que cette logique de gestion de portefeuilles projets est nécessaire, même si elle reste insuffisante sans gestion du portefeuilles dapplications, comme nous lavons vu ci-dessus, ou sans compréhension et moyens de remédiation contre les risques principaux déchec du projet, essentiellement dus à des aspects de pilotage humain et organisationnel ainsi que lexpliquent les paragraphes suivants.
Anatomie des désastres
Dans un de ses cours de génie logiciel pour luniversité de Cambridge, le professeur Lawrence C. Paulson XE "Lawrence C. Paulson" revenait sur « lanatomie des désastres », en comparant les causes déchecs de plusieurs grands projets. En particulier, il citait un projet développé pour le service des ambulances londonien (LAS London Ambulance Service) et un projet CONFIRM destiné à assurer la réservation combinée de vol, hôtel et voiture de location.
Ces deux cas furent des échecs patents et très coûteux, respectivement environ 9 millions de livres et 160 millions de dollars. Le premier système, qui visait à informatiser le dispatching et le routage des ambulances, a été mis en production avec 81 erreurs connues et abandonné après dix jours dessai pour revenir au mode manuel.
Le second, qui devait en principe réussir car développé par léquipe à lorigine de SABRE, était arrivé à un tel niveau de désastre, volontairement dissimulé par les responsables, que la moitié de léquipe cherchait un nouvel emploi au milieu du projet. Un consultant fut embauché pour un audit, mais son rapport ayant déplu à ses supérieurs, il fut purement et simplement enterré. Le projet continua encore un an après cela avant labandon. Les analyses effectuées en 1994 (sur les causes déchec sont décrites dans le tableau ci-dessous.
Tableau 5-3
Comparaison de causes déchec pour deux projets
PROJET LASPROJET CONFIRM DélaisLa « maîtrise duvre » a été choisie sur les critères coûts (le moins cher) et délais. Léchéance de réalisation à 6 mois a été jugée par tous irréaliste. Conclusion : pression sur les délais au détriment des tests.Personnel licencié si refus daccepter des calendriers irréalistes.Équipe en chargeLes développeurs étaient inexpérimentés dans les systèmes critiques sur le plan de la sécurité.PilotageUn mode de pilotage décrit comme macho, déterminé à passer coûte que coûte.Des responsables dissimulant les problèmes sérieux à leurs supérieurs.DifficultÉ technique ÉventuelleLa conception a ignoré les limitations dun système de guidage radio dans les zones urbaines.Incapacité à intégrer deux systèmes.Liens clients/dÉveloppeursConception fondamentalement défectueuse. Or les utilisateurs ont été exclus de la phase de conceptionPas assez de liens entre clients et développeurs.Gestion des changementsChangements des exigences clients tardivement dans le projet.Lanalyse comparative des deux projets illustre un mode de pilotage hiérarchique à lextrême, sans remise en cause. En effet, les directions de projets refusent de voir les faits (indicateurs de délais irréalistes, par exemple) et préfèrent dissimuler plutôt que corriger les erreurs. Les délais irréalistes sont connus dès le début du projet, mais acceptés pour signer laffaire à tout prix.
Le projet LAS montre un défaut de compétence de léquipe en charge en matière de systèmes critiques. Si le choix des développeurs est critiquable, pour autant, ils auraient pu éviter une erreur de conception grossière grâce au dialogue avec les utilisateurs. Or, ces derniers nont même pas été impliqués dans la conception, phase où leur collaboration est indispensable.
Quant au projet CONFIRM, non seulement les liens entre clients et développeurs sont insuffisants, mais il y a eu un manque évident méthodologique. Il ny a en effet pas de gestion des demandes de changements, ce qui aboutit à un périmètre projet flou et extensible à lenvie.
Ces deux exemples montrent que la gestion de projets seulement menée par des critères de délais et de coûts XE "pilotage:coûts et délais" est vouée à léchec. Sans pilotage intelligent et commun avec le client final (le propriétaire du besoin), sans sponsoring de la direction générale, en particulier pour négocier des délais réalistes, sans implication des utilisateurs dans les phases cruciales, en particulier de conception et de test, les projets risquent de finir en désastres.
Certes, on peut critiquer le choix des deux exemples : projets éventuellement jugés pharaoniques (bien que ce ne soit pas le cas pour le LAS), exemples « datés » (1994) et développements spécifiques, mais il ne sagit pas que dune problématique de grands comptes dépassée. Des exemples récents (moins de cinq ans), existent en France. Il sagit de projets de développements spécifiques qui furent désastreux pour les mêmes raisons, au point dêtre abandonnés en cours de route.
Ainsi un des premiers projets européen de refonte dun processus de prise de commandes en architecture orientée services, réalisé en 2005-2006, a été abandonné avant terme. Ce projet devait déployer sur plusieurs pays un processus commun, qui sappuyait sur des architectures existantes. Ce nest pas tant la nouveauté des concepts mis en uvre qui en a été la cause déchecs, mais davantage le calendrier extrêmement contraint (1 an pour développer un noyau déployable) et les difficultés de convergence des pays ayant chacun un patrimoine applicatif différent, ainsi que des contraintes réglementaires ou des cultures locales distinctes.
A contrario, la SMABTP a choisi de mener son projet SOA de refonte, débuté en 2001, en donnant du « temps au temps » et en étalant sa rénovation progressive sur plusieurs années (de 5 à 10 ans), en se basant sur le concept dACMS (Agility chain management System, voire chapitre 9, p.205.). Ce qui fait de cette refonte un modèle à étudier (en environnement franco-français).
Quant aux projets pharaoniques, ils existent encore, on peut prendre pour exemple Chorus et Cassiopée.
Chorus, le projet de gestion de la comptabilité publique qui doit équiper à terme tous les ministères et les établissements publics, donne, selon un article de juillet 2010, porte en lui un « concentré des dysfonctionnements des projets informatiques », dont accumulation des retard, dépassement de budget, fonctionnalités qui ne correspondent pas aux besoins, etc.
Le projet Cassiopée concerne le système dinformation pénal des juridictions.
Une note publiée dans le JO Sénat du 04/02/2010 - page 220, attire lattention de « Mme la ministre d'État, garde des sceaux, ministre de la justice et des libertés, sur les difficultés rencontrées dans le déploiement du système d'information Cassiopée et sur les perturbations qu'il entraîne pour le service public de la justice ».
Cette note pointe sur « d'importantes difficultés d'utilisation, ainsi que des erreurs de conception du système d'information » et met en cause la conception même de Cassiopée « puisque ce système méconnaît des aspects importants de la procédure pénale. ». On peut se demander à la lecture de cette note, comment les utilisateurs ont été impliqués dans la phase de conception et quels ont été les liens entre équipes.
Quant à croire que la mise en uvre dun progiciel change la donne précédente, autant se détromper rapidement. Un projet progiciel est avant tout un projet fonctionnel et organisationnel, le coût logiciel ne représente au mieux que 25 à 30 % du projet.
Les progiciels XE "progiciels" intégrés ont un impact fort sur lorganisation même de lentreprise. Larrivée de ces outils oblige les entreprises à décloisonner leurs services et les contraint à redéfinir leurs procédures de gestion non plus par services, mais de manière globale.
Doù limportance dune campagne dinformation et de formation pour faciliter lintroduction de ce type doutils car il faut convaincre les divisions opérationnelles de lutilité dun progiciel intégré. Les utilisateurs doivent apprendre à communiquer dans un langage commun. La conduite du changement XE "conduite du changement" incluant larbitrage par les enjeux, la communication et la formation, limplication des utilisateurs sont des enjeux cruciaux dans la réussite du projet.
Un autre aspect est à prendre en compte : les progiciels ne sont pas la panacée si lobjectif est den finir avec une application patrimoniale vieillissante. Opter pour un progiciel en remplacement dune application spécifique « maison » peut conduire tout aussi sûrement au désastre si la réalité de la couverture « standard » du progiciel, et par là-même des besoins qui ont conduit à lapplication initiale, na pas été correctement évaluée. Pour sen convaincre, il suffit de jeter un il sur les chiffres ci-dessous et les quelques exemples qui suivent.
Ils lont dit
Un projet ERP à plus de 10 m$ ? Vous êtes statistiquement perdants !
« Si un projet ERP vous coûte plus de 10 m$, vos chances pour le mener dans les temps et dans le budget sont statistiquement nulles. [
] Vous avez aussi une chance sur deux quil soit annulé avant dêtre achevé et après avoir dépensé 200 % de votre budget », Jim Johnson, président du Standish Group International.
Selon le Standish Group, 35 % des projets ERP sont abandonnés définitivement avant dêtre terminés, tandis que 55% souffrent de dépassement.
Le Gartner nest pas plus optimiste quand il note que seulement 30% des projets ERP rencontrent le succès et que, statistiquement, seulement 40 % des fonctionnalités sont déployées.
Pour en finir avec la culture de léchec des projets informatiques, il faut en finir avec la gestion simpliste par « coûts et délais ». Ces derniers ne signifient rien si les enjeux du projet ainsi que les rôles et responsabilités nont pas été clairement définis et partagés entre les différents acteurs contribuant au succès commun de lentreprise.
Un peu dhistoire
Des exemples de projets ERP malheureux publiés
Ford Motor Co. : système dachat abandonné après un déploiement à 400 M$ (2004) ;
Avis Europe : déploiement de lERP Peoplesoft abandonné : 45ME ((2004)
Irish Health service : système SAP pour HR, paie et systèmes liés. Budgété 10,7 M$, prévu sur une durée de 3 ans. Résultat : 10 ans et 180 M$ (1995-2005).
Limplication des utilisateurs au bon moment
Trop souvent, la nécessaire contribution de la maîtrise douvrage nest pas clairement formalisée au démarrage de la réalisation des projets, ou fortement minimisée pour ne pas effrayer les utilisateurs qui ne « doivent pas être trop sollicités », formule régulièrement rencontrée par tout chef de projet. Sil sagit là dun calcul pour économiser un temps jugé précieux, il se trompe de cible.
En occultant la part qui revient à la maîtrise douvrage, on sous-estime le budget du projet et on entérine les dérives de planning, les erreurs de conception futures ou, pire encore, les erreurs grossières en production et les surcoûts associés. Sil sagit de ne pas « heurter » en impliquant les utilisateurs trop tôt dans un projet qui risque de changer leurs habitudes, cest là encore une erreur flagrante.
Car cest en les impliquant au plus tôt que les résistances au changement XE "résistances au changement" samenuiseront, pour peu que les utilisateurs puissent comprendre les bénéfices du projet. Sils nen voient aucun à cette phase, on peut légitimement sinterroger sur la viabilité du modèle économique du projet, se demander si les enjeux à son origine ainsi que les gains attendus ont été correctement modélisés et revoir la copie sil y a lieu.
Il faut donc estimer les charges de la maîtrise douvrage au démarrage du projet au même titre que la maîtrise duvre et, si cette dernière est déléguée à un sous-traitant, ne pas en profiter pour lui déléguer aussi lestimation des charges de la maîtrise douvrage. Il nest pas exclu de demander conseil à un spécialiste pour obtenir des échelles de valeurs moyennes, mais seule la connaissance réelle des utilisateurs, lhistorique des projets passés et des modes de comportement, permet daffiner cette évaluation. Pour autant, le prestataire choisi aura tout intérêt à demander un niveau minimum dengagement de la maîtrise douvrage.
Le tableau suivant illustre une façon de représenter lengagement XE "engagement (niveau attendu de)" des uns et des autres sur la durée des projets (les pourcentages ne sont absolument pas représentatifs de tous les types de projets).
Tableau 5-3
Exemple de formalisation des niveaux dengagement et des rôles des contributeurs projets
Niveau attendu dengagementConceptionConstructionIntégration et validationFormation des formateurs, Go liveRôles de la maÎtrise douvrageEngagementComitÉ de pilotage20 %20 %20 %20 %Responsable projet80 %50 %50 %80 %PropriÉtaire des processus métier70 %50 %50 %80 %Équipe processus50 %25 %50 %80 %Équipe responsable des applications existantes25 %30 %10 %10 %Rôles de la maÎtrise doeuvreEngagementChef de projet(Pendant la durée du projet : planifie, contrôle, évalue(Concepteur et dÉveloppeur(Pendant la durée du projet : exécute(Consultant technique(Pendant la durée du projet : exécute(Consultants produits le cas échéantEngagementProduct consultant100 %10 %10 %Si lon modélise grossièrement dans la figure suivante les grandes phases dun projet logiciel, on sapercevra que les zones plus claires nécessitent toutes une implication non négligeable de la maîtrise douvrage. En effet, la documentation doit être revue avec les utilisateurs, la préparation de la formation également, les migrations XE "migrations:de données" de données (sil y a lieu) nécessitent un investissement de leur part pour qualifier les sources, les typer « sémantiquement » (la connaissance des acronymes de champ pour désigner un client nest pas innée).
ProjetDvlpt.jpg
Figure 5-12.
La figure ci-dessus montre la sérialisation et la parallélisation possible des phases projets. Le bleu clair montre des zones ou la participation des utilisateurs est requise.
Quant à la gestion de projet, elle doit être conjointe pour arbitrer sur les enjeux métier autant que possible et ne pas laisser la maîtrise duvre arbitrer seule. Car, mise en demeure de le faire, elle ne pourra arbitrer au mieux quen termes de coûts et de délais et dans tous les cas, avec un potentiel dinsatisfaction prévisible sur le résultat, voire des retours en arrière coûteux.
Pourtant, on insiste souvent davantage sur deux phases particulières où lintervention des utilisateurs est critique : la conception, avec la définition des besoins, et la recette, pour la validation. Les deux phases sont liées et pour être assuré que la seconde se passe au mieux, il faut impliquer sérieusement les utilisateurs dès la conception sur la logique de tests et la construction des référentiels associés.
En effet, plus une erreur XE "coûts:des erreurs" est découverte tard dans le cycle de vie des applications XE "cycle de vie:des applications" , plus la réparation est coûteuse. Une erreur de spécification trouvée en maintenance coûte de 60 à 100 fois plus cher que si elle avait été trouvée lors des spécifications. La figure ci-dessous donne une estimation des ordres de grandeur de cette logique de multiplication pour une erreur découverte en phase de spécifications qui coûterait 1 ¬ .
CoutErreur.png
Figure 5-13.
Estimation de la multiplication des coûts des erreurs au fur et à mesure de leur découverte tardive dans le cycle de vie des applications
Impliquer les utilisateurs le plus en amont est une manière de réduire autant que possible le coût des erreurs de spécification. Limportant est de pouvoir faire au plus tôt la corrélation entre le code réalisé et les besoins demandés pour détecter les défauts avant les phases de tests officielles (exécution de cas de tests).
Ces dernières, indispensables, ne sont pas et ne doivent pas pour autant être les seuls moyens de vérifier la qualité dun logiciel, dabord, parce que tester complètement un logiciel coûte cher, voire est pratiquement irréalisable et ensuite parce quil existe une combinatoire élevée de cas de tests et que chaque entrée peut donner un résultat différent en sortie.
On sen réfèrera plus précisément aux chiffres de Caper Jones XE "Caper Jones" , éminent spécialiste de la qualité logicielle XE "qualité logicielle" et auteur de nombreux livres et études sur le sujet :
un taux de couverture de code XE "couverture de code" de 50 % ne détecte quenviron 10 % des défauts ;
un taux de couverture de code de 100 % ne détecte que 47 % des défauts ;
un taux de couverture de 100 % MC/DC (tests de décisions-conditions modifiées, tests de conditions de branchement et tests de conditions de branchement combinées) détecte 97 % des défauts. Il est utilisé en avionique critique, pas dans les banques et assurances.
De nombreuses méthodes de validation et de vérification de la qualité existent mais, ainsi que le souligne Caper Jones, « aucune, seule, nest adéquate ». Il faut donc combiner les différentes méthodes de tests, tout au long du cycle de vie XE "cycle de vie:des applications" de lapplication pour optimiser la prévention des défauts.
Caper Jones XE "Caper Jones" nous alerte aussi sur le fait que la qualité ne signifie pas la « conformité aux demandes des utilisateurs », tout simplement parce que ces demandes, si elles ne suivent pas un cycle de gestion des exigences XE "exigences" , contiennent plus de 15 % des sources derreurs et peuvent grandir excessivement dans la vie dun projet (2 % de nouvelles demandes par mois).
La gestion des coûts et délais ne suffisant pas, les tests seuls ne suffisant pas, la qualité ne signifiant pas stricto sensu de se conformer aux exigences sans qualification de la demande et vérification du périmètre projet, nous en arrivons à la nécessité de mettre en uvre un pilotage multidimensionnel des projets.
Ce dernier doit prendre en compte aussi bien les enjeux, la qualité et les risques que la gestion des coûts et des délais.
Un pilotage multidimensionnel
En premier lieu, un projet, quel quil soit, ne devrait pas démarrer sans quune étude de cas de ses bénéfices ait été menée, sans que les critères qui permettront den évaluer le succès définis et les objectifs dentreprise initiaux atteints.
Cest laxe de pilotage par les enjeux XE "pilotage:par les enjeux" . Ces derniers serviront toujours à arbitrer en cas de risque de dérive (en délais ou en coût), en ramenant lévaluation à une logique coût/objectif.
Il existe un autre axe, celui de la qualité, qui vise à déterminer la pertinence des exigences, la bonne traçabilité des spécifications de code au regard de ces exigences (permettant par là de vérifier la documentation), et lobtention dune couverture du code maximale par des tests dont les cas doivent eux-mêmes couvrir les exigences (demandes clients). Cest en mettant en place ce triptyque à laide de référentiels (exigences, codes et tests) quil est possible dassurer un résultat satisfaisant au mieux les utilisateurs, en minimisant les risques de défauts du produit livré.
Referentielpilotage.png
Figure 5-14.
Référentiels en support au pilotage multidimensionnel
Laxe « classique » est celui du suivi davancement où on mesure les délais des phases, le respect des jalons de livraisons, les charges en hommes/mois et les coûts globaux.
En ne se concentrant que sur cet axe, il est clair que le projet na pas la capacité à réagir aux aléas, ni à prévenir les risques de non-qualité, qui influeront sur la satisfaction des utilisateurs.
Exploiter les bonnes pratiques
En cinquante ans, linformatique dentreprise a su se professionnaliser et il existe désormais beaucoup de référentiels sur les processus XE "processus:de la DSI" propres au métier de linformatique, processus de développement de logiciels, processus de gestion des incidents, processus de demande.
Il est dailleurs significatif que ce qui est au final le plus répandu et commence à être partagé par la profession porte davantage sur les pratiques en exploitation et production, et en développement que les pratiques de pilotage au sens large, cest-à-dire de gestion des budgets et investissements, de gestion du portefeuille des actifs (ici les applications), de gestion de projets, etc.
CatalogueProduitServices.jpg
Figure 5-15.
Référentiels les plus utilisés pour les SI
Source : © Sapientis 2010
Lobservatoire Sapientis montrait que lusage dITIL XE "ITIL" dépassait de loin les autres référentiels XE "référentiels:de meilleures pratiques" . A contrario, Val IT XE "Val IT" (Enterprise Value : Governance of IT Investments), un cadre de référence qui pose la question de la génération de la valeur des projets à composantes SI pour une gouvernance éclairée des investissements, nest pas entré dans le paysage. Quant aux bonnes pratiques de gestion de projets (PMI XE "PMI (Project Management Institute)" ), elles émergent à peine.
ValIT.jpg
Figure 7-16.
Les questionnements de Val IT, par lAFAI XE "AFAI (Association française de laudit et du conseil informatiques)"
Source : AFAI ©
Les processus les mieux pourvus en matière de référentiels sont ceux de la construction de solutions, mais pas ceux qui contribuent à la proposition de valeur du SI. Ils sont orientés vers la continuité de services et les corrections dun existant. Ainsi, limplémentation dITIL XE "ITIL" , qui se prête bien à une approche progressive, commence majoritairement par la gestion des incidents et des demandes de changements.
Une seconde approche est demprunter à des approches génériques issues de lindustrie des notions damélioration continue de processus en envisageant dindustrialiser ces derniers autant que possible. On le constate sur la figure suivante qui reflète la vision du Gartner XE "Gartner" sur le choix des modèles qua un DSI et le positionnement des uns et des autres.
GartnerRef.png
Figure 5-17.
La vision de Gartner sur le positionnement des référentiels
Source : Gartner XE "Gartner" © research, juin 2008
La méthode Six Sigma XE "Six Sigma" , qui figure au rang des méthodes génériques ayant un intérêt global pour linformatique, a longtemps été un modèle pour lindustrie pour loptimisation des performances, dans le cadre de production industrielle.
Mais cette industrialisation, souvent envisagée pour améliorer la qualité des services de lexploitation, na guère de sens si, en amont, la réflexion sur les enjeux et la génération de valeur na pas eu lieu. Viser le « zéro défaut XE "zéro défaut" » est une ambition curieuse quand on ne connaît pas le bénéfice du service ou la valeur dutilité perçue XE "valeur dutilité perçue" par le client, qui sont les points essentiels à améliorer, en amont de la production du service.
Ces référentiels XE "référentiels:de meilleures pratiques" ont certes le mérite dexister et ils apportent clairement chacun une contribution non négligeable à la maturité des entreprises dans la mise en uvre des processus XE "processus:de la DSI" liés au « métier de la DSI ». Lequel choisir ? En réalité, plusieurs, car ils sont tous plus ou moins complémentaires et donnent des vues différentes qui senrichissent entre elles.
Certains de ces référentiels comme CMMI XE "CMMI" et ses niveaux de certification, sont aussi très normatifs et contraignant dans leur déploiement. Cest pourquoi ITIL XE "ITIL" , plus simple et opérationnel, est mis plus facilement en place, par briques. COBIT XE "COBIT" , qui se réclame de la gouvernance, est très orienté contrôle et audit et ne suffit pas à lalignement stratégique des systèmes dinformation. Val IT XE "Val IT" lui apporte un complément. La question nest donc pas forcément : lequel choisir ?, mais plutôt Que faut-il prendre aux uns et aux autres ? Que me manque-t-il ?.
Le tableau suivant donne une liste de référentiels XE "référentiels:de meilleures pratiques" de meilleures pratiques existantes avec quelques commentaires sur leur champ dapplication et liste les organismes et/ou associations qui en sont à lorigine.
Tableau 5-4
Liste de référentiels
SigleDéfinition et commentaireAssociation française de laudit et du conseil informatiquesAFAIL HYPERLINK "http://www.afai.asso.fr/" AFAI XE "AFAI (Association française de laudit et du conseil informatiques)" est le chapitre français de HYPERLINK "http://www.isaca.org/" lISACA (Information System Audit & Control Association), association à lorigine entre autres des référentiels XE "référentiels:de meilleures pratiques" et modèles COBIT, Risk IT, Val IT.Capability Maturity model integrationCMMI XE "CMMI" Conçu dès 1987 à partir des meilleures pratiques du logiciel par le SEI (Software Engineering Institute XE "SEI (Software Engineering Institute)" ) et des représentants de lindustrie du logiciel, le CMMI XE "CMMI" est un modèle/guide de développements des applications informatiques (élargi avec « CMMI for maintenance » aux problématiques doutsourcing). Il est donc très orienté développement et intégration logiciel à sa conception, tandis que lapproche ITIL est davantage orientée « production ». Le CMMI est un référentiel international qui décrit cinq niveaux de maturité pour lesquels il existe des programmes de certification.Control OBjectives for Information & related TechnologyCOBIT XE "COBIT" Modèle de gouvernance IT décrivant les processus IT initié par lISACA (voir AFAI) et dont lobjectif est de faire le lien entre les exigences métier, les besoins de contrôle et les contraintes techniques éventuelles. Cest un cadre de HYPERLINK "http://www.techno-science.net/?onglet=glossaire&definition=2787" contrôle qui vise à aider le management à gérer les risques (sécurité, fiabilité, conformité) et les investissements. Il est utilisé notamment dans le contexte daudits.Design For Six SigmaDFSS XE "DFSS (Design For Six Sigma)" DFSS XE "DFSS (Design For Six Sigma)" (Design For Six Sigma) est la méthode danalyse des processus qui reprend les quatre dernières étapes de six sigma en les adaptant :
identifier : définir les exigences des clients et leurs limites ;
concevoir : choisir les concepts, analyser les risques ;
optimiser : optimiser la conception pour diminuer les variations du processs de production ;
valider.Institut de la gouvernance des systèmes dinformationIGSI XE "IGSI (Institut de la gouvernance des SI)" Fondé par lAFAI et le CIGREF XE "CIGREF (Club informatique des grandes entreprises françaises)" , lIGSI a en particulier réalisé un modèle de benchmarking des coûts informatiques XE "coûts:informatique" (version doctobre 2006 téléchargeable) dont lobjectif est daller vers un standard de pilotage des coûts informatiques.Information Technology Infrastructure Library
ITIL XE "ITIL" Née en Angleterre dans les années 1980, cette démarche se fonde sur une bibliothèque douvrages de meilleures pratiques qui sappliquent notamment à lindustrialisation de la production des systèmes informatique, particulièrement en termes de performance et de disponibilité, mais également à la gestion des services informatiques.IT Service ManagementITSM XE "ITSM (IT Service Management)" Référentiel de gestion de services informatiques rendus sur la base dune infrastructure informatique et de télécommunications, en suivant les recommandations ITIL. LITSM est normalisé au niveau international dans la norme ISO/CEI 20000. ITIL permet de supporter dautres types de standards tels que COBIT (utilisé pour les audit). Un autre modèle populaire est le CMMI pour le développement logiciel.Project Management InstitutePMI XE "PMI (Project Management Institute)" Linstitut a été créé en 1969 par cinq volontaires avec lobjectif de créer un référentiel des connaissances de la profession du management de projet. Il est depuis notamment à lorigine du PMbok et de programmes de certification (voir le chapitre français Paris-île de France : http://www.pmi-fridf.org/).Project Management Body of KnowledgePMBOK XE "PMBOK (Project Management Body Of Knowledge)" Guide du PMI XE "PMI (Project Management Institute)" définissant les champs de connaissances couvrant les fondamentaux de la gestion de projets (et ce, sur un large périmètre incluant la construction, le logiciel, lingénierie et lindustrie, etc.). Du démarrage dun projet à sa clôture, en passant par la planification, lexécution et le contrôle des travaux, ce guide accompagne les processus du cycle de vie dun projet XE "cycle de vie:de projet" . Il donne la méthodologie à suivre dans lestimation de la charge de travail, des moyens à mettre en uvre et des coûts induits. Les aspects liés à la qualité, aux risques ou à la communication interne/externe sont également abordés. Sa quatrième version date de fin 2008. Il sert de base de référence, entre autres, pour établir les contenus de cours sur la gestion de projets et pour lélaboration dexamens de certification (certification PMP Project Management Profession).Val IT XE "Val IT" Le cadre de référence Val IT XE "Val IT" explique comment une entreprise peut tirer la meilleure valeur possible de ses investissements informatiques.Six Sigma XE "Six Sigma" Cest une méthodologie de contrôle de la qualité basée sur létude dindicateurs de variation (sigma) créée par Motorola dans les années 1980. Adaptée à la production industrielle, elle vise une qualité proche du zéro défaut en mesurant la dispersion des produits autour dune moyenne (notion statistique décart type).
Le six sigma peut se définir en cinq phases :
définir : déterminer les exigences du client et les processus adaptés ;
mesurer : supprimer les suppositions des exigences du client par rapport au processus ;
analyser : identifier les écarts entre les performances, classer les problèmes par importance ;
améliorer : mettre en uvre les moyens nécessaires pour éliminer les problèmes ;
contrôler : vérifier que les actions correctives produisent le résultat espéré sans nouvelle anomalie.Gérer les compétences
Les DSI ont rarement en interne toutes les compétences nécessaires pour maîtriser lensemble de leurs systèmes, cest encore un constat que confirme lobservatoire Sapientis.
competences.jpg
Figure 5-18.
Disponibilité des compétences en interne
Source : © Sapientis 2010
Pour autant, la même enquête fait apparaître peu de stratégies dexternalisation choisies pour des compétences spécifiques et un paradoxe : si la gestion prévisionnelle des ressources nest pas perçue comme un des premiers enjeux dévolution endogène des SI, elle est vue parmi les premiers points fortement à améliorer à lavenir.
Les directions des systèmes dinformation, vecteurs profonds de changement dans les organisations, nestiment pas que la gestion de leur propre personnel soit un enjeu dévolution, mais le considère comme un enjeu damélioration. La nuance est de taille, comme considérer que lalignement des SI à la stratégie dentreprise passe dabord par lindustrialisation des processus. Or, les processus sans les hommes ni les enjeux auxquels ils répondent, ne peuvent pas marcher. Ce sont des moyens, et les moyens ne sont jamais une fin en soi.
La richesse des systèmes dinformation, leur potentiel de création de valeur, ne peut être actionnée sans les bonnes ressources humaines, dautant quen réalité, il y a clairement un besoin dévolution des compétences XE "évolution des compétences" dans les SI et une gestion prévisionnelle à prévoir, dans un domaine où les technologies évoluent plus vite que les applications et que les organisations. On peut donc énoncer quelques principes dévolution à prendre en compte pour une gestion harmonieuse des compétences.
Les compétences clés, rares, seront celles de directeurs de projets ayant la capacité à piloter les projets sur les axes multidimensionnels évoqués plus haut, en abandonnant le côté force abrupte du pilotage hiérarchique.
Dans des projets à composantes systèmes dinformation, il est essentiel dêtre à lécoute des différents acteurs et de faire le lien entre des compétences très différentes pour faire émerger une intelligence collective XE "intelligence collective" . Tout mode classique hiérarchique ou « macho », consistant à faire taire les voix dissonantes et trouver des responsables quand les dérives arrivent, ou dissimuler les erreurs plutôt que trouver les solutions (voir Anatomie des désastres, p.119), est à proscrire. Cela suppose une évolution dans le cadre du management dans son ensemble, pour construire des relations fondées sur la confiance et la responsabilisation et non sur le déni et la non-délégation.
Le rôle de profil type analyste daffaires XE "analyste daffaires" . » (Business Analyst) pourrait être amené à se développer pour ramener la conduite du changement XE "conduite du changement" à son rôle initial, faire émerger la transformation utile, et jouer le rôle de conseil des commanditaires, en loccurrence la « maîtrise douvrage XE "maîtrise douvrage" » évoquée plus haut.
Il faudra clarifier et valoriser les compétences XE "valoriser les compétences" des équipes de maintenance, ou « mainteniciens » comme un métier à part, avec différents rôles attachés et un niveau de qualification adapté, non sur dimensionné.
Les sociétés de services en infogérance ou en tierce maintenance applicative XE "tierce maintenance applicative" \t "Voir TMA" positionnent souvent de jeunes ingénieurs sur ces missions. Dès lors, il y a un turnover XE "turnover" fort élevé qui se ressent parfois sur la qualité des prestations et la réactivité du traitement des demandes. Léquation est simple : il faut six mois minimum pour maîtriser la connaissance fonctionnelle dune application moyenne en production depuis plusieurs années. Pour un turnover fréquent où les nouveaux arrivants partent au bout dune période de six mois à un an, linvestissement en connaissance est régulièrement à fond perdu. Lerreur est de ne pas adapter la recherche de profil au poste.
Un jeune ingénieur débutant naura aucun enthousiasme à être placé sur un projet de maintenance, quil jugera non valorisant en termes de reconnaissance intellectuelle, car ce projet fera probablement appel à des technologies qui ne sont pas celles qui lui ont été enseignées et on ne lui demandera pas de modéliser/conceptualiser. On peut au contraire le valoriser en lutilisant pour travailler sur des prototypes et des essais avec les nouvelles technologies dont il est familier pour les faire pénétrer dans lentreprise, tout en le formant aux méthodes avec un binôme plus expérimenté. En donnant des responsabilités « encadrées » et en valorisant lapport des nouveaux talents, lentreprise pourra les attirer et les retenir.
À linverse, un maintenicien âgé, dont les compétences sur les anciennes technologies et la connaissance des applications sont réelles et font partie du portefeuille des actifs immatériels, doit être valorisé dans une approche de transmission du savoir. La gestion des connaissances est une clé de la reprise en main des actifs immatériels de lentreprise, et elle passe nécessairement par la motivation des ressources humaines. Pourquoi ne pas utiliser des mainteniciens plus âgés pour former spécifiquement des jeunes « mainteniciens », et non utiliser des ingénieurs détudes ?
Dautres métiers apparaîtront liés au marketing des DSI. Dune part, pour laspect stratégique, où il y aura une véritable logique découte des clients et de développement doffres de services en adéquation avec la stratégie de lentreprise, pouvant utiliser linnovation ou innovant dans les usages. Dautre part, pour la communication, de laccompagnement au changement au développement de profils professionnalisés pour laccueil de lassistance aux services.
Chapitre 6
Activer les leviers de création de valeur
Le prix, cest ce que lon paie, la valeur, cest ce que lon reçoit.
Warren Buffet
Monsieur le Chat, demanda Alice. Pourriez-vous mindiquer le chemin à prendre ? Cela dépend en grande partie de lendroit où vous voulez aller, dit le Chat. Cela mest égal, dit Alice. Alors, peu importe le chemin que vous prenez dit le Chat.
Lewis Carroll
Pour passer dune DSI centre de coûts a minima à une DSI centre de services, voire centre de profits, il faut que le DSI ait déjà relevé les défis précédents et fait évoluer aussi bien ses méthodes, son organisation et ses moyens. Dès lors, il sera en posture de proposer un pilotage par les enjeux XE "pilotage:par les enjeux" et dactiver les leviers de création de valeur du système dinformation, avec les outils de pilotage adéquats, de la gestion des portefeuilles applicatifs à la gestion des portefeuilles projets, en passant par la gestion des services.
La valeur passe avant le ROI
La pression forte des marchés et les volontés de réduire les coûts ont conduit beaucoup dentreprises à vouloir établir des plans de ROI XE "ROI (Return On Investment)" , cest-à-dire de retour sur investissement, pour les projets du système dinformation comme pour les autres, le problème étant, dune part, quelles narrivent pas à le faire et, dautre part, quelles occultent pour partie un potentiel dévolution.
Sil est vrai que les projets liés au système dinformation doivent justifier dun objectif de bénéfice, le retour sur investissement est un calcul purement financier. Au final, on risque dans cette logique de navoir pour objectif que de récupérer plus dargent quon en a versé, dans les deux ans. Or, la création de valeur XE "la création de valeur" par le SI ne se résume pas à un ROI XE "ROI (Return On Investment)" de projet.
Pour faire un parallèle, il est abusif de déclarer que la création de valeur par une entreprise se traduit par : « faire augmenter le profit des actionnaires ». Il faut dabord que lentreprise crée une offre commercialisable qui ait une valeur ajoutée pour des clients afin quils soient prêt à la payer. Cest ce quon appelle la Valeur dutilité perçue par le client (VUPC XE "VUPC (Valeur dutilité perçue par le client)" ) qui fait quun client accepte dacheter une offre à un prix donné quil estime en deçà du bénéfice personnel induit.
Une proposition de valeur XE "proposition de valeur (de lentreprise)" à léchelle dune entreprise, cest dabord ce qui décrit sa mission spécifique, lattractivité économique de sa proposition Cest également la façon dont elle partage avec tous les acteurs de la chaîne la valeur (client, partenaires, fournisseurs) pour que chacun y trouve son compte, et ce quelle garde pour elle afin davoir des affaires rentables. Quil y ait un résultat financier positif pour les actionnaires est la conséquence et non lobjectif de la création de valeur.
Un autre élément, et non des moindres : les ressources et les compétences maîtrisées par lentreprise sont les éléments fondateurs de la valeur créée. Si ces ressources ne sont pas spécifiques, pas rares, parfaitement standard, elles ne sont ni valorisables ni durables. La proposition de valeur ne représenterait dès lors pas un fossé très difficile à franchir pour les concurrents, et narriverait pas à séduire très longtemps les clients faute dêtre capable de proposer de réelles innovations dusage.
On peut immédiatement faire le parallèle avec les ressources du SI. Une DSI qui nutiliserait que des applications standard, qui sous-traiterait la plupart de ses développements à des prestataires en jouant sur le moins-disant financier et non la recherche de compétences spécifiques, risquerait évidemment davoir de son SI une proposition de valeur limitée pour ses clients.
Définitions
Le règne du ROI XE "ROI (Return On Investment)"
Le retour sur investissement (RSI) ou return on investment (ROI) est un pourcentage pour indiquer la rentabilité dun projet. Il est défini pour une période donnée comme la somme des profits actualisés du projet, cest-à-dire les revenus moins les coûts, divisé par les fonds investis dans le projet.
RSI XE "RSI (Retour sur investissement)" \t "Voir ROI" = (bénéfices annuels coûts annuels actualisés)/Coût du projet × 100
Le taux utilisé pour lactualisation correspond souvent au taux dintérêt ou au loyer de largent. Au RSI est souvent associée la notion de délai de remboursement XE "délai de remboursement" ou payback period XE "Payback period" \t "Voir délai de remboursement" qui exprime le temps nécessaire pour atteindre « le point déquilibre » où les profits réalisés auront remboursés complètement linvestissement initial.
La vue partagée 360° du SI
Apprivoiser le changement
Selon langle de vue, les attentes envers le système dinformation et les questions posées ne seront pas de même nature. Par exemple, une direction générale sinterrogera entre autres sur la valeur que peut produire le système dinformation (SI) au regard du métier. Une direction informatique sinterrogera sur les gisements de productivité, sur les possibilités de réduire les coûts en interne ou en externe, sur la rationalisation du parc pour supprimer les applications devenues redondantes ou inutiles, mais également sur le niveau de satisfaction des utilisateurs et sa propre performance, eu égard à leurs attentes.
Les directions opérationnelles clientes auront à cur de défier le SI et les investissements réalisés au regard des besoins des clients et également de la réactivité obtenue face aux nouveaux besoins émergeants dans un environnement compétitif.
À bien y regarder, cest la capacité dinnovation XE "innovation:par le SI" elle-même qui peut être jugée, car le système dinformation peut contribuer au business futur en rendant possible de nouveaux modèles dinteraction avec les clients, fournisseurs ou partenaires de lentreprise, tels ceux qui ont émergés avec le Web. En parallèle, ces questions doivent être complétées par un axe de maîtrise des risques du système dinformation, indispensable à une réelle gouvernance XE "gouvernance:du système dinformation" , au sens du vieil adage « mieux vaut prévenir que guérir ».
Lobjectif de la gouvernance est de rassembler des vues et des modèles de construction hétérogènes, disputer les questions des uns et des autres, ensemble, pour faire émerger les vrais besoins dévolution, les vrais axes de transformation.
Car si la gouvernance consiste à améliorer ce qui est, apprendre à faire toujours mieux, savoir piloter les efforts dans la bonne direction, cest aussi savoir changer. Sans une approche douverture au changement, la gouvernance crée des sociétés figées et, en matière de système dinformation, des applications « mammouths » définitivement non agiles, donc inadaptées à un environnement mouvant.
Christophe Faurie propose ainsi une définition du changement « Le changement, cest faire ce que lon ne sait pas faire. Cest une évolution que lentreprise ne sait pas mener à bien sans un travail dadaptation préliminaire, quelle ne sait pas a priori par quel bout prendre. »
Où chercher justement ? Par quel bout prendre ce travail dadaptation ? Avant même de chercher à faire ce quon ne sait pas faire, il sagit de percevoir lutilité de faire autrement. Cette perception passe par le regard et lécoute. Il sagit non de changer de point de vue pour adopter celui dun autre, mais découter les points de vue des autres, partager ce quon entend et avancer dans une construction commune. Cest laffaire dune construction humaine, dune intelligence collective XE "intelligence collective" et dune vision partagée. Il faut écouter pour remettre en cause « les textes fondateurs », au moment que lon sent opportun. Or, les « sens » dune entreprise sont aiguisés quant ils ne dépendent pas de visions ou de décisions exclusivement individuelles.
La gouvernance ne consiste pas à asséner des réponses a priori mais à savoir se poser les bonnes questions. Ou, plus élégamment, pour reprendre une citation attribuée à Einstein XE "Einstein" « il ne faut pas chercher à tout savoir mais savoir où tout chercher ».
Linformatique en entreprise nest pas une science de lautomatisme uniquement traductible par des algorithmes. Les systèmes dinformation comprennent des processus où il y a effectivement automatisation de la collecte, du traitement et du partage de linformation mais aussi beaucoup dinteractions humaines entre différents acteurs et des prises de décisions qui ne peuvent être automatisées.
Sinspirer de la théorie de la simplexité
La formulation uniquement logico-mathématique des problématiques des systèmes dinformation serait dès lors vouée à léchec car elle ne prendrait pas en compte la dimension humaine. La loi de Murphy le rappelle à sa manière, énoncée de la façon suivante : « Sil y a plus dune façon de faire quelque chose, et que lune delles conduit à un désastre, alors il y aura quelquun pour le faire de cette façon ». Le facteur humain XE "facteur humain" est la prise en compte dune diversité de comportements.
Lhumain nest pas un paramètre dune équation car son comportement nest ni tout à fait aléatoire, ni tout à fait prévisible. Il introduit lincertitude, même sil recherche la stabilité. En outre, il a besoin de fonder ses décisions sur un nombre limité dinformations et les systèmes dinformation lui opposent un vaste espace multidimensionnel dinformations à prendre en compte.
Dès lors, observer et sinspirer empiriquement des mécanismes qui permettent aux organismes vivants de trouver des solutions à la complexité qui les entoure pour se diriger malgré tout efficacement sur la base de principes simplificateurs, a un sens pour mieux modéliser et comprendre les besoins de représentation ou de simplification des informations (et des systèmes) sous-jacents aux processus de décision XE "processus:de décision" . Comme lécrit Alain Berthoz, « il sagit là dune capacité de simplification dont lefficacité réside dans une réelle prise en compte de la complexité. Les méthodes ainsi sélectionnées par lévolution ouvrent des pistes dinvestigation passionnantes pour découvrir de nouveaux modes de résolution des problèmes posés par la complexité. [
] » Il sagit, entre autres pistes, de comprendre « comment sinspirer du vivant pour résoudre des problèmes de prise de décision ».
La théorie de la simplexite Alain Berthoz XE "Alain Berthoz"
Membre de lAcadémie des sciences, lauteur de La théorie de la simplexité XE "simplexité (théorie)" , paru aux éditions Odile Jacob, Alain Berthoz XE "Alain Berthoz" est professeur au Collège de France et directeur adjoint du Laboratoire de physiologie de la perception et de laction (LPPA, CNRS/Collège de France).
Deux principes issus de cette théorie sont à appliquer à la gouvernance du SI XE "gouvernance:du système dinformation" :
les décisions importantes se font sur un petit nombre de paramètres ;
il faut pouvoir regarder le local et le global et avoir la capacité de passer dun point de vue à lautre pour pouvoir se diriger efficacement et éviter les impasses ou points de blocage.
Comment ça marche ?
Le chiffre 7, un chiffre magique ou une limite humaine ?
Pourquoi ne pouvons-nous décider que sur un nombre restreint de paramètres ?
On connaît limportance du chiffre sept dans lhistoire humaine, quil sagisse de détailler les vertus, les péchés, les arts, les merveilles, les catastrophes et plaies diverses
Ce chiffre semble marquer les esprits.
Pourquoi cela ? La raison quen donne les psychologues semble fort simple. Ils affirment que lhomme ne peut avoir une perception globale dun ensemble dès quil comporte plus de sept éléments. Nos capacités à établir des bijectionsspontanées auraient trouvé là leur limite. Dès lors, nous avons besoin de mécanismes, de règles ou dinstruments pour passer de linfini au fini et réciproquement pour voir, analyser, agir dans le monde qui nous entoure et prendre des décisions.
Par exemple, en mathématiques, la récurrence est un de ces mécanismes qui permet de passer de linfini au fini.
Henri Poincaré XE "Henri Poincaré" , dans La science et lhypothèse, pour en justifier le raisonnement, écrivit : « Un joueur déchecs peut combiner quatre coups, cinq coup davance, mais si extraordinaire quon le suppose, il nen préparera jamais quun nombre fini ; sil applique ses facultés à larithmétique, il ne pourra en apercevoir les vérités générales dune seule intuition directe ; pour parvenir au plus petit théorème, il ne pourra saffranchir de laide du raisonnement par récurrence parce que cest un instrument qui permet de passer du fini à linfini. Cet instrument est toujours utile, puisque, nous faisant franchir dun bond autant détapes que nous le voulons, il nous dispense de vérifications longues, fastidieuses et monotones qui deviendraient rapidement impraticables. »
En réalité, les décisions stratégiques se font sur la base de très peu dinformations, dautant plus quand elles doivent être rapides. Comme le souligne Alain Berthoz : « En effet, alors que le cerveau peut traiter un très grand nombre dinformations en parallèle cest une des propriétés de la vision les parties frontale et préfrontale du cerveau impliquées dans les mécanismes de décision, darbitrage, ne peuvent traiter que très peu dinformations simultanément, en fait souvent une seule ». Doù lobjectif dun bon processus de décision XE "processus:de décision" darriver à la simplification nécessaire à la prise de décision.
Le processus de décision : des règles pour passer de la vue locale à la vue globale
Compte tenu des capacités humaines, dès que nous voulons extrapoler ou prendre des décisions sur un périmètre complexe au-delà de nos sens, nous devons trouver des règles de passage de ce périmètre au fini, et réciproquement, cest-à-dire nous affranchir de nos propres limites. Il sagit de passer dun point de vue local (autrement dit « egocentré XE "egocentré (point de vue)" ») à un autre plus global (qui implique un point de vue subjectif de survol, « allocentré XE "allocentré (point de vue)" ») que nous ne pouvons directement appréhender avec nos sens physiques.
Pour Alain Berthoz, « décider implique de choisir les informations du monde pertinentes par rapport aux buts de laction ». Cest ce qui est sous-jacent au deuxième principe de la simplexité XE "simplexité (théorie)" , celui de la spécialisation et de la sélection. En retour, « le prix à payer est que nous nous privons dun grand nombre dinformations. La sélection réduit le nombre de solutions disponible. Dans un tel contexte, avoir plusieurs évaluations dune même variable pour pallier le risque derreur est du plus grand intérêt ». Cest le principe de la coopération et de la redondance quon peut traduire par la capacité à « changer de point de vue ».
Alain Berthoz illustre cette capacité par lexemple dun trajet dans une ville du point de vue du marcheur ou du point de vue global cartographique : « Ces deux points de vue sont complémentaires et composent une forme de simplexité. Par le détour de deux perspectives et la capacité de travailler avec les deux en parallèle ou simultanément, nous pouvons simplifier notre déambulation. [
] Disons ici que cest la capacité de changer de point de vue qui nous permet de prendre des décisions ».
Pour changer de point de vue et disposer de cette vision globale, nous avons besoin de règles, de référentiels et dinstruments « simplexes » pour projeter quelque chose dinfini en termes dinformation en un espace de représentation fini. Pour comprendre larchitecture de lexistant ou la globalité des systèmes dinformation, cest là où se joue la valeur des référentiels et des cartographies (voir chapitre 9, p.206).
En ce qui concerne laspect gouvernance des systèmes dinformation, en croisant les vues, on obtient une « vision 3D » (ou 360° XE "vue 360°:du SI" ) au plus proche de notre façon de nous diriger au réel, pas une vision « plane ». Cette vision sétablit sur différents axes, à savoir un nombre plus important que celui de lIT Balanced Scorecard XE "IT Balanced Scorecard" , mais pour rester dans la limite humaine dune perception globale, nous nen proposerons que six, décrit dans la figure ci-dessous.
Vue360SI.png
Figure 6-1.
La vue « 360° » du SI
Chacun des axes se subdivise lui-même en « sous-axes », soit différents points de vue du sujet. Bien entendu, pour prendre des décisions, il ne sagit pas de détailler toutes les données de chaque axe et sous-axe. Il faut ramener lensemble au plus petit nombre dinformations pertinentes par rapport à lobjet de la décision, ou la question que lon se pose.
« La simplexité XE "simplexité (théorie)" est ce qui donne du sens à la simplification » selon Alain Berthoz; les solutions simplexes sont portées par une intention, un but, une fonction. Cest ce principe qui contient la direction à prendre.
Avant toute chose, il faut partager les points de vue entre acteurs (les parties prenantes de la gouvernance) pour en sortir les questions à se poser. Ce sont ces questions qui permettront de déterminer lintention et dorienter les types danalyses à lancer, les critères de recherche et de classement pour les diagnostics à établir.
Simplifier la décision à prendre ne consiste pas à simplifier les indicateurs de décisions via des consolidations plus ou moins pertinentes. Il sagit de rendre le choix plus pertinent avec une méthode de construction des indicateurs qui soit en lien avec lintention de départ. Lapproche pour collecter les bonnes informations et choisir les bons indicateurs par rapport aux questions posées, peut sinspirer de différents moyens. On peut, par exemple, adapter une approche qui existe déjà dans la qualité logicielle XE "qualité logicielle" . Il sagit de lapproche « Goal Question Metrics XE "GQM (Goal Question Metrics)" », où il faut poser dabord la question en fonction de lobjectif pour savoir les métriques que lon souhaite utiliser.
On peut létendre aux questions de la gouvernance et avec lapproche par « axes », affiner la question selon les différents axes choisis. Ainsi, à la question « Mon système dinformation est-il agile, peut-il réagir rapidement aux besoins métier ? », il faudra étudier le problème sous différents angles. Sous langle des compétences, on sinterrogera sur le fait davoir ou non les bonnes compétences, sur la capacité à les attirer, etc. Sous langle marketing, on sinterrogera sur le niveau découte de son marché, sur les opportunités technologiques éventuelles non utilisées qui pourraient simplifier lusage des solutions, autonomiser les métiers, etc. Langle architecture pourra réagir en sinterrogeant sur la possibilité dutiliser ces nouvelles solutions, si elles sont interopérables avec larchitecture existante, etc.
Sous langle architecture, lagilité XE "agilité" peut recouvrir plusieurs axes dinterrogation, notamment celui de savoir si les applications spécifiques héritées du passé ont, au niveau du code, une architecture qui permette de faire évoluer relativement facilement le code, ou si ce dernier est contraint par une structure lourde, avec des programmes obèses ayant de nombreuses lignes de code et peu de modularisation, etc. (voir la figure 6-2).
GQM.png
Figure 6-2.
Exemple dapproche « diagnostic et métriques » guidée par les enjeux et les questions
La remontée des métriques permettra de se concentrer sur les quelques axes « de problèmes/contraintes » que fera ressortir le diagnostic et entraînera sans doute dautres questions danalyse. Existe-t-il des solutions darchitecture pour modulariser le code ? à quel coût ? en avons-nous les compétences ?
Cest une approche par allers-retours successif entre choix des questions, choix des métriques, choix des axes de diagnostic. Il sagit de trier par sélection les problèmes et darriver par fusion/dichotomie à une proposition de décision simple. Cest la méthode connue sous le nom de « divide and conquer XE "divide and conquer (méthode)" ». Nous sommes bien dans une logique de récurrence, pour passer du fini à linfini en considérant la formulation suivante : « Si vous savez passer de létape n à létape n + 1 et que vous savez démarrer, vous pouvez traiter toutes les étapes ».
Lapproche inspirée de la méthode « GQM XE "GQM (Goal Question Metrics)" » (Goal Question Metrics) est un des moyens de simplification du processus de décision XE "processus:de décision" qui vise à garder une vue globale, à 360°, du SI pour « avoir plusieurs évaluations dune même variable pour pallier le risque derreur », si on se réfère à nouveau à la théorie de la simplexité dAlain Berthoz
Il en existe dautres, notamment en suivant le « principe de Pareto » (voir encadré, p.152) avec une logique danalyse par la valeur.
Lanalyse de la valeur
Lanalyse par la valeur est davantage une approche de pensée quune méthode car, en réalité, il existe plusieurs méthodes sous ce vocable et différents outils, comme nous allons lexpliquer ci-après.
Le champ de lanalyse de la valeur XE "analyse de la valeur" est vaste, même sil tire son origine dune recherche de meilleure définition des besoins, en se concentrant sur la fonction dun produit (le « à quoi ça sert ? »), avec la logique dobtenir la meilleure couverture des besoins au meilleur coût.
Dès lors, il est assez naturel que lapproche analyse de la valeur se soit dabord répandue dans le domaine de lanalyse fonctionnelle pour faciliter lexpression de besoins et la réalisation de cahiers des charges fonctionnels.
Toutefois, limportant dans lanalyse de la valeur est la remise en question initiale, le principe de ramener tout choix (décision, fonction, outils, méthodes, priorités, etc.) à lintention, le but, la fonction, afin de pouvoir trouver les réponses en solutions optimales. Ce ne sont pas les moyens utilisés qui doivent contraindre la réflexion sur la performance et la compétitivité dune entreprise, dun produit, dun processus.
Sinon, si ces derniers ne fonctionnent pas assez bien, ou se basent sur des ressources rares, on va chercher à régler le problème au niveau des moyens quon maîtrise habituellement, alors quil faut peut-être tout simplement faire autrement. Doù limportance de structurer méthodiquement lapproche, de conduire le changement.
Un peu dhistoire
Une naissance valeureuse
Lanalyse de la valeur (AV) est une méthode née aux États-Unis juste à la fin de la Seconde Guerre mondiale grâce aux efforts de Lawrence Delos Miles XE "Lawrence Delos Miles" , ingénieur à la General Electric qui devait résoudre un problème de pénurie de matériaux nobles. Miles découvre alors que ce qui compte dans un produit, cest la fonction quil exerce quelle que soit la solution utilisée pour satisfaire cette fonction.
À partir de ce constat il cherche des solutions créatives qui permettent de réaliser des économies et répondent uniquement au besoin pour lequel le produit existe.
LAFNOR la définit ainsi : « Lanalyse de la valeur est une méthode de compétitivité XE "compétitivité" , organisée et créative, visant à la satisfaction de lutilisateur, par une démarche spécifique de conception, à la fois fonctionnelle, économique et pluridisciplinaire. La valeur dun produit est une grandeur qui croît lorsque la satisfaction du besoin augmente et/ou que le coût du produit diminue. La valeur peut donc être considérée comme le rapport entre laptitude aux fonctions divisée par le coût des solutions. »
En France, plusieurs normes sont en vigueur concernant lanalyse de la valeur XE "analyse de la valeur" , on peut citer :
NF X 50-153 : Analyse de la valeur Recommandations pour sa mise en uvre Fascicule de documentation mai 1985 ;
NF X 50-151 : Analyse de la valeur, Analyse fonctionnelle Expression fonctionnelle du besoin et cahier des charges fonctionnel 1991, dernière mise à jour en septembre 2007.
NF EN 1325-1 : Vocabulaire du management de la valeur, de lanalyse de la valeur et de lanalyse fonctionnelle Partie 1 : analyse de la valeur XE "analyse de la valeur" et analyse fonctionnelle novembre 1996.
NF X 50-100 : Analyse fonctionnelle Caractéristiques fondamentales 1996.
NF X 50-152 : Management par la valeur Caractéristiques fondamentales de lanalyse de la valeur septembre 2007.
Le principe de lanalyse par la valeur étant posé en ces termes, son champ dapplication est assez vaste, non réduit à un produit ou à un projet et couvre, sans être exhaustif :
La gouvernance XE "gouvernance:de lentreprise" de lentreprise, cest-à-dire la facilitation de la prise de décisions en se posant toujours la question du bénéfice en termes de valeur (et non uniquement en termes financiers) ramené à loptimisation des coûts, en particulier pour les décisions financières (budgets de fonctionnement, investissements, économies). On évite ainsi les approches de réduction de coûts XE "coûts:réduction de" qui conduisent à la destruction de valeur. Le budget à base zéro, ou cost killing, sont deux outils disponibles pour sinterroger sur la réduction efficace des coûts.
Lanalyse fonctionnelle XE "analyse fonctionnelle" : champ historique de lanalyse de la valeur, elle décline le concept dans les méthodes dexpression des besoins XE "expression des besoins" . Elle permet dexpliciter les besoins tout en cadrant les objectifs et les contraintes Cest un outil méthodologique qui permet didentifier puis dexprimer sous forme dexigences XE "exigences" lensemble des besoins, attentes et contraintes relatifs à un projet.
La conception dun produit : le Design To Cost XE "Design To Cost" (ou CCO XE "CCO (Conception à coût objectif)" Conception à coût objectif) consiste à concevoir un produit en remettant en cause dès sa conception les matériaux éventuellement utilisés traditionnellement, pour satisfaire la fonction le plus économiquement possible.
La conduite du changement XE "conduite du changement" : on ne change pas pour changer mais parce que cela devient nécessaire pour préserver la valeur, ou en créer. Il est important, avant de lancer toute transformation, den déterminer lintérêt, de revenir à lobjectif de création de valeur pour lentreprise, en ne se trompant pas sur ce que « proposition de valeur XE "proposition de valeur (de lentreprise)" » veut dire (voir p.139).
Comment ça marche ?
« Tueurs » de coûts XE "coûts:tuer les"
Des actions ou des décisions « tueuses de coûts » peuvent en fait savérer de fausses économies in fine destructrices de valeur. On peut en citer quelques unes :
bloquer ou reporter les investissements de fond matériel ou logiciels : les systèmes atteindront tôt ou tard un niveau dobsolescence tel quil faudra effectuer les investissements dans lurgence, avec des coûts très probablement supérieurs à ceux initiaux en préventif ;
choisir comme prestataire le moins disant financier un ou dimensionner au plus juste les plannings de projets : détérioration de la qualité, surcoûts et dérives des projets ;
se défausser de son informatique et/ou des ressources rares : plus de proposition de valeur du système dinformation ;
externaliser pour réduire les coûts sans aucune étude préalable de létat des systèmes (voire remise à niveau) ou des niveaux de services internes : augmentation des coûts, réduction de la qualité ;
bloquer les budgets dinvestissements/dinnovation : plus de proposition de valeur du système dinformation.
Il faut donc être méthodique quand on « chasse » les coûts, sauf à vouloir scier la branche sur laquelle on est assis. Lanalyse de la valeur XE "analyse de la valeur" est une approche qui prend tout son sens en ce domaine, notamment avec le budget base zéro. Ce dernier nhésite pas à remettre en cause la légitimité des dépenses en remontant aux racines. Le budget de chaque activité est remis à zéro chaque année et lintérêt (création de valeur) de toute dépense doit être démontré.
On change pour obtenir un gain, quantitatif en termes financiers, ou qualitatif (avec probablement des retombées financières indirectes) ou parce que cela est indispensable pour préserver les ressources et les compétences maîtrisées par lentreprise. Ces derniers sont en effet les éléments fondateurs de la valeur créée. On peut également changer en raison de facteurs exogènes liés à lenvironnement social et économique et aux contraintes de législation.
Quand il sagit de la décision de lentreprise, du groupe humain qui porte le projet de changement, cest toujours une question de valeur à préserver, à étendre, à créer, un gain étant attendu en ce sens. Il sagit dune création de valeur qui porte la « vue à 360° du SI XE "vue 360°:du SI" » sur les six axes définis précédemment :
axe financier : optimiser les ressources de fonctionnement (rationaliser les serveurs, par exemple) pour diminuer des coûts non justifié, augmenter le chiffre daffaires en distribuant grâce à un SI ouvert, des offres multicanal (mobile, PC
) ;
axe marketing (DSI): améliorer limage de marque de la DSI et diminuer les temps derrance des utilisateurs, améliorer loffre de services ;
axe architecture : améliorer lagilité de larchitecture pour améliorer la réactivité aux demandes dévolution ;
axe ressources humaines : améliorer la gestion des connaissances-clés en les formalisant pour les partager/transmettre, attirer les nouveaux talents ;
axe métier/affaires : améliorer limage de lentreprise par des offres nouvelles obtenues grâce au SI (e-business, par exemple) ;
axe sécurité : améliorer laccès au SI pour les utilisateurs nomades, tout en préservant la sécurité
Si lanalyse de la valeur se prête bien à analyser justement, et étayer les raisons de choix de solutions optimales, il faut également choisir au départ les sujets dattention de cette analyse (quels axes, quels sous-axes privilégier ?). Cest là quun instrument comme le principe de Pareto (selon la définition de Juran, voir encadré page suivante) est intéressant à plus dun titre. Ce principe permet darriver par fusion/dichotomie à une proposition de décision simple, qui peut être combinée à lapproche « GQM » telle que décrite précédemment.
Comment ça marche ?
La loi des 80/20 XE "loi des 80/20" \t "Voir loi de Pareto"
La loi de Pareto XE "loi de Pareto" connue sous le nom de loi des 80/20 est une proportion remarquable mise en évidence de façon empirique par Vilfredo Pareto (1848-1923). Elle sénonce de la manière suivante : « 80 % des effets sont générés par seulement 20 % des causes », ou inversement (loi des 20/80), « 20 % des causes génèrent 80 % des effets ».
Le principe de Pareto est attribué à Joseph Juran XE "Joseph Juran" , qualiticien, qui en a donné la définition suivante : « Le principe de Pareto est la méthode générale permettant de trier un quelconque agrégat en deux parties : les problèmes vitaux et les problèmes plus secondaires dans tous les cas, lapplication du principe de Pareto permet didentifier les propriétés des problèmes stratégiques et de les séparer des autres ». La méthode ABC XE "méthode ABC" , quon doit au même personnage, est une variante précisée ainsi : « Jai un peu exagéré en avançant que le principe de Pareto permet seulement de séparer les choses en deux parts. En réalité, il existe 3 parties. La troisième est un résidu qui prend place entre les composantes prioritaires et les composantes secondaires. Ce résidu peut être dénommé zone à risques (awkward-zone). Chaque élément de cette zone à risques nest pas assez important pour justifier un lourd investissement dans lanalyse, mais leur regroupement dépasse les capacités danalyse » (Juran, 1964).
Le diagramme de Pareto est une sorte de preuve par limage pour voir plus facilement où concentrer les efforts (exemple ci-dessous tiré de Wikipedia, avec des données hypothétiques sur les causes de retard au travail la ligne rouge est le cumul des valeurs en pourcentage. Ici les trois premières causes génèrent 80 % des effets).
800px-Pareto_fr.png
Figure 6-3
Exemple de diagramme de Pareto (source Wikipedia)
Quelques exemples de la loi de Pareto :
management : 80 % des problèmes peuvent se résoudre avec lanalyse stratégique de 20 % des causes ;
gestion de projet : 80 % daccomplissement dune mise au point nécessite 20 % de leffort ;
conception : les fonctionnalités les plus utilisées (80 % du temps) méritent le plus dattention, même si elles sont les plus banales, alors que celles qui sont peu utilisées (20 % du temps) devraient se satisfaire dun effort moindre ;
ergonomie : 20 % des possibilités offertes à lutilisateur sont utilisées 80 % du temps ;
analyse des coûts : 80 % des coûts sont laffaire de 20 % des postes.
La gestion du portefeuille applicatif
Contrôler ses biens logiciels
Nous avons vu précédemment combien les applications patrimoniales pesaient lourd dans la gestion dune DSI, et combien au final il y avait peu doutils pour aider à piloter les applications développées en spécifique en maintenance/production. En fait, le champ des outils et méthodes est relativement insatisfaisant sur deux aspects primordiaux : la gestion du portefeuille applicatif et la gestion du cycle de vie XE "cycle de vie:de lévolution" de lévolution des applications patrimoniales.
La « gestion du portefeuille dapplications XE "gestion du portefeuille dapplications" » nécessite a minima une visibilité sur létat des lieux du parc applicatif, et une réelle stratégie de maintenance incluant la maintenance préventive XE "maintenance:préventive" et la partie de maintenance perfective XE "maintenance:perfective" visant à lamélioration de larchitecture du système (exigences non fonctionnelles), souvent simplement oubliées ou délaissées faute de temps et de budget.
Définition
Les cinq types de maintenances
Maintenance corrective
Identifier et retirer les défauts
Corriger les anomalies réelles
Maintenance préventive
Identifier et corriger les fautes latentes
Systèmes avec des préoccupations de sécurité
Maintenance perfective
Améliorer la performance, la maintenabilité, la portabilité
Ajouter de nouvelles fonctionnalités
Maintenance adaptative
Adaptation à un nouvel environnement (ou une montée de version) (à savoir hardware, operating system, middleware XE "middleware" )
Maintenance durgence
Maintenance corrective non programmée
Les applications logicielles vieillissent et se complexifient au fil du temps, cest un fait. Comment définir leffort préventif et le bon ratio dinvestissement pour garder le contrôle de ses actifs logiciels ? Sans effort, la complexité du logiciel va augmenter et les coûts pour le maintenir vont augmenter en proportion tandis que la qualité perçue par les utilisateurs va chuter rapidement. Si, en revanche, un effort préventif est réalisé pour maîtriser la complexité, il est possible de maîtriser la complexité et de limiter la dégradation XE "dégradation:de la qualité" de la qualité perçue au cours du temps, comme indiqué dans la figure ci-dessous.
Maîtrisecomplexite.png
Figure 6-4.
Maîtrise de la complexité et conséquences sur la qualité et les coûts
Il faut une maintenance préventive XE "maintenance:préventive" pour garder le contrôle et éviter non seulement laugmentation des coûts mais aussi les risques de dégradation de la qualité perçue et les risques financier, juridique, et dimage de mises en production qui sont liés à une dégradation réelle de la qualité du code. Mais il faut également que cette maintenance préventive soit économiquement viable.
En effet, à coûts et délais plafonnés, on ne peut pas, dune part, avoir une qualification à couverture exhaustive du code XE "couverture de code" pour y rechercher toutes les « fautes latentes » (qui produiront tôt ou tard des anomalies et des demandes de correction en production), et dautre part, réaliser toutes les opérations doptimisation de performance, de portabilité ou de maintenabilité quon pourrait souhaiter. Il y a, comme le montre la figure suivante, un point déquilibre à trouver pour que la maintenance préventive soit économiquement viable au regard de lobjectif poursuivi.
Budgetpreventif.png
Figure 6-5.
Léquilibre du budget préventif : ne pas dépenser ni trop ni trop peu au regard du risque
Il faut donc établir le budget de maintenance préventive XE "maintenance:préventive" , généralement acceptable, et axer les efforts sur les vérifications indispensables à conduire pour limiter les risques selon une approche des risques et de la valeur des applications.
Cest bien là dailleurs que réside une grande part de lutilité du portefeuille applicatif XE "portefeuille applicatif" . Il sert à garder le contrôle de ses actifs logiciels XE "contrôle des actifs logiciels" , mais aussi à en surveiller la valeur et à faire croître la valeur globale.
Il sagit encore une fois de se poser les bonnes questions et daborder les réponses à la fois par des angles de vues complémentaires, dans une approche multidimensionnelle (vue à 360° du SI XE "vue 360°:du SI" ), et par lanalyse de la valeur pour toute solution proposée.
Évaluer la valeur des applications
Ainsi doit-on sinterroger sur une application qui ne donne plus satisfaction en termes de fonctionnalités et dont le coût en maintenance croît : quelle valeur a-t-elle pour lentreprise ? Est-ce une valeur purement utilitaire ? A-t-elle de limportance pour les métiers tout en restant relativement standard ? Est-ce que cette application est directement liée au chiffre daffaires, aux performances, à la productivité, à la capacité dinnovation ? Si elle est utilitaire, peut-on lobtenir autrement en consommant moins de ressources, de temps et deffort ? On peut envisager dans certains cas de remplacer cette application par un service en mode Saas (Software As A service) si léquation valeur est respectée, le tout étant de pouvoir le déterminer en positionnant lapplication sur les axes danalyse, comme dans lexemple de la figure ci-dessous.
PositionnementAppli.png
Figure 6-6.
Positionnement de la « valeur » des applications sur les axes danalyse
Dans lillustration ci-dessus, on peut sinterroger sur la nécessité de maintenir lapplication B en interne. Apparemment, il sagit dune application de back office/support, dont larchitecture est insuffisamment robuste et/ou ouverte et évolutive, la sécurité nest pas satisfaisante et elle consomme trop de ressources humaines pour un service somme toute moyen à un coût excessif. Doit-on lexternaliser en « tierce maintenance applicative XE "tierce maintenance applicative" », cest-à-dire confier la maintenance à un tiers professionnel ? Cela coûtera sans doute plus cher que lapport puisquil faudra de toute façon une remise à niveau avant lexternalisation XE "externalisation" . Peut-on la remplacer en mode Saas ? Si loffre existe pour une couverture des fonctions optimales, cest sans doute une des meilleures solutions.
Lapplication A et lapplication C présentent dautres cas de figure. Lapplication C est une application dans la droite ligne de la stratégie marketing XE "stratégie marketing (du SI)" de la DSI XE "marketing de la DSI" , elle est développée et maintenue par les bonnes ressources et sans doute dispose-t-elle des niveaux de services optimum pour les attentes des utilisateurs. Linvestissement est clairement nécessaire mais les coûts semblent un peu trop élevés, quen est-il réellement ?
Lapplication A est sans doute critique pour le métier, voire stratégique, et les coûts sont optimisés pour la satisfaction dun ensemble optimum de besoins. Cependant, le ratio sur laxe ressources humaines est insatisfaisant. Y-a-t-il un bon dimensionnement des ressources ? Lapplication requiert-elle trop de ressources rares ou y-a-t-il un risque de perte de connaissances XE "perte de connaissance" et dexpertises (départ de personnes expertes pour retraite ou démotivation) ?
Comprendre le cycle de vie des évolutions
Une fois lanalyse du portefeuille applicatif effectuée et les décisions prises (investissement pour un effort de maintenance préventive plus ou moins grand, réarchitecture, remplacement par des services en mode abonnement, redimensionnement des ressources ou redocumentation, etc.), encore faut-il gérer le cycle de vie des évolutions.
Il sagit ici de mettre en place lensemble des processus, outils et méthodes qui permettent de gérer de manière efficace (en termes de « valeur », au sens qualité du résultat produit en réponse à la demande versus coût de lévolution), lévolution des applications patrimoniales. Cest un besoin qui va bien au-delà de la gestion des exigences et des demandes de changements et qui doit progressivement conduire à la mise en place des meilleures pratiques, ou à lévolution des pratiques, dans toutes les étapes du cycle de vie XE "cycle de vie:de lévolution" telles que décrites dans la figure ci-dessous, avec des points-clés de décision qui sont à gérer au niveau du portefeuille applicatif, par un comité stratégique.
LLM.png
Figure 6-7.
Cycle de vie de lévolution des applications patrimoniales XE "applications patrimoniales"
Pour autant, la gestion du changement est une composante-clé dans ce cycle dévolution car, nous lavons vu, des demandes de changement XE "demandes de changement" non gérées dans le cycle de vie dun projet déstabilisent toute la construction et mettent en danger latteinte des résultats. Dans le cycle de la maintenance, si elles sont faites hâtivement ou sans tenir compte des impacts sur lexistant, elles conduisent à des défauts de qualité, des risques derreur en production et des incohérences globales.
Il faut donc, pour toute demande de changement, avoir un dispositif qui évalue la nature et la complexité de la modification demandée, la criticité fonctionnelle et les risques dimpact (sur les composants du système existants). Ce sont des paramètres indispensables à la décision de réalisation et, le cas échéant, à la planification de la réalisation, afin de dimensionner en conséquence les ressources et les tests nécessaires.
Trois aspects majeurs liés à la gestion des changements sont problématiques aujourdhui, et nécessitent encore des évolutions des méthodes et outils pour optimiser leur traitement. Il sagit de lanalyse dimpact XE "analyse dimpact" , loptimisation des tests et le calcul des unités duvre XE "unités duvre" pour estimer le temps de réalisation et dintégration dune modification.
Par manque de documentation, de connaissance des applications et de dispositif daide à lanalyse, le temps danalyse dimpact pour les applications existantes est long et le résultat souvent incomplet. En réaction, particulièrement quand la demande dévolution est faite sous pression, les tests sont bâclés et ne couvrent pas tous les cas quils devraient. Cela est également le cas dans un projet où plus une modification demandée sera proche de la fin du parcours, plus son impact pourra être significatif, et plus il pèsera sur les délais, coûts et qualité du projet.
À un certain stade, les projets doivent faire passer les demandes de changement vers une version suivante. Si une certaine flexibilité est possible jusquau stade des spécifications détaillée, une fois les développements lancés, seules les modifications critiques doivent être prises en compte, et une fois lapplication stabilisée, les demandes doivent rentrer dans un cycle dévolution des versions de lapplication.
En maintenance, toute solution qui permet de fournir une aide automatisée à lanalyse des dépendances entre objets et composants de milliers de lignes de code est bien sûr à considérer de près.
Quant aux tests, comme il sagit en grande partie de tests de non-régression, la mise en place dun référentiel XE "référentiels:de tests" de cas de tests sur la durée de vie dune application est une bonne pratique à ne pas négliger.
La problématique des unités duvre est autre, nous y reviendrons au chapitre 9, p.230.
Partie 3
Approches tactiques pour la modernisation
Les parties 1 et 2 se sont attachées à évoquer les enjeux, risques, défis et contraintes dévolution du SI, aussi bien à un niveau exogène, cest-à-dire au niveau de lentreprise du fait de lévolution de lenvironnement économique et social, quau niveau endogène, cest-à-dire au sein des DSI, dans lévolution nécessaire des organisations et des pratiques de pilotage. Dans cette partie, nous allons aborder les différentes solutions tactiques de modernisation qui permettent de rénover un patrimoine et de le faire évoluer pour une meilleure proposition de valeur.
Le chapitre 7 remet toutefois en perspective ces solutions, pour rappeler quaucune na de sens sans une vision globale des objectifs dévolution.
Chapitre 7
À chaque solution, un contexte
Lévolution ne tire pas ses nouveautés du néant. Elle travaille sur ce qui existe déjà, soit quelle transforme un système ancien pour lui donner une fonction nouvelle, soit quelle combine plusieurs systèmes pour en échafauder un autre plus complexe.
François Jacob, Le jeu des possibles
La gouvernance de lhéritage
Toute tentative de modernisation de SI est inefficace dans la durée sans la mise en place effective dun modèle de gouvernance XE "gouvernance:du système dinformation" de linformatique.
Il ne faut pas oublier que le système dinformation doit permettre à lorganisation datteindre ses objectifs. Dès lors, toute démarche qui se fonde sur la réutilisation et lamélioration des actifs logiciels existants doit être faite dans le but datteindre les objectifs corporatifs.
Quelles que soient les solutions de modernisation envisageables, un premier acte est détablir un diagnostic du patrimoine applicatif approprié aux enjeux, car toute demande dévolution doit être sous-tendue par un alignement avec la stratégie de lentreprise. La démarche doit être supportée dans la durée par la mise en uvre effective dune gouvernance de linformatique afin de :
valoriser le patrimoine applicatif existant et le rendre plus cohérent, plus performant et plus agile ;
définir les schémas dévolution du SI et le rendre durablement plus souple ;
faciliter une rénovation progressive XE "rénovation progressive" tout en inscrivant les nouveaux développements dans un ensemble cohérent.
Cette inscription dune démarche dans la durée se justifie dautant plus que :
la stratégie pourrait consister dabord à apporter une réponse tactique à un besoin court terme, avant de mettre en uvre en parallèle une vision plus long terme, éventuellement rendue possible grâce aux retours sur investissement de la première étape (exemple du service à la clientèle : doit-on soutenir le service à la clientèle dans une vision long terme ou répliquer rapidement à une attaque de la compétition ?) ;
les systèmes développés aujourdhui seront lhéritage, les legacies XE "legacies" , de demain. La modernisation va de pair avec une démarche durbanisation ;
le changement est inévitable. Les systèmes dinformation doivent le supporter, voire le précéder, et non pas devenir un frein.
Une stratégie de modernisation doit dès lors pouvoir sappuyer sur une démarche durbanisation et utiliser des modèles de cas dusage métier par type de solutions de modernisation, comme outils de décision et de pilotage. Elle pourra alors les décliner au regard des enjeux de lentreprise dune part, et dun diagnostic de létat des systèmes, dautre part, en considérant les degrés dobsolescence et dévolutivité. Le diagnostic doit pouvoir être établi sur la base de remontées de métriques et de critères de décision factuels.
Cest pourquoi les approches que nous développons, même si elles illustrent des orientations différentes, ne sont pas exclusives : au contraire, les considérer séparément conduirait à en limiter, voire annuler les effets. Il faut quelles sinscrivent dans cette gouvernance de lhéritage, sans laquelle la gouvernance informatique se retrouve déséquilibrée.
Lévolution préventive
La modernisation est un facteur dinfluence sur le succès des stratégies dentreprise.
Bon nombre de directions générales ont pris conscience que linformatique intervenait de manière importante dans le succès de la stratégie de leur entreprise. Mais pour que cette dernière soit créatrice de valeur, il est indispensable de passer outre les coûts négatifs que les applications existantes génèrent.
Coûts induits en matière dopportunités perdues dinnovation, du fait du budget trop élevé sur la maintenance, coûts induits en matière defficacité, les systèmes existants devenus trop complexes nétant plus capables dévoluer pro-activement ce qui fait que toute modification dimportance, métier ou technique, est traitée en mode de crise. Les maux sont partagés par les entreprises et la longue liste devient une litanie : manque de documentation, difficultés dévolutions, difficulté dintégration, manque dinteropérabilité, coût total de possession, risques dinterruption de services induits par lobsolescence des plates-formes, etc.
Le schéma directeur du plan de modernisation sinscrit dans la gouvernance informatique. Or, pour avancer plus loin, il faut savoir où on veut mener les systèmes existants, et pour cela, il faut un plan et des engagements stratégiques partagés qui alignent le métier et le système dinformation.
Certes, cette logique de bon sens relève dune approche gouvernance XE "gouvernance:informatique" mais selon une étude de lIT Governance Institute (ITGI) « le thème de la gouvernance informatique nest pas encore rentré totalement dans les murs des dirigeants. 24 % des entreprises interrogées seulement déclarent que cest à leur plus haut niveau que le PDG de lentreprise a en charge cette gouvernance informatique ». Or, sans implication de la direction, il est peu probable de réussir à développer cette nécessaire vision partagée entre métier et technologie.
La modernisation peut avoir à adresser les dimensions complexes de réels défis architecturaux. Elle doit mettre en place des processus nouveaux, ne serait-ce que pour évaluer les architectures existantes, capturer puis réutiliser et migrer les artefacts logiciels existants, ou pour identifier et évaluer les services Web qui peuvent venir en remplacement danciennes applications. À ces processus peuvent correspondre des rôles et des responsabilités nouvelles, tels ceux du marketing des services SI qui vont identifier les ressources disponibles et les développements doffres envisageables pour répondre au mieux aux attentes et besoins des clients de la DSI.
Il sagit didentifier la meilleure stratégie pour couvrir à la fois des besoins court terme et des besoins métier long terme, et danticiper les actions pour maintenir a minima, voire augmenter, la valeur des biens logiciels de lentreprise.
Avec une logique danalyse de la valeur XE "analyse de la valeur" du portefeuille dapplications, la modernisation peut remettre radicalement en cause lexistant. Cest la condition pour obtenir les objectifs de valeur dune telle entreprise : diminution des coûts dexploitation et de maintenance, meilleure flexibilité et agilité, réduction du temps de mise sur le marché des nouvelles offres, et enfin possibilité de faire de linformatique une valeur différenciatrice capable de créer un avantage compétitif.
Sans cette gouvernance appliquée à la modernisation, cette dernière ne restera que le mouton à cinq pattes de lévolution, développé dans le chapitre suivant : remplacement, réécriture, ré-architecture, rationalisation/industrialisation et
réaction court terme !
Chapitre 8
Tactiques orientées solutions
Dans la vie, il ny a pas de solutions. Il y a des forces en marche, les solutions suivent.
Antoine de Saint-Exupéry
Sil y a beaucoup de choix possibles en matière de rénovation de patrimoines, en réalité, il nexiste quune alternative stratégique avant le choix tactique : faire une croix sur lexistant (car celui-ci ne correspond vraiment plus aux besoins ou est beaucoup trop coûteux pour des fonctions standard), ou pas. Cette alternative nécessite au préalable davoir connaissance de la valeur de ses applications ou de sêtre mis en mesure de lanalyser correctement.
Ensuite, dans le premier cas, il existe plusieurs moyens de procéder, selon ladhérence au métier de lentreprise ou non :
si les fonctions recherchées sont relativement standard et le coût des ressources pour les maintenir/développer trop lourd en interne, il faudra chercher un service équivalent, progiciel à installer ou abonnement à une plate-forme applicative ;
si lapplication peut réellement être un facteur de distinction pour lentreprise, mais quil faut radicalement en changer la conception et larchitecture, on peut songer à réécrire. Cette réécriture équivaut à un remplacement.
Dans le second cas, celle de la rénovation progressive XE "rénovation progressive" dune application ayant de la valeur aux yeux de lentreprise, il existe plusieurs façons de procéder. Nous traiterons ici des techniques de réingénierie logicielle pour remettre en état un existant spécifique ayant plusieurs défauts de vieillesse.
Quand choisir dabandonner, de réutiliser ou de rénover lexistant ?
De nombreuses sociétés de services proposent des « solutions » de modernisation. Pour la plupart, ces solutions sont soit des approches projets pour des besoins ponctuels très spécifiques, dentreprises en difficulté avec une application trop coûteuse en maintenance, difficile à faire évoluer, soit pour faire face à un problème dobsolescence avéré dun de leurs composants matériel ou logiciel. Cest souvent dans lurgence que la recherche de solutions seffectue dans le second cas et dans le premier, lapproche est essentiellement orientée coûts. Dans les deux cas, il sagit dapproches tactiques.
Quand on évoque les « stratégies » de modernisation possibles, les acteurs dans le domaine citent en général les « quatre R », à savoir remplacement, réécriture, ré-architecture, replatforming ou Application extension, Application replacement, Application and platform migration, Application re-development.
Il est plus simple de résumer ces quatre R dans lalternative « faire une croix sur lexistant » ou utiliser la réingénierie logicielle, cest-à-dire la mise en place de techniques pour améliorer un développement spécifique, en augmenter la qualité et lévolutivité.
Définition
Les quatre R de la modernisation
Remplacement : il sagit décarter la voie du développement en spécifique pour prendre une solution standard.
Ré-architecture : il sagit de restructurer le code pour quil soit plus facile à maintenir, plus lisible, plus évolutif et réponde mieux au cadre architectural de lentreprise. Si cest une meilleure productivité XE "productivité" en maintenance qui est attendue, elle se mesurera en diminution de charges ou en meilleure réactivité aux demandes de changement. Si cest une meilleure agilité du système dinformation qui est attendue, on devra la mesurer par des indicateurs métier (différence en rapidité de traitement de dossiers pour prendre en compte plus de demandes clients ou rapidité de mise en ligne de nouvelles offres, des prises de commandes plus rapides sur des cycles de ventes plus courts, etc.).
Replatforming (changement de plates-formes) : il sagit de migrer dune solution technique à une autre. En général, il sagit de remplacer un serveur par un autre, ce qui saccompagne souvent dune conversion de base de données et éventuellement de langages. En migrant des mainframes vers le client serveur, on jouera en priorité sur la réduction du TCO XE "TCO (Total Cost of Ownership)" (Coût total de possession). Elle se calculera sur léconomie réalisée sur le poste maintenance et exploitation, principalement au niveau du coût annuel des licences logicielles.
Réécriture : lapplication ne satisfaisant plus aux besoins qui restent très spécifiques à lentreprise, on décide de la réécrire dans un environnement de développements et des concepts architecturaux nouveaux, accordant plus de flexibilité et de pérennité. Il sagit souvent dun investissement qui prend le risque de linnovation.
Faire une croix sur lexistant
Remplacer ou réécrire reviennent au même constat : lapplication telle quelle nest pas la bonne réponse au besoin, elle ne vaut pas les ressources quelle consomme. Il faut donc labandonner car tôt ou tard, elle coûtera bien plus que sa valeur.
Il se peut même quune troisième option requiert labandon dune application existante : la mise en uvre dune nouvelle application qui couvre le champ de lexistant.
Derrière ce constat, il est impératif de bien comprendre la couverture fonctionnelle de lapplication et davoir analysé les processus quelle supporte, les données quelle manipule. Cette connaissance servira à faire une « analyse des écarts XE "analyse des écarts" » entre les besoins et lexistant pour déterminer jusquà quel point ce dernier ne correspond plus.
En cas de satisfaction des besoins par lexistant, la redocumentation XE "redocumentation" sera nécessaire pour décider dune rénovation ou dun remplacement par un service équivalent, facilement accessible et moins coûteux. Sinon, il faudra réécrire le cas échéant les besoins « modifiés ».
Dans tous les cas, il faudra faire une seconde analyse des écarts XE "analyse des écarts" entre ces besoins réécrits et les progiciels XE "progiciels" du marché.
En général, on estime que si les progiciels ne couvrent pas 80 % des besoins principaux, ils vont entraîner trop de développements spécifiques additionnels pour justifier du bénéfice de la standardisation. Encore faut-il bien analyser la règle des 80-20 (voir la loi de Pareto, p.152). Cest une analyse de la valeur qui sous-tend lapproche.
Il ne faut envisager la réécriture XE "réécriture" que dans le cas de besoins radicalement modifiés et dune inadéquation très importante entre les nouveaux besoins et le niveau de satisfaction en réponse apporté par la solution spécifique actuelle ou les progiciels du marché.
Car outre le fait dignorer la capitalisation et la valorisation du patrimoine applicatif XE "patrimoine applicatif" existant, les risques de réécriture ex nihilo sont importants. En effet, ces derniers sont de facto comparables à des projets de développement classiques, avec les risques de dépassement souvent cités dans des études. Mais il y a plus. Une réécriture complète dapplications complexes et volumineuses seffectue sur une échelle de temps importante, ce sont souvent des projets pharaoniques avec un délai supérieur à trois ans. À cela, il faut ajouter la gestion de nouvelles compétences, car dans une réécriture complète, larchitecture, les langages, les outils logiciels utilisés ne sont plus les mêmes.
Les exemples ne manquent pas, avec souvent des abandons devant la complexité de la réécriture. Aux débuts des années 2000, par exemple, une banque européenne a abandonné son projet de réécriture au bout de cinq ans après avoir investi 150 millions deuros. Une institution publique en Scandinavie avait amorcé une réécriture en Java XE "Java" dune application en Cobol XE "Cobol (Common Business Oriented Language)" sur vieux systèmes avec une équipe de plus de 150 personnes sur trois ans. Au bout de ce délai, en 2007, seuls 20 % des composants logiciels étaient réécrits, avec de surcroît une mauvaise qualité des livrables.
Lerreur, dans ces exemples, a été de réécrire des applications sans modification réelle de la couverture fonctionnelle, juste pour en disposer sur des infrastructures plus récentes.
Or, dès lors quil ny a pas de changement fonctionnel majeur, on peut estimer un ratio de coût a minima de 2 à 3 entre une migration dinfrastructure et la réécriture.
Avant de faire une croix sur un existant, il faut donc impérativement étudier la couverture des besoins quil propose. Une étude documentée de lexistant est donc un préalable indispensable à tout projet de refonte.
Réutiliser des services de surface
Quant on en vient aux stratégies de modernisation dun existant obèse résidant sur des mainframes, de nombreuses études démontrent que la réécriture XE "réécriture" des applications est rarement envisageable, et le remplacement par des progiciels pas forcément adapté à des spécifiques vieux de trente ans et plus.
La « réutilisation XE "réutilisation" » est souvent le choix de la raison, et nombreux sont les acteurs qui viennent sur ce marché proposer des solutions pour intégrer les services métiers dans les mainframes. Toutefois, les variantes sont nombreuses et toutes ne satisfont pas à la même ambition. Autrement dit, du revamping Web (séparation des couches de présentation de la logique métier) à lextraction de règles métier XE "règles métier" pour en faire des services Web, la philosophie et la complexité ne sont pas les mêmes.
Une demande forte existe dans les banques et les assurances pour se donner la possibilité dinterconnecter les systèmes mainframes et les applications Web. Une solution relativement simple existe qui consiste à encapsuler XE "encapsulation (application existante)" lapplication existante dans un service Web qui pourra communiquer avec les autres au travers dune architecture orientée services (avec les couches dintégration nécessaires, notamment lESB XE "ESB (Enterprise Service Bus)" ). Les solutions analysent les messages et la logique de navigation des transactions mainframe, initialement prévues pour des terminaux, et génèrent automatiquement le code nécessaire.
Lapplication est vue comme une boîte noire et ce qui est exposé en services web reste limité aux entrées/sorties. Si la solution répond aux besoins dintégrer un mainframe XE "mainframe" dans une architecture SOA XE "SOA (Service Oriented Architecture)" , elle reste superficielle au sens où elle ne répond pas au besoin dapporter de lagilité à des systèmes monolithiques. Elle répond en fait à un autre objectif : le besoin de faire coexister des systèmes. Typiquement, une nouvelle application de prise de commande dans cette logique pourra communiquer avec une ancienne solution de gestion de stock sur mainframe. Mais les éventuelles règles métier XE "règles métier" au sein de la gestion de stock ne pourront être manipulées pour sadapter aux nouvelles règles de tarification par offres, il faudra réappliquer une couche logicielle pour cela.
Si, en revanche, un découpage de la logique métier avait lieu au sein de lapplication, et non à ses interfaces dentrées et de sorties, les règles métier pourraient être extraites et utilisées en services Web, éventuellement paramétrées dans un moteur de règles XE "moteur de règles" , et sintégrer dans une architecture SOA XE "SOA (Service Oriented Architecture)" tout en laissant le reste inchangé. Le cas échéant, on garderait la puissance du mainframe en gagnant lagilité escomptée. Cest là que réside le potentiel de ce quon nomme la « réingénierie logicielle XE "réingénierie logicielle" ».
Rénover en profondeur avec la réingénierie logicielle
Quand lapplication patrimoniale est estimée comme un réel bien de lentreprise, les fonctions jugées satisfaisantes et le développement en spécifique justifié, nous entrons dans le cadre de la rénovation, de la réingénierie logicielle. Sous ce concept se trouvent toutes les méthodes et outils pour partir dun état dun code existant, implémenté dans un environnement en production et présentant des défauts variés, à un autre état, jugé plus satisfaisant, éventuellement dans un autre environnement technique.
Le problème logiciel aujourdhui nest pas tant le développement que la maîtrise de lévolution XE "maîtrise de lévolution" . Les nouveaux développements suivent des processus XE "processus:de développement" de plus en plus rigoureux, les environnements de développement actuels sont sophistiqués et intègrent les bonnes pratiques du développement en matière de qualité et de traçabilité. Seulement, ces outils ne sont pas toujours à disposition de technologies anciennes et les méthodes de maintenance sur une quarantaine dannées ont peu de chance davoir suivi les mêmes principes de qualité.
Comment remettre à niveau ce qui ne lest plus et qui ne respecte pas lun ou lautre des principes de performance, dinteropérabilité, douverture, de réutilisabilité ou de flexibilité ?
Une application qui a été développée en spécifique a évolué souvent bien au-delà de la conception dorigine suite aux multiples évolutions et maintenances en production tandis que les documentations disponibles ne sont plus à jour et quil nexiste pas de lien entre limplémentation et un modèle de conception qui permette de comprendre globalement les fonctions métier de lapplication, encore moins de les modifier aisément.
Le code source existant devient le seul élément rattaché directement au système. Seulement, quand des applications sont depuis très longtemps en production, il semble ardu de reprendre connaissance des milliers de lignes de code manuellement et inenvisageable sans risques derreur.
Cest là où des outils de rétroconception et de réingénierie XE "réingénierie logicielle" fournissent des aides à la compréhension et la redocumentation XE "redocumentation" dune application.
Nous utiliserons dans ce chapitre la terminologie de Chikofsky, pour définir les tâches de rétroconception et de réingénierie dun logiciel.
Ainsi, la tâche de rétroconception XE "rétroconception" (ou reverse engineering XE "reverse engineering" ) consiste à « analyser un système afin didentifier ses composantes et ses relations dans lobjectif de créer des représentations avec des formalismes variés ou à des niveaux dabstraction différents ». La réingénierie est, selon Chikofsky, une tâche « dexamen et daltération dun système afin de le reconstituer sous une nouvelle forme suivie de limplantation de cette nouvelle forme »
Comment débuter ?
Si le langage naturel est créatif, suggestif, associé au cognitif, le langage informatique se conforme impérativement à des règles syntaxiques XE "règles syntaxiques" . Telle est sa logique. Quant à la sémantique XE "sémantique" , qui désigne en linguistique le sens dun texte pour le distinguer de sa forme, en informatique, elle est dabord formelle. Elle désigne linterprétation dun langage sous forme de règles et de structure mathématique (typage des données XE "typage de données" ). On ne programmera pas un ordinateur de façon à le doter de la compréhension du « sens » du langage, sans lui fournir une représentation de domaines de connaissances, significative et extensible.
Quelle que soit lopération de modernisation que lon souhaite effectuer sur un code existant, il existe une première étape incontournable pour prendre connaissance du code et le stocker dans une forme exploitable pour lanalyse et la transformation automatique : le parsing de code XE "parsing de code" .
En ingénierie logicielle, le parsing est défini comme le processus danalyse du code source dun programme de façon à déterminer sa structure grammaticale. Un parser est dès lors un outil logiciel dont lobjectif consiste à traduire dans une forme intermédiaire un langage de programmation, à laide dune description de la grammaire du langage. Inventés à lorigine à lusage des compilateurs et des interpréteurs des langages de programmation, le champ dapplication des parsers XE "parsers" sest vite étendu aux outils de modernisation de code, dont ils sont une brique essentielle.
Si tous les parsers partagent le même principe danalyse, il nen reste pas moins des différences non négligeables entre eux. En effet, pour traiter des volumes imposants (MLOC XE "MLOC (Million Lines Of Code)" - Million Lines of Code) et des systèmes complexes, un parser « industriel » est indispensable.
Cela afin de restituer au bon niveau de granularité et de complétude les informations collectées et de les stocker dans une base de données (à linverse des compilateurs qui ne restituent quun fichier).
Un parser industriel vise par définition des opérations industrielles de réingénierie XE "réingénierie logicielle" . Pour être apte à les satisfaire, il doit fournir une représentation abstraite du code qui respecte des principes dacuité, de stockage de larges volumes dans une base de connaissance interrogeable, de complétude et de granularité des composants collectés, afin dautoriser, dune part, la recherche précise de patrons (« pattern XE "pattern de code" ») et lidentification dobjets, et dautre part, la transformation du code.
Mais cela nest pas suffisant, encore faut-il quil soit extensible, cest-à-dire quil ait la capacité de traiter les dialectes de langages inhérents à la grande variété denvironnements existants. Ainsi laccent en modernisation doit-il être mis sur les outils à échelle industrielle. Ils se définissent à la fois par un référentiel de gros volumes de code doté dun système de gestion, afin de pouvoir interroger lexistant avec un langage de règles danalyse et de transformation, mais également par leur capacité à développer rapidement de nouveaux analyseurs de langages.
Comment ça marche ?
Parser contre parser
« La connaissance par avance de la grammaire dun langage est une condition non satisfaite en réingénierie. », extrait de larticle de M. Van den Brand, A. Sellink, C. Verhoef, Current Parsing Techniques in Software Renovation Considered Harmful icpc, pp.108, 6th International Workshop on Program Comprehension, 1998
Il y a des milliers de langages existants, si on prend en compte en plus de la variété des langages, les extensions, les dialectes, les versions, etc. Par exemple, il ny a aucune application de COBOL en production qui utilise purement des programmes COBOL de norme ANSI. Comprendre une application en production COBOL sous MVS exige de comprendre le COBOL (sous ses nombreuses formes incluant OS/VS COBOL, VS COBOL II, MVS COBOL, etc.) mais aussi le JCL, le CICS, lembedded SQL, lIDMS, et les références aux programmes dans dautres langues telles que lassembleur, le PL/I, le RPG. Cest là où des technologies de génération de parser telles que Yacc ou Bison, atteignent leurs limites, car elles partent dune description de la grammaire du langage, considérée connue et délimitée, et non soumise à de continuels changements.
Afin de sadapter aux exigences spécifiques des applications en production, la modernisation requiert des outils de parsing incluant des « générateurs de parser » qui puissent étendre continuellement, par apprentissage, la connaissance des grammaires.
Le domaine de la réingénierie logiciel est extrêmement porteur pour optimiser les projets de modernisation dune application patrimoniale issue dun développement spécifique, grâce à des possibilités dautomatisation de transformation vers une cible, à partir de lanalyse de limplémentation de la source existante.
En particulier, les techniques de réingénierie logicielle permettent :
la migration XE "migration:technologique" dun système dinformation vers un nouvel environnement technologique :
migration de plate-forme,
migration de bases de données,
migration de langages ;
la ré-architecture dun code existant pour une meilleure maintenabilité et évolutivité, donc lamélioration de son « degré dutilisabilité » et de son « degré dévolution » ;
la redocumentation XE "redocumentation" et le contrôle qualité à partir de mesures factuelles issues de limplémentation grâce à des outils de compréhension du code (inventaire, mesure des métriques qualités, navigateurs de code, références croisées et relations entre composants, etc.) et le contrôle qualité des codes sources pour réduire les risques derreurs en amont du passage en exploitation ;
la rétro-modélisation XE "rétro-modélisation" des applications existantes pour créer, par exemple, des modèles de conception UML XE "UML (Unified Modeling Language)" , qui pourront ensuite servir de cadre à une génération de code vers la cible retenue.
La réingénierie logicielle autorise lautomatisation une bonne partie des opérations évoquées ci-dessus. En particulier, les migrations peuvent atteindre un taux élevé dautomatisation quand la source et la cible retenues partagent le même paradigme architectural (conversion dun langage procédural à un autre, par exemple).
Dès lors que la cible est à un niveau dabstraction plus élevé que la source, ou que la transformation implique une connaissance métier pour valider, par exemple, le périmètre dune règle de gestion XE "règle de gestion" ou lassociation dune donnée métier à une variable, lautomatisation savère plus complexe et a ses limites. Cest notamment le cas des changements de paradigme, type Procédural vers objet, par exemple Cobol vers Java, NSDK vers J2EE (Java2 Enterprise Edition
).
Le champ de la réingénierie logicielle
La figure suivante illustre le principe de la réingénierie logicielle et ses champs dapplications.
Réingénierie.png
Figure 8-1.
Le champ dapplication de la réingénierie logicielle
La rétrodocumentation
La réingénierie permet en particulier de reprendre connaissance du patrimoine, par lanalyse du code et des dépendances entre programmes. Le tableau 8-1 illustre une classification des techniques danalyse pour reprendre connaissance des applicatifs à travers leurs codes, et lutilité de ces techniques.
Tableau 8-1
Classification des techniques de rétrodocumentation
DescriptionCommentaireAnalyse de code, qualimÉtrieOutils danalyse statique des codes sources, mise en évidence des défauts. Orientés métrologie. Opération qui peut être automatisée. Une attention particulière doit être mise sur les indicateurs qualités à choisir. À quelles questions doivent-ils répondre, par rapport à quel objectif ?Analyse de code, cartographie XE "cartographie" Notion de « portail » qualité, graphes de dépendances, et intégration avec des données « externes » au code.Attention à la capacité à analyser sur plusieurs programmes, et avec des capacités danalyse de langages variés.Analyse de redondanceRecherche de similarité de code XE "similarité de code (recherche de)" à deux niveaux :
syntaxique : à travers une représentation abstraite du code ;
fonctionnel : à travers des graphes de contrôles et de données.Pour bien analyser laspect fonctionnel, lintervention humaine reste nécessaire.Analyse dimpact xe "analyse dimpact" Recherche des dépendances entre objets.Établir un dictionnaire de données XE "dictionnaire de données" est une étable préalable indispensable.éÉtrodocumentation des règles metiersRecherche de règles de gestion dans le code à travers de lanalyse de données métier et lusage de graphe de contrôle du code.Cette opération ne peut être que semi-automatique et nécessite une intervention humaine liée à la connaissance métier.Approche unitaire (extraction ciblÉe de rÈgles)Ces outils restreignent le champ de recherche des règles et effectuent du code slicing XE "code slicing" , cest-à-dire du découpage de code.Cette opération ne peut être que semi-automatique et nécessite une intervention humaine liée à la connaissance métier.La conversion de langage
Pour des raisons pratiques defficacité et de coût, lévolution des applications ne suit pas celle des langages. Si un nouvel environnement de programmation devient la norme de lentreprise, la plupart des anciennes applications restent maintenues dans le langage de développement initial. Leur durée de vie se compte en décennies, voire en fraction de siècles. Il nest pas nécessaire dabandonner un langage, tant quil ne devient pas
une langue morte, autrement dit, sil ne fait plus lobjet de supports, de formations, et si les compétences pour le programmer disparaissent. Un langage devient donc obsolète XE "obsolescence de langage" quand il nexiste pratiquement plus doutils de développement supportés par les fournisseurs ou de compétences sur le marché.
Auquel cas, il faut faire appel à des experts pour le traduire dans un langage plus répandu et ce, de façon plus ou moins automatisée, selon la source, la cible et la facilité le cas échéant à reconstituer le « signifiant conceptuel », classes, schémas, modèles. Le développement nest pas le point dur du génie logiciel, le problème est lévolution et, en particulier, retrouver le « sens » qui a présidé aux implémentations pour obtenir la flexibilité métier souhaitée.
Comment ça marche ?
Le principe du « fer à cheval XE "fer à cheval (principe du)" »
Ce principe a été nommé ainsi par le Software Engineering Institute XE "SEI (Software Engineering Institute)" (1999) dans la note Options Analysis for Reengineering (OAR): Issues and conceptual approach, fruit du travail de John Bergey, Dennis Smith, Nelson Weiderman et Steven Woods, qui décrit comment concilier réingénierie logicielle XE "réingénierie logicielle" et évolution darchitecture.
La démarche consiste à abstraire la problématique en remontant au niveau des modèles et à redescendre vers la cible en effectuant éventuellement des interactions complémentaires. Ce type de démarche fait appel à des techniques de rétro-conception (reverse engineering, ainsi que défini p.168) de découpage de code (slicing) et de méta-modélisation.
horsehoemodel.png
Figure 8-2
Modèle du fer à cheval pour lintégration de la réingénierie et larchitecture logicielle (source SEI)
Il faut toujours avoir en tête le principe du « fer à cheval » pour juger les solutions proposées pour la modernisation, notamment dans le domaine des conversions de langage, car les outils de transformation restent souvent à des niveaux plans intermédiaires qui peuvent être interprétés automatiquement et ne permettent pas de migrer une logique de conception (niveau supérieur de la figure 8-1) Le résultat, quand les deux langages ne partagent pas le même paradigme (exemple langage procédural vers langage objet), peut être surprenant. Ainsi, si lautomatisation de la conversion de langage est nécessaire, elle a ses limites : le « Jabol XE "Jabol" », par exemple, hybride résultat dune conversion de source à source entre le Cobol et le Java.
Moderniser une application patrimoniale peut passer par la conversion XE "conversion (de code)" de son code source à partir du langage initial, jugé obsolète, vers un langage de programmation plus moderne. Cette opération, à léchelle de millions de lignes de code, nest réaliste quà condition de disposer dun traducteur automatique, compte tenu des risques élevés dinsertion derreurs que provoquerait une traduction manuelle.
Lautomatisation nest pas pour autant efficace dans tous les cas de figure.. En effet, des taux élevés de conversion automatique peuvent être atteints entre deux langages partageant le même paradigme, la même syntaxe ou du moins des syntaxes compatibles. Si les différences syntaxiques entre la source et la cible relèvent dun changement de paradigme, comme pour le Cobol et le Java, il est illusoire de vouloir faire léconomie dune phase de reconceptualisation XE "reconceptualisation" intermédiaire. Cette dernière sert à identifier les objets à partir du code procédural existant, ou les fonctionnalités orientées objet, telles que les relations de sous-classe et le polymorphisme.
En effet, en procédant à une traduction automatique de « source à source », on risquerait dobtenir un langage hybride XE "langage hybride" \t "Voir Jabol" sorte de « Jabol XE "Jabol" » dans le cas de la traduction Cobol vers Java. Si la tentation existe de procéder à cette transformation dans loptique de disposer doutils de développements plus modernes, ou daugmenter les profils pour maintenir le code cible, cette solution ne satisfait en réalité pas les exigences de la modernisation.
Lobjectif dune traduction est daméliorer la qualité du code traduit et daugmenter sa capacité à être traduit. Dans le cas du « Jabol XE "Jabol" », le résultat paradigme procédural appliqué avec un langage orienté objet ne sera compréhensible que par des programmeurs Cobol disposant dun vernis Java. En outre, les avantages de lorienté objet seront de facto écartés (principes des sous-classes, modularité, réutilisabilité
). Quant à la lisibilité et à la maintenabilité du code cible, elles sont loin dêtre prouvées.
Pour passer dun paradigme à un autre, il faut une couche dabstraction dans le processus de transformation XE "processus:de transformation (de code)" , et des règles extensibles de reconnaissance et de transformation de code.
Les systèmes dinformation ont aujourdhui à faire face à lhétérogénéité des langages et ils auront également à y faire face demain. Il ny a pas plus de garantie quant à la durée de vie dun langage choisi à un moment donné, que de limite déterministe quant à la durée de vie dun langage éprouvé. Le Cobol est censé être mort depuis vingt ans, il se porte encore bien.
Dès lors, un pré-requis des solutions de conversion de code est ladaptabilité à de nouveaux langages, et la capacité à gérer des différences de niveaux entre la source et la cible. Ce type de solution doit fournir une représentation abstraite XE "représentation abstraite (du code)" du code, phase dabstraction intermédiaire dans le processus de traduction avant la ré-implémentation en code cible, ainsi que des méthodes configurables et des règles interactives pour la définition et la reconnaissance de « pattern », comme les objets, les classes, etc.
La ré-architecture de code
Il y a de nombreux intérêts à ré-architecturer un code existant, du simple fait de rendre la maintenance plus simple en diminuant la complexité des programmes et en améliorant la qualité du code, jusquà lobjectif dextraire des services métier à réintégrer dans une architecture SOA XE "SOA (Service Oriented Architecture)" , en passant par la modularisation XE "modularisation" qui sert autant à pouvoir réutiliser des fonctions que paralléliser le travail des équipes.
Selon les objectifs poursuivis, les opérations sont plus ou moins complexes et nécessitent plus ou moins dinteractions avec des compétences humaines et métier.
Le refactoring XE "refactoring" (ré-architecture de code) vise à améliorer la structure du code pour le rendre plus maintenable et réutilisable sans pour autant modifier son comportement. Il sagit de transformations iso-fonctionnelles. On distinguera ici dans les pistes damélioration trois niveaux de refactoring, du plus automatisable, qui vise à améliorer la qualité du code maintenu, au plus complexe, qui vise à améliorer la réutilisabilité.
La restructuration syntaxique
Il sagit dune restructuration « simple » du code, pour le nettoyer des syntaxes incorrectes ou qui nuisent à la lisibilité et améliorer sensiblement sa qualité. Par exemple, on remplacera des clauses conditionnelles négatives (if not (A > B and (C F))) qui peuvent nuire à la lisibilité, par des conditions simplifiées (if (A = D or E > F))).
On peut ainsi restructurer un code automatiquement, par exemple en simplifiant les conditions pour le rendre plus lisible, ou en renommant les variables pour corriger les syntaxes non autorisées qui peuvent être sources potentielles derreur. On peut également simplifier la complexité, notamment en réduisant les boucles de contrôles qui augmentent statistiquement les risques derreurs.
De même peut-on automatiser relativement aisément la suppression des « codes morts XE "codes morts" » : certains codes sont dits morts physiquement car il sagit de codes qui ne sexécuteront jamais, dautres sont dits morts logiquement, car ils font appel à une condition de logique métier qui ne savèrera jamais vraie (ancien numéro de police dassurance qui nest plus utilisé). Ces codes augmentent la volumétrie et la complexité des applications alors quils sont inutiles.
Sil est simple didentifier les codes morts physiquement automatiquement, les codes morts dits logiquement impliquent de pouvoir identifier les données de références et davoir un premier dictionnaire de données. Il faut ensuite passer par des techniques de découpage pour proposer à validation dun utilisateur une portion de code vraisemblablement morte « logiquement ».
On quitte alors progressivement le champ du syntaxique et du purement automatique.
Pour quantifier les bénéfices de la restructuration syntaxique, on peut mesurer :
la volumétrie du code avant/après la transformation ;
les métriques qualité avant/après la transformation (robustesse, maintenabilité, fiabilité, conformité à des standards, documentation ou critères spécifiques tels que pourcentage de codes morts « physiques » ou codes similaires) ;
le pourcentage derreurs/danomalies dans les mises en production avant/après la transformation.
Le support dun outil pour automatiser ce type de refactoring « syntaxique » est extrêmement appréciable, voire indispensable, car vérifier les pré-conditions pour un type de refactoring précis requiert souvent une analyse de programme non triviale, et la transformation doit pouvoir sappliquer à lensemble du patrimoine, sans même évoquer les risques dintroduction danomalies dune intervention manuelle.
La restructuration syntaxique est hautement automatisable et bénéfique pour augmenter la maintenabilité du code car elle peut en réduire la volumétrie, la complexité (par simplification dun code complexe en code simple) et elle traite toutes les syntaxes qui sont identifiées comme sources derreurs potentielles. Elle augmente donc la qualité du code résultant de la transformation.
Plus largement, on peut automatiser, via des outils danalyse et de transformation de code, toute transformation de masse sur un code où les règles danalyse et de transformation se modélisent de manière univoque, cest-à-dire où les pré-conditions à remplir sont suffisantes pour identifier sûrement les segments de code cible de transformation et les post-conditions clairement établies.
Le champ de la restructuration inclut donc des changements dits « de masse » (type extension de champs XE "extension de champs" pour lan 2000, internationalisation
). Il sagit de propager automatiquement dans tout le code du système (inter et intra-programmes), grâce à des graphes de flux de contrôles ou de données, une modification réplicable sur des bouts de codes ou des variables répondant à des conditions particulières bien bornées (extension dun champ de date, par exemple).
Cette propagation automatique dune modification cadrée minimise les risques derreurs des modifications manuelles, en plus de réduire le temps nécessaire à la transformation (inenvisageable en manuel sur des millions de lignes de code).
La restructuration pour factoriser des codes similaires
Elle est utile notamment pour factoriser les codes dupliqués ou similaires. Les codes similaires sont une des plaies des applications en maintenance car ils sont le résultat dun effet de type « copier-coller » où, pour des raisons de rapidité, les mainteniciens reproduisent quasiment à lidentique un bout de code existant pour corriger un « bogue » ou introduire une évolution.
Au lieu de produire un code réutilisable à travers la factorisation dune fonction, la copie de code produit plus de risques derreurs et dincohérences (une personne qui corrige le code à un endroit ne pensera pas forcément à répliquer la modification dans toutes les copies). Les estimations classiques vont de 8 % à 10 % de codes similaires dans un code normalement industrialisé, mais suivant la longévité de lapplication, le pourcentage peut augmenter sensiblement.
Le principe pour factoriser les codes similaires est dutiliser un outil danalyse statique de code en support de diagnostic de détection de clones XE "détection de clones" , puis de remplacer les codes similaires par un appel à une fonction réutilisable.
Pour élargir lefficacité de la détection, on préférera opérer au niveau de la représentation logique. Quand un code est parsé et restitué sous forme darbre abstrait syntaxique, on peut calculer des tuples de métriques pour chaque sous-arborescence (cest-à-dire les fonctions) et procéder à une comparaison des arbres/tuples ainsi obtenus pour identifier les similarités.
Cette approche, si elle peut être en grande partie automatisable dans la méthode de détection et, une fois les codes isolés, dans la factorisation, nécessite toutefois une vérification humaine et donc des étapes dinteractivité.
Les opérations de refactoring doivent pouvoir sinscrire dans des cycles de tests de non-régression pour la fluidité du processus.
La modularisation
Quand les sociétés ou organismes utilisent dénormes programmes qui sont monolithiques, ils subissent les conséquences de la complexité et notamment la lourdeur de la maintenance. En effet, on ne peut pas paralléliser les équipes et les évolutions sont difficiles. Car un simple changement peut nécessiter dêtre répliqué dans de multiples parties du code faute dune modularisation XE "modularisation" des fonctions.
Définition
Des modules solidaires mais solitaires
Un module XE "module" peut être défini comme un groupe de fonctions ayant une cohésion forte et un couplage faible.
Couplage faible
pas de liens entre les données internes et des données manipulées par dautres programmes ;
le module dit posséder ses propres zones de travail jamais utilisées par dautres modules.
Liaisons externes (interface)
les données dentrée/sortie sont des paramètres à passer au module ;
on définira de manière précise la structure des données dentrée à passer au module, de même que la structure des données fournies en sortie.
Cohésion
la fonction doit être clairement identifiée et cohérente.
La modularité des programmes est une orientation poussée depuis plus de vingt ans, surtout avec lorientation objet.
La fonction dun module est lensemble des transformations appliquées par le module sur les données dentrées pour produire les données de sorties, à chaque appel du module.
Pourquoi modulariser ? Il sagit tout à la fois de faciliter la maintenance, doptimiser larchitecture et de mettre en place les meilleures pratiques de mutualisation et de réutilisation.
La meilleure façon de résoudre un problème complexe est de le décomposer. Les programmes modulaires sont plus faciles à comprendre, documenter et maintenir. Ils fournissent des éléments interchangeables, réutilisables et combinables entre eux.
Lobjectif est de réduire la complexité en restructurant le système en un assemblage de sous-systèmes plus simples qui peuvent être maintenus séparément. Le principe est de découper les programmes en modules, ou groupes de fonctions liées, découpage fondé sur lobservation quun module peut être défini comme un groupe de fonctions ayant une forte cohésion et un couplage faible. La modularité a pour bénéfices de faciliter la compréhension, la maintenance et la réutilisabilité XE "réutilisabilité" , en particulier en autorisant la parallélisation des développements et des tests. Elle a également pour conséquence une meilleure portabilité.
La maintenance sera facilitée car une modification sur un module sera automatiquement répercutée dans tous les programmes qui lappellent. Les modules permettent la création dune bibliothèque de composants réutilisables.
Lapplication du principe de modularité du code, au niveau du développement, est létape-clé pour le rendre réutilisable. Le module étant un sous-programme, son autonomie est assurée par la force des choses (règles du langage de programmation).
Les spécifications externes (données dentrée/sortie) et internes (règles de traitement) étant clairement définies, on pourra donner la programmation du module à toute personne compétente, même si elle ne connaît pas le reste du programme.
Les modules permettent la séparation des différentes composantes de lapplication (par exemple, séparation données/traitements/affichage) afin de rendre leur développement indépendant les uns des autres.
En outre, via la modularisation, on peut envisager dextraire les règles de gestion écrites en dur dans le code pour les rendre paramétrables dans un moteur de règles XE "moteur de règles" , à des fins de flexibilité métier.
Selon lobjectif des bénéfices recherchés par la modularisation dun existant, le champ des techniques utilisées sera différent. Lapproche la plus étendue étant une recherche de modularisation applicative au niveau dun système dinformation, pour passer dun patrimoine applicatif développés « en silos applicatifs », à une architecture dassemblage de composants.
Si la modularisation vise une application seule, elle peut être ou technique et dans ce cas on cherche à partager des traitements ou fonctionnelle, et on cherche alors à mutualiser des fonctions. On passe au niveau « sémantique » (niveau conceptuel/abstraction) quand on cherche à extraire la logique métier (services métier ou règles de gestion) pour aller au-delà de lapplication et pouvoir viser lassemblage de composants métier.
Le tableau 8-2 illustre les différents niveaux de recherche de modularisation, les techniques possibles et les limites.
Tableau 8-2
Les techniques de modularisation XE "modularisation"
ObjectifMéthodeDéfisModularisation technique et structurelleIdentifier des blocs ayant un potentiel de modularisation XE "modularisation" pour découper le code structurellement. On piste des modules de contrôles et on peut aussi pister une syntaxe significative dun type de traitement éventuellement réplicable et modularisable dun point de vue technique (par exemple, Perform en Cobol).Identification des « blocs » syntaxiques :
approche des appels et dépendances entre programmes et structure ;
approche par syntaxe significative.La représentation abstraite du code.
Les limites de la recherche de syntaxe particulière sans données sémantiques.Modularisation fonctionnelleIdentifier des blocs ayant un potentiel de réutilisabilité XE "réutilisabilité" . Soit pour construire ensuite des des bibliothèques de « fonctions » partageables pour tous les programmes, ou dans une recherche de factorisation des codes similaires.
Modules de traitement similaires : les journaux de logs, les traces, la synchronisation.
Modules de contrôle et de mise en forme de dates, contrôle de montants, etc.Point dentrée : donnée calculée et dépendances.
Pattern mapping : identification de patrons dalgorithmes.La recherche (syntaxe particulière, données particulières, patron
).
Le mapping avec un patron de traitement.
Le découpage (semi-automatique, nécessitera dans tous les cas une intervention humaine).Modularisation « sÉmantique » orientÉe donnÉesExtraire des fonctions ayant un sens métier (calculer le taux dendettement maximum, le montant de retraite moyen par mois, par exemple).
En particulier adapté pour lextraction de règles de gestion métier.
Exposer des services métier.
Très souvent, des modules de traitement sont similaires dun programme à lautre, notamment les modules daccès aux fichiers ou bases de données, soit directement en létat, soit après des modifications minimes du code source.Données/variables liées aux graphes de contrôle.
Pattern mapping XE "pattern mapping" : identification de « services » type.
Concept : technique utilisée pour détecter les propriétés communes dans un grand ensemble de données.La recherche (syntaxe particulière, données particulières, patron
).
Lidentification de concept.
Le mapping avec un patron de services.
Lintervention humaine pour la connaissance métier (considérer un ratio de 1 à 7 entre le coût de loutil et le coût des efforts humains de reconnaissance nécessaires).La migration de plates-formes
Appelée également « replatforming XE "replatforming" », la migration XE "migration de plate-formes" \t "Voir replatforming" dapplications vers une nouvelle plate-forme est en général envisagée pour deux raisons principales :
une obsolescence avérée de la plate-forme : arrêt du support et/ou de la commercialisation ;
des coûts excessifs : plates-formes propriétaires, verrouillage fournisseur, coût du modèle économique récurrent des mainframes au regard du coût des licences perpétuelles Unix, par exemple, ou de Linux, encore plus avantageux (pas de coût dacquisition).
Dautres aspects dinteropérabilité peuvent jouer, mais ils sont rarement les leviers qui activent la décision de migration. À ce niveau, elle est essentiellement technologique, lobjectif étant de migrer vers un système à « iso fonctionnalités ». On ne touchera pas à la couverture fonctionnelle de lapplication et on devra veiller à ce que le comportement applicatif soit identique, dans lenvironnement cible, à ce quil était dans lenvironnement source. Ce type de migration doit être transparent pour lutilisateur.
La migration a donc pour objectifs majeurs dadresser des facteurs de risques importants ou de réduire des coûts qui le sont tout autant. Les objectifs secondaires qui peuvent jouer sont la volonté durbaniser et de passer dans des environnements ouverts et/ou des architectures distribuées, ou celle de réduire les dépendances envers des plates-formes propriétaires avec des composants plus « portables » et réutilisables.
La migration va seffectuer en séparant présentation, données et traitements, tout en préservant liso-fonctionnalité et la performance. Cette solution présente lavantage de soulager rapidement le risque opérationnel (cest-à-dire fin de vie dune plate-forme), le cas échéant, du fait dun niveau dautomatisation élevé grâce à des outils éprouvés et des processus de migration connus. La réduction des coûts XE "coûts:réduction de" et la possibilité daccéder à des services interactifs, dans le cas du passage du mainframe XE "mainframe" à des environnements ouverts, sont également des bénéfices possibles (reste à faire le calcul du TCO XE "TCO (Total Cost of Ownership)" ).
Face aux bénéfices, la solution ne résout pas les inconvénients dune architecture applicative monolithique et de codes de mauvaise qualité (excepté une restructuration syntaxique minimum).
Cette migration doit seffectuer avec les principes suivants :
prouver liso-fonctionnalité ;
garder les performances à la cible ;
ne pas introduire de rupture technologique pour les équipes en place ;
éviter dintroduire des anomalies en automatisant autant que possible le processus.
Quelle solution privilégier ?
Lanalyse de la valeur, la clé du choix
Encore une fois, il ny a pas de solution miracle qui sapplique à tous les cas de figures, pas plus que dapproche absolue qui les résoudrait tous. Reste à privilégier une méthode dapproche pour rénover progressivement, et selon les enjeux, à savoir en fonction de lanalyse de valeur du patrimoine applicatif.
Afin de moderniser le patrimoine pour lexploiter au mieux et choisir une (ou plusieurs) solution(s), il faut dabord analyser sa complétude et sa qualité, avant de pouvoir déterminer quelle application mérite dêtre remplacée, réutilisée « en surface » ou rénovée en profondeur. Il sagit deffectuer cette analyse sur plusieurs axes ainsi quévoqués précédemment (la dimension risque étant incluse dans laxe sécurité). La décision se fera sur la valeur, cest-à-dire le meilleur ratio entre la satisfaction optimale des besoins et le coût en consommation de ressources.
Il ne sagit pas seulement dobtenir un équilibre entre les coûts et les risques, il sagit de ne pas oublier à quoi servent les systèmes dinformation. Les coûts ne veulent rien dire dans labsolu. Ils peuvent être faibles et pour autant devoir être revus. Rien ne sert, encore une fois, de maintenir une application en interne si elle napporte pas de valeur. A contrario, ne pas investir dans une application, même sans extension fonctionnelle, peut dégrader sa valeur.
Une fois la décision prise de rénover tout ou partie dun patrimoine écrit en spécifique, il est très possible, voire recommandé, dutiliser plusieurs techniques pour préparer lévolution.
Comme le montre la figure suivante, la redocumentation XE "redocumentation" du patrimoine applicatif est une étape qui précède toutes les pistes de solutions envisageables.
Même si on ne souhaite pas rénover en profondeur une application, si on souhaite lexternaliser, il est indispensable de remettre au prestataire qui en aura la charge une application dans un état compréhensible, sous peine de perdre les bénéfices escomptés dune éventuelle industrialisation, ou les réductions de coûts envisagées.
Quant au passage vers un progiciel ou vers un service sous abonnement qui assure des fonctions métier, il nécessite toujours un préalable, lanalyse des écarts XE "analyse des écarts" pour établir si le niveau de « couverture » du progiciel ou du service est satisfaisant.
Repartir de zéro pour redéfinir les besoins est un principe louable si on souhaite effectuer une analyse de la valeur XE "analyse de la valeur" rigoureuse de chaque fonction pour ne focaliser que sur les fonctionnalités les plus utilisées. Selon la loi de Pareto XE "loi de Pareto" , les fonctionnalités les plus utilisées (80 % du temps) méritent le plus dattention, même si elles sont les plus banales, alors que celles qui sont peu utilisées (20 % du temps) devraient se satisfaire dun effort moindre (voir encadré, p.152).
Reste que cette logique doit être couplée avec lanalyse des fonctions existantes pour accélérer cette phase de cadrage.Sinon, la phase durera plus longtemps que souhaité, ou on prendra le risque doublier des fonctions utiles, insérées au fil du temps dans le logiciel spécifique, suite à des demandes des utilisateurs.
Une aide à la redocumentation XE "redocumentation" des applications, sous la forme pour partie doutils de réingénierie, est donc fortement souhaitable. Le niveau de redocumentation souhaité est ensuite à envisager selon le niveau de réutilisation escompté.
Redocumenter des règles métier XE "règles métier" est en particulier intéressant pour la réécriture XE "réécriture" , en simplifiant la mise en uvre de moteurs de règles, par exemple. On peut aller plus loin en voulant minimiser les risques dune réécriture complète via une logique de réutilisation progressive de « modules » de lancienne application, qui seront découpés et revus sous forme de services en insérant lapproche de réingénierie dans une approche darchitecture globale.
La figure 8-3 montre comment la réingénierie logicielle peut sinsérer dans une approche globale dévolution.
ReingenierieEvolution.png
Figure 8-3.
La réingénierie en support des besoins dévolution
Ensuite, pour chaque besoin, on peut trouver plusieurs types de solutions en réponse et il faudra à nouveau le support de lanalyse de la valeur pour faire le choix efficient qui peut conduire à lusage dune combinaison de solutions.
Aujourdhui, une application critique pour le métier, avec un réel impact sur lefficacité opérationnelle, peut souffrir du coût de plates-formes propriétaires et des limitations dinteropérabilité quelles imposent. Une migration dinfrastructures visera à diminuer le coût total de possession, dès lors quelle peut conduire à des économies significatives. Pourquoi ne pas y ajouter, au bon moment, des opérations de restructuration de code pour plus de facilité de maintenance ?
Analyser le patrimoine : les référentiels à mettre en place
Dans tous les cas, tout projet dévolution doit débuter par une analyse du patrimoine, consolidée autant que possible par des outils danalyse automatique et des bases de connaissance.
Chaque projet doit être, dans une logique de « cycle de vie XE "cycle de vie:de lévolution" de lévolution du patrimoine », une occasion de mettre en place ou de venir enrichir des référentiels XE "référentiels:de contrôle" de contrôle sur la durée, en particulier :
Référentiel de limplémentation
Les outils de cartographie XE "cartographie" , de qualité et de lotissement mis en place pendant le projet, pourront continuer à être utilisés et pourront sintégrer à un portail ou une interface daccès unique qui donnera la visibilité sur lensemble des cartographies techniques disponibles pour lanalyse de la qualité. Ces outils, pour être totalement exploitables, doivent combiner à lanalyse un métalangage de descriptions, des règles de transformation et une grammaire extensible.
Référentiel de tests XE "référentiels:de tests"
Un référentiel à enrichir progressivement des cas de tests et des captures de référence (lors de la mise en uvre de tests de non-régression). Cela permet dindustrialiser la totalité du processus de non-régression XE "non-régression (tests de)" (debug inclus) en cas de transformations.
Référentiel de connaissance
Il sagit de retrouver progressivement le sens des applications, cest-à-dire lobjectif de valeur auquel elles doivent répondre, les « objets sémantiques XE "sémantique:objets" » qui sont les processus quelles viennent supporter, les données métier quelles manipulent et les fonctions dusage quelles proposent. Les ontologies XE "ontologies" sont à envisager comme moyens. Ces ensembles structurés qui modélisent les concepts dun domaine, leurs attributs et les relations utilisées, peuvent sappliquer à la connaissance métier de lentreprise par la définition des données métier de référence (le référentiel), puis des liens entre ces données, et des liens entre processus métier, etc.
Définition
Ontologies XE "ontologies" : de la théorie philosophique à la pratique informatique
Définition didactique : en philosophie, partie de la métaphysique qui sapplique à lêtre en tant quêtre, indépendamment de ses déterminations particulières (Le Petit Robert).
Définition pratique appliquée à lingénierie des connaissances : une ontologie est une spécification rendant compte (on espère de façon générique) dune conceptualisation (Gruber,1990).
Selon Borst « une ontologie est définie comme étant une spécification explicite et formelle dune conceptualisation partagée ».
Lexplication de cette définition est donnée par Studer
explicite : tous les concepts, les relations, les propriétés, les contraintes, les fonctions et les axiomes sont définis explicitement ;
formelle : lontologie peut être traduite dans un langage interprétable par la machine ;
conceptualisation : un modèle abstrait qui correspond à lidentification des concepts appropriés à un phénomène dans le monde ;
partagée : toutes les connaissances détenues dans lontologie sont partagées par un groupe ou une communauté.
Les phases de la rénovation progressive
Nous allons tenter de définir ici les conditions pour une approche progressive de la rénovation dapplications patrimoniales XE "applications patrimoniales" , à la fois dun point de vue transformation pour plus de réactivité métier et dun point de vue contrôle de lévolution logicielle. Il ne sagit pas dêtre exhaustif sur un sujet complexe, mais de fournir des indications sur les points-clés de lapproche.
Les principes généraux des objectifs présidant à la rénovation dun système dinformation pour plus de flexibilité, portent sur :
la définition et la mise en place de référentiels XE "référentiels:sémantique" sémantiques ». Ces référentiels modéliseront des informations qui ont un sens pour le métier de lentreprise et autoriseront un niveau plus souple de manipulation de ces informations, non contraint par limplémentation ;
la modularisation XE "modularisation" des monolithes applicatifs.
Ces principes portent également, pour que ce découpage puisse répondre au mieux à une approche guidée par les processus métier, sur :
la définition des zones déchanges aux partenaires ;
la définition des multiples canaux daccès.
Nous décrirons six phases principales, qui ne sont pas obligatoirement séquentielles et peuvent être optionnelles à lexception du diagnostic et du contrôle de lévolution pour répondre à ces objectifs. Elles sont explicitées dans le tableau ci-dessous. Nous nous attacherons dans les paragraphes suivants à en détailler les enjeux et points-clés.
Tableau 8-3
Les phases dune rénovation progressive XE "rénovation progressive"
ObjectifDiagnosticObtenir une meilleure visibilité de létat dun patrimoine pour prendre les décisions appropriées concernant sa rénovation. Établir un diagnostic de létat de lapplication grâce à un inventaire des composants de limplémentation, et des mesures sur la base des enjeux (ouverture, flexibilité, optimisation des coûts,
).RedocumentationLobjectif est de pouvoir comprendre ce qui est implémenté.Simplification/
rationalisationLa simplification et la rationalisation ont pour objectif de faciliter la maintenabilité et la réutilisabilité XE "réutilisabilité" en éliminant en particulier les redondances et les imbrications, pour supprimer autant que possible les adhérences entre blocs fonctionnels.
Cette phase comporte un axe données et un axe modularisation XE "modularisation" .Transformation dinfrastructureMinimiser les risques dobsolescences ou réduire les dépendances envers des produits (plates-formes, langages, bases de données) propriétaires ou diminuer un coût total de possession.Introduction du paramÉtrageLobjectif est dautoriser les utilisateurs à réaliser des modifications « à la volée », sans pour autant passer par des cycles de redéveloppement et de tests.Contrôle de lÉvolutionMise sous contrôle de la qualité de lévolution, suivi et traçabilité XE "traçabilité" des évolutions sur un existant, gestion du cycle de vie XE "cycle de vie:de lévolution" de lévolution.Diagnostic
Le diagnostic nécessite de déterminer les objectifs dévolution en fonction des enjeux damélioration pour ensuite pouvoir décliner les métriques appropriées (approche GQM XE "GQM (Goal Question Metrics)" Goal, Question, Metrics).
Le diagnostic doit sappuyer sur des critères de mesures factuels (métriques normées) obtenus par une analyse de limplémentation. Le support dun outil danalyse automatique est recommandé compte tenu des volumes manipulés et des risques dune intervention manuelle. Cet outil doit être paramétrable dans la définition des règles dinspection.
Redocumentation
Il faut être capable davoir une représentation abstraite du code, à stocker dans une base de connaissances, capable de collecter et de traiter un volume important de millions de lignes de codes, et de fournir une représentation abstraite suffisamment fine pour lacuité des recherches dinformation sur lexistant et la capacité à transformer.
La redocumentation XE "redocumentation" peut seffectuer à plusieurs niveaux, suivant quelle restitue uniquement des informations sur limplémentation (documentation des composants, documentation des relations entre composants et des graphes de dépendances) ou quelle rajoute des informations de connaissance sémantiques (documentation des données métier, documentation des règles de gestion), voire quelle remonte à la modélisation des besoins métier.
La granularité fine permet de modéliser toutes les informations syntaxiques et sémantiques du programme (constante, instruction
).
Afin denvisager la restructuration des sources du patrimoine applicatif, la capacité de transformer doit être inhérente à cette représentation (arbre syntaxique, modèle dabstraction, production dune grammaire syntaxique propre au langage les règles de transformation dépendent du langage).
En particulier, on sattachera à recréer autant que possible une abstraction du code pour remonter au niveau de modèles, avant de pouvoir opérer des transformations sélectives (en fonction des objectifs/enjeux et risques).
Si on cherche à extraire la logique métier (services métier ou règles de gestion) pour aller au-delà de lapplication et pouvoir viser lassemblage de composants, il faudra dabord définir les données de références nécessaires aux échanges globaux et locaux. Le « dictionnaire de données XE "dictionnaire de données" » est un composant indispensable de la redocumentation dans cette orientation afin de :
savoir où sont manipulées les données métier ;
implémenter des conventions de nommages ;
effectuer si nécessaire un typage de données XE "typage de données" (quelles sont les données de mon système qui représentent une valeur monétaire, une date, ou un numéro de compte ?) ;
effectuer lassociation sémantique des données métier avec les données physiques pour pouvoir ensuite propager cette association à tous les objets à travers le graphe de flux de données (doù la nécessité de la complétude des graphes de dépendances) ;
pouvoir identifier et redocumenter les parties de code implémentant des règles de gestion à partir de la connaissance des données métier manipulées.
Simplification/rationalisation
La simplification et la rationalisation ont pour objectif de faciliter la maintenance et la réutilisabilité XE "réutilisabilité" , en éliminant en particulier les redondances et les imbrications, pour supprimer autant que possible les adhérences entre blocs fonctionnels.
Cette phase comporte deux axes :
un axe données : les référentiels XE "référentiels:de données" des données doivent être structurés et leurs accès isolés et standardisés ;
un axe modularisation XE "modularisation" : il sagit de décomposer le SI en fonctions, de limiter les imbrications entre elles, de les rendre les plus modulaires possibles. Létape suivante serait de normaliser lappel de ces fonctions et de les référencer en une bibliothèque.
La modularisation ne peut être entièrement automatique, cest une approche semi-automatique. Il faut en particulier sattacher à :
identifier les candidats à la modularisation en fonction des enjeux. Choisir les méthodologies de recherche de code en fonction des enjeux. Obtenir une représentation abstraite du code pertinente pour automatiser la recherche ;
nettoyer syntaxiquement avant de modulariser en approche globale ;
définir le processus de décision et les critères darbitrage pour attester de la validité dun fragment de code/composant proposé à la modularisation :
critère darbitrage fonctionnel sur la granularité de la décomposition,
critère darbitrage performance du système ;
clarifier les critères techniques dextraction de composants.
Transformations dinfrastructures
En matière de transformations dinfrastructures, il faut regarder avec intérêt les possibilités dautomatisation dès lors quon a affaire à des programmes volumineux. Il faut ainsi vérifier le niveau dautomatisation possible, passer par des processus de transformation industriels, avec une flexibilité quant à lapproche du tout automatique versus une approche de réécriture sélective.
En particulier, une migration de langage procédural vers un langage objet nécessite des interactions complémentaires à ce qui peut être automatisable.
Introduction du paramétrage
Lobjectif est de pouvoir masquer les détails techniques dimplémentation et de remonter vers un niveau dabstraction qui autorise certaines modifications à être faites à la volée par les utilisateurs, sans pour autant passer par des cycles de redéveloppement et de tests qui impliquent les équipes techniques et des délais plus longs.
En particulier, les systèmes existants ont souvent des règles de gestion codées en dur. La rénovation consistera donc à identifier les parties de code implémentant ces règles de gestion pour les extraire et alimenter un moteur de règles XE "moteur de règles" , afin quelles soient accessibles et modifiables par les utilisateurs et non les développeurs.
Le paramétrage XE "paramétrage" des règles de gestion via un moteur de règles obéit à la fois à un besoin de flexibilité métier et un besoin darchitecture, dune part, en autonomisant les métiers via la mise à disposition doutils de modélisation et de développement de règles métier pour plus de flexibilité, dautre part, dun point de vue plus technique, en évacuant les règles métier de la grammaire BPEL XE "BPEL (Business Process Execution Language)" (Business Process Execution Language) afin de favoriser maintenance et réutilisabilité XE "réutilisabilité" des paquets de règles.
Contrôle de lévolution
Toute évolution/intervention sur un code existant peut potentiellement dégrader un système et le rendre moins réutilisable faute de documentation ou de suivi de principes darchitecture , ou moins maintenable, sil y a dégradation XE "dégradation:du code" de la qualité du codage ou introduction derreurs. La maintenance dun code existant doit donc être mise sous contrôle de la qualité de lévolution, particulièrement dans le cadre de lexternalisation de la maintenance où la nécessité de réduire les dépendances ou le verrouillage avec un prestataire est flagrante.
Le contrôle est à la fois « statique », au sens analyse des sources du code pour déterminer lévolution des critères qualité (maintenabilité, portabilité
) et « dynamique », au sens de lexécution du code pour en déterminer entièrement le comportement.
Il faudra également veiller à la qualité de la documentation (documentation mise à jour régulièrement, modèle uml, etc.), voire à la mise à jour dun « référentiel de connaissance » si cette bonne pratique a été mise en uvre.
Le contrôle de lévolution ne sarrête pas à une analyse de la qualité des évolutions sur du code spécifique. Il sétend également à la mise en cohérence des différentes interventions et des opérations avec un cadre darchitecture dentreprise global, dans une approche durbanisation (voir modernisation et urbanisation : les deux faces de Janus, p.200).
Si la tentation doublier le passé est facile, il est impossible déviter le futur, ce dernier étant inéluctablement transformé par lhéritage du passé. Dans le cas des systèmes dinformation, les architectures émergentes doivent franchir lécueil dun existant complexe et hétérogène, avec lequel elles doivent composer. En créant un pont entre les anciens paradigmes darchitecture et les nouveaux, les techniques de « modernisation » aideront à franchir cet écueil.
Chapitre 9
Principes darchitecture dentreprise le SI durable
Nous nhéritons pas de la Terre de nos ancêtres, nous lempruntons à nos enfants.
Proverbe amérindien
Ce proverbe pourrait devenir ladage des générations futures, forcées dhériter de nos expériences passées, cest-à-dire de nos erreurs. Sans vision globale des composants du système dinformation, sans recherche de cohérence entre eux, les constructions de ces dernières années, au fil de leau, ont été erratiques et souvent la cause de bon nombre de redondances, de manque de performances et de manque de qualité.
Pour contrer cette architecture instable, cette construction sans cohésion, les approches darchitecture dentreprise proposent des méthodes et des cadres de cohérence, notamment pour arriver à un système dinformation capable de survivre au futur. Ce chapitre va expliquer les concepts darchitecture autour des systèmes dinformation conçus pour durer, grâce à leur capacité dadaptation et à lapproche des cartographies. Ces dernières sont liées à la définition de référentiels de larchitecture et sont indispensables pour débuter toute logique de reconstruction dune architecture densemble cohérente ou durbanisation du SI.
Le concept de SI durable
Gouverner lhéritage du passé pour contribuer au futur
On le sait, lactivité humaine augmente la concentration de gaz à effet de serre (GES) dans latmosphère. Nous ne maîtrisons plus à léchelle du globe les conséquences bien physiques de notre consommation effrénée dénergie. Tout se passe comme si, pour citer Robert Socolow XE "Robert Socolow" , professeur dingénierie à Princeton, « nous avions lancé une expérience non contrôlée à léchelle du globe ».
Le monde virtuel des technologies de linformation nest pas mieux maîtrisé car, au fond, il nest pas réellement virtuel. Il sancre dans la réalité par des machines, des fichiers, des centres de données, des listings de code, de la fibre optique, etc.
Une partie de liceberg « réalité du monde des TIC » sest montrée au grand public à travers une prise de conscience autour du concept denvironnement durable et la consommation délectricité des ordinateurs, devenus si répandus, a fait frémir.
En réalité, la partie immergée de liceberg reste à maîtriser, elle aussi.
La motivation des DSI et des responsables dinfogérance XE "infogérance" tourne aujourdhui, en matière dénergie, autour de deux problèmes cruciaux :
le coût délectricité XE "coûts:délectricité" sur les data centers XE "data centers" (centre de traitement des données) : il sagit dun gros poste de dépense puisquil contribue à plus de 50 % du coût total. Il dépasse les matériels informatiques et autres, sachant que ce sont les matériels non réellement informatiques qui font la moitié de la consommation énergétique ;
la disponibilité de lélectricité : dans certains data centers, il ny a plus assez délectricité disponible. Les locaux sont à moitié vides grâce à la miniaturisation des équipements, mais la surface restante ne peut être utilisée faute de disposer de courant pour lalimenter.
De ce fait, il y eu beaucoup dannonces sur de nouveaux ordinateurs plus verts et les bienfaits des méthodes de rationalisation et de virtualisation XE "virtualisation" . Sur ce dernier point, beaucoup de DSI ont entrepris ainsi des actions visibles, légitimées par des réductions de coûts XE "coûts:réduction de" .
Réduire toutefois les réponses à la durabilité à cette approche, cest ne voir quun aspect du problème, lequel nest pas davantage traité en globalité. Car si on remplace danciens ordinateurs par des ordinateurs plus verts, comment recycle-t-on les anciens, comment traite-t-on des déchets ?
Si la nouvelle génération de centre de traitements de donnés, même « dans les nuages » (voir encadré ci-dessous sur le cloud computing), très standardisée (serveurs fabriqués en série, implémentation physique identique, etc), réduit lempreinte énergétique, elle ne répond pas forcément à la gestion dapplications spécifiques critiques dues à lhéritage informatique.
Comment ça marche ?
Le « cloud computing XE "cloud computing" » ou linformatique dans les nuages
Le principe du cloud computing XE "cloud computing" fait référence à lutilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par Internet (cest lancien principe de grid computing, ou grille informatique). Un « nuage » est composé dun certain nombre de serveurs distants interconnectés au moyen dune excellente bande passante indispensable à la fluidité du système.
On peut « déporter » tout ou partie dune infrastructure informatique dans un « nuage » géré par un prestataire de services qui fournit les fonctionnalités liées au stockage (sauvegarde y compris) traitement et transport de données.
Reste ensuite le problème des données. Leur volume ne cesse daugmenter selon un rythme encore appelé à croître avec lexpansion des moyens informatiques, les capacités des microprocesseurs (voir encadré ci-dessous) et la diminution des coûts XE "coûts:de stockage" de stockage. IDC estimait cette croissance à 30 % par an en 2008. La prolifération de données est semblable à une logique de consommation effrénée : tant que la ressource existe, nest pas rare et chère, le volume de données croît.
Définition
La loi de Moore demeure-t-elle vraie ?
Loi ainsi nommée du nom de Gordon Moore XE "Gordon Moore" , un des trois fondateurs dIntel, qui, suite au constat que la complexité des semi-conducteurs proposés en entrée de gamme doublait tous les dix-huit mois à coût constant depuis 1959, avait fait lextrapolation empirique dans Electronics Magazine que cette croissance exponentielle se poursuivrait.
En 1975, Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants indépendants) sur une puce de silicium double tous les deux ans. Sans parler des contraintes physiques que la « loi » de Moore peut rencontrer, en 2015, les processeurs devraient donc contenir plus de 15 milliards de transistors !
En 1960, Sony met sur le marché le tout premier téléviseur à transistor, le TV8-301, intégrant 23 transistors en silicium et en germanium. Ce dernier est suivi par lIntel 404, intégrant plus de 2 000 transistors, pour nous mener à la dernière née des puces à quatre curs dIntel, sortie le 12 novembre 2007, la Core 2 Extreme, gravée en 42 nanomètres avec 820 millions de transistors répartis sur les quatre curs. Un nombre de transistors à comparer avec celui de lItanium 2 1,7 milliard destiné aux serveurs haut de gamme. Sur près de quarante ans, la loi de Moore, une loi du changement, semble être restée relativement stable.
Ainsi, même si de nouvelles technologies, de nouvelles fonctionnalités, des architectures optimisées apparaissent, de nouvelles données suivront. Linflation des données entraînera une demande de plus despace de stockage, de plus de matériels pour aboutir à plus de consommation dénergie et les centres de traitement des données devront à nouveau optimiser leur infrastructure.
Une question manque à léquation : est-ce que toutes ces données sont utiles ? Certainement pas. Dun côté, il y a des e-mails, des fichiers et vidéos personnels des employés qui peuvent se retrouver sur des réseaux Microsoft Windows. Le journal informatique Computerworld estime déjà que 70 % des capacités de stockage de ce type de réseau est dépensé inutilement. De lautre, il y a des redondances de données complètement inutiles entre applications, faute de référentiel standardisé.
Pour finir, il y a aussi les impératifs réglementaires de traçabilité XE "traçabilité" et de contrôle qui conduisent à un paradoxe : parce quon ne sait plus tracer et classifier avec pertinence ce qui a réellement de limportance, on sauvegarde trop, plutôt que pas assez. Il devient donc impératif de casser le cercle vicieux. Selon Frederic Laura, qui sexprimait à ce sujet à une conférence au G9+ : « il devient impératif de canaliser les anciens et nouveaux flux de données dans les SI en mettant en place une véritable gouvernance des données XE "gouvernance:des données" (Data Governance). »
Comment ça marche ?
Optimisation de linfrastructure : pour rendre le réel des TIC
plus virtuel
Les deux principes majeurs de loptimisation dinfrastructures (matériels serveur, stockage, sauvegarde, poste de travail, etc.) étaient, avant larrivée de la virtualisation XE "virtualisation" : consolider et optimiser. Consolider en mutualisant les ressources, en réduisant les espaces inutiles et les systèmes trop consommateurs, en ramenant des applications dispersées sur de trop nombreux serveurs physiques, sur des serveurs avec des partitions logiques (mais encore le même OS). Optimiser en utilisant des systèmes RAID, la déduplication et la compression, etc.
Larrivée de la virtualisation ouvre encore plus de perspectives à loptimisation.
Un logiciel de virtualisation permet de partitionner un serveur physique en plusieurs « machines virtuelles ». Chacune delles exécute son propre système dexploitation serveur et peut fonctionner de manière transparente en réseau avec les serveurs existants. Chaque serveur physique peut, en théorie, être divisé en plusieurs dizaines, voire centaines de serveurs virtuels. Les avantages sont les suivants : en créant des pools de ressources, la virtualisation en améliore de manière significative lutilisation et libère les organisations de lhéritage du modèle « une application, un serveur ». La virtualisation permet dassocier à une activité normale les ressources appropriées et de pouvoir absorber les pics dactivités en ajoutant dynamiquement de nouvelles ressources si nécessaire. En outre, grâce à la virtualisation, on peut réduire le nombre de matériel dun centre de traitement de données et en diminuer ainsi les coûts dinfrastructure.
Au-delà des données, il y a tous les programmes qui les manipulent et toutes les couches intermédiaires conçues pour faire communiquer le tout.
En 2000, Somerville XE "Somerville" estimait à 250 milliards les lignes de code en maintenance dans le monde, tandis que selon Mueller et al. (1994), le volume de code en maintenance était censé doubler tous les sept ans.
De la même manière, il faut un cycle de cinq à dix ans pour voir lémergence de nouvelles technologies alors quen moyenne, la durée dutilisation dun ERP est proche de sept ans (IDC), mais les applications critiques dentreprise, développées en spécifique, vivent plus de vingt cinq ans.
Les entreprises qui développent toujours de nouvelles applications, sans consulter lexistant et sans sintéresser aux programmes qui nont plus dutilité, vont être confrontées par négligence à une complexité croissante, et à des logiciels obsolètes ou redondants, freinant la capacité de leurs systèmes dinformation à réagir aux nouveaux alignements stratégiques.
Ces systèmes sont comparables à une ville qui, en se développant de manière anarchique, augmente les risques dincendie non maitrisé sur les bâtiments anciens, et diminue sa capacité à conduire des travaux davenir pour la croissance économique. Doù le concept durbanisation XE "urbanisation" pour instaurer un cadre de cohérence à lévolution des systèmes dinformation. Par analogie avec larchitecture dune ville, ce concept va de pair et englobe celui de modernisation.
Pour éviter mille milliards de lignes de code ou de données immaitrisables dans un futur proche, il faut reprendre le contrôle des biens logiciels parce quil est prévisible de perdre le contrôle dun système sur lequel on na pas de réelle visibilité (à savoir, que lon puisse à tout moment mesurer la valeur de ce quil apporte et quon sache avec acuité comment et avec quoi il lapporte, sous peine de ne pas pouvoir réellement piloter).
Comment changer rapidement quand on ne sait pas mesurer rapidement limpact et le coût de nimporte quel changement métier sur le SI ? Ou quand on ne dispose pas des moyens de tester efficacement au préalable ces changements ? Quand on ne sait pas concevoir proprement le changement pour quil puisse se faire à la demande du métier, sans repasser par des cycles de développement et de mise en production complets ? Quand on ne sait pas ce qui a de la valeur, quelle soit de productivité ou métier, dans les processus, les données, les applicatifs ou les pratiques ? Quand la fenêtre de dialogue entre métiers et informatique est unidirectionnelle ou avec des retours avants/arrières, toujours en mode unitaire projet, plutôt quen mode collaboratif instantané avec une vision globale et transverse du SI ?
Définition
La gouvernance XE "gouvernance:de lentreprise" ou comment instaurer un gouvernement « éclairé »
Selon Le Petit Larousse, la gouvernance XE "gouvernance" est dabord laction de gouverner, une manière de gérer, dadministrer, pour exercer le pouvoir exécutif.
Le terme sest popularisé avec les différents scandales financiers aux États-Unis (Enron XE "Enron" , Worldcom, Tyco
) qui ont conduit à des lois de contrôle, en particulier aux États-Unis, où la loi fédérale de 2002 sur la réforme de la comptabilité des sociétés cotées et la protection des investisseurs a imposé de nouvelles règles sur la comptabilité et la transparence financières. Le texte est couramment appelé « loi Sarbanes-Oxley XE "loi Sarbanes-Oxley" », abrégé en SOX XE "SOX" \t "Voir loi Sarbanes-Oxley" du nom de ses promoteurs, les sénateurs Paul Sarbanes et Mike Oxley.
La demande, au-delà du seul contrôle financier, est dinstaurer une « gouvernance dentreprise » qui puisse rendre compte aux différentes parties prenantes (actionnaires, certes, mais aussi employés, clients, fournisseurs, partenaires et pouvoirs législatifs) que lentreprise est bien gérée et administrée, dune part, dans le respect des lois sociales et économiques et, dautre part, dans la construction de sa « proposition de valeur XE "proposition de valeur (de lentreprise)" » et la gestion de ses biens.
Une proposition de valeur bien construite suppose un partage de la valeur créée avec les différents contributeurs, tout en préservant la rentabilité économique de lentreprise.
La gouvernance du système dinformation est un principe dérivé qui porte sur la façon de gérer et dadministrer le système dinformation de lentreprise pour quil puisse contribuer à la création de valeur XE "la création de valeur" . La préservation et le développement des « biens immatériels », ainsi que la traçabilité XE "traçabilité" et le contrôle des données financières, entrent dans ce cadre.
La question de la « gouvernance du SI XE "gouvernance:du système dinformation" » nest pas seulement stricto sensu dinstaurer un mode de gouvernement du SI et de sassurer que le système dinformation en action soit bien piloté. Il sagit plutôt de sinterroger sur la façon de reprendre le contrôle. Une gouvernance qui ne regarderait que vers lavant sera amenée à trébucher faute davoir veillé aux fondations de son pouvoir.
Il sagit de reprendre le contrôle sur les informations, sur larchitecture (linfrastructure économique du SI), sur la façon dont on peut rassembler les individus dans une communauté dintérêts adhérant à une vision stratégique. La gouvernance, cest la capacité à donner de la connaissance et de la souplesse à une organisation pour quelle sache sadapter aux évolutions sans renier le passé, davantage que la volonté de conduire à force abrupte vers le futur.
Cest pourquoi la gouvernance est complexe et multidimensionnelle, car elle concerne autant les informations, les technologies que les hommes et quelle ne se décline pas seulement au présent : la prise en compte du passé et louverture vers le futur lui sont essentiels.
Les espèces évoluent avec leurs communautés écologiques. Cest une réalité du monde qui nous entoure et en loubliant, nous avons mis en péril beaucoup de choses. Lenjeu de lévolution des SI est similairement dêtre capable de comprendre, réutiliser, adapter lexistant, le patrimoine applicatif. Pour cela, il faut apprendre à concevoir autrement, en introduisant la notion de recyclable dans la conception, pour les générations futures, tout en rénovant progressivement ce qui existe afin de pouvoir lutiliser dans les nouveaux schémas.
Mais si la gouvernance doit prendre en compte de multiples dimensions, elle a toutefois une priorité quel que soit langle de son regard : se concentrer sur la valeur.
Modernisation et urbanisation : les deux faces de Janus
Le concept européen durbanisation est frère de celui de modernisation. Le changement en informatique est inéluctable. Pour éviter un développement anarchique de son système dinformation qui conduira invariablement à une complexité non maitrisée, il faut envisager les nouvelles applications et technologies à laune de lanalyse et la réutilisation de lexistant.
Un peu dhistoire
Lurbanisation XE "urbanisation" : de la ville au système dinformation
« Urbaniser, cest organiser la transformation progressive et continue du système dinformation visant à le simplifier, à optimiser sa valeur ajoutée et à le rendre plus réactif et flexible vis-à-vis des évolutions stratégiques de lentreprise, tout en sappuyant sur les opportunités technologiques du marché », Club Urba-EA
Lurbanisation représente laction durbaniser, cest-à-dire dorganiser le développement des villes. En système dinformation, le principe est le même. Il sagit de substituer aux constructions « big bang » une démarche qui vise à faire évoluer le SI de façon continue, cohérente avec la stratégie de lentreprise et qui ne fasse pas « table rase » du passé.
Ce concept est apparu la première fois lors dun exposé en 1989 du colloque de Cerisy intitulé « Les nouveaux rapports entre linformatique et lentreprise », par Elisabeth Heurgon XE "Elisabeth Heurgon" (responsable à lépoque des systèmes dinformation de la RATP). Les concepts de lurbanisation de lhabitat humain (organisation des villes, du territoire) ont été ensuite réutilisés en informatique (notamment par Jacques Sassoon dans les années 1990 dans le secteur bancaire) pour formaliser ou modéliser lagencement du système dinformation de lentreprise.
Les concepts durbanisation reposent « sur une organisation du système dinformation suffisamment modulaire pour pouvoir rénover une fonction (par exemple, la gestion des stocks) sans paralyser lensemble de lentreprise, tout en définissant les principes et les protocoles permanents qui assureront la cohérence et le fonctionnement de lensemble sur le long terme » (Christophe Longépé XE "Christophe Longépé" , Le projet durbanisation du SI, Dunod, 4e édition, 2009 [2001]).
En parallèle du concept est né le rôle darchitecte urbaniste XE "architecte urbaniste" , ou urbaniste XE "urbaniste" \t "Voir architecte urbaniste" du SI. Il vient sinscrire comme architecte à mi-chemin entre les métiers et le SI. Cest aussi à lui détablir les règles durbanisme et daccorder les « permis » de construire et le cadre architectural des nouvelles constructions afin quelles sinsèrent dans le SI global en respectant le « patrimoine » et lenvironnement.
Le concept repose sur le constat quil est illusoire de vouloir reconstruire entièrement un système dinformation en faisant table rase de lexistant, mais quau contraire les réorganisations et modernisations sont permanentes, un peu comme dans une ville.
Le défi des nouveaux modèles reste de ne pas oublier lexistant des SI sous peine de créer des strates de complexité. Il nest guère réaliste, pour des raisons de coûts, de délais et dadéquation fonctionnelle, dentreprendre une réécriture XE "réécriture" complète des applications métier pour profiter des nouveaux paradigmes darchitecture, ou de substituer à un système dinformation spécifique, mémoire de lentreprise, un progiciel indifférencié.
Lenjeu est de faire évoluer cet héritage complexe en minimisant les risques déchecs et les coûts. Insérer une nouvelle technologie par goût de linnovation ou pour la promesse de « ce quon pourrait faire avec » ne suffit plus à convaincre. Il faut linsérer là où elle sera nécessaire et en mesurer la valeur réelle. Cela veut dire quil faut analyser la différence entre larchitecture existante, les fonctions opérationnelles et les nouveaux besoins, ce quon peut réutiliser et comment évoluer progressivement vers un cadre architectural suffisamment souple pour amortir et intégrer les bénéfices des nouvelles technologies et répondre rapidement aux nouveaux besoins métier.
La nécessité de décomplexifier et modulariser le SI est très vite apparue. Comme pour les fonctions, pourquoi ne pas décomposer un assemblage complexe le système dinformation en le considérant comme un assemblage de sous-systèmes plus simples ?
Modularisation.png
Figure 9-1.
Principe de la modularisation XE "modularisation"
Comme lindique la figure ci-dessus, lurbanisation XE "urbanisation" du SI consiste à simplifier la boîte noire du SI en la décomposant en sous-modules fonctionnels, puis à simplifier et mutualiser dès que possible et rationaliser les échanges entre blocs. Par analogie avec lurbanisation dune ville, il sagit didentifier, voire créer, des quartiers relativement indépendants et les relier entre eux par des voies de communication.
On va donc découper le SI en modules fonctionnels autonomes (suivant la logique de cohésion forte et de couplage faible) de taille de plus en plus petite :
les zones ;
les quartiers (et les îlots si nécessaire) ;
les blocs (blocs fonctionnels).
Entre chaque module (zone, quartier, îlot, bloc) on concevra des zones déchange dinformations afin de découpler les différents modules pour quils puissent évoluer séparément tout en conservant leur capacité à interagir avec le reste du système.
Ces zones déchanges sont soutenues par les concepts et technologies dintégration, dabord EAI XE "EAI" (Enterprise Application Integration) et à présent ESB XE "ESB (Enterprise Service Bus)" (Enterprise Service Bus).
Lurbanisation sappuie sur des pré-requis comme une redéfinition des axes stratégiques et une connaissance précise des processus métier et du patrimoine afin que les nouvelles applications sinsèrent dans le cadre de cohérence et sintègrent à lexistant.
Cette démarche durbanisation passe par la définition des axes stratégiques de lentreprise puis par une cartographie XE "cartographie" de lexistant afin de pouvoir analyser le SI et proposer des recommandations, par la définition dune architecture cible et par son plan dévolution.
La cartographie implique un diagnostic de létat du SI avec une représentation commune à une maille qui permette :
didentifier les incohérences de construction : redondances, obsolescences ;
didentifier les processus et les règles métier mis en uvre ;
didentifier le lien entre loutil informatique et le système dinformation.
Lobjectif de lurbanisation étant déterminé cest-à-dire passer dun système dinformation complexe à une structure modulaire, appréhendable et évolutive, alignée avec les objectifs de lentreprise le principe connu (réduire la complexité dun tout en le décomposant en parties) et lacte fondateur posé, à savoir « établir une cartographie », reste la réalité : un labyrinthe avec non pas un, mais plusieurs, fils dAriane.
Établir des cartographies utiles, partageables et exploitées est loin dêtre une sinécure, comme on le verra par la suite (voir Les cartographies, p.206).
Durabilité et chaîne dagilité
On ne peut couvrir les principes de « SI durable » sans évoquer également les « architectures orientées services » (SOA) et combien leur principe est lié à ces notions dévolutivité, de recyclage, de réutilisation.
En introduction du livre Le système dinformation durable XE "durable (le système dinformation)" : la refonte progressive du SI avec SOA XE "SOA (Service Oriented Architecture)" \r "Agilité_SOA" (Lavoisier, 2008), les auteurs, Pierre Bonnet, Jean-Michel Detavernier et Dominique Vauquier, écrivent : « Lambition de construire aujourdhui nos systèmes dinformation de telle sorte quils ne limitent pas les capacités daction pour les générations futures est une ligne de conduite retenue par larchitecture orientée services. [
] Cest dans ce contexte que lentreprise se dote dune architecture informatique durable qui saura absorber les évolutions, cest-à-dire capable de se recycler plus facilement face aux changements métier et technique. Il nest pas intéressant de reconstruire un système si celui-ci est incapable de sadapter aux nouveaux besoins qui se présentent. Nous devons penser différemment linformatique dans le but de la rendre recyclable au fur et à mesure des évolutions. »
Ainsi exprimée, lambition du système dinformation durable avec la SOA nest pas tant « penser différemment » quarriver à laboutissement tangible de courants de pensée tels que lurbanisation XE "urbanisation" et la modularisation XE "modularisation" fonctionnelle, dune part, et à lélévation des niveaux dabstraction, des modèles des systèmes au-dessus des plates-formes de déploiement et
à la logique dassemblage par composants de lorienté objet, dautre part.
En annexe on trouvera des références à CORBA et lOMA XE "OMA (Object Management Architecture)" (le modèle SOA de lorienté objet), au modèle MDA XE "MDA (Model Driven Architecture)" (Model Driven Architecture les méta-méta modèles de linformatique) et également à lévolution des architectures dintégration pour arriver à lESB XE "ESB (Enterprise Service Bus)" (Enterprise Service Bus). Tous ces composants sont les ferments en gestation de larchitecture SOA. Les catalyseurs qui ont permis la maturation en un concept global sont autant la logique douverture induite par le déploiement des systèmes sur le Web et la nécessité dexposer rapidement des fonctions dusage, que lévolution des concepts de réutilisabilité XE "réutilisabilité" avec la notion de service.
Un service répond à un besoin et ne traite quune seule préoccupation. Cest aussi un composant autonome qui ne dépend daucun contexte ou service externe. Surtout, on peut créer des services indépendamment de la plate-forme dimplémentation, sans besoin dêtre forcément en orienté objet.
Définition
À votre « service », mais lequel ?
Le service XE "service (SOA)" est lunité atomique dune architecture SOA. Une application est un ensemble de services qui dialoguent entre eux par des messages.
Le service peut être codé dans nimporte quel langage et sexécuter sur nimporte quelle plate-forme (matérielle et logicielle).
Un service est une entité de traitement qui respecte les caractéristiques suivantes :
large granularité (coarse-grained XE "coarse-grained (large granularité)" \t "Voir service (SOA)" ) : les opérations proposées par un service encapsulent plusieurs fonctions et opèrent sur un périmètre de données large, au contraire de la notion de composant technique ;
linterface : un service peut implémenter plusieurs interfaces et plusieurs services peuvent implémenter une interface commune ;
la localisation : avant dappeler (bind, invoke) un service, il faudra le trouver (find) ;
linstance unique : à la différence des composants qui sont instanciés à la demande et peuvent avoir plusieurs instances en même temps, un service est unique. Il correspond au Design Pattern Singletonle couplage faible (loosely-coupled) : les services sont connectés aux clients et autres services via des standards. Ces standards assurent le découplage, cest-à-dire la réduction des dépendances. Ces standards sont des documents XML comme dans les Web services ;
Toute la difficulté de la conception en SOA est didentifier la bonne « granularité XE "granularité" \t "Voir service (SOA)" du service », cest-à-dire la maille métier où le traitement a un sens en termes dusage et où il peut être facilement réutilisé et/ou adapté dans dautres circonstances, pour dautres besoins et processus métier. Les services doivent impérativement dépasser les silos applicatifs traditionnels pour être utiles. Ils ne peuvent donc pas être conçus dans une approche danalyse fonctionnelle classique et surtout pas par des informaticiens qui en verraient dabord laspect ingénierie logicielle. Reste donc à définir la bonne méthode dapproche.
Une proposition intéressante, qui établit la continuité avec les méthodes durbanisation et les approches orientées objets est la méthode Praxeme (voir p.215). Cest le nom dune initiative ouverte, regroupant plusieurs sociétés (en association loi 1901) en vue délaborer une méthode publique.
Cette méthodologie dentreprise couvre tous les aspects de lentreprise, de la stratégie au déploiement. On y trouve notamment des procédés pour larchitecture logique et la conception des services SOA, pour la conception des organisations et des processus, pour la modélisation sémantique (référentiel « métier »), etc.
Il apparaît que la maille service est la maille idéale pour faire fonctionner les systèmes ensemble, couplée avec trois logiques :
une logique dindustrialisation des canaux de communication : linfrastructure dintégration devient un ESB XE "ESB (Enterprise Service Bus)" , un bus dintégration à léchelle de lentreprise et non limité à un silo applicatif ;
une logique de gouvernance XE "gouvernance:des données" des données ;
une logique de paramétrage XE "paramétrage" pour rendre le SI plus souple et autonomiser les métiers.
Si les techniques dencapsulation des applications existantes en mode services ont prouvé aujourdhui leur faisabilité et leur efficacité, il reste encore à aller au-delà pour que la notion de services ne soit pas juste une réfection temporaire dune façade, en laissant les fondations saffaisser. Cela nest pas quaffaire de technologie, il sagit également dune rénovation en profondeur de nos façons dagir, à savoir ne pas seulement penser linformatique différemment mais revoir nos organisations en ce sens.
Le SOA nest pas un outil dassemblage de composants arrivés à maturité mais un paradigme transformationnel.
Larticle « SOA is dead ; long live services » de Anne Thomas Manes XE "Anne Thomas Manes" du Burton Group,ne dit pas autre chose : sil y a eu des échecs spectaculaires, et aujourdhui une désillusion à la hauteur de ce que le concept SOA avait pu susciter comme enthousiasme, cest que la mise en uvre dun paradigme transformationnel requiert une transformation complète de notre façon de concevoir et dopérer les SI. Ce nest pas juste affaire, ainsi quelle le souligne, « de déployer une nouvelle technologie et de créer des interfaces de service par-dessus des applications existantes ».
ACMS.png
Figure 9-2.
La chaîne dagilité de la communauté « sustainable IT »
Sustainable IT communauty (copyright)
Dans cette optique de transformation, Praxeme et une communauté sur, « sustainable IT », poussent également à lutilisation dune « chaîne dagilité » ou ACMS (Agility Chain management System) XE "ACMS (Agility Chain Management System)" fondée sur lusage de concepts et doutils tels que les MDM (Master Data Management) XE "MDM (Master Data Management)" pour la gestion des données transverses à lentreprise (les données maître), les BRMS (Business Rules Management System) pour la gestion des règles métier, et les BPM XE "BPM (Business Process Management)" (Business Process Management) pour la gestion des processus métier et pour orchestrer le tout.
Les dispositifs des deux premières briques facilitent le partage sémantique et lensemble autorise des processus paramétrés (MDM et BRMS) et allégés (BPM).
Limplémentation de cette chaîne repose sur un cycle de développement itératif et commence par le MDM pour arriver séquentiellement au BPM.
Cest une approche qui a le mérite de sadresser au besoin de paramétrage XE "paramétrage" du SI et de respecter lalignement en conduisant aussi lapproche avec les processus.
Les cartographies
Les systèmes dinformation des entreprises sont des territoires quil faut pouvoir cartographier pour voyager sans risque sur les terres connues, et explorer le potentiel de développement de nouvelles routes déchanges dinformation (extra-entreprise). Autrefois, les lignes maritimes servaient aux échanges de biens matériels et ceux qui possédaient les « bonnes » cartes pour naviguer disposaient dun temps davance pour la conquête de terres ou de commerces. De même, pour les systèmes dinformation, il faut sinterroger sur les cartes de représentation de ce monde virtuel : comment les construire (quelles représentations, quels repères, quels moyens de collecte) ? Comment les exploiter (quelles routes prendre, quels obstacles éviter, quels mouvements prévoir, de quelles connaissances se prévaloir) ? Comment les comprendre et les étendre en explorant dautres « dimensions ».
Comme pour le monde réel, les cartes de notre monde « immatériel » se bâtissent sur les mêmes tâtonnements, les mêmes règles, certaines bien visibles, dautres plus subtiles.
Les premiers cartographes utilisaient des systèmes de projection, des référentiels XE "référentiels:cartographiques" et des repères, et établissaient des cartes du « monde connu » en fonction des descriptions obtenues.
« Ce nest pas le géographe qui va faire le compte des villes, des fleuves, des montagnes, des mers et des océans. Le géographe est trop important pour flâner. Il ne quitte pas son bureau. Mais il reçoit les explorateurs. Il les interroge, et il prend note de leurs souvenirs ». Cette citation du Petit Prince de Saint-Exupéry nous rappelle également comment sétablissent aujourdhui bon nombre de cartographies XE "cartographie" \r "cartographie" du moins fonctionnelles, des systèmes dinformation : par la collecte dinformations à travers des interviews.
Le cartographe a besoin « dexplorateurs », ici, de ressources pour rechercher les informations sur les systèmes. Sans cela, il ne peut compiler la somme des connaissances de son temps et mettre à jour de nouvelles cartes. Ce que le cartographe apportera en plus, cest la manière détablir une « projection » du monde et la méthode pour établir les repères de la carte.
Référentiel de lecture ou référentiel spatio-temporel
Si la carte peut matérialiser le voyage, la « trace » et litinéraire, elle ne le peut sans repère et sans référentiel. Le mouvement se décrit et se partage en fonction dun référentiel spatial et temporel. Ce qui nous amène à nous pencher sur deux définitions de référentiel dont la différence est lourde de conséquences pour les systèmes dinformation : le référentiel de lecture et le référentiel despace/temps.
Le référentiel de lecture de cartes consiste à partager des définitions sur les données de la carte (informations et objets que lon veut y faire apparaître en fonction de lobjectif de la carte). Afin de faciliter la lecture des cartes et de traiter certaines informations, plusieurs référentiels XE "référentiels:administratifs ou techniques" administratifs ou techniques sont utilisés dans nos cartes du monde. Ces référentiels agissent ici plutôt comme mode opératoire, ce sont des systèmes de lecture, de partage de sens et sont plus ou moins assimilables à des catalogues ou à des systèmes de classification dobjets, a priori invariants. Les géographies des systèmes dinformation ont de leur côté des difficultés autres :
dans lappréciation de ce qui est réellement invariant pour établir une cartographie souvent partagée entre lutile à court terme et lindispensable à long terme ;
dans lusage du temps comme repère pour pouvoir parler de mouvement et dévolution ;
et dans le temps donné à létablissement des cartes, tant pour la compréhension du périmètre, des objectifs, des repères (axes de représentation dans lespace et axe temporel), le choix ou létablissement dun modèle de projection, que pour la collecte.
Lutile et lindispensable
Lapproche de la cartographie pour une logique durbanisation du SI est une approche à long terme où il faut pouvoir dégager la notion dinvariant métier, les objets métier et leur sens.
Lidéal est de pouvoir disposer dun méta-modèle avec des couches dabstractions qui permettent lindépendance vis-à-vis des plates-formes physiques et des modèles de réconciliation/dérivation (on se réfèrera au MDA XE "MDA (Model Driven Architecture)" , (Model Driven Architecture), avec le PIM (Platform Independant Model) et PDM (Platform Dependant Model) Peu à peu, cette logique nous guide vers une approche plus durable des systèmes dinformation.
Encore faut-il restructurer lexistant en ce sens, et pour le restructurer, comprendre sa géographie et ses informations. Où donc commencer dans létablissement de la cartographie ? Faut-il envisager le modèle idéal cible (et sengager dans une « quête du Graal ») ou commencer par répertorier les traces déjà existantes, les itinéraires tracés, quitte à ne garder de la route existante que le réellement signifiant (qui a un sens sur la durée, du moins) ? Il y a un juste milieu entre vouloir tout cartographier en profondeur et se fixer dabord des objectifs de dialogue utile sur le plus grand périmètre possible pour avancer concrètement. Le risque sinon est de se perdre dans la cartographie du détail au détriment de lusage.
Selon les services que doit rendre la cartographie, on la voudra plus ou moins étendue et lon se concentrera sur les informations indispensables à faire apparaître, dans un premier temps, pour prendre des décisions. Les cartes devront sétoffer de lexpérience pratique du parcours, comme autrefois les cartographes mettaient à jour leurs cartes avec le retour des explorateurs.
Il y a deux temps pour établir la carte avec ce qui est indispensable pour quelle soit utile dans lobjectif quon lui fixe. Celui de la réflexion pour une carte générale (indépendamment de tout voyage ou projet), qui devra sastreindre à ne pas être trop détaillée, et celui du parcours à étoffer projet par projet avec ce qui savère réellement utile, en plus de lindispensable.
Le temps comme repère
Si nous voulons utiliser la cartographie du SI pour aller au-delà dun état des lieux statiques, pour savoir vers où progresser, pour déterminer vers où nous dirige un mouvement, on doit impérativement définir un système de référence.
Lévénement pourra sembler différent selon lemplacement où se trouve lobservateur, et selon les repères quil a. Pour décrire le même événement de la même manière, les observateurs devront se mettre daccord sur le repère à partir duquel ils étudient le mouvement.
Nous sommes donc ici dans lapproche physique et non plus catalogue du référentiel, où l« on appelle système de référence, ou référentiel, un système de coordonnées muni dune horloge » . Des notions telles que le cycle de vie XE "cycle de vie:de linformation" de linformation et le cycle de vie des objets prennent alors leur importance. La définition dindicateurs dévolutivité est importante pour positionner tout ou partie du SI sur une carte de référence avec des coordonnés spatiales (des axes orientés danalyse) et temporelles.
Le temps de cartographier
Le problème est de passer dun repère despace, avec un ensemble important daxes orientés, a un repère plan. Les axes sont multiples dans un SI, quil sagisse danalyser les données, les applications, les flux, les processus, les tâches, les fonctions ou les compétences et lalignement avec une stratégie daffaires.
Comment choisir les axes danalyse à bon escient ? Faut-il tout dabord se poser la question de laxiologie : à quelles fins ? Selon quelles valeurs/modèles ? Puis questionner lopérationnalité : quels objectifs ? Une certification, une optimisation précise ? Une mesure de performance, de maturité ? Encore faut-il le faire par rapport à un modèle de valeurs spécifiques aux natures de besoins (optimisation, conception, production, alignement stratégique). Quels référentiels dès lors utiliser ? Ce temps de définition du périmètre est indispensable pour optimiser le temps et lefficacité dune démarche de cartographie. Connaître ainsi la cartographie des référentiels est un préalable à la cartographie du SI.
Le problème est quon ne parle pas ici dun référentiel mais de plusieurs, dont quelques-uns sont évoqués ci-dessous. Certains sont des référentiels XE "référentiels:de lecture" de lecture, dautres plus ou moins spatio-temporels dans la mesure où ils permettent de positionner le SI sur un modèle de maturité et dobserver lévolution sur des axes définis.
Les premiers référentiels XE "référentiels:de données" évoqués dans les systèmes dinformation ont été les référentiels de données, envisagés dans un premier temps au niveau applicatif, pour désigner un ensemble rationalisé des données dont se sert une application. Lobjectif est double : dune part, il vise le meilleur partage des informations de référence (en termes de qualité et de maîtrise des échanges de référence) et, dautre part, il sinscrit dans une optique de meilleure réactivité du SI face aux évolutions. En loccurrence, lévolution du référentiel de donnés applicatif est le MDM XE "MDM (Master Data Management)" (Master Data Management) qui réconcilie une approche globale des données de référence XE "données de référence" au niveau du SI.
Ces référentiels permettent une cartographie des applications avec le flux dinformation entre applications. Reste à faire le lien entre les applications et les infrastructures techniques et les informations relatives à la sécurité des applications, cest-à-dire éventuellement les référentiels de règles y afférant.
À un autre niveau, les référentiels XE "référentiels:des processus métier" de processus métier sont au-delà de lapproche applicative car ils ne doivent pas être soumis aux contraintes dimplémentation ou dautomatisation mais bien apporter une modélisation partageable entre acteurs, avec des définitions sémantiques des objets métier autre référentiel de lecture à construire , un découpage en tâches et sous-tâches pour arriver à une granularité qui peut être observée/analysée (de façon à décomposer la complexité et pouvoir réutiliser des services). À la clé : partage dinformation, vision réellement attachée à la valeur pour les métiers plutôt quaux contraintes techniques, réutilisation, etc.
Quant aux référentiels XE "référentiels:de compétences" de compétences, ils servent à tenir compte de laxe ressources humaines, ils facilitent la gestion prévisionnelle des compétences et la capitalisation sur les retours dexpériences projet, déterminant les comportements attendus en fonction des activités et les pré-requis dexpériences ou de connaissances. Là encore, la granularité du découpage en sous-tâches et tâches sera clé dans lefficacité du référentiel (objectif de formation attaché à une micro-activité, par exemple).
Les référentiels XE "référentiels:de meilleures pratiques" portant sur la qualité ou les processus SI XE "processus:de la DSI" (tels COBIT XE "COBIT" , ITIL XE "ITIL" , CMMI XE "CMMI" ), sont quant à eux des référentiels de meilleures pratiques qui permettent de positionner son SI sur une cartographie XE "cartographie" cible. Reste là encore que chaque référentiel est plus ou moins bien adapté à un domaine et à des objectifs (ITIL : exploitation, CMMI : développement avec une version maintenance, COBIT : contrôle et pour partie gouvernance) et que leur usage doit passer par une nécessaire réflexion sur laxiologie de la cartographie et les objectifs court terme/long terme.
On peut également parler de référentiel risques XE "référentiels:de risques" (y compris risques vis-à-vis de lévolutivité), pour que les entreprises puissent être en mesure dy positionner leurs enjeux, dévaluer leur exposition selon différents scenarii et de prendre ou de faire prendre des mesures visant à réduire la vulnérabilité des enjeux où cela est possible.
Choisir dabord les axes danalyse (a priori ceux définis pour la gouvernance), cartographier les référentiels XE "référentiels:cartographie des" existants (internes et externes) et en réutiliser ce qui est pertinent, commencer avec lindispensable sur une trajectoire utile à court terme (projet locomotive, par exemple), voilà comment le cartographe peut débuter. Il lui reste toujours le problème de la collecte, et son besoin dexplorateurs.
La carte nest pas le territoire
Si la collecte par témoignages a évolué aussi dans les systèmes dinformation de par lexistence de mesures automatiques (essentiellement remontées de sources techniques), il nen reste pas moins que de nombreuses données sont encore remontées par lanalyse humaine. On ne peut faire abstraction des questions suivantes : Qui collecte les informations ? Qui construit les cartes et pour quelle utilité ? Qui valide et publie les cartes ? Nous avons fait la distinction entre le cartographe et lexplorateur, reste également à évoquer le commanditaire et se rappeler la citation de Philippe Rekacewicz, responsable de léquipe de cartographes de latlas du Monde diplomatique : « La carte géographique nest pas le territoire. Elle en est tout au plus une représentation ou une perception. La carte noffre aux yeux du public que ce que le cartographe (ou ses commanditaires) veut montrer. Elle ne donne quune image tronquée, incomplète, partiale, voire trafiquée de la réalité ».
De par le choix dun système de projection du SI sur des axes danalyse, nous avons de toute façon une déformation de la réalité et nous devons nous satisfaire de représentations tronquées, à moins de poursuivre un idéal de détails préjudiciable à lusage réel de la carte. Mais il serait naïf de croire que la cartographie des SI ne soit pas également sujette à des enjeux géopolitiques. Quid de ce qui est entre deux eaux, deux domaines, deux responsabilités dans les cartographies applicatives ? On se dispute aussi sur les territoires limitrophes pour repousser des responsabilités du champ des mesures de performance, si elles nont pas été prises en compte dans le choix des indicateurs qui permettront les mesures, ou étendre son pouvoir de décision.
Dès lors, il faut une logique transverse, une légitimité du cartographe qui lui permette dacter aux frontières sans avoir à chercher un consensus qui nest pas forcément à lavantage commun de lentreprise mais qui sinscrit plutôt dans la logique datteinte dobjectifs individuels insuffisamment mis en cohérence. Ensuite, le choix des axes danalyses, le choix du niveau de représentation, relève dune stratégie dentreprise, une volonté de direction, et cest la valeur escomptée de lexploration qui décidera des explorateurs.
Les référentiels
Ainsi quévoqué précédemment, les référentiels sont de multiples natures.
La cartographie des référentiels sur la « vue 360° » du SI
Un référentiel, par définition, est un ensemble déléments formant un système de référence. Ils sont des guides qui font autorité dans une profession et que lon consulte pour trouver une information dans un domaine particulier. Ils peuvent aussi être plus directifs et fournir avec précision un ensemble dexigences à satisfaire pour lobtention dune certification reconnue.
La pratique et lexpérience ont conduit les professionnels des logiciels et des systèmes dinformation à constituer un certain nombre de XE "référentiels:de meilleures pratiques" référentiels, modèles types ou cadre générique de meilleures pratiques. La figure ci-dessous illustre sur la « vue 360° du SI », les différents types de référentiels, et nous allons revenir sur quelques-uns des modèles et cadres de références.
Certains sont des référentiels de lecture, dautres plus ou moins spatio-temporels dans la mesure où ils permettent de positionner le SI sur un modèle de maturité et dobserver lévolution sur des axes définis.
Référentiel360.png
Figure 9-3.
Les différents types de référentiels sur la « vue 360° » du SI
Par extension, nous avons mis dans « sécurité » tout ce qui concerne le contrôle qualité et la vérification de la conformité à des exigences.
Une des premières briques de la qualité et du contrôle est le référentiel de test. Il contient les jeux de données et les cas de tests spécifiques aux services fournis par le SI et facilite les opérations sur des applications en production en autorisant lautomatisation des tests de non-régression XE "non-régression (tests de)" . Il est important de réaliser ces référentiels XE "référentiels:de tests" au plus tôt dans le cycle de vie XE "cycle de vie:des applications" dune application, en principe dès la modélisation, afin de limiter les erreurs qui peuvent être générées au moment des spécifications.
Les référentiels XE "référentiels:de meilleures pratiques" , ITIL XE "ITIL" , CMMI XE "CMMI" (Capability Maturity Model for Integration), COBIT XE "COBIT" sont des référentiels de type guide, portant sur les processus internes de la DSI XE "processus:de la DSI" , afin que les développements, lexploitation, les pratiques de contrôle conduisent à produire des systèmes de meilleure qualité, conformes aux exigences, pour des coûts et des délais moindres. Ils sont donc considérés sur laxe sécurité, dans la classification « processus et procédure qualité et contrôle ».
CMMI, aussi bien quITIL, proposent des certifications à plusieurs niveaux selon le degré de maturité que lorganisation a dans la mise en uvre des recommandations et le respect des prescriptions.
CMMI peut être considéré comme un référentiel spatio-temporel car il distingue plusieurs niveaux de maturité de lentreprise (1 à 5).
De plus, le SEI (Software Engineering Institute XE "SEI (Software Engineering Institute)" ) à lorigine de CMMI a étendu le modèle original, axé sur les développements logiciels en spécifique, sur des modèles de maturité pour la gestion des compétences (CMM for people), ou des modèles de contrôle des sous-traitants pour la maintenance (CMM for maintenance).
Le modèle MDM XE "MDM (Master Data Management)" (Master Data Management) est une réponse à la gestion du dictionnaire de données XE "dictionnaire de données" de référence XE "données de référence" qui offre une première brique de la compréhension sémantique des métiers. Pour être complet, nous devrions lui adjoindre un référentiel des règles de gestion, pour faciliter la flexibilité des systèmes développés.
Les référentiels darchitecture dentreprise
Côté architecture, il existe plusieurs cadres de références dentreprise (EAF XE "EAF (Enterprise Application framework)" , Enterprise Application Framework) qui proposent des méthodes globales pour aborder la conception et la réalisation dun système dinformation dans une logique architecture dentreprise, en recensant les informations à collecter et la manière dont elles interfèrent entre elles et sont manipulées.
Ainsi, le framework de Zachman XE "Zachman (framework de)" , représenté par la figure suivante, est un cadre très général, pratiquement exhaustif, qui croise deux dimensions : celles du questionnement sur ce quon veut réaliser (quoi, comment, où, qui, quand et pourquoi) et celle des groupes de parties prenantes (visionnaire, propriétaire, concepteur, réalisateur, sous-traitant et exécutant). Si la vue est holistique (elle ramène des vues individuelles et complémentaires à lensemble dans lequel elles sinscrivent), elle est malheureusement peu exploitable avec les 36 modèles générés.
Zachmanframework.png
Figure 9-4.
Le framework de Zachman
© John A. Zachman
Zachman est un guide de référence fort utile mais peu exploité en pratique en entreprise, du fait de sa complexité et des limites humaines dappréhension. Nous rappelons ici en effet la difficulté davoir une perception globale dun ensemble dès quil comporte plus de sept éléments.
Autre cadre darchitecture très connu, le Togaf XE "Togaf" , dabord conçu par le DoD XE "DoD (Department Of Defense)" (Department Of Defense) aux États-Unis, puis repris et développé par lOpen Group (voir historique de lassociation p.277). À linverse du cadre de Zachman, le Togaf (The Open Group Architecture Framework) est davantage porté par les entreprises. Il identifie quatre plans de description de lentreprise :
larchitecture métier (description de lorganisation et des activités, par les fonctions et les processus) ;
larchitecture des données (modèle logique des données) ;
larchitecture applicative ;
larchitecture technologique (choix techniques et infrastructures).
La méthode Praxeme XE "Praxeme" (initiative pour une méthode publique) a été élaborée en France dans le cadre du chantier Praxime pour devenir ensuite une méthode publique poussée par une organisation loi 1901. Ses principaux contributeurs sont les sociétés SACEM et SMABTP.
Praxeme se fonde sur une topologie du système dentreprise, un schéma qui identifie et articule huit aspects, qui sont les angles de vue du système pour pouvoir le représenter de la manière la plus efficace possible.
Praxemetse.png
Figure 11-5.
Topologie du système dentreprise selon Praxeme
Copyright Praxeme
Du bon usage des référentiels
En plus des référentiels XE "référentiels:de meilleures pratiques" déjà cités, on ajoutera sur les axes métier et marketing SI, le BABOK XE "BABOK (Business Analyst Body Of Knowledge)" (Business Analyst Body Of Knowledge) qui est le guide international conçu par lIIBA XE "IIBA (International Institute of Business Analysis)" (International Institute Business Analyst) pour recueillir les meilleures pratiques des analystes daffaires XE "analyste daffaires" , notamment dans la gestion des exigences XE "exigences" (traçabilité des besoins, des demandes des utilisateurs, exigences fonctionnelles ou non fonctionnelles).
Sur laxe sécurité et contrôle qualité, il faut également citer le PMBOK XE "PMBOK (Project Management Body Of Knowledge)" du PMI XE "PMI (Project Management Institute)" (Project Management Institute) pour la gestion de projets.
De nombreux guides existent sur lensemble des axes de la « vue 360° du SI ». Ils sont plus ou moins complets, plus ou moins précis sur la façon de décliner les modèles, mais ils sont pour la plupart très utiles pour se référer aux meilleures pratiques. Lobjectif pour une entreprise nest pas de poursuivre une certification à lun ou lautre de ces modèles pour garantir la maîtrise de son SI. Il faut dabord quelle maîtrise sa compréhension de lutilité des différents référentiels par rapport à sa propre situation, ce quelle peut en choisir pour combler ce qui lui manque ou améliorer ce quelle a déjà, ou encore ce quelle doit créer quelle ne trouvera pas forcément dans les modèles existants mais qui savère indispensable pour une vue complète du système dinformation, en tant que recueil des questions et des vues en réponse.
Ce ne sont pas les référentiels ni les outils qui font la gouvernance, même sils sont nécessaires pour partager de linformation et des savoir-faire. De ce fait, la modernisation dun système dinformation passe par la nécessaire réflexion sur les outils utilisés : comment ils le sont, et pourquoi ils devraient continuer, ou non, à lêtre. Lart de la méthode, en somme, est aussi important que celui de la technique, et tous deux nécessitent un savoir-faire qui doit sapprendre par la pratique et du
bon sens.
Le bon sens, selon Descartes, est une chose reçue en partage par tous les hommes : « La puissance de bien juger et distinguer le vrai davec le faux, qui est proprement ce quon nomme le bon sens ou la raison, est naturellement égale en tous les hommes; et ainsi que la diversité de nos opinions ne vient pas de ce que les uns sont plus raisonnables que les autres, mais seulement de ce que nous conduisons nos pensées par diverses voies, et ne considérons pas les mêmes choses. Car ce nest pas assez davoir lesprit bon, mais le principal est de lappliquer bien. »
Le bon sens ne suffit donc pas, car si tous ont reçu la capacité à bien juger, reste à lexercer en cherchant une vérité qui nest pas acquise, en utilisant cette capacité de distinguer ses erreurs (le vrai du faux) dans la faculté de concevoir, la mémoire, limagination, la volonté de créer. Ainsi est-il a priori possible de bien gouverner sur la base de décisions raisonnables qui se bâtiront sur notre connaissance des faits. Doù lintérêt davoir des référentiels de bases de capitalisation, des outils pour nous donner une meilleure connaissance des faits.
Toutefois, il ne faut pas oublier deux fondamentaux. Les référentiels sont rarement complets et dessinent au mieux une carte à une échelle figée (un angle de vue), du système dinformation. La connaissance des faits est le plus souvent partielle et il faut accepter une part dincertitude nécessaire, dans les choix, compte tenu de ce que nous pouvons savoir, car poursuivre une cartographie complète et détaillée du système dinformation, qui reflèterait toutes les diverses voies de la pensée, est irréaliste. Ensuite, la réalité de la vie est le mouvement : le changement est la seule constante. Une gouvernance XE "gouvernance:du système dinformation" en accord avec la réalité exige dès lors une grande adaptabilité dont lensemble des référentiels existants dits de gouvernance ne se font pas forcément le reflet.
Chapitre 10
La prétention à lindustrialisation
Il HYPERLINK "http://www.evene.fr/citations/mot.php?mot=faut" faut HYPERLINK "http://www.evene.fr/citations/mot.php?mot=etre" être HYPERLINK "http://www.evene.fr/citations/mot.php?mot=ambitieux" ambitieux, mais il ne HYPERLINK "http://www.evene.fr/citations/mot.php?mot=faut" faut pas se HYPERLINK "http://www.evene.fr/citations/mot.php?mot=tromper" tromper d HYPERLINK "http://www.evene.fr/citations/mot.php?mot=ambition" ambition.
HYPERLINK "http://www.evene.fr/celebre/biographie/jacques-de-bourbon-busset-276.php" \o "Voir la fiche de Jacques de Bourbon Busset" Jacques de Bourbon Busset
Pourquoi linformatique rêve-t-elle dindustrialisation ? Sans doute pour effacer définitivement le fameux paradoxe de Solow XE "Solow Robert" évoqué au chapitre 2 et montrer lexemplarité de la performance des processus internes des services informatiques. Eux qui doivent justement optimiser par lautomatisation des échanges et la numérisation de linformation les processus de lentreprise.
Il est légitime de perfectionner les processus de conceptions, de développements et de maintenance dapplications, en particulier pour lier la conception à limplémentation, automatiser les tâches répétitives, envisager de meilleures façon de gérer des traitements de masses ou de répliquer ce qui peut lêtre. La cible est louable : il sagit de réduire les coûts et les délais des projets tout en optimisant la qualité des résultats produits. Toutefois, il faut garder à lesprit que la création de valeur ne passe pas par le « tout standard » ou « tout industriel ».
Avant de répliquer des processus existants à laide des TIC pour quils soient plus performants et les améliorer continuellement, la valeur des systèmes dinformation est également de remettre en cause les façons de faire. Il ne faut pas hésiter à faire autrement si nécessaire, quand la valeur est au rendez-vous.
De même, il ne faut pas sattendre à pouvoir appliquer des moules à des situations complexes sans avoir à ajuster et instancier des principes, créés pour être le plus générique possible, à des environnements existants qui, eux, sont uniques.
Enfin, il ne faut pas se tromper de cible et oublier les préalables à lindustrialisation : avoir des méthodes, des outils, des instruments de mesure et de pilotage et un environnement de production relativement standardisé. Demander à lexternalisation les bénéfices de lindustrialisation immédiatement, en confiant à un prestataire une application spécifique artisanale, est une incompréhension de fond de tous ces principes.
Le triptyque coût/délai/qualité et ses limites
Linformatique nest pas encore une discipline industrielle à en croire le manque de prédictibilité de projets, mais elle tend de plus en plus à emprunter ses derniers concepts aux modèles de lindustrie : usines « logicielle », industrialisation XE "industrialisation" , centre de services, lean six sigma XE "lean six sigma" , etc.
Lindustrialisation dun produit ou dun processus, cest utiliser des techniques de production qui permettent de pouvoir répliquer en grande quantité la fabrication de produits à partir de matière première, ou de faire en sorte quun processus soit reproductible à grande échelle. Lobjectif recherché est de maîtriser la qualité du produit fini et de pouvoir fabriquer plus de produits à des coûts et des délais moindre.
Cest dans la définition même de lindustrialisation quon peut en trouver les avantages et les limites pour les systèmes dinformation. En particulier, on ne fabrique pas forcément des produits à grande échelle dans ce domaine et la chaîne de production joue plus sur une chaîne de valeur à faire collaborer ensemble des expériences et des expertises différentes. La matière première, ici, est lhumain.
Sans pour autant comparer linformatique à une chaîne de production XE "chaîne de production" , il est possible dautomatiser certaines tâches répétitives et contraignantes du développement, par exemple des activités de test et de compilation, et dès lors, de laisser les développeurs et les concepteurs se concentrer sur la valeur ajoutée et linnovation des solutions.
En matière de maintenance, on peut minimiser les coûts et les délais tout en augmentant la qualité à travers une automatisation sélective des opérations et des modèles de sous-traitance « sous contrôle » de tout ou partie du processus, tout en garantissant que le résultat sera mieux structuré, plus aisé à maintenir et à faire évoluer, avec des coûts dexploitation moindres quau départ. Ce sont là les bénéfices de lindustrialisation du processus.
Il est également possible de trouver ladéquation coût/délai/qualité en utilisant les meilleures pratiques issues des leçons de la maturité informatique.
Lapproche MDA XE "MDA (Model Driven Architecture)" (Model Driven Architecture) soutenue par lOMG XE "OMG (Object Management Group)" prévoit plusieurs modèles, du métier indépendant de la plate-forme physique à celui lié à la plate-forme physique et des logiques de génération qui permettent de garder le lien avec le besoin métier. Ainsi les logiciels développés le sont-ils dans une logique de chaîne de production entre la conception et la construction.
De façon plus globale, la vision architecture dentreprise XE "architecture dentreprise" a pour ambition de mieux formaliser autant le système dinformation en tant que brique métier de lentreprise, que lentreprise et ses autres processus métier à travers les cartographies et représentations/modèles fournis par le système dinformation. Les référentiels XE "référentiels:de meilleures pratiques" tels quITIL XE "ITIL" , CMMI XE "CMMI" et COBIT XE "COBIT" sont dailleurs des cadres de cohérence pour identifier les meilleures pratiques en matière de processus propres au métier DSI. Le métier sindustrialise ainsi dans ses méthodes de conception, construction et pilotage.
Reste quil ne faut pas confondre meilleures pratiques avec production de masse, et assimiler un cadre de cohérence à un moule unique. Les systèmes dinformation sont des productions intellectuelles avec des ressources physiques particulières, chaque produit étant unique, de par son adhérence avec un existant et des enjeux dentreprise quil sert. Il faut savoir adapter les modèles génériques aux cas individuels.
Tant quil sagit dindustrialiser un processus de maintenance XE "processus:de maintenance" parce que lon juge que la conception de lapplication existante est rôdée ce qui veut dire peu de changements dans les besoins, sinon des corrections mineures, et du support dinfrastructure et utilisateur tout va relativement bien. Industrialiser le développement logiciel dune application via des briques réutilisables de services a ses limites dans la réplicabilité de modèles, quand cette nouvelle application doit apporter une valeur perçue unique, différenciatrice tant dans sa conception (nouvelles méthodes et/ou nouvelles technologies) que dans son usage.
Cela relève de linnovation industrielle et nécessite des maquettes et des prototypes avant dêtre certain de la faisabilité technique et de la recevabilité marchés ou utilisateurs dun concept. Des tests doivent être exécutés au plus tôt pour limiter les risques et augmenter la qualité. Les systèmes dinformation « cur de métier » ne sont pas dans une logique de production de masse.
Cest là où lindustrialisation atteint ses limites et où lanalyse de la valeur XE "analyse de la valeur" doit sinscrire en rupture avec des méthodes damélioration continue, pour ne pas hésiter à rompre avec un existant qui ne répond plus à léquation valeur car il névolue plus quen fonction du triptyque coût/délai/qualité.
Les modèles de lindustrie qui font rêver linformatique
Lamélioration continue
De la roue de Deming XE "roue de Deming" , utilisée dans les manuels qualité de toutes les sociétés de services dans les années 1990, au six sigma et sa roue DMAIC, à lapproche lean, puis lean six sigma XE "lean six sigma" , le souhait reste toujours le même : rendre prédictible linformatique, contrôler des chaînes de production de services calibrés, améliorer les processus de fabrication jusquau zéro défaut XE "zéro défaut" .
Le principe amorcé par la méthode PDCA XE "PDCA (Plan Do Check Act)" de Deming XE "Deming" \t "Voir roue de Deming" (Plan Do Check Act) illustre sous la forme dune roue un cycle damélioration continue XE "cycle damélioration continue" en quatre étapes :
1. planifier les actions ;
2. exécuter le plan ;
3. vérifier que les résultats sont bien conformes aux attentes ;
4. agir pour améliorer le dispositif en suivant à nouveau la même boucle.
Ce principe a été repris et amendé dans de nombreuses autres méthodes et référentiels récents : ITIL XE "ITIL" et la gestion des services ou Togaf, par exemple.
Les méthodes qualité damélioration continue des processus XE "processus:amélioration continue" sont non exclusives entre elles et plutôt complémentaires. On retrouve des points communs entre lapproche PDCA XE "PDCA (Plan Do Check Act)" et le DMAIC (Define Measure Analyze, Improve, Control) XE "DMAIC (Define Measure Analyze, Improve, Control)" ou le DFSS XE "DFSS (Design For Six Sigma)" (Design For Six Sigma) de six sigma ou encore les 5S du lean management.
Définition
Linvention continue de la roue damélioration
Six sigma
Cest une méthodologie de contrôle de la qualité basée sur létude dindicateurs de variation (sigma) créée par Motorola dans les années 1980. Adaptée à la production industrielle, elle vise une qualité proche du zéro défaut en mesurant la dispersion des produits autour dune moyenne (notion statistique décart type).
Le six sigma peut se définir en cinq phases (méthode DMAIC) :
définir : déterminer les exigences du client et les processus adaptés ;
mesurer : supprimer les suppositions des exigences du client par rapport au processus ;
analyser : identifier les écarts entre les performances. Classer les problèmes par importance ;
améliorer : mettre en uvre les moyens nécessaires pour éliminer les problèmes ;
contrôler : vérifier que les actions correctives produisent le résultat espéré sans nouvelle anomalie.
DFSS
DFSS (Design For Six Sigma) est la méthode danalyse des processus qui reprend les quatre dernières étapes de six sigma en les adaptant :
identifier : définir les exigences des clients et leurs limites ;
concevoir : choisir les concepts, analyser les risques ;
optimiser : optimiser la conception pour diminuer les variations du process de production ;
valider.
Le lean management
Cest une technique de gestion essentiellement concentrée vers la réduction des pertes générés à lintérieur dune organisation pour une production et un rendement plus justes (inspirée de Toyota dans les années 1970).
Les objectifs sont :
réduire la durée des cycles de production ;
diminuer les stocks ;
augmenter la productivité XE "productivité" ;
optimiser la qualité.
Parmi les outils du lean figurent :
les 5S XE "5S (les)" , (Seiri : débarrasser, Seiton : ranger, Seiso : nettoyer, Seiketsu : standardiser, Shitsuke : progresser) ;
le Kaizen : principe damélioration continue ;
le Kanban : principe de flux tendu XE "flux tendu" ou de flux tiré.
Ces méthodes, apparues dans les années 1970, continuent à faire des émules et on en trouve des traces jusquaux méthodes agiles (voir agilité et logiciel, p.296). Ainsi, Jeff Sutherland XE "Jeff Sutherland" , le père de Scrum XE "Scrum" , reconnaissait linfluence du lean dans la première version de sa méthode.
Si elles sont utiles pour approcher un processus existant et loptimiser, elles ne sinscrivent pas « en rupture ». Il faut voir ces méthodes comme des moyens doptimiser des processus réplicables ou pour calibrer ce qui tourne déjà, et non comme des moyens dinnovation dusage ou de création de valeur.
La roue de Deming et le sens du mouvement
La roue de Deming XE "roue de Deming" , lapproche lean XE "lean" ou six sigma XE "Six Sigma" sappliquent dans un univers assez cloisonné : celui de la production et de lamélioration continue de problèmes plutôt mécaniques ou de procédures plutôt déjà définies. Ces approches ne sinscrivent pas réellement en rupture. Il sagit daméliorer ce qui existe. On ne se pose pas la question de savoir si le projet mené, le produit fabriqué, le processus utilisé, va dans la bonne direction. On applique une méthode et des directives pour produire plus vite et mieux, sans déchets. Reste que si la question de départ sur la valeur dusage de ce quon fait nest pas posée, il est clair quon peut améliorer « à vide » des façons de faire inadaptées.
Un système dinformation est un ensemble dinformations, de ressources et de moyens pour les manipuler, échanger, stocker, exploiter, dont lobjectif nest rien dautre quaméliorer un système réel, en support à des processus existants ou pour automatiser ce qui peut lêtre, ou laméliorer grâce à des technologies de communication dinformation.
Surtout, cest un système dont la valeur repose sur la capacité des ressources humaines à en tirer parti, que ce soit dans lusage ou dans la possibilité de ladapter à des besoins, et le faire évoluer pour apporter une plus-value dans léchange ou lexploitation de connaissances. Lhumain est au cur du système, dune manière ou dune autre.
De nombreux projets applicatifs ont échoué parce quils avaient sous-estimé la nécessaire part de formation aux usages. Désormais, laccompagnement au changement XE "accompagnement au changement" est une condition sine qua non à laquelle on songe au plus tôt. Cela nest pas antinomique avec la roue de Deming, on reste ici dans le domaine du planifiable.
Que dire alors de ladaptation ? Lêtre humain a prouvé sa capacité dadaptation au fil des millénaires grâce aux méthodes sélectionnées par lévolution. Ces dernières sont davantage empiriques que planifiées.
La roue de Deming part dun problème identifié répétitif ou réplicable quil est possible danalyser sur un grand volume de données. Elle nest pas adaptée pour limprévu ou des situations qui évoluent rapidement et pour lesquelles les solutions planifiées laissent trop peu de marge de manuvre pour adopter rapidement une alternative radicalement différente. Elle correspond bien à la construction des pyramides, mais correspond-t-elle aux changements que nécessitent les aléas dun monde beaucoup plus ouvert et est-elle adaptée à la créativité ?
La roue de Deming est dans une logique de répétition, pas de remise en cause. Elle peut améliorer une situation donnée, elle peut apporter des solutions, mais elle napporte pas de fluidité dans lapproche créative des problèmes. Elle peut même noyer dans les procédures les méthodes empiriques ou intuitives de résolution.
La méthode PDCA des quatre étapes XE "PDCA (Plan Do Check Act)" est séquentielle, lente, et ne favorise pas forcément un échange rapide entre plusieurs points de vue différents. La liberté des commentaires est dans létape de vérification (check) mais faut-il vérifier ou, comme Deming lui-même le pressentait, étudier les résultats ? Vérifier signifie que lon essaie de corriger par rapport à une idée préconçue avec le risque danalyser les résultats via un filtre subjectif. Étudier ouvre plus de latitude, sans pour autant résoudre laspect très encadré du moment où on accepte les retours et les commentaires.
Telles sont les premières questions de sens. Cela ne veut pas dire que lapproche PDCA est mauvaise. Là nest pas le propos. Il sagit de questionner lapproche par rapport à lusage et ne pas en faire un cheval de bataille pour toutes les situations, pas plus quune roue de secours. Encore une fois, une seule roue ne suffit pas pour avancer. Lintuition ne suffit pas non plus pour résoudre tous les problèmes et, entre lintuition dune chose et sa preuve qui en permet lexploitation, le temps peut sécouler très lentement.
Lhumain, moteur de lévolution
Nous arrivons au deuxième questionnement concernant la roue de Deming, celui portant sur la connaissance. Lexpression « On ne peut améliorer ce quon ne peut mesurer » est souvent associée au PDCA XE "PDCA (Plan Do Check Act)" ou au DMAIC. Certes, il faut avant toute chose faire létat des lieux, mesurer ce qui pose problème pour identifier les axes damélioration. Il faut donc prendre connaissance du système qui pose problème ou qui est à améliorer. Mais ny-a-t-il pas, dans lapproche, un risque de paradoxe ? Si nos connaissances sont restreintes à nos propres méthodes, à nos propres habitudes, quelle est la probabilité de ne pas répliquer une erreur de conception à lorigine du système, due à un point de vue trop restrictif ? Dans ce cas, on améliorera une erreur, mais on ne changera rien à son origine. Par exemple, réduire le coût de pièces inutiles est une erreur, ce qui donne à plaisanter en détournant lexpression PDCA en Please Dont Change Anything. La logique a une deuxième faille : elle focalise sur les dysfonctionnements. Elle ne cherche pas les succès, ne valorise pas les cas où des solutions naturelles sont apparues et nétudie pas ces cas et leur potentiel de changements.
Pour raisonner efficacement, il faut pouvoir sortir dun cadre prédéfini qui aurait tendance à nous apporter de la surinformation ou des paramètres restrictifs. Il faut être capable de disposer dune base de connaissances élargie et agile, et déchanger rapidement des informations entre différents acteurs qui représentent différents points de vue. Ainsi, la rapidité de la résolution de problèmes dans nos cerveaux résulte de la catalyse dun échange massif dinformations entre tous les acteurs, de même que pour notre système biologique (pour lequel les acteurs sont les agents anti-infectieux). Par analogie, pour analyser rapidement une situation complexe, rien ne vaut un échange entre individus ayant des expertises complémentaires et des points de vue différents.
Appliquée aux systèmes dinformation, lidée serait non seulement daméliorer les échanges entre les parties prenantes qui doivent concevoir ou améliorer un système, mais aussi douvrir ces échanges au monde extérieur via un réseau entre pairs qui échangeraient rapidement sur les meilleures pratiques et les cas de résolution connus. Bien sûr, les échanges avec lextérieur peuvent avoir leurs limites, mais une civilisation qui ne les pratique pas névolue pas, ni dans son langage, ni dans sa culture. On peut considérer les systèmes dinformation comme une sorte de « corpus » qui modélise et formalise la culture dune entreprise, ses métier, ses ressources. Pour que lentreprise entre dans la logique dune histoire en mouvement, elle doit faire du système dinformation un véhicule de lévolution.
Léchange entre les acteurs humains du système dinformation est le moteur principal de lévolution. La roue de Deming nest pas forcément une roue motrice, elle est un support pour des problèmes ponctuels canalisés. Pour continuer sur une ligne droite, il faut lui adjoindre un système de direction et dautres roues pour faire un véhicule qui tienne la route. À la roue de Deming orientée amélioration continue, on peut adjoindre les méthodes lean et six sigma. Mais pour remettre en cause le corpus du système dinformation, pour le faire évoluer dans le sens où il créera de la valeur, il ne faut pas hésiter à commenter ce corpus. Cest possible avec des méthodes comme le BBZ XE "BBZ (Budget Base Zero)" (Budget Base Zero le budget de chaque activité est remis à zéro chaque année et lintérêt, au sens création de valeur, de toute dépense doit être démontré), le Design To Cost XE "Design To Cost" (conception à coût objectif) ou tout simplement lanalyse de la valeur XE "analyse de la valeur" .
Limportant est dans la remise en cause de ce qui fait sens pour pouvoir sadapter à un univers mouvant, à une route de lévolution qui nest pas, et ne sera jamais, ni plate ni rectiligne.
Industrialisation des logiciels
Le principe dusine logicielle
Pour industrialiser les développements, il faut poursuivre les objectifs de :
maîtrise de la complexité ;
fiabilité ;
réutilisabilité ;
confort de développement ;
maintenabilité.
Lapproche industrielle a commencé avec la volonté dautomatiser le lien entre la conception et les développements, tout dabord avec les ateliers de génie logiciel, ensuite avec les environnements de développement intégré XE "environnements de développement intégré" (IDE) dont lobjectif est de fournir un ensemble doutils clé en mains pour faciliter la vie du développeur. Aujourdhui, même lopen source bénéficie dIDE robustes, lesquels couvrent tout le cycle de vie XE "cycle de vie:des applications" , des applications du développement au déploiement.
De latelier logiciel à lusine
Cette première étape mène à la notion datelier, avec des modèles, des outils spécialisés, mais pas encore, si on veut faire le parallèle avec lindustrie, à une vraie automatisation de la production et une réutilisation de conception et de composants pour créer toujours plus vite de nouvelles lignes de produits. Cest là lambition de la software factory XE "software factory" (ou fabrique de logiciels), lusine de linformatique du xxie siècle. Son objectif est de simplifier et daccélérer la fabrication de systèmes logiciels de qualité, avec des patterns (modèles de conception) spécifiques à certains environnements. Une fabrique de logiciels combinera les ateliers de modélisation et de génération de code avec des processus, des outils, des plans pour fournir aux développeurs un environnement parfaitement adapté à leurs besoins singuliers, en réutilisant les concepts et composants déjà existants.
Après linvestissement initial nécessaire, le résultat vise à des projets plus prédictibles, de meilleure qualité et qui devraient conduire à une maintenance du résultat plus aisée, du fait de lexploitation de pièces communes. Il reste toujours à aller au-delà des pièces standard pour créer des produits logiciels différentiateurs.
Ils ont dit
Le logiciel, cest lusine !
« Une usine logicielle XE "usine logicielle" est une ligne de produit logiciel qui configure outils extensibles, processus et contenu en utilisant un modèle dusine logicielle basé sur un schéma afin dautomatiser le développement et la maintenance de chaque instanciation dun archétype produit en adaptant, assemblant et paramétrant un cadre de composants de référence », Jack Greenfield, architecte pour les environnements et outils de développement dentreprise chez Microsoft
Autrement dit, une bibliothèque de fonctions se base sur un langage de programmation pour créer une application. Un framework est un ensemble de bibliothèques de fonctions utilisable pour créer une application. Une usine logicielle permet de rassembler des modules et fonctionnalités pour créer une application.
Lindustrialisation de la maintenance
Linfogérance XE "infogérance" et lexternalisation XE "externalisation" ont longtemps fait rêver les entreprises pour lillusion de pouvoir en obtenir des réductions de coûts drastiques, sans effort.
La déception était prévisible. Ce nest pas en réduisant les coûts de la main duvre que lon réduit les coûts du système dinformation ou les coûts de maintenance dune application, bien au contraire.
On peut éventuellement choisir un prestataire, par exemple en tierce maintenance applicative, en se disant quil saura peut-être mieux faire ce que lentreprise tente de réaliser en interne, grâce à sa connaissance de létat de lart des pratiques, ses outils, ses méthodes, ses collaborateurs expérimentés, et la possibilité den mutualiser les bénéfices à grande échelle. Mais si ce qui lui est livré est très spécifique, dans un très mauvais état, que la visibilité des processus , fonctions et données de lapplication est quasiment nulle, et quil nexiste aucun référentiel à jour, il ny aura pas de miracle. Ce ne sont pas les processus standard de la maintenance qui amélioreront ce qui a été livré, parce quils supposent des pré-requis qui nont pas été respectés.
Si létat est mauvais au départ ou si lapplication livrée est monolithique et, de fait, difficile à faire évoluer, le prestataire aura peut-être intérêt à rester dans le cadre correctif ou à faire de très petites évolutions, nétant pas en mesure deffectuer des analyses dimpact approfondies.
Si le contrat avec le prestataire ne fait apparaître que des coûts et des délais de correction aux anomalies, il est prévisible quau bout du compte, la qualité de lapplication se dégradera rapidement et que lévolutivité pourra tout autant être remise en question.
En 2008, dans une enquête effectuée auprès des directions informatique, il ressortait pour Gartner XE "Gartner" que les contrats entre fournisseur et client étaient en majorité renégociés une fois passé les douze premiers mois, avec le manque de flexibilité comme problème le plus important (50 % des réponses). Gianluca Tramacere, analyste sourcing chez Gartner, commente : « la majorité des entreprises ont établi des relations dexternalisation sur le long terme, fondées sur des impératifs immédiats de réduction des coûts XE "coûts:réduction de" . Ces accords en général manquaient de la flexibilité requise pour sadapter à la nature dynamique des environnements métier et nous avons prévenu les entreprises que cette inflexibilité conduirait à terme à coûter davantage à lentreprise ».
Si la maintenance se prête à la mise en place de processus répétitifs, avant de vouloir obtenir le bénéfice de ces derniers, il faut une phase dindustrialisation XE "industrialisation:maintenance" . Il ne faut pas se leurrer, cette phase nécessite des efforts de mise en uvre et donc des coûts associés. La figure ci-dessous illustre cette démarche.
industrialisationmaintenance.png
Figure 10-1.
Lindustrialisation progressive de la maintenance
Il y a des pré-requis à toute maintenance industrialisée, le premier étant de sinterroger sur la valeur de lapplication car mieux vaut passer par un abonnement à des services logiciels que continuer à maintenir en interne ou externaliser une application standard.
Cela étant posé et la spécificité de lapplication pour le métier ne faisant aucun doute, il faut inventorier les composants applicatifs, évaluer la qualité de lapplication, la redocumenter pour fournir une application lisible, cest-à-dire dont on comprend le fonctionnement et le mode de fonctionnement. On profitera de cette phase de prise de connaissance de lapplication pour mettre en place les outils, méthodes et référentiels de la maintenance, qui sont indispensables à toute démarche industrialisée. Un soin tout particulier doit être apporté aux référentiels XE "référentiels:des exigences" de gestion des exigences, de test et de traçabilité du code, cest-à-dire la gestion de configuration XE "gestion de configuration" .
Ensuite seulement peut-on établir des indicateurs de contrôle pour suivre la qualité des livraisons et lintégration des changements, et ainsi obtenir de lindustrialisation une réduction des coûts et une meilleure qualité. Il faut également intégrer dans la stratégie de maintenance, le niveau deffort préventif, ainsi quévoqué précédemment, pour ne pas dégrader la qualité.
Dans tous les cas, que la maintenance soit externalisée dans des centres de services ou confiée à une équipe interne, il faut établir un contrat de services avec des SLA (Service Level Agreement) pour bien définir les niveaux de services attendus et y incorporer les indicateurs de qualité et dévolutivité obtenus en fin de phase dindustrialisation. Ceci afin de pouvoir suivre le processus qui va de lémission dune demande de changement au passage en exploitation sans erreur dans la livraison dune correction ou dune évolution.
Il faudra également évoquer, dans le cadre du contrat, la part des activités et du budget qui sera dévolue à la maintenance préventive XE "maintenance:préventive" , notamment pour provisionner les activités de rénovation de lapplication qui la rende plus facile à modifier pour sadapter à lévolution naturelle des besoins métier.
Définition
Les centres de services et la mutualisation XE "mutualisation"
La notion de centre de services partagés XE "CSP (Centre de services partagés)" (CSP) est apparue pour définir une fonction informatique industrialisée, avec la mutualisation de compétences, de ressources et de services.
Le CIGREF XE "CIGREF (Club informatique des grandes entreprises françaises)" définit un centre de services partagés informatiques comme une entité interne autonome chargée de fournir des services informatiques nécessaires à plusieurs sociétés ou divisions au sein dun groupe. Ces services à valeur ajoutée sont réalisés de bout en bout, industrialisés et mesurables.
Le CIGREF distingue trois sortes de CSP :
les CSP informatiques (par exemple : infrastructures, applicatifs, messagerie, projets, Plan de reprise dactivité PRA) ;
les CSP applicatifs (par exemple : un centre de compétences XE "centre de compétences" ERP) ;
les CSP métier (par exemple : un CSP compta, RH, achat, juridique).
Une entreprise peut donc avoir un ou plusieurs CSP, par branche ou par zone géographique.
Lobjectif est clairement lindustrialisation, par le biais déconomies déchelles sur les achats de prestation, la mutualisation des moyens, et un centre dédié en termes de méthodes, outils et compétences.
Reste que ce centre, opéré ou non en interne de lentreprise, ne peut fonctionner sans clarification des niveaux de services attendus, de contractualisation de ces derniers dans des SLA XE "SLA (Service Level Agreement)" , et sans logique de facturation à ses clients sur la base dunités duvre compréhensibles par ces derniers.
Les unités duvre
Les unités duvre sont dabord un moyen de pouvoir estimer sur des mesures fiables et partageables ce que va coûter, en efforts et en temps, la mise en uvre dune demande, quil sagisse dune demande de mise en uvre dun nouveau service informatique, de corrections/réparations dun service ou dun matériel existant, ou encore dune extension dun service.
Quand on fait réparer sa voiture, on souhaite avoir un devis au plus près de ce que va coûter la réparation, avec des unités duvre compréhensibles comme le coût des pièces et la durée de réparation avec la charge en heure ou jour/homme de la main duvre quelle implique et le coût associé au type de main duvre (qualifiée ou non).
Pour la refacturation XE "refacturation (des services)" des services en interne, il est important davoir des unités duvre XE "unités duvre" qui aient un sens pour les métiers, afin de comprendre ce que coûte une amélioration dun processus. Cest lobjectif damélioration quil faut facturer (temps de traitement diminué dune facture, volume de factures sans erreur augmenté, baisse des coûts des litiges, coût de transaction réduit, accélération dun processus de prise de commande, etc.), et non le temps passé multiplié par un taux journalier moyen. Sans cela, le client interne naura pas de visibilité de la valeur du service, il nen verra que les coûts.
Pour estimer la charge en développement, il est nécessaire davoir des méthodes destimation, des abaques pour planifier la durée du projet et définir les charges en jour-homme par type de ressources ou compétences nécessaires.
Dans une relation avec un prestataire extérieur qui assure une maintenance, le principe est de pouvoir partager ces abaques pour estimer la charge de la réponse à tout type de demande, en particulier celles liées à lévolution dun existant, qui implique la mise en uvre dun contrat de longue durée.
De ce fait, les méthodes destimation font partie des bonnes pratiques de lAQL XE "AQL (Assurance qualité logiciel)" (Assurance qualité logiciel) et définir des unités duvre standard pour la maintenance et la recette applicative externalisées (TMA XE "TMA (Tierce Maintenance Applicative)" et TRA XE "TRA (Tierce recette applicative)" ), devient un passage obligé.
Pour autant, ce qui semble une évidence nest pas si simple à mettre en uvre puisque de nombreux programmes de mesure sont abandonnés en moins de dix-huit mois. Si les estimations pour les développements deviennent fiables, il ny a pas détudes systématiques sur le sujet qui permettrait de définir un modèle de productivité XE "productivité" unique pour la maintenance. Y-a-t-il dailleurs un modèle unique ? Pas forcément, il suffit den voir pour preuve les différentes méthodes (COCOMO Cost COnstructive MOdel, COSMIC XE "COSMIC (COmmon Software Measurement International Consortium)" COmmon Software Measurement International Consortium, Points de Fonction XE "Points de Fonction" ) utilisées à des titres divers pour mesurer la charge de la réponse à une exigence ainsi que de ses éventuelles évolutions. Toutefois, ces méthodes ont mûri et certaines apparaissent relativement bien rôdées pour des types dapplications particuliers, telle la méthode des points de fonction (IFPUG XE "IFPUG" version 4) pour les applications de gestion.
Un peu dhistoire
« Une science a lâge de ses instruments de mesure », Pasteur
La problématique de mesure et destimation des coûts logiciels a un historique. Barry Boehm a présenté dans les années 1980, un premier modèle appelé COst COnstructive Model (COCOMO), qui se fondait essentiellement sur le nombre de lignes de codes sources pour évaluer la charge de développement. Outre une efficacité toute relative au langage (tout les langages ne sont pas égaux devant la représentation algorithmique), en ce qui concerne la maintenance qui relève de la rétro-ingénierie XE "rétro-ingénierie" (on travaille sur des codes existants), ce nest pas une mesure fiable, un algorithme pouvant avoir une dizaine dinstanciations différentes très dépendantes du programmeur et non de la fonction implémentée.
Le COCOMO XE "COCOMO (Cost COnstructive MOdel)" initial était issu dun panel de projets analysés par Boehm. Pour un projet proche de léchantillon de départ, la méthode pouvait fournir des résultats assez réalistes. Mais pour les autres
les divergences ont rapidement sauté aux yeux. Ainsi dautres versions plus évoluées de COCOMO mais encore dépendantes du comptage de lignes de code mal adapté aux applications orientées données.
À la même période, Allan Albrecht XE "Albrecht" dIBM, proposait une autre approche, lors dune conférence en 1979 : un comptage indépendant des technologies utilisées la méthode des points de fonction fondée sur la prise en compte des besoins exprimés par le client. Son avantage était la possibilité dévaluer la charge dès les spécifications fonctionnelles. Sa mise en application a démontré son efficacité dans le cadre de linformatique de gestion ou pour les logiciels à forte composante dinterfaces graphiques. En revanche, la méthode a ses limites lorsquil sagit de mesurer des applications en temps réel ou embarqués qui ne manipulent quun faible volume de données, et elle ne prend pas en compte les charges liées à des algorithmes complexes ou le pilotage déléments matériels.
Lorganisation IFPUG (regroupement dutilisateurs de la méthode des points de fonction) a travaillé depuis sur les limites de la proposition initiale dAlbrecht pour lamender avec des critères plus objectifs et la prise en compte de facteurs dinfluence technique. La méthode COSMIC (COmmon Software Measurement International Consortium) sest attachée quant à elle, avec une approche par processus et par couches, à fournir une meilleure assimilation de la structure des logiciels en temps réel.
Lensemble de ces travaux est reconnu et défini dans la norme ISO 14143 (technologies de linformation Mesurage du logiciel Mesurage de la taille fonctionnelle) qui caractérise ce quest la mesure de la taille fonctionnelle utilisée par les modèles des points de fonction IFPUG et COSMIC.
La condition sine qua non pour débuter est davoir défini un périmètre applicatif de mesure significatif, pour ne pas mesurer une fonction dans labsolu. Si cela se conçoit aisément dans une phase de développement, cest paradoxalement plus difficile dans une maintenance où la tentation est grande de mesurer en fonction de de groupes de programmes.
Cartographier convenablement et lotir fonctionnellement une application existante est un préalable à une bonne mesure. Les points de fonction bruts (PFB XE "PFB (Points de fonction bruts)" ) sont estimés sur lévaluation des traitements (manipulation de données, calculs et recherches, par exemple) et la détermination du poids des groupes de données suivant des grilles de complexité (voir la norme ISO 14143). Ces PFB sont ensuite nuancés par un certain nombre de coefficients dajustement, relatifs à des caractéristiques du système (telles que communication de données, complexité des traitements, portabilité de lapplication, réutilisation
) pour obtenir des PFA (Points de fonctions ajustés) XE "PFA (Points de fonctions ajustés)" , puis des formules de conversions (dépendant du langage, du type dapplications) sont utilisées pour la traduction des PF en charge de travail, voire en coût pour obtenir les unités duvre XE "unités duvre" .
Les points de fonction bruts, peuvent être remontés automatiquement des codes existants pour des applications de gestion, en recherchant les instructions codées relatives aux types de traitements décrits par la norme, ainsi quen analysant les données et groupes de données. La problématique va être dans le passage de lestimation de leffort au calcul de lunité duvre pour évaluer une demande de changement. Pour cette dernière, une analyse de limpact XE "analyse dimpact" en termes de traitements et de données va être effectuée, de laquelle on pourra déduire les points de fonction bruts.
Si lestimation de leffort est juste, lestimation de la charge risque dêtre plus relative car sujette à une multiplication par une valeur subjective. Pour une maintenance, en plus de coefficients « classiques », les paramètres dajustement à prendre en compte sont liés au niveau de connaissance de lapplicatif de léquipe en charge, à la portabilité, à la documentation existante, à la capacité danalyser avec acuité le code et, dès lors, la capacité à mesurer de façon fiable traitements et poids de données , à la capacité à identifier rapidement les cas de tests à rejouer pour la non-régression XE "non-régression (tests de)" , etc.
Cest pourquoi, si les points de fonction sont une piste intéressante pour estimer des charges, encore faut-il être conscient des limites et procéder par étapes. Cest sur la durée que le référentiel « points de fonction » prendra tout son sens en comparant progressivement les résultats obtenus et en industrialisant la méthode. Toutefois, ces unités duvre seront pratiques au sein dun grand groupe qui pourra les imposer à un sous-traitant, mais la possibilité de faire réellement des benchmarks sur ces mesures est vraiment à interroger en maintenance, compte tenu des paramètres dajustement évoqués qui sont très spécifiques à un environnement dentreprise.
Dans tous les cas, une société a tout intérêt à tracer toutes les unités duvre employées en son sein et construire progressivement son référentiel dabaques sur les meilleures pratiques remontées, ce qui impose également de faire des bilans de projet étayés sur les coûts et les charges et de justifier les écarts par rapport aux estimations initiales.
La standardisation
Les avantages des standards
On peut difficilement mettre en doute lutilité des standards de formats pour linteropérabilité entre systèmes. Ce qui est valable pour les systèmes dinformation intra-entreprise lest encore plus pour les flux interentreprises et, au niveau global, pour le commerce électronique. Il faut trouver des formats partageables, sortir des systèmes propriétaires, on en convient. Bien sûr, quand le format de données devient plus sectoriel, sort du cadre de linteropérabilité technique, sentache dinformation métier, donc typées sémantiquement, les choses deviennent plus difficiles, il suffit de regarder lhistoire des normes déchanges de données de lEDI XE "EDI (Electronic Data Interchange)" (Odette XE "Odette" , Galia
) et les nombreuses versions sectorielles du standard UN/EDIFACT XE "UN/EDIFACT" .
Mais il est clair que normaliser les échanges de données informatisées, partager un ensemble de règles communes, facilite et fiabilise des échanges étendus pour ladministration, le commerce et le transport. On ne peut que saluer les efforts qui ont été mis en uvre dans ces domaines par les organismes de normalisation dhier, poursuivis dans dautres domaines par les organismes daujourdhui, tel lOMG XE "OMG (Object Management Group)" qui uvre continuellement pour plus de réutilisabilité, douverture et dinteropérabilité des systèmes.
Standardiser des processus métier nécessite de prendre en compte la localisation XE "localisation" .
Au-delà des standards déchanges, on peut aussi avancer que la standardisation au sein dune entreprise de certains processus métier XE "processus:métier" assez normés (tels ceux liés à la comptabilité générale), le fait duniformiser et consolider des processus et données techniques, permettent des économies déchelle, la mutualisation XE "mutualisation" des pratiques, la fiabilisation des informations.
Cest le principe même des progiciels XE "progiciels" . Si toutefois les processus ne sont pas réellement standard à savoir ouverts à lensemble de la communauté informatique, sans restriction daccès et normalisés par un organisme indépendant car cela reste des processus propriétaires avec les droits de propriétés inhérents, ils sont une façon duniformiser et dindustrialiser des pratiques. Mais il reste des limites prévisibles à luniformisation. Pour preuve, il y a une dizaine dannées de cela, les éditeurs de logiciels ont découvert le principe de la localisation connu depuis longtemps par les grands du marketing à la Procter & Gamble et qui a conduit au retrait local de produits innovants lancés au niveau mondial, que ce soit des couches-culottes ou des concepts dont la commercialisation a été des échecs faute davoir pris en compte les différences socioculturelles locales.
La localisation consiste à adapter le produit à commercialiser aux conditions locales du marché. « Vérité en deçà des Pyrénées, mensonge au-delà » disait Descartes. Il ne sagit pas seulement de donner son point de vue selon le versant de la montagne quon occupe, il sagit, de façon très pragmatique dans le domaine informatique des échanges dinformation, de respecter les obligations légales locales. Nous parlerons ici, pour illustration, du plan comptable à la française qui a conduit certains éditeurs, tel PeopleSoft, a beaucoup investir dans la localisation de leur produit sous peine de ne pouvoir le déployer.
Un plan comptable XE "plan comptable" à la française, aussi spécifique quil puisse paraître à des yeux anglo-saxons, reste pour autant du domaine normé. On sait ce quil y a dedans, on peut faire ce quil faut pour structurer la collecte et la consolidation dinformations de façon à ce quelles correspondent aux exigences de traçabilité. On peut donc continuer à avancer dans la standardisation sous réserve de prendre en compte les contraintes de chaque environnement (local et/ou métier). On peut avancer, au delà de la standardisation technique qui assure la compatibilité et linteropérabilité des équipements, dans la standardisation des échanges de données (donc la structure et la syntaxe des formats) pour faciliter la compréhension et lexploitation des données par les systèmes dinformation et fiabiliser la communication et le partage dinformation. On peut avancer également dans la standardisation des processus pour généraliser les meilleures pratiques et diminuer les coûts de mauvaises saisies ou détapes automatisables, voire réduire les coûts de développement et de maintenance.
Standardisation : le trop est lennemi du bien
Tant que les choses sont normées naturellement ou, du moins, quelles ont une nature qui conduit rationnellement au processus XE "processus:de normalisation" de normalisation, la standardisation est une bonne chose, elle apporte une valeur au sens de la réutilisabilité, de la fiabilité et de la réplicabilité à grande échelle. Mais quand la valeur des choses dépend justement de leur différence, de leur atypie, les processus de standardisation peuvent conduire à des aberrations.
Dans les processus XE "processus:achats" achats, par exemple, la base du e-procurement XE "e-procurement" (approvisionnement électronique) est de standardiser un catalogue de fournitures et de rationaliser en lautomatisant et en lintégrant avec le back-office (comptabilité générale et financière), le processus des demandes dachats. Cela réduit les temps de recherche de produit/fourniture, supprime les erreurs de saisie, limite les litiges, et supprime les comportements de type Maverick buying XE "Maverick buying" . A priori, la liste nest que positive. Jusquà un certain point seulement, car le succès de la standardisation des processus achats de petites fournitures conduit à vouloir létendre au MRO (commande de matériel de maintenance et de réparation), puis aux achats de production au sens large, ensuite, pourquoi pas, aux achats hors production, jusquà létendre aux sous-traitants de prestations intellectuelle.
Si lon peut normaliser une méthode de recherche de sous-traitants, passer des contrats cadre qui garantissent un certain niveau de services et de prix, voire uniformisent des politiques groupe pour limiter les risques juridiques, peut-on vraiment standardiser la matière grise comme la matière technique ? Quen est-il de lévaluation des sous-traitants et de la catégorisation des prestations intellectuelles ? Jusquoù le taylorisme des cols blancs et lindustrialisation des services sont-ils une bonne chose ?
Cest là que la standardisation atteint ses limites. Dune part, on ne peut pas traiter la matière grise de la même façon que la grande distribution traite lachat de produits laitiers ou de boîtes de conserve, sauf à conduire à une politique du moins disant qui diminue automatiquement la valeur pouvant résulter de la prestation. Dautre part, dans toute approche dévaluation, de benchmarking XE "benchmarking" , la base reste de comparer ce qui est comparable. Certains contrats cadre de prestations partent sur un délai moyen de réponse à toute demande de proposition, quotation et engagement y compris, quelle que soit la nature de la demande en entrée.
Ce qui conduit à traiter de la même manière des interventions de quelques jours ou des projets de plusieurs mois, et à gripper le système de réponse, sans même parler de lapproche, toute expertise confondue. Mieux vaut classifier un tant soit peu le type des demandes, la nature des expertises requises, le niveau de difficulté (lié éventuellement à la connaissance des systèmes existants), pour laisser le temps minimum nécessaire à une analyse correcte de la demande afin que lévaluation du temps et des moyens requis pour réaliser lintervention soit la plus pertinente possible, et non pas axée sur le coût minimum.
Il peut être utile de saider, pour la classification, de benchmark permettant de mesurer des fourchettes de niveau de difficulté en comparaison avec des projets similaires ayant déjà eu lieu, dans des sociétés diverses. On peut approfondir avec une approche de quantification volontariste, type unité duvre XE "unités duvre" , à condition toutefois que sa définition ne soit pas discutable et puisse être communément admise par le plus grand nombre, quel que soit le besoin, le métier, les technologies et les contraintes de lexistant.
Ce qui nous amène à penser, compte tenu de lhétérogénéité des approches et des existants, que lapproche qualitative de comparaison par similarité peut savérer parfois plus efficace. Dans tous les cas, il faut établir une capitalisation sur la durée qui mixe les deux approches, quantitative et qualitative.
Ensuite, des approches stéréotypées du benchmarking peuvent conduire à des comparaisons de solutions erronées. Des critères trop formatés dappréciation conduiront, par exemple, à évaluer chaque ligne dune matrice de choix indépendamment les unes des autres, pour arriver à une note globale éventuellement pondérée par la priorité attribuée à chaque critère.
Mais la pondération des critères entre eux ne sera pas regardée. Par exemple, deux solutions sont jugées sur la capacité de léditeur à apporter du support, et sont évaluées sur ce point en fonction du dimensionnement et de la localisation des équipes de support. Lune des solutions nécessitant peu ou prou de support au regard de lautre, cette comparaison des équipes de support na pas de sens indépendamment de la facilité dutilisation ou de déploiement et de la robustesse du produit.
Cet exemple est peut-être caricatural, mais on peut rappeler que lengouement initial pour lopen source XE "open source" était majoritairement sous-tendu, pour beaucoup dentreprises, par les baisses de coûts drastiques des licences, sans que celles-ci pensent un instant à considérer les coûts dadministration, de support et de formation des équipes. La considération du fameux TCO XE "TCO (Total Cost of Ownership)" (Total Cost of Ownership) du Gartner XE "Gartner" est venue après coup.
Ainsi pour tout benchmark faut-il garder à lesprit une approche globale, qui privilégie une vision sur lensemble des axes du système dinformation (métiers/services, économique (valeur/coût/risque), organisation et ressources humaines, infrastructures, architecture données et informations, processus de développement, maintenance et exploitation) tout en ne mesurant pas ces axes indépendamment les uns des autres mais bien dans leurs interactions.
Dans le cas dun déploiement mondial de processus standardisés, la question est toujours de vérifier, entre deux approches de solution, laquelle convient le mieux. Il sagit de choisir entre prendre un progiciel unique et le déployer de façon indifférenciée au niveau mondial pour ensuite le localiser, ou choisir des systèmes locaux ouverts et interopérables, adaptés aux législations locales, parfois déjà dans la place, permettant une réconciliation au niveau global en communiquant avec un système transverse par-dessus. Le choix entre les deux approches nest pas standard car il dépend vraiment de lhéritage organisationnel et informatique des sociétés.
Dans un environnement de monopole, on peut imposer un standard de facto. Dans un environnement concurrentiel, on doit se différencier. Cest là où une diversité politique est essentielle et où il peut être intéressant de chercher des fournisseurs hors normes pour ne pas reproduire ce que la plupart savent faire le mieux, cest-à-dire ce que tout le monde fait. Une entreprise naime pas quon bouscule ses idées reçues ; cest un tissu humain, et les hommes naiment pas le changement. Mais le changement nest pas un choix, cest une nécessité dévolution.
Autant il est primordial de pouvoir standardiser des formats de composants, déchange et de données pour favoriser linteropérabilité enjeu non discutable autant on peut sinterroger sur la limite à ne pas franchir dans la standardisation des tâches et des services à fort quotient intellectuel. Vouloir standardiser à tout prix ce qui ressort de processus humain déchanges et de réflexions, dexpertises et dexpériences, et ce, pour limiter les risques, ou pour une approche plus noble trouver où se crée la valeur afin de la répliquer conduit à une uniformisation des pratiques qui peut, à grande échelle, être à linverse préjudiciable à la création de valeur et à la différenciation.
Linformatique en flux tendu
Le pilotage de la chaîne logistique
Le flux tendu XE "flux tendu" ou juste à temps (JAT XE "JAT (Just in Time)" \t "Voir flux tendu" ou en anglais JIT Just In Time) est un classique de la chaîne logistique qui consiste à minimiser les stocks et les en-cours de fabrication. Initié au japon dès les années 1960, il rassemble un ensemble de techniques, de lamont à laval de la production, qui visent à améliorer la productivité XE "productivité" globale de lentreprise et réduire les coûts induits par les stocks.
Au fil du temps, les techniques de pilotage de la chaîne logistique se sont améliorées, bénéficiant des dernières avancées technologiques en matière dinformation et de communication. Aujourdhui, on parle davantage de demand driven supply chain XE "demand driven supply chain" , au sens où le pilotage est tiré par la demande du consommateur final et non plus par loffre ou la disponibilité des produits. Des avancées technologiques telles que le RFID (Radio Frequency Identification) XE "RFID (Radio Frequency Identification)" (notamment pour la traçabilité XE "traçabilité" ), louverture et linteropérabilité des systèmes dinformation entre acteurs (grâce à Internet), et lusage de solutions de type business intelligence, ont conduit à des pistes tangibles damélioration et doptimisation dans ce sens en permettant rapidement dévaluer les tendances et être proactifs.
Évidemment, on en voit toute limplication à une époque de crise économique qui conduit à réduire la production dans de nombreuses industries souffrant dune baisse de la demande, mais également à ajuster loffre à de nouveaux types de demandes et/ou comportements dachat dans la grande distribution.
Ce flux tendu, pratiqué de manière industrielle, est aujourdhui relativement bien maîtrisé par les industries ayant à gérer des stocks et/ou des matières premières, sur lensemble des étapes de la chaîne, de la conception/fabrication au transport, distribution, commerce et après-vente. Mais quen est-il des économies plus immatérielles ? En dautres termes, cette logique de flux tendu est-elle uniquement applicable à des problématiques de gestion de stocks et au secteur de lindustrie ? Ou peut-on lattendre des « chaînes de production » de système dinformation. ?
Le parallèle avec la production de SI
On parle désormais déconomie et dactifs immatériels de lentreprise. Il est évident que les technologies de linformation et de la communication et de façon plus globale, les systèmes dinformation jouent un rôle prépondérant dans cette nouvelle donne économique, et ce, à deux titres principaux. Dune part, en tant que constituants du capital immatériel XE "capital immatériel" et, dautre part, en tant que réels outils de production. En effet, une base de données client est un actif immatériel XE "actifs immatériels" (plus précisément une immobilisation incorporelle selon les termes admis). La mise en ligne dune offre de services à la personne, à travers un portail dabonnement ou une offre de services dinformation dédiée à un secteur (par exemple pharmacie, santé), nécessite de passer par un processus de production informatique qui transforme une (ou des) matière(s) première(s) pour aboutir à la livraison de produits finis.
Les matières premières sont, dune part, des ressources immatérielles telles que la connaissance, linformation (méta-données, référentiels, etc.), le savoir-faire (ressources humaines et méthodes) et, dautre part, des ressources physiques (plates-formes serveurs, réseaux, etc.). La chaîne de transformation consiste à passer de la conception du système, qui va utiliser ce type de matière première dinformation, à la livraison de lapplication en production.
Dès lors, si on se penche sur une autre définition du juste à temps, celle du zéro délai ou des cinq zéros XE "cinq zéros" (zéro panne, zéro délai, zéro papier, zéro stock et zéro défaut), on peut envisager dappliquer la théorie du flux tendu XE "flux tendu" à la conception de systèmes dinformation, mis à part la problématique de stock (encore quil y a tout de même le parc informatique à gérer). Les zéro panne, zéro défaut portent sur la garantie de continuité de services et la qualité de service ( XE "QoS (Quality of Service)" Qualité of services ou QoS). Le zéro papier, a priori, se comprend de lui-même, même sil y aurait beaucoup à en dire en termes de gestion de documents, de numérisation et darchivage. Le zéro délai XE "zéro délai" , cest ce qui est attendu aujourdhui des systèmes dinformation : la rapidité dévolution pour aligner le SI aux besoins marché ou, du moins, la réduction au minimum du temps de passage entre lexpression du besoin et la livraison du service informatique, pour sortir les bons produits à temps.
Force est de reconnaître quentre la cible et la réalité, il y a un fossé : le monde industriel. La mise en place du juste-à-temps et des différentes techniques qui sy appliquent a pris plusieurs dizaines dannées aux industries. En réalité, les étapes ne sont pas si industrielles que cela dans la conception et la mise en production dapplications informatiques et il reste beaucoup à faire pour aboutir à des processus de production dits « industriels ».
À linverse, le niveau dattente est nivelé sur celui des productions industrielles, doù un niveau certain de stress induit. Ainsi, si on regarde plus précisément le secteur des télécommunications, a fortiori tributaire des systèmes dinformation et de la maîtrise des nouvelles technologies, loffre de services, en particulier pour les mobiles, est bien tirée par la demande, et le DSI « na pas le choix des dates auxquelles sortent les nouvelles offres », comme le soulignait Jean-Luc Lucas, directeur des plates-formes de service chez France Telecom, le 19 novembre 2008, à une table ronde de DSI organisée par Compuware France. Dans ces conditions, lanticipation est nécessaire, lévolution à chaud aussi.
Doù une mise sous tension du système dinformation qui doit saligner sur un résultat industriel tout en ne disposant pas encore de processus totalement industriels. Devenir plus industriel, avoir des processus industriels : que recouvre ce souhait si largement partagé, si ce nest lenfance de lart de lindustrie ? Certes, on parle aujourdhui de lignes de produits logiciels, conçues dans des usines logicielles (software factory XE "software factory" ) capable dassembler des briques grâce à une base de modèles qui permet de standardiser et dautomatiser la conception, lintégration, la validation et la maintenance des logiciels.
Mais les gains espérés dune telle évolution, productivité, innovation, compétitivité, ne sobtiendront quen allant au-delà dune logique centrée sur la construction dune usine et ses chaînes de montage. Pour que le comparatif ait du sens, il faut aussi réexploiter les techniques doptimisation de la chaîne de production, et appliquer la logique de flux tendu XE "flux tendu" à lévolution des services fournis par les systèmes dinformation, ce qui suppose, a minima :
avoir des méthodes danalyse de la valeur XE "analyse de la valeur" applicables à tout nouveau projet ou développement de service. Il sagit de répondre à une question a priori simple. Est-ce que le produit (au sens résultat) de ce projet, le service que remplira le logiciel développé, répond parfaitement aux besoins qui en ont déterminé lexistence et ce, au coût le plus faible ? Il faut dès lors en comparer la valeur métier XE "valeur métier" , au sens par exemple de nouvelles parts de marché, de la satisfaction client, de la qualité dun produit ou dun service, avec le coût total de fabrication (coût du projet y compris matériels et logiciels et coûts annexes telle la formation) ;
considérer les coûts informatiques XE "coûts:informatique" comme de réels coûts de production et non des coûts administratifs ou de support ;
avoir, pour optimiser la chaîne de production XE "chaîne de production" , des méthodes et des modèles (par exemple les principes dusine logicielle, dapplication tirée par les modèles (MDA), etc.) qui facilitent la réplicabilité des processus et libèrent des contraintes de localisation ;
aller au-delà de la fabrication dune usine. En exploitant pleinement le potentiel de lère numérique pour quitter les préceptes de la révolution industrielle et trouver dautres modes de collaboration et de travail.
Il reste ici un champ dexploration où linnovation nest pas seulement de réexploiter les techniques de lindustrie, mais bien de trouver, avec les nouvelles technologies, une possibilité daller au-delà de linformation brute, de la donnée, et de modéliser facilement « le sens » de ce quon veut concevoir, afin de réduire davantage encore le délai entre le besoin exprimé et sa concrétisation, en supprimant les interprétations intermédiaires. Dans ce cas, la logique du flux tendu XE "flux tendu" appliquée à linformatique prendrait tout son sens. Mais cela reste encore très futuriste.
Chapitre 11
Pour évoluer : innovation et Intelligence organisationnelle
La nécessité est la mère de linvention.
Platon
Celui qui nappliquera pas de nouveaux remèdes doit sattendre à de nouveaux maux ; car le temps est le plus grand des innovateurs.
Francis Bacon
Linnovation fait partie des meilleures pratiques de lévolution des systèmes dinformation car sans elle, pas dévolution quil sagisse, dun côté, dinnover dans les usages en adoptant de nouvelles technologies que personne nose encore adopter et acquérir ainsi une longueur davance sur ses concurrents ou, de lautre, dinnover dans les services du système dinformation en proposant des échanges dinformation et/ou des modèles de transactions économiques qui nexistent chez aucune autre entreprise. Si linnovation était strictement régulée par des lois et des processus que tous peuvent apprendre et répliquer, ce ne serait plus linnovation, car celle-ci est faite dinvention, dintuition et de prise de risques.
Reste néanmoins certains principes, certains retours dexpériences des systèmes dinformation que ce chapitre va sattacher à décrire. De même quil abordera également lévolution des compétences et des organisations, car cest dans ces domaines que linnovation en système dinformation amène souvent ses plus grands fruits et où lévolution des TIC a entraîné des changements profonds qui sont loin dêtre terminés.
Linnovation
Peut-on mettre linnovation dans les meilleures pratiques de lévolution ? Les meilleures pratiques sont une somme de connaissances utiles et de méthodes efficaces qui ont été accumulées avec les retours dexpérience. Linnovation, elle, est une création en action, la capacité dinventer et de créer quelque chose de nouveau. Il sagit dintroduire une rupture dans un domaine particulier, faire quelque chose quon ne savait pas faire avant, ou faire autrement. Pourquoi les retours dexpérience pourraient donc être utiles ?
Il y a bien des meilleures pratiques en innovation, non pas tant au niveau de la création et de lémergence des idées que dans le processus XE "innovation:processus" qui mène de lidée une fois créée à sa mise en uvre et à son adoption. Dans cette optique, les retours dexpériences sont plus quutiles pour comprendre non forcément ce qui marchera, mais pour éviter les pièges des occasions dinnovations manquées, ou des innovations restées « orphelines dusage », car jamais adoptées.
Différenciation ou nécessité : quand innover ?
Cest la rencontre entre le concept ou linvention et la facilité dusage qui génère ladoption.
Dans les systèmes dinformation, linnovation XE "innovation:par le SI" consiste à introduire des moyens technologiques, ou des pratiques dutilisation de linformation, pour transformer loffre de services ou devenir plus performants et donc, plus compétitifs.
Linnovation dans ce domaine permet de trouver un moyen de différenciation XE "différenciation" dans la proposition de valeur XE "proposition de valeur (de lentreprise)" de lentreprise, que les concurrents ne savent pas faire ou ne peuvent pas faire.
Il y a deux moyens pour cela : adopter rapidement de nouveaux concepts ou outils pour avoir une longueur davance dans la façon de transformer les usages, ou créer réellement un service nouveau à laide des technologies de linformation et des communications.
Dans le premier cas, il faut être visionnaire ; dans le second, il faut être créatif. Être visionnaire présente des avantages et des inconvénients, selon la longueur davance que lon a vis-à-vis du marché et de la maturité des technologies utilisées. Si la longueur davance est trop courte, la différence concurrentielle sestompera très vite. Si elle est très importante, il y a les risques de manque de maturité et de « non-adoption » à gérer.
Il existe un délai certain entre larrivée dun nouveau concept en informatique et son adoption massive. Quand faut-il alors adopter ? Pas trop tôt, pour ne pas payer les pots cassés, pas trop tard, pour ne pas être quun suiveur qui va payer pour une condition nécessaire mais pas
suffisante. En effet, le service ou la fonction fournis par linformatique nétablissent pas de réelle différenciation XE "différenciation" métier dès lors quils sont largement adoptés et standardisés dans les modes de fonctionnement de la plupart des entreprises. Si vous choisissez un produit que tout le monde a, quavez-vous de plus ? Toutefois, il y a un certain seuil où il devient indispensable de mettre en place certaines fonctions de support informatique standard car ne pas les avoir vous fait perdre des contrats, des employés, ou la satisfaction du client.
À linverse, vous ne vous distinguerez pas à les mettre en place
sauf si vous les utilisez judicieusement afin de proposer vraiment un nouveau service et si vous êtes le premier à le faire. Cest là, entre autres, que lon distingue cette frontière ténue entre innovateurs et premiers suiveurs.
Ainsi les grandes entreprises ne se posent-elles quasiment plus la question de savoir sil faut mettre en place des progiciels de comptabilité/finance ou de RH. Le centre de gravité de la question se déplace plutôt sur lequel choisir, comment éventuellement passer à une version supérieure de lexistant, ou externaliser ce dernier (parfois jusquau niveau des processus comme avec le Business Process Outsourcing XE "BPO (Business Process Outsourcing)" ) et/ou faut-il le remplacer par une offre Saas éventuellement plus économique ?
Ce qui est plus exemplaire, cest de voir apparaître à grande échelle la mise en pratique de solutions technologiques aujourdhui éprouvées, mais jusqualors reléguées à des expériences individuelles, et qui sont parfois trompeusement qualifiées dinnovation XE "innovation:par le SI" .
Quand le concept rencontre largement le marché, il ny a plus innovation, mais nécessité.
Cest le cas pour la dématérialisation XE "dématérialisation" , déjà proposée il y a une dizaine dannées à travers des offres de gestion de documents combinant reconnaissance de caractères, workflow, signature électronique et archivage légal.
Elle a vu depuis, non seulement ses offres acquérir la maturité technologique nécessaire, mais également son champ dapplication se démultiplier, notamment dans le secteur public, en dématérialisant le dialogue avec lusager.
Pour les administrations, la liberté daccès et légalité de traitement face à linformation et le service égal pour tout public entraînent des contraintes techniques et dévolution. Dune part, il faut migrer un existant avec une masse critique, dautre part, quelle que soit la nature du service (information, démarche administrative, traitement des réclamations, téléprocédures
), la qualité du résultat que le support soit papier ou numérique doit être la même pour tous les administrés en termes de délais et de pertinence de réponses. Mais le mouvement est bien là quand la plupart des usagers peuvent aujourdhui utiliser les téléprocédures pour déclarer leurs revenus, réaliser des démarches spécifiques ou sinformer via des portails dédiés.
On peut proposer des services différenciés avec des technologies relativement standard. Bien sûr, limpact sur lorganisation nest pas négligeable et il faut savoir négocier le changement. Si concrètement, dématérialiser, cest substituer un flux électronique à un flux physique (en un sens plus restreint, dissocier linformation de son support traditionnel, le papier), les processus métier qui sont sous-tendus par des processus de traitement de linformation peuvent être, à certaines étapes, contraints par le type de support (documents, formulaires, courriers, pièces justificatives, etc.) et le véhicule (courrier physique, par exemple) du flux associé. En dématérialisant, non seulement on accélère le traitement en mettant linformation plus vite à disposition des systèmes métier, mais on permet également un meilleur suivi de lavancement des dossiers, en pouvant faire abstraction de tâches répétitives de classement ou de circulation manuelles, sans valeur ajoutée.
Reste que ce passage pour partie au numérique, sil est bien négocié, allège considérablement le coût global dun processus. Par exemple, il permet la réduction du coût et de la charge de contact avec les administrations pour les entreprises, la réduction du coût dû à des erreurs de saisie pour les dossiers dassurances, de réclamations, etc., tout en permettant plus de réactivité en supprimant les allers-retours par les contrôles et le suivi adéquat. De surcroît, il autorise plus de présence, au sens disponibilité du service. Par exemple, la banque multicanal permet de fidéliser des populations nayant pas la possibilité de se déplacer aux horaires douvertures des agences. La qualité du service en est amélioré à partir du moment où des informations de première importance sont également transmises via SMS, tel quun découvert bancaire, par exemple.
Ainsi la dématérialisation XE "dématérialisation" , qui ne consiste pas à proprement parler en une application spécifique cur de métier, était typiquement un moyen de se différencier par le service. Aujourdhui, cest tout simplement une nécessité de service. On ne peut plus ne pas lavoir.
Domestiquer la « courbe des tendances »
Faut-il être le premier à mettre en place de nouveaux concepts informatique ?
Pour le tertiaire et le secteur du high tech et de lélectronique, quand les produits et les actifs deviennent de plus en plus immatériels, les opportunités de créer rapidement et à moindre coût des services différentiateurs avec de nouveaux modèles technologiques, économiques ou organisationnels, sont élevées. Le système dinformation, avec la tertiarisation de léconomie, est plus que jamais un outil de production dans cette nouvelle donne économique.
Mais il y a aussi des risques et beaucoup dambiguïté à vouloir rester le premier à introduire une rupture technologique. Cest autant valable pour les entreprises utilisatrices, qui mettent en place de nouvelles technologies, que pour les éditeurs/constructeurs qui les conçoivent ou les développent. Pour mémoire, IBM, pourtant à lorigine du concept, sest vu doublé par Oracle, plus rapide à commercialiser un système de gestion de base de données relationnelle.
Par ailleurs, les vrais paradigmes de rupture, comme UNIX ou lopen source, sont sur des cycles dadoption XE "cycles dadoption" longs et, comme tout vrai paradigme, apportent des bouleversements autres que technologiques car ils ont des impacts organisationnels et
métier. Pourtant, les entreprises qui ont su bénéficier au plus tôt des avancées de linteropérabilité ou des avantages de lopen source ont pu marquer des points pendant un moment.
En informatique, savoir innover à bon escient, cest savoir domestiquer les montagnes russes du hype cycle XE "hype cycle (Gartner)" , cest-à-dire la courbe des tendances du Gartner XE "Gartner" . Cette courbe montre que le lancement de nouvelles technologies suscite beaucoup dattentes, jusquà atteindre un « pic » dinflation qui risque fort dêtre suivi par une déception proportionnelle, voire un rejet, si les premières expériences ne répondent pas aux résultats escomptés. Ainsi une technologie peut rester quelques temps oubliée, écartée par les entreprises qui la jugent soit peu mature, soit pas à la hauteur de ses promesses initiales. La durée de cet oubli correspond au « creux de la désillusion » selon le Gartner. Ensuite, dans les cycles dadoption, cette technologie peut rencontrer à nouveau un regain dintérêt, car utilisée avec succès dans plusieurs entreprises, auquel cas elle se répandra progressivement jusquà atteindre le « plateau de productivité » qui précède une adoption généralisée.
HypeCycleGartner.png
Figure 11-1.
Hype cycle ou la courbe dadoption des technologies émergentes selon le Gartner XE "Gartner"
Comme le montre les symboles sur la figure, une technologie qui a été lancée récemment (techno C qui gravit le pic des attentes), peut se retrouver rapidement à deux ou cinq ans dune adoption généralisée, alors quune technologie lancée antérieurement (ici techno D) aura dû attendre dêtre passée par un « creux de la désillusion » avant dêtre elle-même aussi proche de ladoption. Le RFID, par exemple, est une technologie peu récente, pour autant son adoption a dû attendre une baisse des coûts des étiquettes et dans lintervalle, beaucoup dentreprises se sont détournées de son usage. Il peut également arriver quune technologie natteigne jamais le plateau de productivité, frappée dobsolescence avant terme, en étant concurrencée par une nouvelle technologie plus simple ou plus économique.
Pour se différencier par lusage des technologies, mieux vaut arriver au plateau de productivité avant les autres, et mieux vaut pour cela partir le premier, avec les précautions requises. Partir au bon moment et sur le bon chemin (certains natteignent jamais ledit plateau de productivité XE "productivité :plateau de" ), voilà lépineux problème de linnovation XE "innovation:par le SI" .
Le paradoxe dAchille et la tortue
Dans le paradoxe dAchille et de la tortue XE "paradoxe dAchille et de la tortue" \t "Voir Zénon dElée" , émis par le philosophe grec Zénon dElée, le héros dispute une course à pied avec le reptile et lui concède « élégamment » une avance de cent mètres. Tout lenjeu du raisonnement du philosophe est de démontrer quAchille na jamais pu et ne pourra jamais rattraper la tortue. Achille ne le pourra pas, puisquil doit toujours parvenir dabord au point que la tortue vient de quitter et que celle-ci aura pris un peu davance. Achille doit donc passer par une infinité de points que la tortue a déjà franchis. Même si la distance entre eux se réduit de façon infinitésimale, il reste toujours une distance à franchir qui sadditionne aux précédentes, pour que la somme de secondes qui sécoulent avant quAchille ne rattrape la tortue comporte une infinité de termes. Il lui faudrait dont une durée infinie pour rattraper la tortue. Bien sûr, la démonstration mathématique des séries convergentes a résolu le paradoxe, pour la course à pied, tout du moins.
Pour linnovation, lavance prise au départ dans les technologies est de même essentielle, mais encore faut-il la garder.
Une autre fable rappelle quà trop sommeiller, on se laisse distancer. En dautres termes, une entreprise qui reste sur ses acquis de leader et ne veut pas prendre le risque dinnover, prend tout de même un autre risque : celui de se laisser distancer pas ses challengers. Cest là où il est intéressant de se situer dans le modèle du cycle de vie XE "cycles dadoption" de ladoption des technologies de Everett Rogers XE "Everett Rogers" . Faut-il être parmi les innovateurs XE "innovateurs (types)" ? Les premiers à adopter ? En tous cas, il nest pas conseillé dêtre les derniers.
DiffusionOfInnovation.png
Figure 11-2.
Cycle de diffusion de linnovation
Innover, daccord, mais comment ? La question est pertinente, surtout en informatique où il y a tant de concepts différents, de nouvelles technologies, de nouvelles solutions, de référentiels, tant de pistes et de présumés miroirs aux alouettes, et que le DSI, transformé en entrepreneur sil touche à linnovation et veut en faire une source de valeur pour lentreprise, sinterroge sur la direction à prendre et a du mal à calculer ses risques. Certes, sil y avait des recettes miracles pour innover, il ny aurait par nature plus dinnovation. Mais lon devine bien certains principes, certains effets pervers à vouloir à tout prix diminuer les risques inhérents à linnovation en lencadrant par des processus XE "innovation:processus" .
« Cest avec la logique que nous prouvons et avec lintuition que nous trouvons »
Linnovation mérite-t-elle des processus ? À force de vouloir contraindre la logique dinnovation à rentrer dans des étapes structurées, on peut la perdre, car lenjeu nest pas de savoir a posteriori ce quil fallait penser a priori. Décrire à un moment, via les processus, les réalités que nous trouvons sous nos sens et nos vies ne suffit pas. « Qui dit ce qui est ne peut induire de là ce qui devait être », notait Henri Poincaré XE "Henri Poincaré" , mathématicien et philosophe, lequel a introduit la différence entre un axiome et une définition.
Linnovation est dabord, avant toute chose, affaire dintuition, pour déterminer le bon paradigme de lévolution. Ensuite seulement, il faut prouver de façon logique son apport et comment la mettre en uvre. Y-a-t-il dès lors des conditions particulières pour que cette intuition vienne ? Linnovation demande-t-elle des talents spéciaux ? Est-ce quinnover est un métier ou une capacité ?
Partons de laxiome suivant, que nous ne contestons pas : « Il y a un potentiel dinnovation dans chaque employé dentreprise ». Sous ce concept, nous trouverons la fameuse boîte à idées de Renault, implémentée depuis presque une quinzaine dannées, ou le programme dinnovation participative, lancé par Accor en 2001. Derrière ces initiatives, il faut certes des processus pour canaliser les idées, les récompenser cest un principe du Knowledge Management XE "Knowledge Management" en entreprise : récompenser la contribution par une valeur monétaire ou une forme de reconnaissance professionnelle mais la question essentielle à se poser, sans chercher nullement à amoindrir lapport des contributions, est la suivante : combien didées sont des raisonnements a posteriori, cest-à-dire des idées damélioration et doptimisation des processus existants, et combien sont réellement « transformationnelles » ? Une boîte à idées nest pas de nature à faire prendre des risques ou proposer une vision différente, elle peut induire comment faire mieux, mais peu proposer comment faire autrement.
La reconnaissance et la liberté des réseaux du Web : un ferment de linnovation ?
Ce potentiel dinnovation individuel sexprimera sans doute mieux dans un environnement ouvert où le risque de porter ombrage à lorganisation de lentreprise sera amoindri, voire inexistant, et où la forme de reconnaissance sera relayée et démultipliée par laudience. Ainsi, typiquement, les réseaux sociaux sont un terreau dinnovation potentiel : reconnaissance par les pairs, culture déchanges, pas dorganisation hiérarchique, foisonnement didées
Cest peut-être là où le bât blesse.
Comme le souligne Poincaré, « lesprit nuse de sa faculté créatrice que quand lexpérience lui en impose la nécessité ». Cela peut induire, dune part, que la recherche et linnovation ne font pas forcément bon ménage et, dautre part, quun environnement foisonnant didées, mais non contraint à la nécessité dinnover, naura pas forcément lintuition nécessaire pour avancer. A contrario, lécosystème de lopen source a trouvé un modus vivendi où lexpérience elle-même lui impose la nécessité davancer, ensemble, et avec une logique de projets introduisant la rigueur là où elle est nécessaire.
Pour innover, il faudrait donc concilier un environnement non contraint par des processus stricts ou une organisation hiérarchique, mais par la nécessité davancer, à un espace ouvert déchange didées, et mélanger des personnalités intuitives pour définir les axiomes, avec des approches plus rigoureuses pour prouver logiquement que le chemin est bon.
La recherche de linnovation XE "innovation:recherche de" est une recherche de sens (de valeur pour lentreprise) dans le choix de chemins possibles. La capacité à innover pourrait être un mélange entre louverture aux champs des possibles et la capacité à choisir rapidement un possible parmi dautres. Pour innover, il faudrait donc pouvoir disposer dune vision large dun terrain et avoir la capacité à sengager rapidement sur lun ou lautre des chemins, en dehors dune logique organisationnelle imposée a posteriori.
Poser la bonne question, partir du bon axiome intuitif de ce qui, en informatique, permettra la création de valeur XE "la création de valeur" pour lentreprise, cest cela qui ouvrira le champ des possibles et donnera lavance nécessaire à la tortue, challenger dAchille. Plus que jamais, en période de crise, celui qui aura su partir à temps, et sengager dans une réelle transformation, sera assuré de garder son avance face à ceux qui restent sur leurs acquis.
Cela nous amène à un autre paradoxe. À lheure où de nombreuses voix se rejoignent pour dire (ou prédire ?) que linnovation sera un outil de sortie de crise, quel est le budget réel accordé à linnovation ? En informatique, si différents spécialistes saccordaient à avancer que moins de 5 % du budget IT XE "budget IT" était dévolu à linnovation avant la crise, tout porte à croire, à une époque au mieux de budget constant ou « iso-budget », que le pourcentage est encore moindre aujourdhui. Est-ce suffisant ? Ou ne serait-il pas temps que la réduction de coûts soit entreprise non pour dégager plus de bénéfices immédiats, au risque de bloquer le futur, mais, en restant à budget constant, soit dédiée à augmenter linvestissement en innovation XE "innovation:investissement" ? Il y a fort à parier malheureusement linnovation, ne tombant pas sous le coup de processus bien structurés et dindicateurs totalement quantifiables a priori que lon choisisse de faire une croix sur ce quon ne sait pas maîtriser par peur du risque, au risque de ne plus maitriser la « sortie de crise » a posteriori.
Lévolution des compétences et des organisations
Lenvironnement des systèmes dinformation est par nature changeant. Des entreprises apparaissent et disparaissent, des regroupements se font entre constructeurs, éditeurs et utilisateurs, tandis que pléthore de nouveaux fournisseurs proposent des technologies certes attractives, mais dont le couplage avec les applications existantes nest pas toujours limpide. La complexité des fusions et acquisitions, des consolidations de sociétés, mettent également en lumière la nécessaire restructuration des systèmes dinformation pour plus de qualité, de cohérence, de capacité de collaboration (interne entre métiers et externes vis-à-vis des partenaires et clients), condition de ladaptation au changement XE "adaptation au changement" .
Mais, dun point de vue humain, comment sadapter, comment évaluer lexpertise nécessaire à le faire, en particulier pour appréhender les nouvelles technologies, comment mesurer les retours dexpérience, capitaliser dessus et exploiter ce quon a appris ? Enfin, comment faire évoluer les compétences XE "évolution des compétences" afin de pouvoir contrôler que les informations que nous collectons, stockons, manipulons et utilisons à grande échelle, grâce aux technologies sont, dune part, pertinentes, fiables et sécurisées et, dautre part, utiles les unes pour supporter au quotidien le fonctionnement de lentreprise, les autres pour élaborer et mettre en uvre de façon cohérente la stratégie et les tactiques nécessaires à latteinte de ses objectifs ?
Dans un monde de changement, doit-on privilégier la capacité à faire évoluer rapidement les expertises technologiques ? Doit-on veiller dans un monde hétérogène où se juxtaposent des strates technologiques à ne pas perdre les compétences acquises et privilégier lexpérience ? Ces questions proposent déjà une réponse : il ne faut pas opposer expérience à expertise, lune et lautre se complétant. Mais la réponse ne sarrête pas là : expériences et expertises ne suffisent pas à supporter complètement lévolution, il faut également créer le lien entre des savoir-faire et savoir-être différents.
« Expérience est le nom que chacun donne à ses erreurs », écrivait Oscar Wilde. Connaissant lironie de lauteur, il est clair que lexpérience des uns ne vaut pas celle des autres. Au-delà de lironie, une erreur est souvent source dexpérience quand nous apprenons à en retirer de la sagesse et à avoir le recul nécessaire pour ne pas la reproduire. Ainsi évoque-t-on souvent, en programmation, des « erreurs de débutants », signifiant ainsi quaprès quelques années, éviter ce type derreur devient un automatisme.
Le lien entre savoir-être et savoir-faire
Si on prend un développeur débutant ayant été formé sur des technologies récentes (deux ou trois ans dâge), il a certainement plus de capacités à développer rapidement sur ce nouvel environnement quun programmeur ayant dix ans dexpérience et devant se former à ces technologies. On peut même dire que le débutant a paradoxalement plus dexpertise sur les technologies en question que le programmeur confirmé. Toutefois, il est probable quils mettront lun et lautre le même temps à développer une application; car le développeur débutant fera des erreurs qui nécessiteront des retours en arrière, tandis que la personne expérimentée rattrapera son retard dapprentissage par la méthode.
Doù lintérêt dutiliser le principe de programmation en binôme XE "programmation en binôme" \t "Voir pair programming" en loptimisant via le couplage expertise et expérience, pour transférer des compétences complémentaires. Doubler les équipes naugmente pas la durée de développement mais réduit les coûts liés aux erreurs de non-qualité du logiciel. De même, les revues de code XE "revues de code" (pair review), sont une approche encore complémentaire, au sens où, intervenant plus tard dans la chaîne de développement, elles permettent dutiliser expérience et expertise pour réduire au maximum les erreurs avant la mise en production, et un partage dexpérience à une autre échelle.
Au-delà de la programmation logicielle, lexpérience est une valeur sûre dans toutes les approches de gestion des projets, car si des méthodes, des référentiels et des outils issus de nombreuses capitalisations existent pour structurer lapproche, reste que leur mise en uvre requiert le bon sens de déterminer, en fonction de chaque entreprise, ce qui peut être adapté rapidement et qui amènera à court terme un retour dinvestissement mesurable et ce qui ne fera qualourdir des processus pour peu de plus-value.
De même faut-il avoir lintelligence des situations (qui sacquiert par la pratique) pour exploiter efficacement les indicateurs de gestion de projets afin dy déceler les signes avant-coureurs de dérive ou de non-qualité, et mener ainsi une politique de gestion des risques adaptée, mais également pour dialoguer avec différentes instances de décision et pour gérer en cohésion une équipe soudée vers les mêmes objectifs. Ce dernier point est un critère-clé de réussite parfois plus efficace quun tableau de bord nintégrant plus la dimension humaine des projets.
Une expérience assez large des concepts et usages des systèmes dinformation est un atout dans lapproche de conception des nouveaux systèmes, où la compréhension des enjeux métier facilite le choix de progiciels verticaux ou la modélisation des objets et des processus métier réellement significatifs, et ce, dans une architecture dentreprise. Mais nul besoin pour cela davoir une réelle expertise métier, lessentiel étant de savoir collecter les informations, en déterminer la pertinence et les types de liens, puis davoir la capacité à modéliser cette connaissance acquise dans un schéma visuel compréhensible par dautres, et exploitables dans un processus de développement éventuellement outillé, ou un processus de choix de solution par analyse des écarts XE "analyse des écarts" (gap analysis XE "gap analysis" \t "Voir analyse des écarts" ).
Lintelligence de linteraction
À lexpérience de la méthode doit sassocier une utilisation de capacités assez spécifiques. Elle nécessiterait dutiliser au moins parmi les formes dintelligences quHoward Gardner XE "Howard Gardner" , théoricien des formes multiples dintelligence, a classifié au nombre de sept, les trois suivantes:
lintelligence interpersonnelle, pour interagir de façon adaptée avec les tenants du savoir métier et avec les développeurs ;
lintelligence spatiale, pour avoir une représentation spatiale de « larchitecture dentreprise » et comprendre comment y progresser ;
lintelligence logico-mathématique, cest-à-dire une intelligence plutôt orientée vers lanalyse et les raisonnements logique, la catégorisation et la classification.
Cette dernière est dailleurs un exemple intéressant dévolution des expertises, car elle fait apparaître une évolution des schémas de pensée. En effet, lévolution des langages informatiques, les successions de paradigmes, suivent une logique relativement similaire à lévolution des langages des civilisations, au sens où dans ces derniers, des mots, des règles syntaxiques ou lexicales, sont apparus pour répondre à lévolution des besoins quotidiens, dabord axés sur la survie (chasse, pèche, climat), ensuite tournés vers les échanges, le commerce facilitant lenrichissement du langage.
Ainsi, la fonction crée le besoin dusage du mot, puis le mot lui-même qui, à son tour, conduit à dautres niveaux déchanges. De ce fait, lévolution des langages procéduraux vers des langages de plus haut niveau dabstraction, avec une logique objet puis pattern, sest accompagnée dune évolution des schémas de programmation et des compétences.
Il y a une dizaine dannées, on seffrayait du taux déchec à former danciens programmeurs Cobol XE "Cobol (Common Business Oriented Language)" au C. Aujourdhui, compte tenu du fait que les mainframes sont loin de lagonie quon leur prédisait, on forme à linverse de jeunes programmeurs au Cobol, et il existe également du Cobol-Objet, bien moins répandu. De plus, les barrières dapprentissage pour passer dun monde à lautre se sont estompées.
La différence vient probablement du fait que les premiers « Cobolistes » nétaient pas tous informaticiens mais certains formés sur le tas à lusage du Cobol. Les générations suivantes ont été formées aux approches algorithmiques. Elles utilisent donc plus des capacités proches de ce quHoward Gardner nomme « intelligence logico-mathématique ».
Un exemple de cette évolution pourrait être le « problème dEinstein » et des cinq voisins. Einstein le présentait à son époque comme accessible seulement à 2 % de la population. Aujourdhui, ce problème est posé à des élèves de collège ou de lycée, en tant quexercice logique relativement simple. Cela sexplique par une évolution de lenseignement, plus orienté vers le raisonnement logique. De même, lévolution des technologies conduit à une évolution de léducation et également des schémas de réflexion.
Jamais autant quaujourdhui la phrase dEinstein « il ne faut pas chercher à tout savoir, mais savoir où tout chercher », na pris autant de relief avec la masse de connaissances numériques disponibles sur Internet. Naviguer sur Internet ne suppose pas forcément expérience ou expertise mais capacité à dépasser des systèmes de classification et de catégorisation logique pour établir des liens ouverts, voire intuitifs et trouver, par des voies multiples, la solution à un problème. Par exemple, il peut sagir de rechercher une brique logicielle open source pour une fonction relativement classique, plutôt que de la développer.
Évaluer lopportunité et la réelle valeur ajoutée de cette brique nécessitera alors de lexpertise, et lintégrer à tout un « cadre de référence » pour le développement requiert lexpérience des méthodes et des organisations. Il est intéressant de voir que cette approche réutilisabilité XE "réutilisabilité" et recherche de linformation sur Internet est une évolution dans lapproche des problèmes liés à limplémentation des systèmes dinformation, que ce soit dans la recherche de solutions ou de meilleures pratiques. Le nivellement de laccès à linformation ne doit pas conduire à une sous-estimation du potentiel de cette information, mais bien à une nécessaire réflexion sur les formes dusage qui peuvent en être fait et comment les relier entre eux.
Si lexpertise au sens connaissance se nivelle par le partage ou par la mise à disposition de larges bases de connaissances, ce qui prime nest plus lexpertise technique mais la capacité à faire le lien entre cette connaissance et un besoin déterminé, sans forcément passer par une analyse de causalité trop stricte, donc une intelligence logico-mathématique.
Depuis longtemps, les approches en gestion des compétences XE "gestion des compétences" distinguent différents types de savoirs : savoirs formalisés (connaissances et procédures) et savoirs agissants (savoir-faire, expérience). Ainsi, elles distinguent ce qui pourrait être expertise dun domaine de connaissance (le savoir), ce qui est savoir-faire acquis par la pratique; et une notion, pas toujours bien définie, de capacités relationnelles (le « savoir être »).
Mais leur défaut principal est souvent de sappuyer sur un système de classification hiérarchique, une arborescence assez stricte, pour recenser différentes expertises technologiques ou métiers, ou des niveaux dexpériences, avec des passerelles et des logiques dévolution par filières et très compartimentées.
Cest mésestimer la dimension collaborative, lintelligence interpersonnelle, qui permet doptimiser lusage de compétences complémentaires et de faire évoluer les individus dans un réseau social : lentreprise. Ainsi quévoqué précédemment, les binômes de programmation, en alliant nouvelle expertise et expérience, font avancer plus vite pour un résultat de meilleure qualité. Ce nest pas forcément lexpertise quil faut développer mais la capacité à travailler avec dautres expertises, et à transférer sa connaissance à dautres contextes. De plus, au-delà de lexpérience et de lexpertise, il faut comprendre quelles formes de capacités, ou formes dintelligences sont requises dans des situations données, qui peuvent varier du tout au tout pour une même tâche selon le contexte en entrée.
Contrairement à Howard Gardner qui pense les formes dintelligence comme exclusives (un individu aura une forme dintelligence plus développée que les autres), le monde des systèmes dinformation, son évolution même, nous force à les voire multiples et complémentaires, et également à réaliser limpact des technologies sur nos formes de raisonnement ou dapproche qui évoluent au fil du temps.
Cest pourquoi, pour une réelle approche dévolution des compétences XE "évolution des compétences" qui supporterait lévolution des technologies et des systèmes, il faut raisonner non par compétences individuelles, mais par interrelations entre individus. Cest pourquoi il faut privilégier les binômes permettant de coupler une expertise nouvelle à une expérience éprouvée et réaliser un transfert bidirectionnel. Savoir relier les compétences a priori distinctes entre individus permet den retirer les complémentarités en termes dapproche et de garder lintelligence des situations. Cela permet de maintenir les expertises nécessaires au fonctionnement des anciens systèmes (exemple des mainframes), tout en intégrant les experts de ces derniers dans des groupes de réflexions mixant également des expertises sur les nouvelles technologies et des compétences diverses.
Ces réseaux de réflexion et dexpertises XE "réseaux de réflexion et dexpertises" , fondés sur léchange, le partage et la transmission de savoirs entre tous ses membres, doivent se concevoir en intra-entreprise, mais aussi en interentreprise, tant il est vrai que les facteurs dévolution peuvent être endogènes pouvant résulter dune décision de lentreprise qui décide de maîtriser son évolution ou exogènes et se développer sous linfluence des meilleures pratiques constatées chez dautres entreprises.
Des binômes agiles pour lévolution
On pourra rétorquer que la mise en place de binômes, la réflexion sur linterrelation des compétences, les groupes de réflexions intermétiers, ou enfin les réseaux dexpertises mettant en commun des générations de développeurs ou darchitectes formés à des paradigmes différents, représentent un coût dinvestissement que les entreprises ne sont pas prêtes à fournir, car non lié à un projet déterminé. À une époque de réduction de coûts, la gestion des connaissances au sens large ne fait pas recette. À cela, on peut rétorquer, dune part, que les technologies de partage dinformation et de collaboration peu coûteuses abondent grâce aux solutions open source et dautre part, pour faire un client dil à Einstein, quen matière de coût, tout est relatif
à ce que linitiative rapporte.
Car le premier champ dapplication de ces réseaux de réflexion et dexpertise pourrait être lévolution pratique des systèmes existants. En effet, pendant quInternet modifie radicalement le paysage de lusage des technologies, les entreprises doivent faire face plus que jamais à la gestion de leur héritage informatique. La gouvernance est à ce prix.
La réalité, cest que bon nombre de systèmes existants ont des fonctions redondantes dans plusieurs systèmes, si ce nest des processus redondants, une visibilité insuffisante sur les flux de données, peu de traçabilité des processus, et des données dont la qualité et la cohérence sont à revoir, sans parler des structures. Ils nont pas été « nettoyés » non pas par ignorance de la situation, mais parce que cela représentait un investissement a priori purement technique pour des applications existantes, le plus souvent visées par des réductions de coûts. À court terme, le retour sur investissement était difficile à mesurer.
Aujourdhui, on mesure davantage le prix de ce non-investissement au cours des dix à vingt dernières années, à laune des difficultés dintégration, de convergence et dévolution. Nous ne devons pas négliger cette expérience, et agir tant quil est temps. Rendre progressivement agile lexistant, bien plus que ladapter au jour le jour aux nouvelles technologies, pourrait être un nouveau concept issu des erreurs du passé. Ce serait une première piste de réflexion pour une évolution des compétences XE "évolution des compétences" axée sur linterrelation et la collaboration entre les experts des systèmes existants et les « tenants » des nouvelles technologies ou architectes des approches durables.
Alors, avant que lécart entre le passé dont nous héritons et le futur que nous devons anticiper ne soit trop douloureux et les deux extrêmes irréconciliables, il est temps pour les entreprises de prendre conscience, au-delà de la vitesse incroyable de lévolution des technologies, de la nécessité dêtre agile aussi bien dans leurs choix et nouveaux projets, que dans la façon dont elles feront évoluer leur héritage et
leurs formes dintelligences.
Par ailleurs, elles ne devront pas oublier ce principe de gouvernance, issu de la République de Platon où Socrate montre quun chef un gouvernement ne commande pas ce qui est en son propre intérêt mais toujours ce qui est dans lintérêt de celui quil commande.
Conclusion
Un principe de gouvernance XE "gouvernance:de lévolution des SI" de lévolution pourrait être de considérer le système dinformation comme un organisme vivant.
En effet, tout SI a des invariants XE "invariants" au sens dun « cadre architectural », on retrouvera les mêmes principes généraux darchitecture qui font quil y a forcément des plates-formes matérielles, des serveurs, des réseaux, des interfaces, des données de référence XE "données de référence" , des environnements de développement qui suivent certains paradigmes, des domaines dapplications qui sinscrivent dans des cartographies fonctionnelles métier, et des méthodes ou des processus relativement standardisés, le cas échéant.
On peut donc toujours lier un système dinformation implémenté à linstanciation de concepts connus. Mais linstanciation ne sarrête pas aux seuls processus matériels et à la connaissance physique de lunivers matériel dans lequel le système dinformation sinscrit. La réalité est devenue beaucoup plus complexe au fur et à mesure que linformation immatérielle ainsi que les outils qui la gèrent se sont démultipliés. Le système dinformation est vivant parce quil est « mouvement ». Il évolue en fonction des besoins des entreprises, mais également en fonction des compétences des personnes qui le manipulent et qui le considèrent différemment.
Définir le SI en tant qu« organisme vivant » signifie aussi, en principe, quil est un ensemble constitué par des éléments ou des organes remplissant des fonctions différentes et coordonnées. Ce qui conduit à le regarder comme un tout en matière de bonne gouvernance XE "gouvernance:du système dinformation" , en portant attention aux parties qui forment ce tout et non pas en le morcelant dans des parties distinctes qui ne permettent pas davoir la coordination densemble nécessaire à poursuivre une stratégie et des objectifs spécifiques et adaptables aux besoins.
Cela étant dit, considérer les systèmes dinformation comme des organismes vivants comporte dautres implications majeures pour la gouvernance.
La gouvernance, cest prévenir la sclérose du SI et permettre la reproduction pour durer.
Sans vouloir redessiner une définition du vivant qui est un exercice périlleux dans lequel de nombreuses questions biologiques, éthiques et philosophiques se posent et qui font que, stricto sensu, la comparaison a des limites, deux concepts sont intéressants à développer dans le cadre de la notion de systèmes dinformation vivants XE "systèmes dinformation vivants" . Le concept dévolution qui va de la naissance à la mort en passant par le développement et le processus actif dauto-entretien, qui recouvre la fonction de lutte contre les maladies et les accidents, et la reproduction.
Le système dinformation vivant change en permanence et développe, comme tout organisme, des pathologies qui ont des symptômes auxquels on peut appliquer un diagnostic et, éventuellement, des posologies. Sil ne peut pas être protégé contre tout accident, on peut du moins en réduire les risques (tels que les risques dobsolescence avérée, les risques dincohérence ou de non-sécurité des données
).
Le changement implique aussi, pour tout organisme vivant, une dégradation XE "dégradation:du SI" progressive. De ce fait, il est logique denvisager la mort de tout ou partie de certains systèmes dinformation, cette dernière arrivant quand lorganisme, sclérosé, ne peut plus évoluer et se réparer. La contrepartie est de repousser cette mort le plus longtemps possible avec la prévention médicale nécessaire pour se régénérer, durer et engendrer de nouveaux systèmes dinformation pour perpétuer une fonction semblable avec de nouvelles forces.
Quant au processus XE "processus:de reproduction du SI" de reproduction, il consisterait, pour un système dinformation, à partir de gènes invariants (des données dentreprise, des règles métier XE "règles métier" , des meilleures pratiques, des traitements réutilisables, par exemple), à créer un individu de la même famille, mais avec un nouveau corps, plus jeune, plus robuste, plus capable de sadapter et dévoluer rapidement, en évitant la sclérose le plus longtemps possible.
Créer un nouveau corps signifie changer radicalement les outils, le back office, le front office et éventuellement les terminaux nomades. Typiquement, « webifier » des écrans 3270 en leur donnant une ergonomie Web est juste un lifting sur un vieux système. À linverse, changer radicalement larchitecture des interfaces pour utiliser toutes les opportunités du Web 2.0 XE "Web 2.0" est un changement de génération de corps avec des nouvelles capacités, des nouveaux types dinteraction possibles avec le client, qui offrent de nouvelles perspectives de ventes ou de services dinformation grâce à une interface riche à plusieurs onglets et à agrégation de contenus.
Un système dinformation qui permet dalerter via SMS, avant un découvert prévisible, est dune autre génération quun système qui ne permet de réaliser ce découvert que dans un bulletin papier mensuel, avec les agios qui laccompagnent. Un système dinformation utilisant un ordonnanceur, de la géolocalisation XE "géolocalisation" et toutes les nouvelles solutions technologiques liées à la mobilité, permettra une gestion fine des forces dintervention sur le terrain, et loptimisation des interventions afin darriver en urgence au bon moment dans des situations critiques, ou fournir un service dintervention réactif, à lheure près, pour la plus grande satisfaction des clients, tout en réduisant les coûts logistique, dopérations, de pilotage et de maintenance. La technologie NFC XE "NFC (Near Field Communication)" utilisée pour rendre des téléphones plus intelligents, plus interactifs, peut autoriser lachat dun produit vendu en distributeur en approchant le téléphone portable de la vitre, ou gérer efficacement la vente et le contrôle de billets de spectacles.
Créer un nouvel individu pour un système dinformation ne signifie pas seulement changer le corps grâce à de nouvelles solutions technologiques. Il faut également avoir un nouvel esprit, cest-à-dire faire évoluer lorganisation et les pratiques en parallèle du corps.
Pour gérer le SI comme un organisme vivant, il faut reconnaître les invariants du savoir-faire et accepter le mouvement qui est la condition de la vie.
En dautres termes, il ne faut pas hésiter à faire les sauts générationnels quimpliquent des ruptures technologiques pour avoir un SI durable. Il faut se méfier, selon Bergson, « des habitudes quon érige en lois, répugner au changement, cest laisser distraire ses yeux du mouvement qui est la condition de la vie ».
La sclérose des systèmes dinformation, leur manque de flexibilité actuel, nest pas seulement dû aux limitations des outils hérités du passé, mais aussi à lincapacité à remette en cause et à se dégager dun choix précédent pour en faire un nouveau. En ne considérant pas les systèmes dinformation comme vivants et soumis à des changements permanents (et des maladies), cest une sorte dinaptitude à enrichir un point de vue sur le réel que lon a créée. À linverse, ne pas considérer les invariants des systèmes dinformation, cest, dune part, ne pas être capable de reconnaître et prévenir les symptômes de maladie quant ils se présentent et, dautre part, ne pas être capable de transmettre le savoir-faire acquis pour évoluer sur la durée.
Nous avons besoin des outils informatiques, des meilleures pratiques, des automates, pour nous aider à évoluer, mais sans le mouvement de la main qui contrôle loutil, sans la capacité « non programmée » à changer sa direction et son usage, lautomate est sans intelligence et ne fait quimiter mécaniquement le mouvement de la vie.
Une bonne gouvernance XE "gouvernance:du système dinformation" du système dinformation, au-delà des méthodes et des types doutils préconisés des meilleures pratiques de lévolution, est aussi bien de prendre en compte le savoir-faire héritée propre à un domaine de connaissance que de souvrir au mouvement, ne pas hésiter à lanticiper, pour savoir sadapter intelligemment au changement. Lun ne se conçoit pas sans lautre.
Annexe
Un héritage hétérogène
Cette annexe a pour objet de dresser le paysage des systèmes dinformation actuels, en expliquant les fondations qui y ont présidé ainsi que les grandes étapes historiques des changements de paradigmes et leurs conséquences. Lévolution des systèmes centralisés, propriétaires, vers les environnements distribués y est ainsi traitée. Nous traiterons également dInternet et des métamorphoses du Web, devenu un catalyseur du changement pour les systèmes dinformation.
Car ce sont les évolutions du Web qui ont, dune part, permis daccélérer linteropérabilité et la logique de services dusage pour linformatique, et dautre part, accentuées le schisme entre lévolution des technologies et la maturité des organisations.
Chapitre A1
Les fondations
Pour prévoir lavenir, il faut connaître le passé, car les événements de ce monde ont en tout temps des liens aux temps qui les ont précédés. Créés par les hommes animés des mêmes passions, ces événements doivent nécessairement avoir les mêmes résultats.
Nicolas Machiavel
Lévolution des langages : du binaire au concept
Il est un peu arbitraire de déclarer que linformatique a cinquante ans. On pourrait tout aussi bien dire quelle remonte au xviie siècle, à Blaise Pascal et à linvention de la Pascaline, première machine à calculer, auquel cas nous pourrions parler de siècles. Nous pourrions aussi prendre 1946, année durant laquelle Turing présente son projet de construction dun calculateur électronique, comme lacte de naissance de lordinateur.
Quen est-il alors des débuts de linformatique en entreprise : commencent-ils à la naissance du terme, en France, au début des années 1960 avec la contraction d« information » et « automatique » ? aux calculateurs et simulateurs des projets Manhattan et Enigma ? au concept de la machine de Turing XE "machine de Turing" ? à larchitecture du calculateur universel de Van Neumann XE "Van Neumann" ?
En réalité, il ny a guère plus de cinquante ans. Il faudra attendre 1956, avec Grace Murray Hopper XE "Grace Murray Hopper" , pour assister à la naissance du premier langage compréhensible hors du cercle scientifique. Ce langage, spécialisé pour la gestion et le domaine bancaire, destiné à un usage métier, fut nommé le « Cobol » XE "Cobol (Common Business Oriented Language)" (Common Business Oriented Language).
Un tel langage était la clé de voûte qui manquait pour que la programmation des ordinateurs devienne accessible à un plus grand nombre, conduisant progressivement à un usage de plus en plus répandu des technologies de linformation et des communications en entreprise. Lhistoire des systèmes dinformation commençait.
Un peu dhistoire
« Père et mère » fondateurs de linformatique
À lorigine de linformatique moderne, un homme et une femme ont particulièrement marqué les esprits et le cours de lhistoire. Tous deux mathématiciens, ils eurent pourtant des destins et des reconnaissances différentes. Pour démentir la règle, la femme fut couverte dhonneurs, à linverse de lhomme. Il sagit de laméricaine Grace Murray Hopper et du britannique Alan M. Turing XE "Alan M. Turing" .
Grace Murray Hopper, morte en 1992 à lâge de 86 ans, était encore consultante chez Digital IBM à 80 ans et a obtenu plusieurs prix prestigieux. En 1969, elle fut la première femme nommée « homme de lannée » en Computer Science et en 1971, Sperry créa un prix annuel portant son nom pour honorer de jeunes scientifiques. En 1973, elle fut la première personne aux États-Unis et la première femme au monde à être « Distinguished Fellow » de la British Computer Society.
Cette pionnière eut la vision dune informatique à la portée de tous, du moins une programmation élargie hors du cercle des mathématiciens et des experts en super calculateur. Elle participa activement à concrétiser cette vision avec les premiers compilateurs et le premier langage commun de gestion, le Cobol. Elle sétait aussi engagée dans la marine à lentrée en guerre des États-Unis et, pour lanecdote, était contre-amiral dans la réserve en 1986.
Alan M. Turing XE "Alan M. Turing" fut également un mathématicien de génie, engagé, lui aussi, pendant la Seconde Guerre mondiale. Cest grâce à une machine algorithmique de sa conception que le code secret Enigma, qui protégeait les transmissions des sous-marins du Reich, fut déchiffré. Selon Gordon Brown (The Daily Telegraph, Londres, 10 septembre 2009) : « Il nest pas exagéré de dire que sans sa contribution hors du commun, lhistoire de la Seconde Guerre mondiale aurait pu être très différente. »
Cette déclaration intervient toutefois à titre dexcuses posthumes dun pays qui a condamné Turing, ainsi que 100 000 autres Britanniques, à la castration chimique pour raison dhomosexualité, pratique en vigueur jusquà ce que le vote du Sexual Offences Act, en 1967, ne considère plus lhomosexualité masculine comme un délit. Entre-temps, Turing, interdit quasiment de tout projet scientifique suite à sa condamnation en 1952 pour « indécence caractérisée », se suicida en croquant une pomme empoisonnée au cyanure, en 1954.
Une pomme à demi croquée étant limage dune célèbre marque, certains y ont vu un hommage à titre posthume. Que cette référence soit vraie ou fausse, linformatique doit beaucoup à Alan Turing et aurait pu lui devoir davantage ; on ne peut que regretter quil nait pas eu une carrière aussi longue que Grace Murray Hopper, pour quil en soit ainsi.
Après le Cobol, bien des générations de langages se sont succédées, variantes et versions venant compliquer la donne de la filiation. Lévolution nous conduit progressivement, en partant des langages rudimentaires dit de « bas niveau XE "langage de bas niveau" », cest-à-dire proche de la machine, à des « meta-langages XE "meta-langages" » (langages de description dautres langages), en passant par des langages évolués. Lobjectif est toujours le même : parler avec la machine. Cette dernière ne comprenant que le binaire, ça ne rend pas le dialogue passionnant si on en reste à ce « bas niveau ».
Lévolution a consisté à élaborer des langages de haut niveau (évolués, donc), lesquels autorisaient le programmeur à manipuler de plus en plus dinstructions et de concepts structurellement compréhensibles par un humain, pour les traduire ensuite en langage compréhensible par la machine. Dabord, « une » machine, puis progressivement « les » machines, dès lors que des plates-formes virtuelles permettaient de faire abstraction des adhérences avec le système dexploitation.
Le traducteur qui permet de parler à la machine est un programme capable de traduire un jeu de symboles en un autre jeu, par application de règles de syntaxe et de sémantique. Suivant la nature du langage de programmation employé, ce programme sappelle un compilateur XE "compilateur" ou un interpréteur XE "interpréteur" (voir définition ci-dessous). Plus le langage est évolué, plus il présente un niveau dabstraction par rapport à la machine.
Définition
Parlez-vous le compilé ou linterprété ?
Langages compilés
Les langages compilés sont des langages où toutes les instructions sont traduites en code objet avant dêtre exécutées. Cette conversion seffectue au moyen dun compilateur.
Langages interprétés
Les langages interprétés sont des langages décodés et exécutés instruction par instruction à laide dun programme appelé interpréteur (par exemple le BASIC, bien que la plupart des versions actuelles en permettent ou en imposent la compilation).
La cohabitation entre langages : une nécessité et des contraintes
Le mythe le plus pertinent pour linformatique serait la tour de Babel : il ny a pas de langage unique pour les « contrôler tous ». Ainsi comptait-on déjà 700 langages en 1969 à la NASA pour la mission Apollo, 2 000 langages en lan 2000, plus de 2 500 aujourdhui, sans prendre en compte variantes et versions, car alors les chiffres peuvent devenir faramineux !
En réalité, cette diversité sexplique non seulement par les évolutions techniques mais également par des objectifs différents, car tous les langages ne se valent pas au regard de lapplication recherchée. Il existe des langages dédiés pour concevoir du matériel, des langages orientés système, des langages à balises pour gérer lhétérogénéité, des langages plutôt utilisés en mathématiques appliquées, en simulation et gros calculs, etc. En particulier, il existe des langages adaptés aux systèmes embarqués (pour les transports, lastronautique, larmée, les télécommunications
) dont les multiples contraintes (denvironnement, de ressources, de performances) nécessitent des technologies spécifiques, tant en terme logiciel que matériel.
Une intéressante taxonomie sur les langages a été établie par luniversité de Murdoch en Australie. Dès lors, et en toute logique, de nombreux langages cohabitent en entreprise. Selon une étude de T. Welsh Cutter, de 2004, 59 % des services informatiques utilisent plus de deux langages, 15 % en utilisent plus de quatre. On retrouve cette diversité dans la constitution de logiciels open source.
Cela dit, bon nombre de langages ont disparu au fil des ans et peu de langages sont réellement industriellement utilisés.
Par ailleurs, outre la multiplication des langages, dès 1974, le développement dapplications prend une autre tournure avec lapparition de progiciels XE "progiciels" , cest-à-dire dapplications qui peuvent être vendues sur catalogues par des sociétés éditrices de solutions logicielles. À la différence des développements dits « spécifiques », dont lobjectif est de réaliser des applications spéciales destinées aux besoins dune entreprise et adaptées à son environnement, les progiciels répondent à lenjeu dintéresser le plus de clients possibles. Ils fournissent en conséquence des fonctions standard dun domaine, génériques à toutes les entreprises (par exemple : paie, comptabilité, facturation, prise de commande) ou verticales, cest-à-dire visant un secteur de marché précis, par exemple, dans lindustrie, la planification des ressources de production.
Cela ne va pas toujours sans heurt dans la mise en uvre, puisque limpact organisationnel du choix dun progiciel nest pas négligeable. Quoi quil en soit, si ces derniers sont peu utilisés dans les années 1970, ils ont pris peu à peu de lampleur et constituent aujourdhui la moitié du parc applicatif des entreprises, voire davantage.
Comment choisir entre un progiciel et un développement spécifique ?
Avantages et contreparties
On choisit en rayon une application qui dispose déjà en standard de la plupart des fonctions désirées par les utilisateurs auxquels elle est destinée. Il sagit dacheter, auprès dun éditeur, le produit logiciel qui couvre le mieux des fonctions indifférenciées, lesquelles seraient une perte de temps à développer en interne puisque, identiques pour toutes les entreprises, elles napportent pas davantage concurrentiel. Les Anglo-Saxons désignent ces applications par le terme « COTS » (Commercial On the Shelf) XE "COTS (Commercial On The Shelf)" .
Derrière le choix dun progiciel se cache une promesse : maîtriser davantage les services rendus par lapplication (en termes de fonctions), la fiabilité des données, les coûts et les délais de mise en uvre et le résultat final.
Autre intérêt, lentreprise utilisatrice bénéficie en principe constamment des évolutions technologiques et fonctionnelles que léditeur introduit dans le progiciel au fil des nouvelles versions (à condition toutefois que le passage dune version à une autre soit simple, ce qui nest pas toujours le cas).
En contrepartie de ces avantages, les entreprises doivent ajuster leurs organisations et leurs procédures de travail, revoir le contenu de certains de leurs métiers et développer de nouvelles compétences.
Ainsi cohabitent dans les entreprises des progiciels XE "progiciels" (applications standard) avec des applications spécifiques de gestion, des applications temps réel/embarqué, des applications scientifiques
et tous les langages employés dans les développements Web. Le fait quun langage soit récent ou non nest pas une garantie sur son déploiement ou son utilisation, cest sa pertinence par rapport à lobjectif recherché qui remporte ladhésion. Certes, le fait quil soit largement répandu et populaire facilite sa mise en uvre en entreprise, tant pour la capacité à trouver des compétences que outils de développements et des logiciels tierce partie.
La société Tiobe, spécialisée dans lanalyse de la qualité des codes sources, maintient un index mensuellement qui donne une indication de la popularité des langages de programmation. Les indicateurs sont basés sur le nombre dingénieurs expérimentés dans le monde, les formations et les éditeurs tierce partie. Les moteurs de recherche google, msn, Yahoo ainsi que wikipedia et Youtube sont utilisés pour calculer les indicateurs. La figure ci-dessous donne le classement du mois daoût 2010.
indextiobe.png
Figure A1-1.
Au niveau français, un sondage organisé par la communauté du portail developpez.com confirme les langages en tête (à lexception de PHP, mais ce dernier est un langage de script, pas de programmation), avec quelques variantes, comme le montre la figure ci-dessous
sondagedeveloppez.png
Figure A1-2.
Sondage de « developpez.com »
Les choses se compliquent quand la cohabitation des langages en entreprise nest plus due à une nécessité dutiliser le langage adéquat ou le bon progiciel, mais quand elle vient de couches hétérogènes de qualité inégale héritées de rapprochement organisationnels, ou de développements antérieurs (quil sagisse dapplications qui datent de 1969, en Fortran ou Cobol, encore utilisées plus de quarante ans après leur apparition, ou dapplications développées en Java, il y a dix ans, qui ne présentent pas forcément une meilleure qualité que les précédentes).
Dans les deux cas, les symptômes dobsolescence sont les mêmes : les développeurs initiaux sont partis ailleurs, ceux qui maintiennent le code sont peu au fait des fonctionnalités métier et préfèrent faire des correctifs rapides du type « dupliquer et remplacer » plutôt que restructurer intelligemment le code.
Ajoutons à cela quen parallèle à lévolution des langages et de celle des solutions logicielles proposées par le marché, des changements technologiques majeurs ou de nouveaux modèles impactent profondément la façon de concevoir et mettre en uvre les systèmes dinformation. Ils modifient ainsi durablement le cours de lhistoire informatique. Cest ce quon appelle les changements de paradigme tels que, pour nen citer que quelques-uns : lapparition des systèmes ouverts, lordinateur personnel, lapparition des communautés open source ou loffre Software As A Service.
Définition
Le paradigme perdu XE "paradigme" ?
Un paradigme est un modèle de représentation du monde, un schéma de pensée qui oriente la réflexion et la recherche scientifiques sur la base de croyances fondamentales (des principes de base sont posés comme permanents mais de manière empirique).
Que les principes changent du fait dune découverte qui ébranle les fondamentaux scientifiques, ou parce que lenvironnement lui-même change et autorise des méthodes de travail différentes, et nous assistons à un « changement de paradigme ».
Lapparition de vrais ordinateurs portables, les PC (Personal computer) ont ainsi mis à mal le paradigme dordinateurs réservés exclusivement aux entreprises. Couplés à lapparition dInternet, les PC ont permis au numérique, et avec lavancée des technologies de communication, de modifier profondément la société et ses modèles économiques. Lapparition du système dexploitation Unix, qui ouvrait le champ aux systèmes dits « ouverts », puis « distribués », est un changement de paradigme par rapport à lépoque des ordinateurs centralisés (mainframes), car il impliquait également de revoir complètement la façon de concevoir et réaliser des systèmes dinformation.
Pour autant, un changement de paradigme informatique ne se diffuse pas du jour au lendemain dans les entreprises. Entre la conception en laboratoire dUnix au début des années 1970 et son utilisation à large échelle dans les années 1990, il se passe près de vingt ans. Entre la création du noyau linux XE "linux" par Linus Torvalds en 1991 et lexpansion large des licences Gnu/linux, il se passe également près de quinze ans.
Les cycles dadoption XE "cycles dadoption" des changements technologiques sont longs, bien plus longs que les cycles dadoption des innovations dusage. En outre, cela est souvent nécessaire pour mûrir des pratiques de développement, voire les standardiser, et ce nest pas forcément suffisant pour substituer à une application installée, en exploitation, la même application restructurée avec de nouvelles technologies.
Encore faut-il que le jeu en vaille la chandelle. Or, si lapplication répond bien aux demandes des utilisateurs et que lobsolescence XE "obsolescence technologique" technologique ne représente pas de risques (tels que la perte de compétences XE "perte de compétences" ou larrêt du support, par exemple), sengager dans un redéveloppement coûteux de mêmes fonctionnalités est difficile à justifier.
La nécessité de cohabitation initiale entre langages peut très vite se transformer en une série de contraintes quand il ny a pas de gestion de patrimoine applicatif à léchelle de lentreprise. Des applications vieillissantes développées dans des langages qui ne sont plus enseignés vont devoir faire face à une raréfaction des compétences.
Il sera également contraignant de les faire entrer dans le cadre architectural de nouveaux développements. Car pour certains langages anciens il nexiste pas denvironnement de développement intégrés, par exemple et les moyens mis en place pour contrôler la qualité du code en maintenance ne sont souvent pas à léchelle de ceux mis en place pour les nouveaux développements. Ensuite, il sera difficile de faire communiquer les applications entre elles, dès lors que les standards et protocoles de communication des unes sont largement postérieurs à ceux des autres.
Le défi de la communication
Le problème initial « Comment communiquer avec la machine ? » à lorigine de différentes générations de langages, sest complexifié au cours du temps en « Comment faire communiquer la machine avec lutilisateur ? » puis « Comment faire communiquer toutes les machines entre elles ? », et nous conduit à des machines virtuelles. Les systèmes dinformation sont multiformes, ils reposent non plus sur une génération de technologie mais sur plusieurs générations qui doivent cohabiter et communiquer.
Depuis les années 1960, le système dinformation sest construit avec des strates technologiques et applicatives hétérogènes, entre progiciels divers et variés aux sigles multiples, applications spécifiques en langage Cobol sur mainframe, plate-forme .Net cohabitant éventuellement avec des applications Java, solutions de-commerce, etc.
Les composantes du système dinformation constituent une constellation dapplications, darchitectures, dinfrastructures (système dexploitation, réseaux, bases de données) différentes, mais qui doivent impérativement pouvoir communiquer, et de préférence indépendamment de leurs particularités dimplémentation physique.
Cest ce à quoi semploient les technologies dintégration, évoluant progressivement dune logique « point à point », proche des «tuyaux» physiques déchange avec des formats standard et des logiques de file de messages, vers létablissement de couches dabstraction. Celles-ci mettent en uvre des processus plus complexes autorisant à piloter un « bus dintégration » entre applications (ESB pour Enterprise Service Bus).
Ce dernier est lévolution de ce qui nétait au départ quune simple couche intermédiaire (ou middleware) entre logiques applicatives, devenue ensuite couche dintégration transverse à lentreprise (EAI : Enterprise Architecture Integration) pour évoluer, en une troisième étape, vers une approche orientée métier de lintégration avec la composante BPEL (Business Process Execution Language) des architectures orientées services (SOA).
EvolutionIntegration.png
Figure A1-3
Lévolution des méthodes dintégration
Tableau A1-1
Les méthodes dintégration
DéfinitionsMode point à pointLes interfaces sont développées entre une application et une autre. À lajout dun nouveau système, il faut développer, de façon spécifique, chaque échange de flux (asynchrone) avec chaque système avec lequel il communique.EAI XE "EAI" Cest un centre de traitement où tous les échanges passent. Il permet dorganiser et de normaliser ces derniers avec des formats pivots, de mutualiser des fonctions techniques, de minimiser les interfaces. Ainsi, si une donnée est mise à jour dans une application « maitre », lEAI XE "EAI" transmet linformation à toutes les applications clientes.ESB XE "ESB (Enterprise Service Bus)" Cest lévolution de lEAI XE "EAI" dans une architecture orientée services. Cest un système bâti sur les standards des Web services qui fournit une vue logique dun ou plusieurs réseaux avec une ou plusieurs entités connectées, lesquelles fournissent des services à dautres entités qui les requièrent. Les services ont une méthode dinvocation standard avec des déclencheurs et des sorties également standard (en général des messages).La communication est dailleurs loin de se cantonner à laspect machine. Un des aspects les plus structurants de linformatique dentreprise est que la construction de systèmes permettant doptimiser avec des outils automatiques lexploitation dinformations, nécessite une vraie réflexion collaborative sur la valeur et le cycle de vie XE "cycle de vie:de linformation" de linformation, ainsi que sur la meilleure façon de la stocker, la partager le cas échéant, et la traiter.
Or, faire communiquer les différents acteurs de cette réflexion utilisateurs, responsables métier, responsables fonctionnels, architectes, experts techniques, développeurs, etc. est lun des défis les plus épineux depuis plusieurs décennies. Ce défi est lui-même à lorigine de nombreux modèles, voire des paradigmes déchanges eux aussi sujet à des changements de paradigme dans léchelle de lévolution, tel celui déclenché par larrivée des méthodes agiles face à la séparation française traditionnelle de maîtrise douvrage (MOA XE "MOA (Maîtrise douvrage)" ) et maîtrise duvre (MOE XE "MOE (Maîtrise duvre)" ).
Reste quil ny a pas de solutions miracles pour favoriser le dialogue et que sans collaboration effective entre tous les métiers, la construction ne peut saligner sur les enjeux auxquels elle doit répondre.
Définition
Maîtrise douvrage et Maîtrise duvre, le SI avec « pelles et truelles »
La séparation « Maîtrise douvrage » et « Maîtrise duvre », inspirée du domaine de la construction, est française, comme lest lapproche urbanisation XE "urbanisation" au départ. La maîtrise douvrage est le donneur dordres XE "donneur dordres" pour lequel louvrage (ici le projet informatique) est réalisé (léquivalent anglais est « project owner XE "project owner" \t "Voir donneur dordre" »).
Cest ce « donneur dordres XE "donneur dordres" » qui doit formaliser lexpression de ses besoins dans un cahier des charges (CDC) quil remettra à une « maîtrise duvre » qui exécutera, comme dans le bâtiment, la conception détaillée et la réalisation effective du projet.
Le Club des maîtres douvrage des systèmes dinformation, association loi 1901 créée en 1997, donne la définition suivante : « La fonction de maître douvrage XE "maître douvrage" \t "Voir donneur dordres" du système dinformation, apparue dans les années 1990, a pour objectifs de :
définir le système dinformation, étroitement couplé aux objectifs et stratégies de lentreprise ;
piloter les développements informatiques nécessaires. »
Chapitre A2
Les changements de paradigmes
HYPERLINK "http://www.dicocitations.com/citation.php?mot=toute" Toute HYPERLINK "http://www.dicocitations.com/citation.php?mot=theorie" théorie, y HYPERLINK "http://www.dicocitations.com/citation.php?mot=compris" compris HYPERLINK "http://www.dicocitations.com/citation.php?mot=scientifique" scientifique, ne peut HYPERLINK "http://www.dicocitations.com/citation.php?mot=epuiser" épuiser le réel, et HYPERLINK "http://www.dicocitations.com/citation.php?mot=enfermer" enfermer son HYPERLINK "http://www.dicocitations.com/citation.php?mot=objet" objet dans ses HYPERLINK "http://www.dicocitations.com/citation.php?mot=paradigmes" paradigmes.
Edgar Morin
Ce chapitre évoque les grands changements de paradigme du monde des systèmes dinformation en trois périodes de quinze à vingt ans. Ce choix, tout arbitraire quil soit, vise à refléter partiellement les durées de cycle dadoption de « rupture » dans les méthodes et usages traditionnels, jusquà ce que le ferment de la rupture dune période devienne les assises mêmes des fondamentaux de la suivante. La dernière période « les architectures distribuées » a vu toutefois une accélération des cycles à partir de larrivée dun catalyseur des changements : la plate-forme globale Internet.
Première époque : la période centralisée (années 1950-1960)
Le règne des titans
Au début régnaient les mainframes, cest-à-dire des grands systèmes centralisés avec un système dexploitation (OS) propriétaire. Les programmes ne sont pas « portables », cest-à-dire quils ne peuvent pas sexécuter sur nimporte quelle plate-forme car ils ont de fortes adhérences aux machines (chaque ordinateur est différent de par la structure matérielle, lOS, etc.). La logique est de développer des applications indépendantes (sans réutilisation de fonction de lune à lautre), les données sont redondantes (car non indépendante de la structure de la base) et les utilisateurs sont
hors système dinformation.
En effet, le système est un peu autiste vis-à-vis de ses utilisateurs. Les interfaces sont en mode caractère, les traitements en « batch XE "batch" », cest-à-dire que les instructions sont exécutées par lots, de manière non interactive. On parle exceptionnellement de système « conversationnel XE "conversationnel (système)" » quand il y a interaction entre lutilisateur (un analyste programmeur dans la plupart des cas) et lordinateur, à travers une interface qui autorise des choix dans le déroulement dun programme. Certes, linterface est rudimentaire. En 1970, lapparition des terminaux 3270 dIBM XE "terminaux 3270" avec leurs lignes de caractères verts sur fond noir, représente déjà une grande avancée dans le domaine.
Lusage de ces grands systèmes est restreint aux grandes entreprises et/ou aux grands programmes de recherche (notamment spatial, avec Apollo). Lordinateur ne cherche pas à plaire au plus grand nombre, il na rien de « personnel », il est programmé pour des applications de gestion propre à lentreprise, ou des applications de calcul scientifique.
Ce sont les années de la course à la performance, il ny a jamais assez de puissance, mesurée en MIPS XE "MIPS (Million Instructions Per Second)" (Million dinstructions par seconde), que lon paye dailleurs très cher.
Comment ça marche ?
Les MIPS : une unité de mesure qui ne fait pas lunanimité
Les coûts logiciels pour des mainframes sont des coûts de licence récurrents à payer annuellement ainsi que des coûts de maintenance qui se sont établis longtemps sur des unités de mesure au MIPS. Les MIPS, ou Million dinstructions par seconde, sont censés représenter la puissance de calcul dun processeur. Toutefois, la vitesse dun processeur et donc le nombre dinstructions par seconde, variant en fonction de nombreux paramètres (taille cache mémoire, charge, fréquence daccès des I/O, niveaux logiciels, partitions
), cette mesure ne convainc pas sur sa représentativité générique. Elle a ainsi connu dironiques substitutions quant à son sens, de Misleading indicator of processor spead à Management impression of processor speed, en passant par Marketing Indicator of Processor Speed.
La programmation se fait en langage de bas niveau XE "langage de bas niveau" (assembleur, par exemple), jusquà larrivée de langages procéduraux de deuxième génération, notamment le Cobol. De même, le stockage des données se fait sous forme de fichiers. La conséquence en est une lourdeur daccès aux données, de par la nécessité de connaître le détail de limplantation physique pour y accéder, un manque de sécurité (nimporte qui peut modifier le fichier) et labsence de contrôle de concurrence entre utilisateurs, doù le risque que les modifications sannulent.
Les amorces du changement
Au début des années 1960 apparaissent les premiers systèmes de gestion de base de données calqués sur les structures de données Cobol, qui donnent naissance aux bases de données hiérarchiques. Une des plus célèbres est celle créée par IBM en 1966 pour le compte de Rockwell et le programme Apollo, IMS (Information Management System). XE "IMS (Information Management System)" .
Certaines annonces de la fin des années 1960 et du début des années 1970 préfigurent le changement de paradigme de lépoque centralisée vers lépoque des systèmes ouverts XE "systèmes ouverts" et les futures ruptures technologiques, à travers :
larrivée de langages permettant de manipuler les données avec des pointeurs dadresse ;
lapparition de bases de données dites « en réseau » (le modèle de données est organisé en mailles), élargissant le modèle hiérarchique initial (un fils peut avoir plusieurs pères) ;
lapparition de terminaux ligne, puis écran (3270) ;
lapparition des systèmes transactionnels à partir de la fin des années 1960.
Deuxième époque : la rupture des systèmes ouverts (décennies 1970-1980)
Les applications alors développées avec leur traitement dinstructions par lots, souvent de nuit, ne satisfont pas aux besoins qui apparaissent dapplications plus proche du temps réel. Car si une comptabilité, un système de paye, des statistiques, peuvent se satisfaire dopérations à fréquence annuelle, trimestrielle, mensuelle, hebdomadaire, voire au mieux quotidienne, un système de réservation la gestion de stocks ne peut sen satisfaire.
Ces systèmes ont besoin daccès fréquents aux données par de multiples opérateurs simultanés qui doivent, pour des traitements courts et répétitifs, pouvoir obtenir des temps de réponse faibles (une à quelques secondes), et être assurés que toute opération de mise à jour effectuée sera bien prise en compte par le système.
Les systèmes transactionnels
À cette période (1970-1980), ce sont les besoins à lorigine des systèmes transactionnels et des premiers moniteurs homonymes qui gèrent les parties télécommunication et base de données indépendamment des transactions, pour la plupart écrites en Cobol. La partie gestion indépendante est ainsi généralisable et réutilisable. Des systèmes transactionnels XE "systèmes transactionnels" « multiserveurs » apparaissent, ainsi que des systèmes transactionnels « multitâches ».
En parallèle, les systèmes de gestion de base de données évoluent de façon à ce que la gestion de la structure de la base soit progressivement séparée des données elles-mêmes. Les prémices du modèle relationnel apparaissent pour la première fois dans le journal ACM XE "ACM (Association for Computing Machinery)" à travers la description dun modèle théorique issu des travaux dEdgar F. Codd XE "Edgar F. Codd" , chercheur dIBM, dans le cadre du projet System/R. Les principes du modèle : établir des relations logiques entre les données de types équivalence, négation, infériorité et même des opérations comme la jointure. Le modèle logique permet de saffranchir dune grande partie des problèmes physiques liés au stockage.
Entre cette communication en juin 1970 et la sortie du premier système de gestion de base de données relationnelle (SGBDR XE "SGBDR (Système de gestion de base de données relationnelle)" ) commercialisé dIBM, onze ans dexpérimentations vont sécouler.
Entre-temps, SQL XE "SQL (Structure Query Language)" (Structure Query Language) fera son apparition en 1976. Il sagit du langage SEQUEL XE "SEQUEL" issu des premières expérimentations dIBM et renommé pour éviter une confusion avec une marque existante.
Onze ans mis à profit par une société inconnue alors, Software Inc., pour commercialiser un SGBDR doté du langage dinterrogation SQL. En loccurrence, il sagissait du produit ORACLE, de la société (désormais) éponyme.
En parallèle, des universitaires de Californie, Michael Stonebraker XE "Michael Stonebraker" et Eugene Wong XE "Eugene Wong" , commencèrent à réaliser à titre expérimental un nouveau prototype au sein de la prestigieuse Berkeley University. Avec quelques autres professeurs, ils formèrent alors la société Relational Technology Inc. et annoncèrent, en 1981, la première version commerciale de leur SGBDR : Ingres XE "Ingres" et le langage daccès QUEL étaient nés.
Une kyrielle de produits SQL firent ensuite leur apparition : DG/SQL (1984), SYBASE (1986), INFORMIX, RDB, UNIFY, etc.
Définition
Des transactions acidulées qui suivent des protocoles
Une transaction est une série dopérations indivisibles et est valide uniquement si lexécution sest effectuée convenablement. Ce mode est une transaction ACID XE "ACID (transaction)" (Atomic Consistent Isolation Durable) dont les propriétés sont :
Atomicité : une transaction est soit exécutée entièrement, soit non exécutée (auquel cas létat du système est celui qui précède le lancement de la transaction).
Consistance : létat après lexécution respecte linvariant détat.
Isolation : lexécution de la transaction est indépendante des autres transactions. Elle nen attend rien et ne fournit rien autrement que par létat des données (implication : parallélisme, performance, etc.).
Durabilité : ses résultats survivent à tout dysfonctionnement pouvant survenir après sa terminaison. Pour défaire ce qua fait une transaction, il faut une autre transaction.
Pour les bases de données, une transaction correspond à un ensemble de requêtes cohérentes indivisibles. Les opérations de COMMIT (validation en fin de transaction) et Rollback (annulation en fin de transaction) assurent que lexécution seffectue correctement.
Les modèles déchanges transactionnels entre lordinateur central et les terminaux sont de trois types, dépendant du protocole réseau utilisé :
conversationnel, basé sur APPC (IBM) ;
client serveur, basé sur lusage du RPC (Remote Procedure Call) ;
queue de messages (MQ : Message Queuing mode asynchrone), basé sur le modèle « OSI-TP » (7e partie)
Unix : une rupture significative
Toutefois, la rupture de cette période, le vrai changement de paradigme commence avec un article des communications de lACM XE "ACM (Association for Computing Machinery)" (Association for Computing Machinery) de juillet 1974 qui éveille lattention sur le système dexploitation Unix XE "Unix" .
Ce dernier est un système temps-partagé (time sharing), cest-à-dire quil répond au besoin de développement dapplications pour un usage interactif sur terminaux (dabord télétypes) et à linterrogation de données au coup par coup, au contraire des applications transactionnelles qui permettent la manipulation contrôlée de grands volumes de données au moyen de transactions pré-écrites.
Ils lont dit
« Un OS puissant pour un usage interactif na pas besoin dêtre coûteux, que ce soit en matériel ou en efforts humains. [
] Nous espérons que les utilisateurs dUnix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité dutilisation », Ken Thompson XE "Ken Thompson" et Dennis Ritchie XE "Dennis Ritchie" dans le journal de lACM XE "ACM (Association for Computing Machinery)" .
Unix est révolutionnaire pour lépoque et il bénéficiera de plusieurs avantages majeurs : sa facilité dutilisation, comparée aux autres systèmes, sa portabilité (de principe, voir encadré ci-dessous), sa logique de développement initiale non propriétaire et son faible coût. Créé à lorigine sur un mini-ordinateur (DEC PDP-7), il na pas besoin dun ordinateur central dun demi-million de dollars pour tourner et son principe de licence unique viendra également mettre à mal le modèle de coûts annuels des mainframes.
Unix marque également larrivée des systèmes dits « ouverts », avec des interfaces de programmation standardisées, des interconnexions de périphériques et encourage le développement du matériel et du logiciel par les tiers. Certes, il faudra attendre les années 1990 pour une véritable standardisation avec lopen group, mais les graines sont semées.
Un peu dhistoire
La guerre des clans Unix
De la première mouture de lUnix Time Sharing System inventée aux Bell Labs dAT&T par Ken Thompson et Dennis Ritchie XE "Dennis Ritchie" à nos jours, de nombreuses versions dUnix ont vu le jour, avec deux branches rivales issues de la même racine. Dun côté (celui dAT&T), la famille des Systèmes III et V XE "Systèmes III et V" et de lautre, la distribution BSD XE "distribution BSD (Berkeley Software Distribution)" (Berkeley Software Distribution).
Les deux clans ne sentendent pas sur un standard commun, et des clones Unix XE "Unix" apparaissent et se multiplient comme des petits pains. La guerre des clans connaît de nombreux épisodes. En 1984, Sun Microsystems et AT&T travaillent en commun, au sein dun comité de standardisation réunissant des éditeurs commerciaux et nommé X/Open XE "X/Open" , sur un Unix unifié, hybride de System V et BSD et qui deviendra System V Release 4. En raison dune lutte de pouvoir et surtout dune lutte économique, IBM (en rival de SUN) et huit autres constructeurs forment, en mai 1988, dans le dos dAT&T, lOpen Software Foundation (OSF) pour standardiser Unix et lui donner une interface de programmation graphique. Les spécifications de lOSF XE "OSF (Open Software Foundation)" se basent ouvertement sur BSD.
AT&T réplique avec un consortium ralliant 46 marques Unix International mais sans plus de succès. La société fonde alors USL (Unix System Laboratories) en 1992, et lui transfère tous les droits Unix. Cette société est rachetée par Novell la même année qui cèdera à son tour la marque Unix à X/Open en 1993. En 1995, ce dernier lance le programme Unix 95 pour limplémentation dune spécification Unix unique. X/Open ralliera définitivement tout le monde quand il fusionnera en 1996 avec lOSF pour devenir lOpen group XE "Open group" .
Les systèmes ouverts XE "systèmes ouverts" marquent une ère où les logiciels ne sont plus dépendants des constructeurs informatiques traditionnels. La concurrence peut jouer à plein régime pour les nouvelles applications. Ainsi, les implémentations dUnix sur des architectures propriétaires (par exemple linterface Unix sur MVS) nont pas connu de succès, tant pour la pauvreté du catalogue dapplications quen raison du prix daccès élevé pour qui na pas déjà de mainframe XE "mainframe" .
Larrivée des ordinateurs personnels
Louverture amorcée avec Unix prend aussi une voie parallèle avec la commercialisation, en 1975, du MITS Altair 8800 XE "MITS Altair 8800" , le premier représentant de ce qui allait devenir les ordinateurs personnels autrement dit, les PC (Personal Computer). Le changement de paradigme potentiel nest pas moindre que celui déclenché par Unix (qui va bouleverser le paysage des constructeurs traditionnels), mais il nest pas perçu alors, sauf par
deux étudiants, Bill Gates XE "Bill Gates" et Paul Allen XE "Paul Allen" .
Ces derniers voient avec lAltair une machine qui peut sortir du cercle des grosses entreprises et des gros budgets de recherches scientifiques, une machine que tout le monde peut acheter et potentiellement programmer : cest une révolution ! Cependant, il nexiste alors pas de langage permettant de programmer lAltair 8800 .Quà cela ne tienne, les deux étudiants développent un outil permettant de programmer cette machine en Basic. Ils fondent alors une entreprise dont les cinq premières années sont dominées par la commercialisation de Basic pour les ordinateurs personnels de lépoque, y compris lApple II, ainsi que par celle de compilateurs C, Fortran et Cobol.
Ainsi naît Microsoft, petite société touche-à-tout qui ne décolle vraiment quen 1980, grâce à un accord historique. Elle achète à Seattle Computer Products les droits de son système dexploitation 86-DOS, le retravaille pour en faire MS-DOS, et le licencie à IBM. Lassociation durera une décennie, jusquà ce que Microsoft développe sa première interface graphique pour DOS, Windows.
Ils lont dit
Le marché des PC
« Je pense quil y a un marché mondial pour quelque chose comme cinq ordinateurs », Thomas Watson, président dIBM, 1943.
Cette phrase prête à sourire hors de son contexte, mais imaginez les ordinateurs de trente tonnes de lépoque, valant des millions de dollars, et vous comprendrez en quoi le marché dalors navait rien à voir avec celui quouvrait la révolution détectée par les fondateurs de Microsoft.
Bill Gates, de son côté, avait prédit : « un ordinateur pour chaque bureau et dans tous les foyers.
La vision de Microsoft autour de ce que pourrait être lavenir du PC a très vite incorporée la nécessaire dimension de linterface graphique. Windows a ainsi été largement inspiré de lenvironnement graphique quavait développé les chercheurs de Xerox au PARC (Palo Alto Research Center) et qui allait également équiper les machines dApple.
Est-ce la visite de Steve Jobs (fondateur dApple) à Microsoft qui inspira Bill Gates ? Au-delà des querelles éventuelles sur la propriété de lidée initiale, le fait est que, sans interface graphique ergonomique, intuitive, les PC étaient destinés à rester dans un cercle restreint de programmeurs et de technophiles. De la même façon, Internet nest pas né avec le Web, mais cest lapparition de la Toile, autrement dit, de linterface graphique, qui a permis le déploiement de son usage.
Un nouveau modèle économique
Les années 1980 ont donc créé une nouvelle donne avec :
lapparition des systèmes ouverts XE "systèmes ouverts" ;
les ordinateurs personnels couplés à des interfaces pour les utilisateurs dépassant le mode caractère ou ligne (ce sont les « GUI XE "GUI (Graphical User Interface)" » Graphical User Interface). La généralisation du remplacement de terminaux traditionnels (53270 et VIP) par des micro-ordinateurs marque également le tournant vers lépoque des architectures distribuées ;
la logique de licence logicielle perpétuelle et la possibilité de développer des applications qui ne tournent pas uniquement sur la machine dun constructeur en particulier.
Le principe de licence perpétuelle est davoir des frais dacquisition unique (on ne paye quune seule fois le logiciel) pour un droit dutilisation définitif dans la version achetée. Cela nempêche pas davoir des frais de maintenance annuel, ni davoir éventuellement à payer pour des montées de version. Mais par rapport à une logique de paiement récurrent suivant des unités de mesure plus ou moins représentatives, cela peut entraîner des économies de coûts conséquentes.
Ces changements de paradigmes voient aussi leffondrement des constructeurs informatiques traditionnels de lépoque dont le modèle économique était fondé sur les systèmes propriétaires. Autrement dit, des systèmes à forte marge, difficiles à remplacer dès lors que des applications critiques à long cycle de vie XE "cycle de vie:des applications" ont été développées dessus et y adhèrent fortement. Le coût ou les risques de migrer ces applications, les refondre (en les redéveloppant dans de nouvelles technologies) ou les remplacer par des progiciels est dailleurs tel que souvent, les systèmes et les applications restent imbriqués pendant des décennies, jusquà ce que les risques dobsolescence ou les contraintes de lexistant face à de nouveaux défis dévolution imposent le changement.
Les systèmes ouverts nont toutefois pas fait disparaître le modèle du mainframe XE "mainframe" , qui séduit encore par des performances et des garanties de sécurité et de disponibilité. En revanche, ils ouvrent bien la porte à une nouvelle période de linformatique, celle des architectures distribuées.
Troisième époque : les architectures distribuées (1990-2000)
Le modèle client-serveur
Larchitecture centralisée des débuts, avec des relations maître et esclaves entre un ordinateur central dominant et des terminaux passifs, laisse progressivement la place au modèle client-serveur, où un ordinateur en interroge un autre (lui transmet une requête pour lui demander ses services) et attend sa réponse, le tout dans un protocole de communication prédéfini.
Définition
« À votre service, cher client » le modèle client-serveur XE "modèle client/serveur"
Client
Processus demandant lexécution dune opération à un autre processus par envoi de messages contenant le descriptif de lopération à exécuter et attendant la réponse de cette opération par un message en retour.
Serveur
Processus accomplissant une opération sur demande dun client, et lui transmettant le résultat.
Requête
Message transmis par un client à un serveur décrivant lopération à exécuter pour le compte du client.
Réponse
Message transmis par un serveur à un client suite à lexécution dune opération et en contenant le résultat
Le mode de dialogue entre clients et serveurs peut être synchrone ou asynchrone. Dans le premier cas, il ny a pas de file dattente, les messages sont émis aussitôt et on attend leur traitement (mode bloquant, par exemple : RPC Remote Procedure Call). Le mode asynchrone quant à lui utilise une file dattente dans un mode non bloquant qui favorise le multitâche (Files FIFO, e-mail
).
Ce modèle suit dabord une logique traditionnelle pendant quelques temps, où lensemble des opérations seffectue sur un serveur centralisé, avec des postes clients plutôt passifs dédiés aux interfaces utilisateurs. Mais petit à petit, lapparition dordinateurs plus puissants avec des systèmes dexploitation ouverts, lévolution des réseaux, lapparition dinterfaces et dAPI XE "API (Application Programming Interface)" (Application Programming Interface) standard qui facilitent linteropérabilité, transforment durablement le modèle pour aller vers une architecture répartie, dabord à deux niveaux (un niveau client, un niveau serveur).
Une partie des traitements peut se faire sur un poste client, un client peut avoir un à plusieurs serveurs, un serveur peut avoir plusieurs clients. Il y a trois composantes-clés dans cette répartition : la présentation (interfaces textuelles ou graphiques, interactions, entrée des données, validation, etc.), la logique dapplication (les traitements associés) et les données, au sens stockage et accès. Selon la répartition entre le client et le serveur de ces composantes-clés on parlera de « client lourd XE "client lourd" » ou de « client léger XE "client léger" », comme illustré dans la figure ci-dessous.
ClientLourdLeger.png
Figure A2-1.
La balance entre client lourd et client léger
Dans le cas dun client dit « lourd », on stocke les données et les applications localement, le client effectue une bonne partie du traitement et le serveur stocke les fichiers mis à jour. À lautre extrême, un client dit « léger » ne dispose que de fonctionnalités minimales (impliquant dès lors beaucoup de charge sur le serveur et le réseau).
Entre les deux, il y a plusieurs modèles. Le Gartner XE "Gartner" en identifie cinq classes pour les systèmes client/serveur à deux niveaux (aussi nommés two-tier pour les deux rôles, celui de client ou de serveur) : base de données réparties, données distantes, transactions réparties, présentations distantes, présentations réparties.
Les niveaux darchitecture
Peu après le milieu des années 1990, notamment avec lexpansion des premières applications Web, est apparu le besoin de diviser la couche serveur, particulièrement dans des environnements hétérogènes où le nombre de clients nest pas connu précisément, ce qui nécessite une architecture souple, qui peut sadapter à un redimensionnement des paramètres de volumétrie. Ce nombre de clients pouvant atteindre des milliers, il devient plus rationnel de mettre à jour la logique applicative sur un niveau serveur dédié, plutôt que sur tous les postes clients, et également davoir un niveau dédié pour gérer laccès aux bases de données.
Cest lapparition des architectures client serveur à trois niveaux XE "architectures client serveur à trois niveaux" . Apparaît une sorte de couche du milieu sous la forme dun serveur dapplications. Ce sont des couches logiques, cest-à-dire que plusieurs niveaux peuvent être sur la même machine physique. Cette couche du milieu sera nommée middleware en anglais, et officiellement intergiciel XE "intergiciel" \t "Voir middleware" en français, même si cette traduction na jamais rencontré de succès.
Définition
Un middleware XE "middleware" millefeuille
Un middleware a pour objet, dans le contexte denvironnements hétérogènes, de fournir une couche logicielle de services de communication transparents entre différentes applications informatique, serveurs et clients, indépendamment de leurs plates-formes.
Le middleware peut lui-même être séparé en plusieurs couches logicielles spécialisées. Pour assurer les connexions entre les serveurs de données et les clients, il va disposer de services de communications entre composants et applications avec des protocoles synchrones ou asynchrones. Par exemple, lObject Request Broker (ORB XE "ORB (Object Request Broker)" ) qui est le conduit/bus par lequel les requêtes sur les objets transitent au cur de larchitecture CORBA (Common Object Request Broker Architecture). LORB XE "ORB (Object Request Broker)" est un protocole synchrone qui a joué un grand rôle dans la standardisation des middlewares. Les middlewares déchange asynchrones, quant à eux, sont principalement à base de message (MOM Message Oriented Middleware).
Le middleware ne fournit pas que la gestion des protocoles de communication pour faire appel aux services offerts par une application. Il fournit également dautres natures de services, quils soient spécifiques (par exemple accès aux bases de données avec des protocoles tels quODBC XE "ODBC" , services de groupware MAPI) ou plus généraux (répertoires répartis, services dauthentification, service de temps, services de fichiers, services dimpression, services répartis de type NOS Networked OS).
Les serveurs de composants ont ainsi pour objectif de libérer le programmeur de tous les aspects techniques de larchitecture distribuée pour quil se concentre sur la logique métier. Si bien quun middleware peut devenir un millefeuille de serveurs dapplications logiques, tous dédiés à différents types de services daccès, de transactions et déchanges.
Ce découpage permet de mieux penser les applications et de tirer parti de lorientation vers lobjet qui commence à apparaître au milieu des années 1990. En effet, des couches indépendantes favorisent lévolutivité, la maintenance du système et la réutilisation de composants applicatifs. Linterfaçage est plus aisé avec les SGBD existants du fait dun serveur de données dédié, le développement saffranchit de la localisation physique des composants et la montée en charge est facilitée.
Pour autant, il faut nuancer l éloge. Avec le client-serveur et la multiplication des interfaces, les problèmes de sécurité, de temps de réponse et de performance se multiplient, dautant que de trois niveaux au multiniveau (architecture N-tiers XE "architecture N-tiers" ), la barrière est vite franchie. Une architecture à plusieurs niveaux simpose dans un univers où les rôles entre clients et serveurs sont de plus en plus interchangeables (chaque serveur peut agir comme un client vis-à-vis dun autre serveur), où les clients mobiles sont considérés (dès lors un poste client devient le serveur du client mobile) et où les fonctionnalités sont déléguées à des serveurs spécialisés (communication, Web, applications, serveur de données).
Bien sûr, plus il y a de « boites », cest-à-dire de parties distribuées du système, plus il y a de connexions à faire entre les parties du système et à gérer de protocoles de communication. Ainsi, dans lexemple ci-dessous, les flèches représentent les connexions à faire entre les parties de ce système extrêmement distribué. Mais le dessin est simplificateur car, entre chaque couche, il faut considérer un tiers.
Toutdistribue.png
Figure A2-2.
Les « boites » du tout distribué
Entre le niveau présentation sur les clients et le niveau applicatif, il y a un tiers daccès (avec des protocoles de communication comme http, XML,
), qui lui-même communique avec la couche des traitements applicatifs à travers des protocoles comme MOM, ou encore SOAP XE "SOAP (Simple Object Access Protocol)" (Simple Object Access Protocol, protocole orienté objet bâti sur RPC).
Entre le niveau traitement applicatif et le niveau gestionnaire de ressources, il y a un tiers dintégration qui communique des deux côtés avec les protocoles adéquats (MOM vers le niveau traitement, ODBC ou JDBC vers le gestionnaire de ressources, par exemple).
Lintérêt de cette représentation simplificatrice de boîtes est de montrer ce que lon gagne dun côté en modularité et parallélisme à multiplier les boîtes, les opportunités dencapsulation de conception orientée composants, de réutilisation, et ce que lon perd de lautre en simplicité, de par la complexité à gérer les sessions de connexions et la coordination nécessaire.
Plus il y a de boîtes, plus il y a de changements de contexte et détapes intermédiaires à exécuter avant de pouvoir accéder aux données. Les performances sen ressentent inévitablement. Ainsi, il y a un équilibre à trouver entre les avantages et les inconvénients à multiplier les indirections.
Comment ça marche ?
Quel type de répartition de composants doit-on choisir dans une architecture distribuée ? Faut-il couper les tiers en quatre ?
Toute la complexité des architectures client-serveur et distribuée réside dans la répartition des composants. Il ny a pas de recette miracle car chaque cas est particulier. Cela dépend du contexte de lentreprise (réseaux et matériels), du type dapplication, du type dinteractions, des temps de réponse demandés.
Le client léger, par exemple, implique beaucoup de charge sur le serveur et le réseau.
Les architectures à deux niveaux sont typiques des environnements avec peu de clients (du moins un nombre limité et connu), des environnements plutôt homogènes et éventuellement propriétaires.
Les architectures à trois niveaux sont plus adaptées quand le nombre de clients nest pas fixe et peut sétendre à des milliers pour gérer des accès à des sources de données hétérogènes.
Quand les systèmes se complexifient, le choix du nombre dinteractions dépend de la conception (un niveau dindirection en plus peut résoudre un obstacle à la conception) et de la performance requise (un niveau dindirection en moins améliore la performance).
Les débuts dInternet
La décennie 1990 voit apparaître le Web, la fameuse toile qui allait couronner définitivement Internet, le réseau de « tous les réseaux ». La toile allait prendre dans ses fils des générations jusqualors complètement indifférentes à linformatique. Le Web et laugmentation de puissance des micro-ordinateurs allaient accomplir la révolution numérique prédite dès ses débuts (pour ceux qui en ont eu la vision, sachant ce que les visions valent, voir la citation de Bob Metcalfe). Mais comme tout changement de paradigme, cette révolution a pris son temps. Pourtant, Internet a changé profondément le paysage économique en diffusant lusage de linformation numérique et, de ce fait, il na pas fini dimposer ses rythmes de changement aux systèmes dinformation des entreprises.
Internet ne commence pas avec le Web, pas plus que ce nest une invention de hackers, ainsi que certains se plaisent à réécrire lhistoire. Comme toute innovation informatique des débuts, il naît des évolutions dun programme de recherche initié par
larmée, ou plus exactement lArpa (lAgence militaire de recherche en projets avancés). Le projet initial de réseau informatique donnera Arpanet XE "Arpanet" , dont les trois premiers nuds verront le jour aux États-Unis en 1969.
Dautres réseaux suivront et, pour résoudre le problème de leur interconnexion, Vinton Cerf et Robert Khan deux universitaires américains mandatés par le groupe de travail interréseau (très loin de limage de hackers) publièrent en 1974 le protocole TCP/IP XE "TCP/IP" , devenu le mode de transmission natif dUnix et lacte de naissance du mot « Internet ». Pourtant, les bouleversements futurs que cette naissance engendrera vont rester dans luf encore un bon moment.
Ils lont dit
Lart de la prédiction est un art difficile
« La puissance de calcul des ordinateurs, et aussi les applications spécifiques, pourront un jour être vendues sur le modèle de lélectricité ou de leau. » Cest la vision que John McCarthy, spécialiste américain de lintelligence artificielle (détenteur dun « Turing Award » en 1971) a défendue en 1961 durant la célébration du centenaire du MIT.
« Il ny a pas la moindre raison pour que quelquun puisse vouloir dun ordinateur à la maison », Ken Olsen, fondateur de Digital Equipement (1977).
« Au tournant du siècle, nous vivrons dans une société sans papier », Roger Smith, président de General Motors, 1986.
« Je prédis quInternet va devenir une supernova spectaculaire avant de seffondrer complètement en 1996 » Bob Metcalfe, InfoWorld, 1995, qui mangea larticle où ses propos avaient été publiés un an plus tard dans une démonstration publique où il avouait sêtre trompé.
« Ces types de Google, ils veulent devenir milliardaires et rocks stars et ils sont à toutes les conférences et tutti quanti. Nous verrons bien sils veulent encore dominer le marché dans deux ou trois ans », Bill Gates, en 2003.
Le réseau prendra de lampleur tant en usage que dans lesprit du public grâce à un développement de Tim Berners-Lee XE "Tim Berners-Lee" , un informaticien du CERN (Centre européen de recherche nucléaire), devenu depuis le directeur du Consortium international World Wide Web (W3C XE "W3C" ), gardien des standards du Web. Pour aider les chercheurs du centre à trouver les informations dont ils avaient besoin (dans les différents serveurs de fichiers), Berners-Lee inventa le World Wide Web et quelques protocoles associés (URL, HTML, http).
Les débuts du Web coïncident avec ceux des années 1990 et restent essentiellement dans le monde de la recherche jusquà larrivée dun navigateur, Mosaic, développé par le Centre national de superinformatique (NCSA) de luniversité de lIllinois, qui a la particularité dêtre disponible non seulement sur environnement X-Window, mais aussi PC et Macintosh, et de ce fait nettement plus accessible au grand public qui est encore tout relatif en 1995 mais qui ne tardera pas à prendre de lessor.
Un peu dhistoire
Comment le Web a étendu sa toile
Fin 1994 : le Web comptait 10 000 serveurs, dont 2 000 à usage commercial et 10 millions dutilisateurs.
Fin 1997 : 1 million de serveurs.
2004 : 50 millions de serveurs.
2006 : 100 millions de serveurs.
Janvier 2008 : 155 millions de serveurs
2009 : 234 millions de sites Internet.
2,2 milliards dinternautes sont prévus pour 2013.
Grâce à la diffusion de technologies et doutils qui vont en faciliter lusage, notamment en simplifiant de plus en plus linteraction, linteropérabilité des applications et la richesse des interfaces, la montée en puissance des ordinateurs personnels, la plate-forme globale Internet va permettre et accélérer dautres changements de paradigme.
Internet : lévolution des modèles vers plus de portabilité et dagilité
Java et le rêve dindépendance aux plates-formes
Le langage Java XE "Java" , présenté officiellement en 1995 à Sun World, est le premier jalon de ces mutations nées dInternet. Son concept poursuit la lignée des systèmes ouverts XE "systèmes ouverts" , en allant un degré plus loin : celui de développer des applications qui pourraient sexécuter dans nimporte quel environnement, sous réserve que ce dernier dispose dune machine virtuelle Java (JVM XE "JVM (Java Virtual Machine)" ). Un principe appelé « write once, run everywhere » (« un seul développement qui peut sexécuter partout », sous-entendu sur toutes les plates-formes). Java doit adresser lensemble des plates-formes existantes : postes client, serveurs, équipements mobiles, cartes à puce
Le rêve de lépoque va jusquà envisager des applications Java incorporées au frigidaire pour refaire la liste des courses. La réalité au démarrage est plus décevante, dans la mesure où le rêve doit se confronter à la difficulté de développer des machines virtuelles homogènes sur lensemble des plates-formes ciblées. Ce nest pas si simple et le slogan est vite détourné, comme tout bon slogan se doit de lêtre, en : « write once, debug everywhere » (traduisible en « un seul développement à corriger partout »).
Reste que Java se répand, notamment grâce à des environnements de développement de plus en plus perfectionnés (dont Eclipse), et trouve sa place sur le serveur avec J2EE XE "J2EE (Java2 Enterprise Edition)" (Java2, Enterprise Edition), les classes Java et les EJB (Enterprise Java Beans) sur les serveurs dapplications.
Comment ça marche ?
Les EJB : pour répandre des grains de Java dans mon serveur dapplications
Les serveurs EJB (Enterprise Java Beans) sont des serveurs dapplications entre les services de présentation qui peuvent être sur client lourd (par exemple Win32 ou client léger (navigateur html) et les services daccès aux données, transactions et messages.
Ce sont des serveurs de composants, au sens où ils hébergent des conteneurs de composants métier ainsi que des services de nommage, de moniteurs transactionnels, de déploiement, de mapping sur base de données, et également des API sur les services (par exemple JDBC pour laccès aux bases de données).
Un objet EJB XE "EJB (Enterprise Java Beans)" , un Bean, est un composant logiciel dun serveur dapplications à la norme J2EE XE "J2EE (Java2 Enterprise Edition)" , écrit en Java XE "Java" , qui remplit une fonction déterminée parmi trois catégories. Sil sagit daccès à une donnée métier (par exemple produit, client, etc.) qui va être stockée de manière persistante entre deux sessions, dans ce cas on utilisera des EJ Bean Entity. Il existe deux autres catégories dEJB, lune dédiée à lexécution de services, éventuellement métier (par exemple la facturation), avec ou sans conservation détat entre les appels (EJ Bean session), lautre au traitement de messages asynchrones (EJ Bean message).
Si Java permet aussi bien de développer des applications client-serveur que Web, de ce côté, les sites Internet senrichiront rapidement de langages scripts pour dynamiser les pages Web, dont Javascript et PHP, sen forcément en passer par des développements Java.
Javascript, conçu initialement par Netscape et à ne pas confondre avec Java, est un langage interprété. Cest un langage de script incorporé dans un document HTML qui permet d'exécuter des commandes du côté client, c'est-à-dire au niveau du navigateur et non du serveur web.
PHP est également un langage de script, interprété, exécuté du côté serveur ; gratuit (distribué sous licence GNU GPL, voir lencart p.291, libre jusquoù et à quel prix ?). Il dispose en atouts dune grande communauté de développeurs partageant de nombreux scripts, dune grande simplicité décriture de scripts et dinterfaçage avec des bases de données. Il est notamment intégré au sein de nombreux serveurs web (dont Apache et Microsoft IIS).
Côté client, Java sera vite éclipsé par des technologies concurrentes qui permettent plus facilement de réaliser des RIA XE "RIA (Rich Internet Applications)" ou Rich Internet Application, applications destinées à sexécuter pour partie sur le poste client, pour partie à lintérieur du navigateur.
Définition
Ajax XE "Ajax" en RIA
Les applications dites RIA pour Rich Internet Applications ont pour vocation de fournir une interface dynamique puissante qui réponde immédiatement à toute entrée de lutilisateur. En général, linterface consiste en une page simple qui contient toutes les informations dont lutilisateur a besoin pour compléter la transaction. Les données de la page peuvent être actualisées sans procéder au rechargement total de cette dernière. Les exemples de RIA sont nombreux aujourdhui, de la personnalisation du modèle dun véhicule doccasion, recherché sans rafraichissement de la page, au plan personnalisable dune maison, à la possibilité de feuilleter un livre virtuel, en passant par la « customisation » dun tee-shirt sur un catalogue de-commerce. Les RIA apportent à Internet le niveau dergonomie des applications du poste de travail des années précédentes, jusqualors non égalé sur le Web.
AJAX, pour Asynchronous Javascript And XML, correspond à un ensemble de technologies les plus utilisées pour concevoir ce type dinterface dont XHTML, CSS, Javascript/DOM (Document Object Model), XML et les requêtes http.
La montée dInternet correspond à la fois à lavènement du « tout distribué » grâce à un environnement dans lequel nimporte quelle machine peut communiquer avec une autre pour peu quelles emploient toutes deux le protocole IP, et la poursuite de la bataille entre le monde « ouvert » versus le monde « propriétaire ». Ce dernier, en loccurrence, sincarne à cette époque dans Microsoft, devenu un géant de lédition avec lhégémonie de Windows comme système dexploitation des PC.
Or Java va faire rapidement peser une menace sur le rôle du PC et de Windows, menace doublée par lapparition de Linux. Cest de la conjonction de ce dernier et du projet GNU XE "projet GNU" que naîtra lopen source XE "open source" et la mouvance des « logiciels libres XE "logiciels libres" \t "Voir open source" ».
Les logiciels libres : lunion fait la force
Tout commence en 1984 avec le projet de Richard Stallman XE "Richard Stallman" , en réaction à lévolution commerciale autour dUnix, devenu de plus en plus cher avec ses différentes branches généalogiques poussées par des constructeurs/éditeurs. Face aux HP-UX, AIX (IBM), Unixware (Univel/SCO) de la famille système II et V dun côté, et de lautre Sun OS puis Sun Solaris, Next puis Mac OS, issus de la mouvance Berkeley Software Distribution XE "Berkeley Software Distribution" , Stallman veut revenir à lesprit ouvert des débuts.
Ce chercheur en intelligence artificielle lance le projet GNU pour faire une copie dUnix, gratuite et
« libre », au sens où le code source serait accessible par tous pour en faire des copies, des évolutions/améliorations, le diffuser et lutiliser partout, sans redevance commerciale pour ce faire (attention toutefois aux différents types de licences et droits dauteurs).
Le code source est ouvert (open source), tout le monde peut regarder les programmes, à linverse du code Windows qui reste une boîte noire. En 1991, un étudiant finlandais, Linus Torvalds XE "Linus Torvalds" , crée un noyau dOS : linux XE "linux" . Les deux démarches savèrent complémentaires entre les programmes dits « libres » développés par Stallman (programme de copie de fichier, suppression de fichier, éditeur de texte) et le cur développé par Linus Torvalds.
Certes, Linux est loin, au démarrage, de pouvoir concurrencer les systèmes dexploitation tels que Windows ou Sun Solaris, faute doffres dapplications dentreprises disponibles sur cet OS. Mais ceux qui ignorent cette menace sen mordront les doigts car ils nont pas compté sur le formidable potentiel de développement des communautés open source du Web, et le levier des protocoles standardisés. Avec Java, on peut faire du Web une plate-forme dintégration.
Comment ça marche ?
Libre jusquoù et à quel coût ?
La liberté des uns sarrête là où commencent celles des autres.
Un logiciel open source XE "open source" stricto sensu ne garantit que laccès à son code source. Ensuite, il y a des conditions plus ou moins permissives qui en restreignent ou non lusage, la copie, la diffusion (à caractère commercial ou non), la modification, etc. Ces conditions sont formalisées à travers de nombreuses licences. Une des plus célèbres est la GNU General Public License (GPL XE "GPL (GNU General Public License" ), qui donne lautorisation, pour tout logiciel soumis à cette licence, de lexécuter pour nimporte quel usage, de le diffuser et de le modifier librement, sous réserve de rendre publique les versions ainsi modifiées qui devront être également sous licence GPL. Ce qui veut dire : permettre laccès à lensemble du code source et donc aux risques induits pour des logiciels modifiés dans un contexte spécifique dutilisateur.
La licence GPL ninterdit pas de vendre une version modifiée dun programme open source. Linconvénient, cest quelle autorise, ou plutôt impose aussi sa diffusion gratuite.
Elle limite ainsi la possibilité de développer un logiciel sur la base dun module propriétaire (cas par exemple de bibliothèques spécifiques à une entreprise, ou module logiciel propriétaire) quon souhaiterait étendre avec des modules libres. Doù lapparition de la licence LGPL (Lesser General Public License) XE "LGPL (Lesser General Public License)" , dérivé de la GPL, qui autorise lintégration de modules non libres.
Les licences du libre ne sappliquent pas quaux programmes. Ainsi, il y a également des licences pour la documentation (telle la GFDL) pour rendre létude, lutilisation, la modification et la redistribution libre et les licences creative commons By XE "creative commons By" ou creative commons by SA sappliquent pour tout type de création (texte, film, site web, video, musique
).
Ensuite, la « liberté » logicielle a un prix. Libre ne veut pas dire gratuit et gratuit ne veut pas dire libre.
Si lopen source permet de ne pas payer de coût de licences logicielles, sous réserve du type de licences, encore une fois, il reste dautres natures de coûts à considérer, dont ceux liés à la formation et à la maintenance sur des logiciels spécifiques, non supportés par un éditeur. Cest ainsi que le modèle économique dun fournisseur tel que Redhat (connu pour sa distribution linux XE "linux" et le middleware XE "middleware" Jboss) repose sur les services de support et de maintenance. Le choix dun logiciel libre doit toujours être accompagné dune grande vigilance sur lactivité de la communauté qui le supporte, sous peine de se retrouver à terme avec des coûts cachés inflationnistes du fait de lobligation, par exemple, de mettre en place des équipes de maintenance spécifiques.
Reste que lopen source bénéficie dune puissance de frappe en développement, avec les communautés du Web, quaucun éditeur ne peut égaler.
Une nouvelle façon de penser les développements
Microsoft na pas réagi tout de suite aux nouvelles perspectives dInternet. Quand léditeur de Redmond le fait, cest pour proposer aux débuts des années 2000 Microsoft .Net XE ".Net" , un environnement de développement pour prendre en compte lunivers fondamentalement hétérogène de ce nouveau monde distribué où le PC nest plus le terminal de prédilection face aux portables, smartphone et autres PDA et où les services peuvent être hébergés sur des serveurs Unix, Linux ou Windows.
La promesse de .Net XE ".Net" est celle, comme Java, de linteropérabilité et de la portabilité. .Net propose un environnement de développement multilangage où on peut choisir son langage de programmation parmi plusieurs dizaines en faisant abstraction des plates-formes cibles, grâce à une compilation dans un langage intermédiaire (MSIL XE "MSIL" \t "Voir CIL" pour Microsoft Intermediate Language devenu CIL pour Common Intermediate Language XE "CIL Common Intermediate Language" ), qui sera ensuite exécutée dans une machine CLR (Common Language Runtime) XE "CLR (Common Language Runtime)" , installée sur chacune des plates-formes cibles (ce qui nest pas sans rappeler la machine virtuelle Java).
Aussi bien le framework Microsoft .Net que J2EE bénéficient de lévolution des préoccupations méthodologiques en matière de développement et des outils associés, respectivement à travers Microsoft Visual Studio pour lun, et Eclipse pour lautre. Ainsi, ces « IDE XE "IDE (Integrated Development Environment)" » (Integrated Development Environment) sont bien loin des simples compilateurs du début pour traduire en langage machine un code source.
Ils offrent de multiples services, éditeur de texte, debugger (pour rechercher lanomalie en exécutant le programme pas à pas), gestionnaire de versions, restructuration de code, utilisation de langage de modélisation comme UML (Unified Modeling Language) XE "UML (Unified Modeling Language)" , etc. Ils sont également accompagnés par une évolution de la réflexion sur le lien entre la conception et limplémentation.
Parmi les derniers nés des environnements de développements, figure Ruby On Rail (ROR) : Cest un environnement de développement Web écrit en Ruby, pas un langage (à se rappeler quand il est comparé à Java). Il s'adresse aux développeurs issus d'horizons aussi variés que celui des scripts en Perl ou Python, de la programmation objet en Java ou du Web avec PHP (devenu une génération de « legacy »).
ROR est réputé apprécié car dune facilité déconcertante et il introduit la maintenabilité des applications au moment de la programmation. Parce quil est fondé sur le motif de conception HYPERLINK "http://fr.wikipedia.org/wiki/Mod%C3%A8le-Vue-Contr%C3%B4leur" MVC ( HYPERLINK "http://fr.wikipedia.org/wiki/Mod%C3%A8le-Vue-Contr%C3%B4leur" \o "Modèle-Vue-Contrôleur" Modèle-Vue-Contrôleur) et en vertu dun de ses deux principes fondamentaux « les éléments de lapplication ne doivent être quà un seul endroit », ce qui évite aussi la redondance de code. Le deuxième principe fondamental étant « convention plutôt que configuration » doù la concision du code généré (en effectuant une migration de PHP à Rails, une entreprise serait passée de 50 000 lignes à 5000). Son principal problème serait actuellement son déploiement dans un environnement de production.
Lévolution des modèles de conception
Concevoir un système dinformation nécessite de passer par des modèles. Ce sont des représentations abstraites dune réalité, exprimées à laide dun formalisme conventionnel et des règles de représentation. Ces règles sont subjectives, au sens où elles visent à faire ressortir les points auxquels on sintéresse et à répondre aux questionnements liés (quoi ? comment ? qui ? quand ?), et simplificatrices au sens où elles doivent faciliter une compréhension commune de systèmes complexes. Ces représentations doivent pouvoir être partagées et exploitées par les différents acteurs qui interviennent de la modélisation à limplémentation.
Il existe plusieurs types de modèles, selon quon sintéresse plus particulièrement aux structures de données, aux organisations, aux processus organisationnels, aux traitements
Un modèle est un instrument de travail collectif. Complété par les langages, les outils, les démarches, il fournit un cadre méthodique qui fixe un vocabulaire et des normes de spécification précises. On peut considérer quatre générations de méthodes de modélisation, chacune avançant dune étape dans labstraction :
Années 1970 : approche cartésienne
Méthode danalyse illustrée par SADT XE "SADT" avec une décomposition fonctionnelle des traitements.
Années 1980 : approche systémique
Méthode marquée par MERISE XE "MERISE" et le modèle entité-association. Lidée est de privilégier une approche conceptuelle globale du SI basée sur la recherche des éléments pertinents du SI et de leurs relations.
Années 1990 : approche conduite par les objets
Approche objets marquée par Unified Modeling Language (UML XE "UML (Unified Modeling Language)" , né de la fusion dOMT, OOSE et Booch) basée sur le concept dobjet et de relations entre objets.
Années 2000 : approche conduite par les modèles
Approche marquée par MDA XE "MDA (Model Driven Architecture)" (Model Driven Architecture), poussée par lOMG XE "OMG (Object Management Group)" (Object Management Group) basée sur le concept de méta-méta-modèles (modèles décrivant les modèles).
UML XE "UML (Unified Modeling Language)" est aujourdhui un standard incontournable. Il est fondé sur un méta-modèle qui utilise un formalisme de représentation graphique de diagrammes (classe, objet, cas
), mais avec MDA XE "MDA (Model Driven Architecture)" apparaît un changement de paradigme et de vision qui élève encore dun cran le niveau dabstraction au-dessus des plates-formes de déploiement.
Lobjectif est daméliorer la collecte des besoins et les spécifications du système et de construire un modèle indépendant de limplémentation dans un langage métier (Platform Independant Model), mais dont limplémentation peut en être dérivée sur différentes plates-formes cibles via des modèles dimplémentation spécifiques (Platform Specific Models).
La possibilité de génération automatique de code permet également de développer les logiciels dans une logique de chaîne de production XE "chaîne de production" entre la conception et la construction, tandis que le capital intellectuel (la logique métier) de la modélisation reste dans les modèles, pas dans le code. Toutefois, il sagit encore dune démarche assez lourde dans la pratique, même si, à moyen terme, elle porte les fruits de linvestissement initial.
Vers une gestion de projets logiciel agile
Les différents modèles de cycle de vie des projets
Les modèles de cycle de vie décrivent la séquence des phases dun projet, de lexpression des besoins initiales à limplémentation et aux tests, en passant par la conception.
Ces modèles ont pour objectif en donnant un cadre méthodologique aux projets de professionnaliser les métiers logiciels, Il sagit de sinscrire dans des approches qui optimisent la qualité du résultat, tant en termes dabsence derreurs en production que de satisfaction des besoins clients.
Au fil du temps différents modèles sont apparus, cherchant à corriger les lacunes des précédents. Ainsi le très connu « cycle en V », décrit ci-dessous, est réputé également pour générer un « effet tunnel » dans la phase descendante, au sens où le client ne voit rien de lavancement concret du projet avant longtemps. Il lui est également reproché lintégration « big bang », qui, arrivant tardivement dans le cycle du projet, ne peut commencer que lorsque tous les éléments sont réalisés et disponibles. Ce qui augmente les coûts des erreurs dès lors quelles sont décelées tardivement dans le cycle de vie. Pour pallier à ces inconvénients, des méthodes itératives ou incrémentales sont apparues à leur tour, chacune ayant leurs avantages et inconvénients propres, comme nous le décrivons ci-après.
Le choix dun modèle dépend dès lors des spécificités de chaque projet, par exemple de la maturité des utilisateurs pour exprimer leurs besoins, de leur disponibilité, de la probabilité de changements au cours du cycle de vie, etc. A vrai dire, un projet nest pas tenu de se tenir stricto sensu à un des cycles décrits, il peut être la combinaison de plusieurs, pour tirer parti des avantages des uns et des autres dans le cadre des contraintes du projet lui-même et paralléliser ce qui peut lêtre pour optimiser les délais.
Le cycle en cascades (waterfall model)
Dans ce modèle, chaque phase doit être complétée entièrement avant de pouvoir passer à la suivante XE "cycle en cascades" . A lissue de chaque phase une revue densemble, livrables y compris, doit déterminer si le projet est sur la bonne voie et peut continuer, ou pas.
Si ce modèle a lavantage de la simplicité, chaque phase ayant des livrables précisément décrits et un processus de validation, les phases ne peuvent se chevaucher, ce qui ne permet pas de lotir et paralléliser certains lots du projet. Par ailleurs, il exclut les allées et venues entre le cahier des charges et la conception et ne permet pas de modifications du périmètre fonctionnel durant le cycle de vie. De plus, il faut attendre la fin du projet pour disposer dun logiciel qui fonctionne.
Il est à considérer uniquement dans le cadre de petits projets où lexpression de besoins est claire et sans ambiguïté.
Le cycle en V
Ce modèle exécute également, comme le précédent, une suite séquentielle. Chaque phase doit être complétée avant le démarrage de la suivante.
Toutefois, il donne davantage dimportance aux tests. Les procédures de tests sont développées tôt dans le processus, avant tout codage, durant chacune des phases précédant limplémentation.
Dans la branche « descendante » du cycle (voir figure), on peut parler de tests « statiques », où on teste sans exécuter lapplication par lecture croisée des spécifications et en produisant les plans de tests et les cas de tests qui seront exécutés (tests dynamiques, dabord structurels puis fonctionnels) dans la phase remontante.
CycleV.png
Figure A2-3.
Le Cycle en « V » XE "Cycle en \« V \»"
A chaque phase de la branche descendante correspond un plan de tests pour une phase de tests (unitaire, intégration, applicatifs puis validation métier par la recette finale).
Ce modèle a les avantages de simplicité du précédent (en cascade) tout en minimisant les risques par le fait que les plans de tests sont développés plus tôt dans le cycle de vie.
Cela dit, il nen reste pas moins rigide et ajuster le périmètre fonctionnel est difficile et coûteux. Cela nécessite dans tous les cas une gestion rigoureuse du changement. Dans le cycle en V puriste, le logiciel est développé durant la phase dimplémentation, ce qui fait quil ny a pas de prototypes tôt, ce qui peut être un inconvénient pour vérifier certains choix dans la conception de larchitecture avant le codage complet. Dautre part, si le modèle propose une logique de production des plans de tests il ne précise pas de processus quand aux traitements des problèmes découvert durant les phases de tests qui pourraient justifier des retours arrières dans la conception. Si cette dernière est défectueuse, une petite incompréhension initiale peut conduire à un désastre. En effet, les défauts risquent fort dêtre trouvés tardivement ce qui implique des remises en causes très coûteuses. Cest pourquoi des méthodes de tests « statiques », de relectures croisées des spécifications et du code existent pour diminuer ces risques.
Modèle incrémental
Il sagit de réduire la complexité dun projet en le décomposant en de multiples cycles de développements. Chaque cycle XE "cycle incrémental" est ensuite divisé en de plus petite itération, facilement gérables, dont les couvertures respectives incrémentent le périmètre fonctionnel et/ou technique. Chaque itération passe par les phases dexpression de besoin, de conception, dimplémentation et de tests, qui peuvent être gérées selon différents modèles.
Une première version du logiciel, qui peut être mise en production, est livrée à la fin de la première itération, ce qui permet de réviser la logique des itérations suivantes en fonction du résultat produit. Ainsi, on évite « leffet tunnel » des cycles séquentiels ou les utilisateurs ne voient que tardivement les résultats opérationnels du projet. Il devient dès lors moins coûteux de changer le périmètre en cours de projet et les défauts de conception sont identifiés plus tôt grâce aux itérations. Certaines itérations peuvent se concentrer plus particulièrement sur des difficultés techniques, par exemple.
Certains problèmes peuvent toutefois être générés par larchitecture du système dès lors que lensemble des besoins ne sont pas collectés et approfondis dès le début.
Modèle en spirale
Similaire au modèle incrémental il rajoute les aspects de gestion des risques. Il comprend quatre phases : planning (détermination des objectifs, des alternatives et des contraintes), analyse des risques, ingénierie (conception, implémentation et tests) et évaluation (revue des résultats et vérification du cycle suivant). Un projet logiciel passe plusieurs fois par ces phases selon des itérations, appelées spirales dans ce modèle.
La spirale de base démarre durant la phase de planning avec une analyse préliminaire des besoins et des risques. Pour les autres cycles, on détermine les objectifs et les contraintes à partir du résultat du cycle antérieur.
Durant la phase danalyse des risques, un processus est suivi pour identifier les risques et les alternatives. Un prototype est produit à la fin de cette phase.
Le code logiciel est développé durant la phase dingénierie qui comprend les tests. La phase dévaluation autorise le client à évaluer les résultats intermédiaires du projet avant dentériner et dentamer la phase suivante.
Les avantages du modèle tiennent principalement à limportance de lanalyse des risques, pertinente pour des grands projets critiques. Dautre part, les clients peuvent voir un résultat logiciel assez tôt dans le cycle de vie. Toutefois, ce modèle peut savérer coûteux (sil y a beaucoup de spirales) et requiert une expertise pointue pour les phases danalyse de risques. Il ne convient pas aux petits projets.
Spiral_model.png
Figure A2-4.
Le Cycle en spirale XE "Cycle en spirale" (Boehm, 1988). Le modèle en spirale a été défini par HYPERLINK "http://fr.wikipedia.org/w/index.php?title=Barry_Boehm&action=edit&redlink=1" \o "Barry Boehm (page inexistante)" Barry Boehm en 1988 dans son article "A Spiral Model of Software
Agilité et logiciel
Le défi des méthodes agiles est de produire des logiciels de meilleure qualité, c'est-à-dire qui satisfassent aux besoins sans erreur et sans oubli, dans des délais plus courts. Ce qui peut paraître contradictoire de prime abord.
Précurseur des méthodes agiles, le RAD, Rapid Application Development XE "RAD, Rapid Application Development" , fait son apparition au début des années 90. Il sinscrit en rupture par rapport aux cycles séquentiels classiques.
Après une courte de phase de cadrage des besoins (réalisée à travers des sessions dinterviews des utilisateurs) et de « design » ou conception de larchitecture technique, lapproche est incrémentale, itérative et adaptative. Ainsi des principes tels que le « time boxing XE "time boxing" », ou développement à calendrier contraint, ou le « design to cost », conception à coût/objectif, forcent le projet à sadapter aux contraintes et à prioriser les développements de fonctionnalités. Lobjectif est de produire dans les meilleurs délais, selon les contraintes fixes (délais ou budgets ou ressources, par exemple), en jouant sur les contraintes variables (délais ou budget ou périmètre fonctionnel ou ressource) un logiciel qui satisfasse au mieux les utilisateurs impliqués dans des cycles de validation permanent.
Les cycles de développement sont nécessairement courts (90 jours optimum, 120 jours maximum) et la construction se fait sous forme de prototypage actif, avec implication des utilisateurs dans la validation permanente.
La finalisation se fait sur site pilote avec un contrôle final de qualité.
La méthode RAD permet la sérialisation et la parallélisation, laquelle est possible à partir de la phase de design, qui inclut un prototypage explicatif pour présenter lergonomie et la cinématique de lapplication.
Autre méthode itérative et incrémentale, la méthode PU XE "PU (Processus unifié)" (Processus unifié ou UP Unified Programming) est une méthode générique pour le cycle de vie de développement des logiciels orientés objets. RUP (Rational unified Programming) XE "RUP (Rational unified Programming)" en est limplémentation la plus connue, qui donne un cadre aux développements.
Une réalisation conforme à PU, doit utiliser UML, être à base de composants, être pilotée par les cas dutilisation, centré sur larchitecture, et être itératif et incrémental.
Les méthodes agiles sont essentiellement itératives et incrémentales. Pour en finir avec les effets tunnels de conception de longue durée, qui produisent souvent des résultats défectueux avec des erreurs ou des oublis dont on saperçoit trop tard, les méthodes agiles mettent en avant la livraison régulière de petis incréments du produit au client final pour quil exprime au plus tôt son avis. Laspect humain est prépondérant car les méthodes agiles privilégient le travail en réseau de petits groupes autonomes, c'est-à-dire déquipes de développement réduites, à taille humaine (7 à 10 personnes), autogérées et colocalisées, qui font des points très rapprochés.
Les pratiques les plus utilisées sont les plus souvent issues dXP (eXtreme Programming) XE "XP (eXtreme Programming)" , qui donne une importance toute particulière à la qualité du code, ou de Scrum XE "Scrum" .
En particulier, pour XP, lintégration continue, le remaniement de code (ou refactoring voir p.175) et le développement conduit par les tests (Test Driven Development, TDD) XE "TDD (Test Driven Development)" , méthode qui préconise décrire les tests avant de coder (on écrit ensuite juste le code suffisant pour passer le test, puis on refactorise et ainsi de suite).
Scrum met laccent sur le développement itératif et incrémental et les mêlées quotidiennes.
Les méthodes agiles fournissent à léquipe un ensemble de petites tâches surmontables, plus faciles à appréhender. Elles ont toutes pour principe fort la participation active du client et la définition de priorités dans les fonctionnalités du logiciel (pour mieux gérer les contraintes fixes). Dans la méthode Scrum, le client choisit celles qui seront réalisées dans chaque sprint.
Des méthodes agiles pour linnovation
Les motivations de lagilité
Que cachent les méthodes agiles ? Quelles sont les motivations de ceux qui les utilisent et quels résultats en sont retirés ? Pour répondre à ces questions, le Scrum User Group France, organe affilié à la SCRUM ALLIANCE, a mené une enquête nationale sur ladoption en France de ces méthodes. 230 personnes de plus de 150 petites et grandes entreprises y ont répondu.
Lenquête a montré que les principales motivations à ladoption de lagilité sont : la capacité à intégrer le changement, lamélioration de la qualité logicielle, la motivation des équipes de réalisation, les livraisons plus fréquentes et la réduction des risques. Dautre part, selon lenquête : « Les entreprises les plus utilisatrices des méthodes agiles sont celles chez lesquelles linformatique leur permet dacquérir un avantage concurrentiel dans le cadre dune stratégie dinnovation continue. Ainsi les activités comme les sites web marchands, la Banque Assurance, les activités scientifiques, les éditeurs, les prestataires de services informatiques (pour leurs clients) sont les plus grands utilisateurs. ».
Si les retours dexpériences montrent que les méthodes agiles tiennent leur promesse (voir lenquête citée ci-dessus), le développement agile nécessite toutefois des équipes motivées, rigoureuses et expérimentées en génie logiciel. Dautre part, elles impliquent également de pouvoir mobiliser répétitivement le client final en lui demandant plus de disponibilités que dans les phases de développement « classiques ».
Du service informatique aux services informatisés
Si J2EE XE "J2EE (Java2 Enterprise Edition)" et Microsoft .Net XE ".Net" reflètent au niveau des développements spécifiques le nouveau paradigme dun environnement tout distribué, la diffusion dapplications sur Internet, laccès de plus en plus répandu, les standards dinteropérabilité, une bande passante élevé, conduisent aussi à de nouvelles façons de penser lorganisation des développements, ou la localisation des applications.
Après tout, si les communautés du Web sorganisent pour développer ensemble des logiciels open source, quest-ce qui empêche une entreprise de sous-traiter une partie de ses développements nimporte où dans le monde, de façon transparente pour le résultat final, si cela lui apporte un bénéfice ?
Pourquoi une entreprise devrait-elle investir dans une infrastructure lourde et des ressources pour la maintenir quand elle peut faire héberger ses applications chez un sous-traitant qui la gèrera pour elle, en lui offrant la mutualisation XE "mutualisation" de services dadministration et de sauvegarde ? La première idée conduira à linfogérance XE "infogérance" et lexternalisation XE "externalisation" , la seconde, dabord aux ASP XE "ASP (Application Service Provider)" (Application Service Provider), puis aux offres Saas (Software As A Service).
Le Saas XE "Saas (Software As A Service)" sinscrit dans la lignée de lévolution de linformatique dune orientation technologique vers une orientation services. Lidée au final est de fournir un service dusage avec les technologies de linformation et des communications aussi simplement que de lélectricité. Les moyens de production, les usines, les câbles, tout doit être transparent pour lutilisateur qui doit pouvoir accéder simplement au service et ne se soucier que de sa valeur dusage et de sa disponibilité.
Définition
Saas sert à quoi ?
Il y a différentes variantes de ce quest le Saas, acronyme de Software As A Service, dépendantes du modèle de tarification et de larchitecture. Plus précisément, un modèle Saas peut être évalué sur trois axes : économique, architectural et opérationnel.
Pour exemple, sur laxe tarification, labonnement peut être mensuel ou annuel, voire à la demande au sens où le paiement se fait à lusage, celui dune transaction ou dune fonctionnalité du logiciel. Le paiement à la demande (pay as you go) peut sappliquer également au matériel. Dans ce cas, les clients payent pour la capacité de stockage ou la puissance de calcul quils utilisent.
Une définition simple et large du Saas serait « logiciel déployé comme un service hébergé accessible via Internet ». Dans ce cas, les ASP (Application Service Provider), les maintenances à distance, les applications à la demande avec des éditeurs dapplications naturellement conçues pour le mode en ligne seraient des variantes plus ou moins mûres du modèle Saas.
Le Gartner XE "Gartner" donne une définition plus restrictive du modèle Saas à travers trois principes qui le caractérisent: Le service est hébergé chez le fournisseur ou un partenaire du fournisseur, il est utilisé avec un modèle one-to-many (appelé également architecture multitenant), de façon à ce que chaque société lutilise avec le même code et le même modèle de données, et le service est tarifé en fonction de lusage, en mode ponctuel ou abonnement.
Dans cette définition, les ASP ne répondent pas aux principes darchitecture multitenant. Or, ce sont ces principes qui permettent de réaliser le déploiement immédiat à tous les abonnés de modifications sur le modèle. Le Saas a lavantage par rapport aux ASP de pouvoir proposer des évolutions de fonctionnalités très rapides et partageables par tous.
Certes, le logiciel comme un service délectricité est un principe qui a de lintérêt dans le cadre où les fonctions recherchées sont standard, cest-à-dire relativement indifférenciées selon les entreprises. À partir du moment où le service est très spécifique à un contexte, la démarche trouve ses limites et nous entrons dans des logiques de construction avec des plans fait sur mesure.
Néanmoins, même dans cette approche où un architecte va prendre en compte lenvironnement, le contexte, les fondations éventuellement existantes et lintégration dans un paysage existant, une logique orientée services, où des briques de construction sont réutilisables pour des usages prédéfinis chez différents clients, est à envisager.
Il serait en effet ennuyeux quun architecte nutilise pas certains matériaux standard de construction, voire napplique pas les réglementations liées à lévacuation des eaux usées ou la sécurité des circuits électriques.
Vers un SI construit par assemblage de services
Nous entrons ici dans le cadre des concepts SOA (Service Oriented Architecture), darchitecture orientée services, qui ne sont pas si neufs, bien que lon en ait beaucoup parlé seulement les cinq dernières années. Là encore, il sagit dun processus de maturation à long terme pour lequel le développement des échanges sur le Web a servi de catalyseur et daccélérateur dévolution.
En effet, laccélération des développements et les échanges entre entreprises plaident pour la réutilisabilité de modules fonctionnels qui puissent livrer le même service à tous les partenaires et/ou acteurs dun domaine ainsi que pour des logiques de communication de données métier entre machines.
Lobjectif, au final, est celui de lentreprise dite étendue XE "entreprise étendue" , où il devient possible de piloter automatiquement lactivité dun processus métier de bout en bout, même si les données qui séchangent entre les tâches de ce processus passent du système dinformation dune entreprise à une autre, et que ces entreprises sont localisées à deux pôles différents.
Un peu dhistoire
La longue route de la SOA XE "SOA (Service Oriented Architecture)"
LArchitecture orientée services nest ni un outil, ni un concept nouveau. Dès 1990, larchitecture Corba (Common Object Request Broker Architecture) XE "Corba (Common Object Request Broker Architecture)" , poussée par lOMG XE "OMG (Object Management Group)" , Object Management Group, est née du besoin de faire communiquer ensemble des applications en environnement hétérogène (plusieurs systèmes et plusieurs langages). Corba intègre, sous la forme de lORB XE "ORB (Object Request Broker)" (Object Request Broker), un routeur de messages, une sorte de bus-communication qui permet de faire transiter des requêtes sur les objets entre applications, indépendamment des langages de programmation, grâce à des interfaces daccès aux objets exprimées en IDL (Interface Definition Language). Corba fait partie dune vision globale promue par lOMG, lOMA XE "OMA (Object Management Architecture)" (Object Management Architecture). LOMA est du SOA avant lheure, mais avec la logique SOA, lintégration franchit encore une étape.
OMA.png
Figure 2-3
Le modèle OMA, préfigurateur du concept SOA
La logique déchange de données automatisé entre machines a une histoire, celle de lEDI XE "EDI (Electronic Data Interchange)" (Electronic Data Interchange). Ce dernier a connu beaucoup de formats propriétaires, si on peut dire, car localisés souvent dans un secteur et un segment géographiques, sans même parler des réseaux privés déchange historiques très coûteux. On peut citer par exemple Odette XE "Odette" pour lindustrie automobile européenne, ou EAN devenu GS1 officiant pour la grande distribution et le commerce en général (cest ce qui est derrière les codes à barres). Avec lessor du format déchange XML définissant des méta-données, cest-à-dire décrivant les données que doivent contenir des documents déchange, avec laccès généralisé à Internet de toutes les entreprises, avec lapparition doutils facilitant lintégration dapplications entre elles (EAI XE "EAI" ), lEDI XE "EDI (Electronic Data Interchange)" a pris une autre dimension.
Si on ajoute à cette dimension celle de lautomatisation et loptimisation des processus métier, dune part, et dautre part, celle de la réutilisabilité de composants dapplications aussi bien sur des plates-formes internes à lentreprise quexternes, alors on est assez près de couvrir les concepts darchitecture orienté services. Cest sur ce paradigme que se joue aujourdhui lassemblage entre composants applicatifs hétérogènes dun ou plusieurs systèmes dinformation, pour constituer une réponse optimisée à des besoins métier, déchange, de partage, de traçabilité et dexploitation dinformation.
Chapitre A3
Web et maîtrise de linformation : les forces en marche
La HYPERLINK "http://www.evene.fr/citations/mot.php?mot=vitesse" vitesse est la HYPERLINK "http://www.evene.fr/citations/mot.php?mot=forme" forme d HYPERLINK "http://www.evene.fr/citations/mot.php?mot=extase" extase dont la HYPERLINK "http://www.evene.fr/citations/mot.php?mot=revolution" révolution HYPERLINK "http://www.evene.fr/citations/mot.php?mot=technique" technique a HYPERLINK "http://www.evene.fr/citations/mot.php?mot=fait" fait HYPERLINK "http://www.evene.fr/citations/mot.php?mot=cadeau" cadeau à l HYPERLINK "http://www.evene.fr/citations/mot.php?mot=homme" homme.
Milan Kundera
Lévolution est un processus lent. Ce nest pas le cas des conséquences dInternet. Elles entraînent des bouleversements économiques et sociaux au fur et à mesure de lextension et des modifications de la toile. Elles changent les habitudes culturelles, facilitent le partage de linformation comme elles mettent en lumière ou accélèrent des inégalités.
Le Web ressemble plus à un moteur à révolutions quà une évolution. Cest une remise en cause déquilibres anciens, un repositionnement des rôles, un mélange didéaux coopératifs et déconomie ultra-libérale. Cest aussi un modificateur de frontières, un catalyseur de changements aussi bien dans les sociétés, que, par voie de conséquences, dans les organisations, qui ont du mal à suivre.
Le Web na dailleurs pas fini ses mutations et, dès lors, il na pas fini de révolutionner les habitudes. Car des premières versions de sites institutionnels au Web sémantique qui se profile à lhorizon, en passant par le Web interactif, ou Web 2.0, ce sont plusieurs révolutions qui donneront corps à la « révolution numérique » prédite.
Ce chapitre évoque brièvement, à travers une définition des métamorphoses du Web et le constat dun monde à deux vitesses, les forces en marche qui vont profondément changer lunivers des systèmes dinformation dentreprise.
De la communication à la connaissance
Une évolution en cours
Les architectures orientées services sont laboutissement de la première époque du Web vécue dans le début des années 2000. Grâce aux standards dinteropérabilité nés du Web, linformatique dentreprise évolue dune logique de machines à une logique de services, où lobjectif est de pouvoir de plus en plus sabstraire de la complexité des couches basses et des technologies employées pour se concentrer sur la valeur dusage du service fourni. Derrière, à terme, peu importera où se situera linfrastructure.
La seconde époque commence en parallèle, cest celle de la popularisation des technologies de linformation et des communications. Depuis lapparition, en 1995, de Microsoft Windows 95 qui a généralisé les interfaces graphiques sur les PC, à aujourdhui, on a vu apparaître une notion dinterface avec le monde numérique plus accessible à tous, aussi bien que plus étendue.
Pour les employés des entreprises, linterface avec des données informatiques est de moins en moins liée à un appareil fixe. Lutilisateur doit pouvoir accéder facilement aux services dinformation de lentreprise quels que soient ses déplacements, en tous lieux et à toute heure. Le navigateur Web devient de son côté linterface de prédilection daccès aux informations pour une partie grandissante de la population.
Avec le Web 2.0 XE "Web 2.0" , les réseaux informatiques prennent une autre dimension, ils donnent naissance aux réseaux sociaux. La Toile relie les individus davantage que les machines ou les entreprises et ces dernières ne peuvent négliger la transformation qui en résulte. Les frontières entre lentreprise et ses partenaires, ses fournisseurs, ses employés et ses clients ne sont plus les mêmes. Les contraintes physiques et temporelles nont plus le même sens. Dès lors, les référentiels organisationnels qui traduisaient la perception de ces contraintes ont vocation à se déplacer aussi.
Si, à lépoque des premiers sites Internet, lentreprise pouvait se contenter dexposer une vitrine de son savoir-faire et de ses services sur un site de communication institutionnelle, elle doit aujourdhui aller beaucoup plus loin et offrir non seulement des services spécifiques à travers le Web, mais aussi utiliser ce dernier pour en construire de nouveaux.
Pour cela, il faut être capable dexploiter lintelligence dissimulée dans une information multiforme et tentaculaire, sinspirer des traces laissées par les usagers du Web pour mieux comprendre les clients potentiels et sadapter à leurs besoins, trouver le sens des évolutions pour innover à bon escient au bon moment et ne pas nager à contre-courant des changements socio-économiques. Exploiter lintelligence que recèle la masse dinformation du Web, passer de linformation à la connaissance, cest ce que promet sa troisième métamorphose, le Web sémantique XE "Web sémantique" .
Reste, avant dy arriver, à exploiter pleinement le potentiel de la métamorphose précédente, davantage subie que comprise. Les entreprises continuent à fonctionner sur des modèles dorganisation clos et des relations unilatérales avec leurs consommateurs ou leurs collaborateurs, alors que leurs clients choisissent leurs fournisseurs ou leurs produits, publient leurs avis, passent commande sur Internet, et que leurs nouveaux employés échangent aux quatre coins du monde à travers des réseaux sociaux, la visioconférence, ou la téléphonie sur IP.
Pourtant, nous sommes bien entrés dans une nouvelle ère, celle du numérique et, au milieu de lévolution en cours, nous nen percevons non seulement pas encore tous les potentiels, mais, emportés par le mouvement, nous ne voyons pas toujours combien il modifie déjà radicalement le paysage qui nous entoure.
Le monde interactif de linformation
Pour comprendre la première métamorphose sociale du Web, ce qui a été nommé « le Web 2.0 XE "Web 2.0" », il faut sabstraire de la logique dinterface de lhomme avec la machine pour raisonner en termes dinterface avec la connaissance que représentent potentiellement (avec des limites à ne pas négliger) les informations du Web. Dès lors que lutilisateur a de plus en plus accès à la connaissance, non pas en mode passif mais en mode interactif, avec la capacité à réagir et à partager avec tout un réseau de pairs, la révolution des usages se répand à celle des organisations.
Le Web 2.0, avec ses blogs, ses forums, ses réseaux sociaux et tous ses outils dinteractivité (y compris les RIA XE "RIA (Rich Internet Applications)" Rich Internet Application) est le ferment dune révolution organisationnelle.
Les logiques dintelligence collective XE "intelligence collective" bousculent peu à peu des organisations hiérarchiques pour leur substituer des organisations matricielles et des communautés dexpertises. Lindividu, professionnellement, nest plus limité au cadre géographique de son entreprise, il rayonne dans un environnement ouvert : les réseaux sociaux.
La « génération Y », censée représenter des traits communs aux personnes nées entre la fin des années 70 et le milieu des années 90, naturellement adaptées à lusage des TIC, cristallise la perception du changement dans lidée dun effet générationnel. Or ce nest pas tant une question de génération que dusages qui se sont adaptés. La génération X précédente, née dans les années 1960-1979, a été la première à être confrontée à lentrée massive des technologies de linformation et des communications, à une modification rapide des clivages géopolitiques et à une première prise de conscience des impacts environnementaux de lère industrielle. On a pu la juger « sans repères ». En réalité, les points de repères ne pouvaient rester les mêmes quand le temps (les rythmes) et lespace (la géographie) des échanges socio-économiques se modifiaient.
Les us et coutumes changent en même temps que la nature des échanges économiques mais en suivant une évolution accélérée par les technologies de linformation et des communications.
La logique dinteractions des réseaux, grâce aux évolutions du Web et la nature de lhomme, un « animal social » comme le désignait Schopenhauer, ont conduit à deux mouvements complémentaires. Dun côté, il y a de nouvelles perceptions des rapports de force et de la logique de dualité entre liberté et contraintes de lordre social. De lautre, il y a construction dune intelligence collective centrée sur le renouvellement des usages, la production dinformation et dinterrelations et la consommation non plus subie mais interactive et responsable.
La satisfaction dun individu dans une entreprise, le sentiment dun travail librement consenti et jugé valorisant, dépend dune équation. Celle entre lengagement de lindividu (la productivité du travail fourni) et la reconnaissance personnelle quil en retire (ou la valeur de cet engagement selon son échelle). Dans un monde où les frontières ne sont plus physiques, où les nouvelles technologies ont permis aux uns et aux autres dafficher leur identité (via un simple blog, par exemple), cette équation repose sur une nouvelle interprétation de la reconnaissance. Dès lors, le niveau dacceptation des contraintes dorganisations restées sur des modes classiques de type hiérarchique nest plus le même.
En effet, lindividu na plus besoin dêtre reconnu par des chefs directs ou par une communauté close avec des normes quil na pas choisi. Il cherche la reconnaissance en sengageant dans des communautés informelles de pairs en dedans ou en dehors de lentreprise, qui satisfont à son aspiration dêtre reconnu en tant que personne humaine, avec ses convictions propres. Ce qui naît est un individualisme « collectif », où chacun veut participer et être écouté. Lefficacité se mesure à la capacité de pouvoir faire écouter ses opinions et de mobiliser des groupes de pairs avec lesquels interagir, pas à celle de gérer hiérarchiquement des ressources voire même pas à la capacité de créer des solutions ou danalyser des problèmes de manière autonome.
Quand les contraintes dinteractions entre individus dans les entreprises nont pas de sens par rapport à ce quil est désormais possible de faire au dehors, elles sont perçues davantage comme des freins politiques de pouvoir personnel que comme des motivations organisationnelles raisonnées. Il est logique dès lors quelles soient remises en question.
Les employés sont des individus qui se meuvent dans un environnement en perpétuel mutation. En entreprise, aucune organisation nest plus acquise, rien nest immuable. Sauf à souffrir excessivement du changement, il faut accepter que se mouvoir en dehors nest pas plus risqué que de ne pas se mouvoir en dedans.
Si la société/lentreprise en réseau ne sait pas tirer parti des individus de manière bilatérale, ils vont « voter avec les pieds » et chercher ailleurs engagement ou reconnaissance. A linverse, il y a un potentiel certain à utiliser les nouveaux comportements en tant que forces de proposition pour innover dans les services et les relations, toutes générations confondues, ne serait-ce quen créant des communautés transverses mobilisées de manière agile (avec lidentification des bonnes expertises complémentaires) sur des projets concrets, ou en utilisant léchange entre pairs (en dedans ou en dehors) pour partager de linformation utile, des retours dexpérience et des meilleures pratiques, ou trouver des expertises manquantes.
Lère numérique nest pas lère industrielle car ce ne sont plus les machines qui prévalent, mais les hommes. Depuis le multi-canal, les solutions de marketing personnalisé, le client-consommateur voulait que lon sadresse à lui de manière instanciée, individuelle. Maintenant, il peut interagir, il se renseigne sur Internet, publie ses opinions, lit les avis, fait partie de panels de béta testeurs. Quand plus de la moitié des internautes utilisent le net pour se renseigner avant lachat dun produit ou dun service, quand cette même moitié peut annuler un achat pour un commentaire négatif lut sur un forum ou un blog, lentreprise na pas dautre choix que dentamer le dialogue avec ses consommateurs, en sachant quelle ne peut maîtriser complètement sa communication. Ce qui peut tendre à la rendre plus eco-responsable devant les attentes sociales et environnementales.
Lentreprise doit également intégrer la logique de dialogue avec des individus dans son organisation interne et passer en mode « individuel-collectif ».
Les entreprises se sont adaptées (plus ou moins bien) aux outils de lère numérique comme canaux (Web, PDA, téléphones mobiles, smartphone, ..) en modifiant leurs systèmes dinformation pour « pousser » leurs offres vers le client-consommateur grâce à la relation centrée-client et le multi-canal. Elles commencent à peine à sadapter à la culture du coopératif et du partage sur le développement de leurs affaires et de leurs images de marque. Le consommateur peut très bien « repousser » loffre avec la même force quelle a été poussée, en sappuyant sur cette dernière pour la retourner contre lémetteur grâce au Web social (réseaux et médias sociaux, micro blogs et blogs, wikis, tags, etc.). Il est donc impératif dapprendre à communiquer bilatéralement et répondre aux critiques correctement.
Plus encore, le mode consommateur critique et responsable se répand au-delà de la seule relation entre une entreprise et ses produits (biens ou services) et ses clients éventuels. Il devient aussi le mode de relation entre les citoyens et les administrations et collectivités locales et il simmisce également dans le lien entre les entreprises et leurs collaborateurs.
Aujourdhui, il faut non seulement, via les systèmes dinformation, offrir des services spécifiques à travers les outils du Web, mais aussi utiliser ces derniers pour améliorer les services existants et en construire de nouveaux en collaboration avec les « consommateurs » visés par ces services (clients potentiels, employés, administrés,
), en collectant leurs attentes, leurs retours et leurs réactions.
La communication unilatérale ne passe plus. Le dialogue et linteraction sont une nécessité de lévolution et vont construire de plus en plus du sens après avoir construit de la réaction. Il va falloir repenser lentreprise en réseaux, ensemble de communautés autonomes centrées-individus et inter-reliées par les outils de la mobilité, du travail coopératif et du partage de la connaissance, avec des plate-formes de mutualisation de services (dinfrastructures, de logiciels, dobjets métiers, dinformation..) que les uns et les autres peuvent enrichir. Ce nest certainement pas juste donner les outils type « Web 2.0 » sans comprendre les règles de linteractivité et sans associer les individus à un mouvement volontaire, sauf à vouloir reproduire la caricature des fonctionnaires russes sommés par le pouvoir de se mettre à créer leurs blogs et rejoindre les réseaux sociaux : le résultat consiste en des blogs alimentés par des assistants et remplis par des communiqués de presse.
A contrario les organisations rêvent encore dapprendre à « manager la génération Y », comme sil sagissait dun problème à circonstancier au pilotage dune catégorie de population et non une nécessité dadaptation plus large à de nouveaux rapports avec le travail, linformation et la connaissance. Il ne sagit pas seulement dintégrer de nouveaux arrivants dans le monde du travail daujourdhui, il sagit de relever le défi de changer les repères des organisations pour sadapter pleinement à lère numérique.
Au cur de ce défi, lexploitation intelligente des interactions entre les individus représente le plus fort potentiel dévolution que les nouvelles technologies de linformation et des communications permettent, voire imposent de prendre en compte dans les systèmes dinformation dentreprise aujourdhui. La logique industrielle a jusquà présent utilisé ces technologies pour répliquer des logiques de rendement, de productivité et de performance. Il est temps daller au-delà des limites de la rationalisation du travail humain pour se pencher sur une autre voie, la richesse dinnovation des échanges inter-métiers et inter-organisation, et la force dévolution des mouvements spontanés dadhésion et de construction collaborative.
Ainsi les entreprises viendront-elles aux technologies de collaboration du Web 2.0 car elles savèrent pertinentes dans bien des cas et correspondent à des modes de travail plus actuels. Le partage dinformations favorise le partage des connaissances, doù un fort potentiel damélioration des performances de lentreprise.
Les risques en termes de sécurité, confidentialité et fiabilité ou non-détournement des informations diffusées sont à la mesure des gains potentiels.
En diluant les frontières entre information structurée et non structurée, entre infrastructure interne et externe (à travers la virtualisation, le cloud computing), la plate-forme Internet introduit progressivement toujours plus de perméabilité entre le lieu clos de lentreprise et lunivers extérieur. En bien, comme en mal.
Ainsi, la rapidité de partage dinformations tronquées ou inadéquates peut conduire à un enchaînement rapide de mauvaises décisions, de même que lutilisation à outrance du Web comme outil tant professionnel que privé conduit, en entremêlant informations personnelles et professionnelles, à des confusions dangereuses. Lexemple des informations personnelles de John Sawers XE "John Sawers" (chef des services secrets Britanniques), publiées par sa femme sur Facebook, ou les divulgations de marines, sont des exemples flagrants des problèmes de sécurité que posent ces nouveaux outils. Lusage du Web pour publier un bout de code dun programme confidentiel « buggé » dans lespoir que la communauté des internautes vienne à le corriger, également.
La surexposition de linformation
La facilité apparente de recherche sur le Web est également un dangereux miroir aux alouettes quant à labsence de réflexion quelle peut induire. Laccessibilité XE "accessibilité" nest pas gage de fiabilité XE "fiabilité" , pas plus que de pertinence XE "pertinence" .
Il est toujours intéressant de vérifier jusquà quel point la surabondance dinformations ne cache pas un seul angle, un seul regard, une répétition spontanée dun parti pris. Le rapport « State of the news media 2006 » du Pew Research Centers Project for Excellence in Journalism, affilié à luniversité de Columbia, montrait que sur une journée, les 14 000 articles accessibles en ligne via Google News ne recouvrait en réalité que 24 sujets. Ce rapport, actualisé en 2009, montre également quAOL et Yahoo News relaient essentiellement des informations de Wire . Les flux RSS ne changent rien à la donne, au contraire, en permettant la réplicabilité de linformation, jusquà aboutir à une éventuelle surexposition dune information dont la valeur tant pour lusage que la connaissance quelle apporte, est au final très limitée au regard de sa diffusion.
Les risques induits par le foisonnement et le côté presque intrusif du Web sur le pouvoir de contrôle de linformation, ne signifie pas quil faille en revenir à un cloisonnement strict des informations internes à lentreprise et externes. Cela reviendrait à une tentation de protectionnisme qui, pour linformation comme pour le commerce, ne résoudrait rien à léchelle mondiale, parce quon perdrait dun côté ce quon gagne de lautre avec la « coopétition»
Maîtrise de linformation : régulation et coordination
Pour autant, cela nempêche pas de sinterroger sur le minimum de régulation et de coordination nécessaires à un accès à et une diffusion maîtrisés de linformation.
Rappelons que la valeur dune information, le pouvoir quelle peut procurer si on lutilise à bon escient, dépend beaucoup de sa fiabilité et de sa pertinence. De ce fait, la valeur du système dinformation est liée à la qualification de ses informations par les métiers et la direction générale. Le Web pose plus clairement que jamais le problème de la qualification et du contrôle parce quil accélère le volume des données à traiter et quil multiplie les sources et les redondances, tout autant que les risques dintrusion et de récupération dinformation.
La capacité que développent progressivement les systèmes dinformation à manipuler sur un même plan linformation structurée et non structurée, du fait de limpulsion donnée à cela par le Web, doit conduire, dune part, à développer davantage les politiques de qualification et de contrôle des informations nouvelles et, dautre part, à mieux exploiter et protéger le capital de connaissance enfouit dans lexistant.
Il sagit tout autant de vérifier la pertinence des informations, leur fiabilité, que den connaître le potentiel de réutilisabilité, et den valider laccessibilité. Quitte pour cela à passer à des techniques nouvelles pour mieux gérer les données de références ou les règles métier afin daméliorer la qualification et la qualité, donc la valeur de linformation. Il est également impératif davoir une réelle politique de sécurité en termes de définition des profils et des habilitations, sachant toutefois que les niveaux dautorisations ne peuvent se définir sans avoir qualifié au préalable linformation.
Encore faut-il donner du temps à cette entreprise de qualification et de contrôle. Mais dans une société où justement le partage rapide de linformation implique que la durée de sa valeur soit plus courte, prendre le temps de vérifier les sources ou de bien qualifier la pertinence, va a contrario de la nécessité dagir vite pour obtenir un avantage concurrentiel. La tentation est grande alors de déléguer ce rôle à des professionnels de linformation. Mais là encore, cette délégation induit une déresponsabilisation sur lestimation de la valeur de linformation et, dès lors, une perte de pouvoir. Et qui sera juge de la légitimité des juges ?
Pour les systèmes dinformation, ne pas faire qualifier la valeur des informations quils recèlent pour la plupart déjà, par ceux qui doivent les utiliser, soit les métiers et la direction générale, cest tout simplement passer à côté dun enjeu de pouvoir, celui de lavantage concurrentiel quils peuvent conférer à une entreprise (performance interne, connaissance du marché
) et à la réelle création de valeur quon pourrait en attendre.
Donner du sens à linformation : lambition du futur
Reste que la masse dinformations du Web est encore chaotique, voire peu fiable et pas toujours pertinente. Si on pouvait chercher plus efficacement les informations utiles pour un objectif de recherche précis, nous serions plus près de cette interface avec la connaissance évoquée. Aujourdhui, linterface en question nous confronte à des millions de pages de textes et nous autorise des discussions avec quelques êtres humains à la fois. Il faut naviguer dans des présentations et des documents multiples, prendre beaucoup de temps à échanger avec les uns et les autres, sans garantie que les réponses offertes soient les bonnes si notre question souffre dune quelconque ambiguïté.
Potentiellement, il y a un gisement de connaissances et dintelligence collective XE "intelligence collective" énorme mais pas vraiment exploitable rapidement, sauf à
créer un « Web sémantique XE "Web sémantique" ». Cest lambition de ce quon appelle le « Web 3.0 XE "Web 3.0" \t "Voir web sémantique" ». Un Web où les informations seront reliées entre elles par des liens de sens, et où les moteurs de recherche pourront répondre au plus près des concepts de la question posée, autrement quen envoyant des milliers de pages pour chaque mot dune phrase.
Trouver le sens des mots ne suffit pas, encore faut-il pouvoir garantir la fiabilité des informations et borner malgré tout les droits de les étudier, utiliser, diffuser, et modifier. Le rêve libertaire dune information sans contrôle a ses limites, justement dans le respect des droits des individus et la volonté de ne pas nuire à autrui. En dautres termes, les contraintes existent et la liberté bien employée, cest aussi la connaissance de ces contraintes.
Cette seconde métamorphose du Web, à peine amorcée, nous fait quitter définitivement lhéritage des systèmes dinformation pour entrer dans le futur. Un futur peut-être pas si éloigné en termes dusages pour les internautes, alors que les entreprises peinent déjà à sadapter aux usages du présent.
Les deux pressions dévolution sur le SI
Cette rapide description des métamorphoses du Web illustre un monde à au moins deux vitesses où les entreprises, qui étaient autrefois les premières à disposer des dernières technologies de linformation et de la communication, peuvent être dépassées par lusage qui en est désormais proposé au grand public.
Il y a dès lors deux logiques de pression dévolution des systèmes dinformation. Une logique endogène qui pousse à des travaux de fond pour remettre de la cohérence dans un système construits par strates dhétérogénéité, au fil de leau des changements de paradigmes, afin de limiter les redondances et les différentes contraintes dintégration nuisibles à lagilité. Une logique exogène, où la mutation du monde environnant impose de prendre en compte les demandes demployés, de clients, de partenaires ou de fournisseurs qui attendent de lentreprise ou des organisations des services dinformation matures par rapport aux accès à linformation et à la connaissance dont ils disposent par ailleurs.
Pour clore cette annexe, le schéma ci-dessous illustre, sans prétendre être exhaustif, quelques grandes étapes des évolutions et changements de paradigme des débuts de linformatique en entreprise à aujourdhui.
EtapesEvolution.png
Figure A3-1
Les grandes étapes de lévolution informatique
INDEX \c "2" \z "1036" .Net, 291, 301
5S (les), 221
ABC/ABM (Activity Based Costing/Activity Based management), 94
accessibilité, 71, 88, 311
accompagnement au changement, 64, 110, 222
ACID (transaction), 276
ACM (Association for Computing Machinery), 275, 276, 277
ACMS (Agility Chain Management System), 204
actifs immatériels, 8, 238
adaptation au changement, 250
adhésion (utilisateur), 111
AFAI (Association française de laudit et du conseil informatiques), 89, 131, 134
agilité, 46, 146
Ajax, 289
Alain Berthoz, 142
Alan M. Turing, 262
Albrecht, 230
alignement stratégique des SI, 106
allocentré (point de vue), 144
ALM (Application Lifecycle Management), 115
An 2000 (problème de), 47
analyse dimpact, 157, 172, 231
analyse de la valeur, 34, 53, 80, 147, 148, 150, 162, 183, 219, 224, 240
analyse des écarts, 164, 183, 252
analyse fonctionnelle, 149
analyste daffaires, 100, 111, 137, 215
Anne Thomas Manes, 203
API (Application Programming Interface), 281
applications obsolètes, 85
applications patrimoniales, 52, 60, 67, 112, 157, 186
AQL (Assurance qualité logiciel), 229
architecte urbaniste, 198
architecture dentreprise, 218
architecture N-tiers, 283
architectures client serveur à trois niveaux, 282
architectures orientées services Voir SOA (Service Oriented Architecture)
Arpanet, 285
ASP (Application Service Provider), 15, 301
automatisation des processus métier, 25
autonomisation des métiers, 113
B2B, 37
B2B2C, 37
B2C, 37
BABOK (Business Analyst Body Of Knowledge), 214
batch, 54, 272
BBZ (Budget Base Zero), 224
benchmarking, 81, 117, 235
Berkeley Software Distribution, 289
Bill Gates, 278
BPEL (Business Process Execution Language), 190
BPM (Business Process Management), 25, 204
BPO (Business Process Outsourcing), 243
budget IT, 89, 250
business analyst, 100
Caper Jones, 128
capital immatériel, 9, 238
Carr, Nicholas G., 49
cartographie, 87, 172, 185, 200, 20510, 209
catalogue de services, 77, 80, 107
CCO (Conception à coût objectif), 149
centre de compétences, 228
centre de coûts, 9, 33, 76, 79, 81
centre de services, 81
centre de valeurs, 79, 81
chaîne de production, 218, 240, 294
Christophe Faurie, 110
Christophe Longépé, 198
CIGREF (Club informatique des grandes entreprises françaises), 65, 89, 134, 228
CIL Common Intermediate Language, 291
cinq zéros, 238
client léger, 281
client lourd, 281
cloud computing, 193
CLR (Common Language Runtime), 291
CMMI, 132, 134, 209, 212, 218
coarse-grained (large granularité) Voir service (SOA)
COBIT, 132, 134, 209, 212, 218
Cobol (Common Business Oriented Language), 165, 253, 262
COCOMO (Cost COnstructive MOdel), 230
code slicing, 172
codes morts, 175
compétitivité, 58, 148
compilateur, 263
conduite du changement, 92, 110, 111, 122, 137, 149
contractualisation des services, 101
contrats de services, 107
contrôle des actifs logiciels, 154
conversationnel (système), 273
conversion (de code), 173
Corba (Common Object Request Broker Architecture), 303
COSMIC (COmmon Software Measurement International Consortium), 230
COTS (Commercial On The Shelf), 265
coût total de possession Voir TCO (Total Cost of Ownership)
coûts
délectricité, 192
de maintenance, 88, 116
de stockage, 193
des erreurs, 127
informatique, 84, 89, 93, 134, 240
récurrents, 39, 40
réduction de, 67, 149, 181, 193, 227
tuer les, 149
coûts cachés Voir TCO
couverture de code, 128, 153
creative commons By, 291
CSP (Centre de services partagés), 228
cycle damélioration continue, 220
cycle de vie
de lévolution, 119, 152, 156, 184, 187
de linformation, 207, 270
de la maintenance, 116
de projet, 135
des applications, 47, 115, 127, 128, 212, 225, 280
Cycle en « V », 296
cycle en cascades, 295
Cycle en spirale, 298
cycle incrémental, 296
cycles dadoption, 245, 247, 268
data centers, 192
dégradation
de la qualité, 153
du code, 190
du SI, 258
degré dévolutivité, 60
degré dutilisation, 60
délai de remboursement, 140
demand driven supply chain, 237
demandes de changement, 66, 75, 157
dématérialisation, 243, 245
Deming Voir roue de Deming
Dennis Ritchie, 277
Design To Cost, 149, 224
détection de clones, 177
DFSS (Design For Six Sigma), 134, 220
dictionnaire de données, 56, 172, 188, 212
différenciation, 48, 51, 242, 243
distribution BSD (Berkeley Software Distribution), 277
divide and conquer (méthode), 147
DMAIC (Define Measure Analyze, Improve, Control), 220
DoD (Department Of Defense), 213
données de référence, 45, 56, 208, 212, 257
donneur dordres, 271
durable (le système dinformation), 201
e-administration Voir eservices
EAF (Enterprise Application framework), 212
EAI, 83, 200, 270, 304
e-commerce, 37
économie immatérielle, 9
Edgar F. Codd, 275
EDI (Electronic Data Interchange), 232, 304
egocentré (point de vue), 144
Einstein, 141
EJB (Enterprise Java Beans), 288
Elisabeth Heurgon, 198
encapsulation (application existante), 166
engagement (niveau attendu de), 124
Enron, 196
entrepôts de données, 59
entreprise étendue, 41, 303
environnements de développement intégré, 225
e-procurement, 44, 234
ESB (Enterprise Service Bus), 166, 200, 201, 202, 270
e-services, 44
Eugene Wong, 275
Everett Rogers, 247
évolution des compétences, 64, 136, 251, 255, 257
évolutivité, 60
exigences, 77, 128, 149, 215
expression des besoins, 149
extension de champs, 60, 176
externalisation, 66, 81, 155, 226, 301
facteur humain, 114, 142
fer à cheval (principe du), 173
fiabilité, 71, 88, 311
fil de leau (développement), 30
flux tendu, 41, 221, 237, 239, 240
gap analysis Voir analyse des écarts
Gartner, 54, 91, 131, 132, 226, 236, 245, 246, 282, 302
géolocalisation, 39, 259
gestion de configuration, 228
gestion de portefeuilles projets, 119
gestion des compétences, 255
gestion du portefeuille dapplications, 119, 152
Gordon Moore, 193
gouvernance, 196
de lentreprise, 149, 196
de lévolution des SI, 257
des données, 194, 202
du patrimoine SI, 65, 67
du système dinformation, 93, 141, 143, 159, 197, 216, 258, 260
informatique, 161
GPEC (Gestion prévisionnelle des emplois et des compétences), 65
GPL (GNU General Public License, 290
GQM (Goal Question Metrics), 146, 147, 187
Grace Murray Hopper, 262
granularité Voir service (SOA)
GUI (Graphical User Interface), 279
Henri Poincaré, 143, 248
héritage patrimonial Voir legacies
Howard Gardner, 253
hype cycle (Gartner), 245
IAS-IFRS (normes), 9
IDE (Integrated Development Environment), 292
IFPUG, 230
IGSI (Institut de la gouvernance des SI), 89, 134
IIBA (International Institute of Business Analysis), 100, 215
IMS (Information Management System), 274
industrialisation, 217
maintenance, 227
infocentres, 59
infogérance, 92, 102, 192, 226, 301
Ingres, 275
innovateurs (types), 247
innovation
investissement, 250
par le SI, 14, 141, 242, 243, 247
processus, 242, 248
recherche de, 249
intelligence collective, 72, 137, 141, 307, 313
intergiciel Voir middleware
interpréteur, 263
invariants, 257
IT Balanced Scorecard, 93, 144
ITIL, 130, 131, 132, 134, 209, 212, 218, 220
ITSM (IT Service Management), 134
J2EE (Java2 Enterprise Edition), 287, 288, 301
Jabol, 173, 174
JAT (Just in Time) Voir flux tendu
Java, 165, 287, 288
Jeff Sutherland, 221
John Sawers, 311
Joseph Juran, 151
JVM (Java Virtual Machine), 287
Ken Thompson, 277
Knowledge Management, 248
la création de valeur, 80, 139, 197, 250
LAD (Lecture automatique de documents), 243
LAF (Lecture automatique de formulaires), 243
langage de bas niveau, 263, 273
langage hybride Voir Jabol
Lawrence C. Paulson, 119
Lawrence Delos Miles, 148
lean, 221
lean six sigma, 217, 219
legacies, 16, 160
Lehman et Belady Voir Lois de lévolution des logiciels
LGPL (Lesser General Public License), 290
Linus Torvalds, 290
linux, 268, 290, 291
localisation, 233
logiciels libres Voir open source
loi de Pareto, 151, 183
loi des 80/20 Voir loi de Pareto
loi Sarbanes-Oxley, 196
lois de lévolution logiciel, 118
machine de Turing, 262
mainframe, 53, 55, 166, 181, 278, 280
maintenance
perfective, 152
préventive, 152, 153, 154, 228
maître douvrage Voir donneur dordres
maîtrise duvre, 95
maîtrise douvrage, 95, 99, 137
opérationnelle, 100
maîtrise de lévolution, 167
manifeste agile, 257
marketing de la DSI, 82, 155
Maverick buying, 234
m-commerce, 37
MDA (Model Driven Architecture), 201, 206, 218, 293
MDM (Master Data Management), 56, 204, 208, 212
mécanographie, 95
MERISE, 293
meta-langages, 263
méthode ABC, 151
Michael Stonebraker, 275
middleware, 39, 153, 282, 291
migration
technologique, 170
migration de plate-formes Voir replatforming
migrations
de données, 126
MIPS (Million Instructions Per Second), 107, 273
MITS Altair 8800, 278
mix marketing, 105
MLOC (Million Lines Of Code), 169
MOA (Maîtrise douvrage), 99, 271
MOAS (Maîtrise douvrage stratégique), 99
mobilité, 38
modèle client/serveur, 280
modularisation, 57, 175, 178, 180, 186, 187, 189, 199, 201
module, 178
MOE (Maîtrise duvre), 99, 271
MOFF Voir SWOT
moteur de règles, 57, 166, 179, 190
MSIL Voir CIL
mutualisation, 83, 92, 228, 233, 301
NFC (Near Field Communication), 38, 39, 259
non-régression (tests de), 185, 211, 232
observatoire de limmatériel, 9
obsolescence de langage, 172
obsolescence technologique, 268
ODBC, 283
Odette, 232, 304
offshore, 66
OMA (Object Management Architecture), 201, 303
OMG (Object Management Group), 25, 116, 218, 233, 293, 303
ontologies, 185
Open group, 278
open source, 236, 289, 290
ORB (Object Request Broker), 282, 283, 303
orchestrateur de processus, 57
OSF (Open Software Foundation), 277
paradigme, 268
paradoxe dAchille et de la tortue Voir Zénon dElée
paradoxe de Solow, 34
paramétrage, 58, 112, 190, 202, 204
parsers, 168
parsing de code, 168
patrimoine applicatif, 165
pattern de code, 169
pattern mapping, 180
Paul Allen, 278
Payback period Voir délai de remboursement
PDCA (Plan Do Check Act), 220, 222, 223
perte de compétences, 48, 268
perte de connaissance, 88, 156
pertinence, 71, 88, 99, 311
PFA (Points de fonctions ajustés), 231
PFB (Points de fonction bruts), 231
pilotage
coûts et délais, 121
par les enjeux, 129, 139
plan comptable, 233
PMBOK (Project Management Body Of Knowledge), 135, 215
PMI (Project Management Institute), 130, 135, 215
Points de Fonction, 230
portefeuille applicatif, 154
Praxeme, 214
processus
achats, 234
amélioration continue, 220
de décision, 142, 143, 147
de développement, 167
de la DSI, 130, 132, 209, 212
de maintenance, 219
de normalisation, 234
de reproduction du SI, 259
de test et validation, 117
de transformation (de code), 174
métier, 25, 51, 233
opérationnel, 25
productivité, 33, 34, 58, 164, 221, 230, 237
productivité
plateau de, 247
progiciels, 22, 122, 164, 233, 264, 265
programmation en binôme Voir pair programming
project owner Voir donneur dordre
projet GNU, 289
proposition de valeur (de lentreprise), 139, 149, 196, 242
PU (Processus unifié), 299
QoS (Quality of Service), 239
qualité logicielle, 128, 146
RAD (Reconnaissance automatique de documents), 243
RAD, Rapid Application Development, 298
raisons déchecs (des projets), 115
raréfaction des ressources, 64
rationalisation des données, 55
rationalisation du code, 59
reconceptualisation, 174
redocumentation, 164, 167, 170, 182, 183, 188
redondances, 29, 85
réécriture, 165, 166, 183, 198
refactoring, 175
refacturation (des services), 80, 81, 82, 92, 101, 104, 229
référentiels
administratifs ou techniques, 205
cartographie des, 209
cartographiques, 205
de compétences, 209
de contrôle, 184
de données, 189, 208
de lentreprise, 99
de lecture, 208
de meilleures pratiques, 130, 132, 133, 134, 209, 211, 212, 214, 218
de risques, 209
de tests, 158, 185, 212
des exigences, 227
des processus métier, 208
sémantique, 186
règle de gestion, 57, 170
règles de nommage, 59
règles métier, 44, 57, 166, 183, 259
règles syntaxiques, 168
réingénierie logicielle, 167, 169, 173
rénovation progressive, 65, 66, 160, 163, 187
replatforming, 181
représentation abstraite (du code), 175
réseaux de réflexion et dexpertises, 256
résistances au changement, 124
Retour sur Investissement Voir ROI
rétroconception, 168
rétro-ingénierie, 88, 230
rétro-modélisation, 170
réutilisabilité, 179, 180, 187, 189, 190, 201, 254
réutilisation, 166
reverse engineering, 168
revues de code, 252
RFID (Radio Frequency Identification), 39, 237
RIA (Rich Internet Applications), 288, 307
Richard Stallman, 289
risques dimmobilisme, 62
Robert Socolow, 192
ROI (Return On Investment), 68, 80, 139, 140
roue de Deming, 219, 221
RSI (Retour sur investissement) Voir ROI
RUP (Rational unified Programming), 299
ruptures prévisibles (signes de), 62
Saas (Software As A Service), 301
SADT, 293
Scrum, 221, 300
SEI (Software Engineering Institute), 134, 173, 212
sémantique, 168
objets, 185
SEQUEL, 275
service (SOA), 202
service desk, 107
seuil de criticité, 62
SGBDR (Système de gestion de base de données relationnelle), 275
SI spaghetti, 26
similarité de code (recherche de), 172
simplexité (théorie), 142, 144, 145
Six Sigma, 132, 135, 221
SLA (Service Level Agreement), 53, 102, 229
SOA (Service Oriented Architecture), 13, 44, 83, 166, 175, 2014, 303
SOAP (Simple Object Access Protocol), 284
Software As A Service Voir Saas
software factory, 225, 239
Solow Robert, 33, 34, 216
Somerville, 195
SOX Voir loi Sarbanes-Oxley
SQL (Structure Query Language), 275
Standish group Voir théorie du chaos
Strassmann, Paul, 11, 33
stratégie marketing (du SI), 105, 155
structures de champs, 59
SWOT (Strengths Weaknesses, Opportunities and Threats), 108, 109
Système de Gestion des Bases de Données, 96
systèmes dinformation vivants, 258
Systèmes III et V, 277
systèmes ouverts, 274, 278, 279, 287
systèmes transactionnels, 275
tableau de bord prospectif du SI, 93
TCO (Total Cost of Ownership), 91, 164, 181, 236
TCP/IP, 285
TDD (Test Driven Development), 300
temps derrance, 72
terminaux 3270, 273
théorie du chaos, 113
Thomas Friedman, 36, 49
tierce maintenance applicative, 155, Voir TMA
Tim Berners-Lee, 286
time boxing, 299
TMA (Tierce Maintenance Applicative), 53, 229
Togaf, 213
TRA (Tierce recette applicative), 230
traçabilité, 38, 187, 194, 197, 237
transfert de compétences, 64, 66
turnover, 137
typage de données, 168, 188
type de découpage organisationnel, 78
UML (Unified Modeling Language), 170, 292, 293
UN/EDIFACT, 232
unités duvre, 81, 82, 107, 157, 229, 231, 235
Unix, 276, 277
urbanisation, 196, 198, 199, 201, 271
urbaniste Voir architecte urbaniste
usine logicielle, 225
Val IT, 130, 133, 135
valeur dutilité perçue, 132
valeur métier, 240
valoriser les compétences, 137
valoriser les services, 107
Van Neumann, 262
virtualisation, 193, 195
vue 360°
CRM, 55
du SI, 144, 150, 154
VUPC (Valeur dutilité perçue par le client), 139
W3C, 286
Web 2.0, 42, 259, 306, 307
Web 3.0 Voir web sémantique
Web sémantique, 306, 313
workflow, 25, 44
X/Open, 277
XP (eXtreme Programming), 252, 300
Zachman (framework de), 213
zéro défaut, 132, 220
zéro délai, 239
Les abaques sont des tables de calcul qui donnent rapidement (à la lecture) un résultat de référence selon des valeurs normées suite à la fourniture de paramètres en entrée. Dans les systèmes dinformation, si des modèles dabaques existent localement pour prévoir les délais et les coûts des projets, la fiabilité de ces estimations na rien dindustriel. Dautre part, délais et coûts de production ne signifient rien sans mesure de la valeur du produit fini (par exemple, la valeur dusage des services fournis par une application).
IFRS International Financial Reporting Standard, complément des normes IAS International Accounting Standard, sont des normes comptables internationales élaborées par l'IASB, International Accounting Standards Board
Société de services informatique.
Selon les études publiées par la Fédération des Entreprises de Vente à Distance (Fevad), le chiffre daffaires ecommerce, produits et services, représentait 25 milliard dEuros en 2009, avec une croissance de 25% par rapport à 2008.
Voir en annexe lhistorique des principales étapes de lévolution sur cinquante ans dinformatique dentreprise.
Le défi des méthodes agiles est de produire des logiciels de meilleure qualité, c'est-à-dire qui satisfassent aux besoins sans erreur et sans oubli, dans des délais plus courts. Ce qui peut paraître contradictoire de prime abord. Précurseur des méthodes agiles, le RAD, Rapid Application Development, fait son apparition au début des années 90. Il sinscrit en rupture par rapport aux cycles séquentiels classiques. Depuis, des méthodes comme Scrum et eXtrême Programming (XP) ont fait de nombreux émules (pour en savoir plus voir en annexe « agilité et logiciel », p.300)
Il s'agit d'une technologie permettant à des applications de dialoguer à distance via Internet, et ceci indépendamment des plates-formes et des langages sur lesquelles elles reposent. Pour ce faire, les services Web s'appuient sur un ensemble de protocoles Internet très répandus (XML, http, SOAP, simple Object protocol), afin de communiquer. Cette communication est basée sur le principe de demandes et réponses, effectuées avec des messages XML. Les services web sont décrits par des documents WSDL (Web Service Description Language), qui précisent les méthodes pouvant être invoquées, leurs signatures et les points d'accès du service. Des annuaires UDDI (Universal Discovery Description and Integration) permettent de trouver facilement et de réutiliser les services aux fonctionnalités pertinentes pour construire des applications par assemblage de services. Les architectures SOA (orientée services) ont approfondi cette notion de services pour létendre à toutes les applications de lentreprise dans un cadre architectural commun, souvent structuré autour dun bus de services (ESB ou Enterprise Service Bus) pour linfrastructure déchanges.
Saas, acronyme de Software As A Service, désigne des logiciels déployés comme un service hébergé accessible via Internet, le plus souvent sur abonnement. Il existe différents modèles de saas, suivant larchitecture ou la tarification, voir p.304.
Le principe du cloud computing fait référence à lutilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par Internet (cest lancien principe de grid computing, ou grille informatique). Voir p.195.
Le Truffle100 est publié par la société de Private Equity Truffle Capital et le cabinet d'études CXP. Ce classement des 100 premiers éditeurs français fait figure d'indicateur de référence pour le secteur du logiciel en France. Il est reconnu comme tel par le Syntec Informatique. Le palmares 2010 est accessible en ligne : http://www.truffle100.fr/2010/palmares.php
Customer Relationship Management ou gestion de la relation client
Pour une liste plus complète des solutions opensource, la société de services Optaros publie un répertoire consultable en ligne : www.eosdirectory.com
Selon les définitions de lINSEE, une entreprise de taille intermédiaire est une entreprise qui a entre 250 et 4999 salariés, et soit un chiffre d'affaires n'excédant pas 1,5 milliards d'euros soit un total de bilan n'excédant pas 2 milliards d'euros. Une entreprise qui a moins de 250 salariés, mais plus de 50 millions d'euros de chiffre d'affaires et plus de 43 millions d'euros de total de bilan est aussi considérée comme une ETI. Les ETI constituent une catégorie d'entreprises intermédiaire entre les PME et les grandes entreprises. La catégorie des petites et moyennes entreprises (PME) est constituée des entreprises qui occupent moins de 250 personnes, et qui ont un chiffre d'affaires annuel inférieur à 50 millions d'euros ou un total de bilan n'excédant pas 43 millions d'euros. Une grande entreprise est une entreprise qui a au moins 5000 salariés. Une entreprise qui a moins de 5000 salariés mais plus de 1,5 milliards d'euros de chiffre d'affaires et plus de 2 milliards d'euros de total de bilan est aussi considérée comme une grande entreprise.
Apparus à la fin des années 50, les mainframes sont des ordinateurs de grande puissance de traitement fonctionnant en systèmes centralisés avec un système dexploitation propriétaire. Les programmes ne sont pas « portables », cest-à-dire quils ne peuvent pas sexécuter sur nimporte quelle plate-forme car ils ont de fortes adhérences aux machines (chaque ordinateur est différent de par la structure matérielle, lOS, etc.). Pour en savoir plus, voir en annexe, la « période centralisée ».
Paul Strassmann : célèbre gourou américain successivement responsable de systèmes dinformation dentreprises telles que General Foods, Kraft et Xerox avant dêtre responsable du traitement de linformation du Department of Defense (DoD).
Un paradigme est un modèle de représentation du monde, un schéma de pensée qui oriente la réflexion et la recherche scientifiques sur la base de croyances fondamentales (des principes de base sont posés comme permanents mais de manière empirique). Cest un terme souvent employé en informatique pour marquer des périodes technologiques axées sur des principes forts, ou des modèles dapproche de la conception, du développement, des projets, qui structurent pendant un temps lévolution des systèmes dinformation
Les offres dhébergement de machines virtuelles sont nombreuses, pour proposer des serveurs à la puissance flexible en infrastructure cloud. Amazon a fait figure de précurseur avec son offre EC2 mais on trouve également dautres spécialistes plus petits sur ce terrain, dont Gandi, une société créée en 1999, à lorigine française, qui propose ce type de services dhébergement en plus de lenregistrement de nom de domaine (http://www.gandi.net/).
Acronyme de Common Business oriented Language, voir historique p.263.
Gartner Inc., fondée en 1979, est un célèbre cabinet danalystes américain, réalisant des études dans le domaine des technologies de linformation. Si son siège est à Stanford, le Gartner est implanté sur 80 sites dans le monde. Il est particulièrement cité par les éditeurs pour ses Magic Quadrant, systèmes de classement et de positionnement de solutions sur des marchés et technologies. Il est également connu pour ses analyses des innovations technologiques.
Cigref : Club informatique des grandes entreprises françaises
« Régalien » se dit dun droit attaché à la royauté ou qui manifeste une survivance danciennes prérogatives royales. Ici, le terme est pris dans le sens de prérogative propre à la direction des SI.
http://www.sapientis.fr/conseil/?page_id=1507
Centres dinfogérance où sont hébergés des serveurs et la partie infrastructure à des fins de mutualisation (sauvegarde, ressources
).
http://parisfr.theiiba.org/
«Mercator Théorie et pratiques du marketing », éditions Dunod, auteurs Denis Lindon, Jacques Lendrevie, Julien Lévy
Le « mix marketing XE "mix marketing" »
Également connu sous le nom des « 4 P » : Produit, Prix, Place (distribution) et Promotion (communication).
Marketing Management 11e édition auteurs : Philip Kotler , Bernard Dubois , Delphine Manceau. Editeur : Pearson Education
http://christophe-faurie.blogspot.com/
Christophe Faurie, Conduire le changement - Transformer les organisations sans bouleverser les hommes, LHarmatthan, 2008
Chris Sauer (de luniversité dOxford Egrove , USA), Andrew Gemino et Blaize Homer Reich (tous deux de luniversité Simon Fraser à Vancouver, Canada), ont revu à la baisse les chiffres du Standish Group suite à une étude publiée en novembre 2007 dans les communications de lACM sous le titre « the impact of size and volatility on IT project performance ». Pour eux, seulement 1/3 des projets sont des échecs. A noter que leur méthodologie diffère entre autres de celle du Standish group de par les personnes interrogées et la classification des projets.
IT Projects : Experience Certainty, Août 2007 : http://www.tcs.com/thought_leadership/Documents/independant_markets_research_report.pdf
un hot fix est une mise à jour urgente pour corriger rapidement un problème identifié et spécifique dun logiciel
Sources : L.R.Weiner83, Buss
Lois de lévolution logiciel XE "lois de lévolution logiciel" : r a. M. M. Lehamn and L. A. Belady, "Program Evolution: process of Software Change", London academic Press (première publication 1984).
SABRE : système de réservation de places d'une compagnie aérienne. Il a été notamment racheté par la SNCF pour réaliser le projet Socrate. Le fait quil ny ait pas eu de réadaptation totale au cahier des charges du transport ferroviaire à fait du projet Socrate un cas décole déchec patent et coûteux.
sources : Steve Flowers dans le journal The Guardian du 28 avril 1994 et Effy Oz in CACM 10/1994
Source : ITR manager, http://www.itrmanager.com/tribune/107225/chorus-off-line-borderline-guy-hervier.html
Programming Productivity, Capers Jones, Mcgraw-Hill, 1986. ISBN 978-0070328112,Estimating Software Costs 2nd Edition, Capers Jones, McGraw-Hill, 2007. ISBN 978-0071483001, Software Assessments, Benchmarks and Best Practices, Capers Jones, Addison-Wesley Professional, 2000. ISBN 978-0201485424,
http://cigref.typepad.fr/cigref_publications/RapportsContainer/Parus2006/2006_-_Benchmarking_des_couts_informatiques_-_Modele_et_Guide_de_mise_en_oeuvre_IGSI_Pilotage_des_couts.pdf
Rotation des employés dans lentreprise
www.itgi.org
Il s'agit d'une technologie permettant à des applications sur lesquelles elles reposent. Pour ce faire, les services Web s'appuient sur un ensemble de protocoles Internet très répandus (XML, http, SOAP, simple Object protocol), afin de communiquer. Cette communication est basée sur le principe de demandes et réponses, effectuées avec des messages XML. de dialoguer à distance via Internet, et ceci indépendamment des plates-formes et des langages
Elliot J. Chikofsky est un expert (reconnu internationalement) des technologies de réingénierie logicielle. Il enseigne dans différentes universités américaines et exerce en tant que consultant. Chikofsky est membre du comité de direction du conseil technique de lIEEE sur lingénierie logicielle (IEEE Technical Council on Software Engineering (TCSE)). Il préside le REF (Reengineering Forum industry association) et a également à son actif de nombreuses publications et lorganisation de conférences internationales. Pour en savoir plus : http://pathbridge.net/chikofsky/
Notions liées à la généricité, lhéritage et la spécialisation que permettent lapproche orientée objet. Le polymorphisme est une forme de surcharge. La même méthode peut effectuer des traitements différents selon la classe qui limplémente. Les objets de différentes classes reçoivent le même message mais y réagissent différemment. Ce type de notions nexistant pas dans les langages antérieurs à cette approche, il ny a pas de traduction entièrement automatique possible.
Par définition, les codes similaires sont des segments de code que lon retrouve à plusieurs endroits dun système ou dans des fichiers différents, ou encore dans le même fichier mais dans des fonctions différentes, voire dans la même fonction
En mathématiques, un tuple est une séquence de valeurs (aussi connue en tant que liste ordonnée) appelées composants du tuple. Un tuple est un n-uplet (paire, triplet, quadruplet
). En programmation, un tuple est une donnée objet contenant dautres objets en éléments, éventuellement de types différents. En SQL, un tuple est une ligne de table (ex : nom, prénom, âge
).
Borst, W., 1997, Construction of Engineering Ontologies for Knowledge Sharing and Reuse: Ph.D. Dissertation, University of Twente.
Rudi Studer est un expert allemand des sciences de linformatique et professeur à luniversité de Karlsruhe. Il est à la tête du groupe de recherche sur le knowledge management de linstitut AIFB. Pour en savoir plus : http://semanticweb.org/wiki/Rudi_Studer
Consultant « green storage » auteur dune thèse en 2009 : « Green Storage : enjeux et facteurs-clés de succès. Optimisation et rationalisation de linfrastructure de stockage pour un développement plus durable » (lien direct de téléchargement : HYPERLINK "http://www.cri.ensmp.fr/classement/doc/these_FRL_04.pdf" http://www.cri.ensmp.fr/classement/doc/these_FRL_04.pdf).
Cest fin 1995 que sest créé le Groupe des 9+ (ou G9+) afin de rassembler les clubs, commissions et groupes « informatique, télécoms, multimédia » constitués par les anciens élèves de neuf grandes écoles françaises. Transformé en association déclarée en 2007 avec la dénomination Institut G9+, il réunit aujourdhui une vingtaine décoles
In « software engineering, 6e édition » (livre actuellement en 9e édition). Universitaire, auteur et consultant, Ian Somerville a effectué de nombreuses publications dans le champ de lingénierie logicielle. Pour en savoir plus : http://www.software-engin.com/
Hausi A. Muller, Dept. of Computer Science, université de Victoria, Canada. Lire « Reverse Engineering : a roadmap » : http://www.cs.ucl.ac.uk/staff/A.Finkelstein/fose/finalmuller.pdf
Le Club URBA-EA, « Urbanisme des SI - Enterprise Architecture » , association inter-entreprises régie par la Loi du 1er juillet 1901, a pour vocation de favoriser ces partages d'expériences, ces échanges entre praticiens de l'Urbanisme des SI et de lArchitecture dEntreprise ainsi que de promouvoir la reconnaissance et lorganisation de ces fonctions. Pour en savoir plus : http://www.urba-ea.org/
Il sagit de mettre lensemble dune application dans un seul service, en utilisant les transactions existantes (par exemple une transaction CICS présente les caractéristiques pour être encapsulée sous forme de service). Cette solution technique est toutefois limitée car elle ne prend pas en compte les concepts de découpage en services réutilisables des architectures SOA. Tout au plus résout-elle la communication des « legacy » en environnement distribué avec les applications client/serveur et Web, pour pouvoir sinsérer dans un processus global, en communiquant avec un ESB (Enterprise Service Bus).
Anne Thomas Manes est le vice-président et le directeur des recherches des stratégies sur les plateformes applicatives au Burton Group (cabinet danalystes et de conseil). Elle a pour champ détudes les architectures SOA, les services web, XML, la gouvernance, Java, les serveurs dapplications, les super plateformes et la sécurité applicative. Avant de rejoindre le Burton group, Anne Thomas Manes a été responsable technique de Systinet (un éditeur de solution de gouvernance SOA racheté par HP) et directeur de linnovation marché pour la partie logicielle de Sun Microsystem. Son post en 2009 « SOA is dead, long live services » (http://apsblog.burtongroup.com/2009/01/soa-is-dead-long-live-services.html) sur son blog a généré beaucoup de débats.
http://www.sustainableitarchitecture.com
Le principe de base du MDA est l'élaboration de différents modèles, en partant d'un modèle métier indépendant de l'informatisation (Computation Independent Model, CIM), la transformation de celui-ci en modèle indépendant de la plate-forme (Platform Independent Model, PIM) et enfin la transformation de ce dernier en modèle spécifique à la plate-forme cible (Platform Specific Model, PSM) pour l'implémentation concrète du système. Les techniques employées sont donc principalement des techniques de modélisation et des techniques de transformation de modèles.
Introduction à la mécanique quantique, J. Hladik, M. Chrysos , Dunod.
On trouvera dans Le Petit Larousse la définition suivante : « Lindustrialisation, cest laction dindustrialiser, le fait de sindustrialiser ». « Industrialiser, cest donner un caractère industriel à une activité, caractère qui se traduit par la mécanisation et la production en masse ».
La roue de Deming est une illustration de la méthode de gestion de la qualité dite PDCA (Plan-Do-Check-Act). Elle est un moyen mnémotechnique permettant de repérer avec simplicité les étapes à suivre pour améliorer la qualité dans une organisation. Son nom vient du statisticien William Edwards Deming. (Wikipédia)
Une des méthodes agiles les plus utilisées. Elle est évoquée au paragraphe « agilité et logiciel », p.305
http://blogs.msdn.com/b/jackgr/
PeopleSoft est un éditeur de progiciels de gestion intégrés et de gestion de la relation client destinés aux entreprises, qui a été racheté par Oracle.
Maverick buying : comportements dachats anarchiques effectués en dehors dun contrat cadre et au coup par coup avec des fournisseurs différents.
Technologie utilisée pour stocker et récupérer des données à distance sur un objet (localisation, caractéristiques, etc.) en utilisant des balises métalliques, les « Tag RFID ». Ces balises ou étiquette radiofréquence, peuvent être collées ou incorporées dans des produits. Elles émettent des ondes radio, lue par un lecteur qui capte et transmet linformation. La RFID a de nombreuses applications notamment dans loptimisation de la chaîne logistique, ou le suivi des bagages, grâce à la traçabilité que cette technologie peut procurer. Elle permet également didentifier des personnes en étant intégrée dans les passeports, carte de transport, carte de paiement, etc.
Le juste à temps est une méthode dorganisation et de gestion de la production, propre au secteur de lindustrie, qui consiste à minimiser les stocks et les en-cours de fabrication. La méthode est issue du toyotisme et consiste à réduire au minimum le temps de passage des composants et des produits à travers les différentes étapes de leur élaboration, de la matière première à la livraison des produits finis.
RAD (Reconnaissance automatique de documents) XE "RAD (Reconnaissance automatique de documents)" , LAD (Lecture automatique de documents) XE "LAD (Lecture automatique de documents)" et LAF (Lecture automatique de formulaires) XE "LAF (Lecture automatique de formulaires)" .
Laxiome est une hypothèse, non démontrable, posée au préalable, admise comme étant vraie, le plus souvent issue dune intuition que nous avons a priori. La définition vient a posteriori, en cela quon doit la démontrer comme non contradictoire avec les axiomes.
La programmation en binôme ou pair programming est une bonne pratique issue des méthodes agiles et de lextrême programming (XP XE "XP (eXtreme Programming)" (voir agilité et logiciel, p.256))
Howard Earl Gardner est le père de la HYPERLINK "http://fr.wikipedia.org/wiki/Th%C3%A9orie_des_intelligences_multiples" \o "Théorie des intelligences multiples" théorie des intelligences multiples quil expose en 1983 dans Frames of Mind : the Theory of Multiple Intelligence. Il suggère quil existe des formes différentes dintelligence, indépendantes les unes des autres, dans la mesure où, lorsque certaines sont détruites, les autres ne sont pas affectées. Il en dénombre sept : lintelligence logico-mathématique, lintelligence spatiale, lintelligence interpersonnelle, lintelligence kinesthésique, lintelligence linguistique, lintelligence intrapersonnelle et lintelligence musicale. Gardner utilise le terme intelligence pour frapper limagination, pour autant il estime que cest un terme complexe et ne le définit pas au sens large. Des sept formes dintelligences décrites dans ses premiers travaux, il est passé à huit, avec lintelligence naturaliste. Depuis quelques années, Gardner et son équipe étudie la possibilité dune autre intelligence : lintelligence existentielle.
Dans lapproche agile, à en croire le « manifeste agile XE "manifeste agile" » (www.agilemanifesto.org), les personnes et interactions priment sur les processus
Pour avoir un aperçu de létendue des langages, quelques listes de référence sont disponibles sur le Web, dont celle de Bill Kinnersley, (http://people.ku.edu/~nkinners/LangList/Extras/langlist.htm) ou celle dEric Lévénez (http://www.levenez.com/lang/).
http://hopl.murdoch.edu.au/taxonomy.html
http://www.tiobe.com/index.php/content/paperinfo/tpci/index.html
www.developpez.com
Pour exemples, MRP : Manufacturing Resource Planning, ERP : Enterprise Resource Planning, PDM: Product Data management, PLM : Product Lifecycle Management, SCM : Supply-Chain Management, CRM : Customer Relationship Management, etc.
IMS dIBM, TPS sur GE-600
CICS dIBM, OLBS sur GE-400, TDS-6 puis DMIV/TP, TDS7 et TP8 dans le monde BULL, STRATEGE chez CII
Modèle de référence appelé modèle OSI (Open Systems Interconnection). Ce modèle décrit les concepts utilisés et la démarche suivie pour normaliser l'interconnexion de systèmes ouverts (un réseau est composé de systèmes ouverts lorsque la modification, l'adjonction ou la suppression d'un de ces systèmes ne modifie pas le comportement global du réseau). Ce modèle est en sept couches, dont la septième traite des protocoles déchange au niveau applications.
Référence Article ACM
D. M. Richie, K. Thompson, The UNIX Time-Sharing System, CACM, vol. 17, p. 365-375, July 1974.
Pour plus de détails, lire Richard M. Stallman, Sam Williams, Christophe Masutti, Richard Stallman et la révolution du logiciel libre - Une biographie autorisée, Eyrolles, 2010
Pour en savoir plus sur les licences, voir la liste sur ce site : http://www.gnu.org/licenses/license-list.fr.html
Ruby est un langage open-source dynamique et interprété qui met l'accent sur la simplicité et la productivité. Sa syntaxe serait inspirée deiffel et dada.
Note : Le Modèle-Vue-Contrôleur (en abrégé MVC, de l'anglais Model-View-Controller) est une architecture et une méthode de conception qui organise l'interface homme-machine (IHM) d'une application logicielle. Ce paradigme divise l'IHM en un modèle (modèle de données), une vue (présentation, interface utilisateur) et un contrôleur (logique de contrôle, gestion des événements, synchronisation), chacun ayant un rôle précis dans l'interface.
La description de ce métamodèle est standardisée (OMG-MOF)
James martin a développé la méthode RAD à la fin des HYPERLINK "http://fr.wikipedia.org/wiki/Ann%C3%A9es_1980" \o "Années 1980" années 1980, à HYPERLINK "http://fr.wikipedia.org/wiki/IBM" \o "IBM" IBM, en se basant sur les publications de Barry Boehm (modèle en spirale), Tom Gilb (cycle de vie évolutif), Scott Shultz (production en itérations rapides) ainsi que Brian Gallagher et Alex Balchin. Il l'a formalisée en la publiant en 1991. Rapid Application Development, James Martin, Macmillan Coll. Div., 1991 ( HYPERLINK "http://fr.wikipedia.org/wiki/Sp%C3%A9cial:Ouvrages_de_r%C3%A9f%C3%A9rence/0023767758" ISBN 0-02-376775-8)
La méthode agile Extreme Programming a été inventée par HYPERLINK "http://fr.wikipedia.org/wiki/Kent_Beck" \o "Kent Beck" Kent Beck, HYPERLINK "http://fr.wikipedia.org/wiki/Ward_Cunningham" \o "Ward Cunningham" Ward Cunningham et Ron Jeffries, pour des équipes réduites avec des besoins changeants. La méthode est née officiellement en octobre HYPERLINK "http://fr.wikipedia.org/wiki/1999" \o "1999" 1999 avec le livre Extreme Programming Explained de HYPERLINK "http://fr.wikipedia.org/wiki/Kent_Beck" \o "Kent Beck" Kent Beck. Pour en savoir plus, Kent Beck, eXtreme Programming - La référence, 2002 ( HYPERLINK "http://fr.wikipedia.org/wiki/Sp%C3%A9cial:Ouvrages_de_r%C3%A9f%C3%A9rence/2744014338" ISBN 2-7440-1433-8)
Le terme Scrum est emprunté au rugby à XV et signifie mêlée. Ce processus s'articule en effet autour d'une équipe soudée, qui cherche à atteindre un but, comme c'est le cas en rugby pour avancer avec le ballon pendant une mêlée. Le principe de base de Scrum est de focaliser l'équipe de façon itérative sur un ensemble de fonctionnalités à réaliser, dans des itérations de durée fixe de une à quatre semaines, appelées sprints. Un sprint aboutit toujours sur la livraison d'un produit partiel fonctionnel. Le ScrumMaster a la charge de réduire au maximum les perturbations extérieures et de résoudre les problèmes non techniques de l'équipe.
http://www.frenchsug.org/pages/viewpage.action?pageId=591296
Wire est une abréviation pour Business Wire (http://www.businesswire.com), un distributeur de communiqués de presse international.
Coopétition : un mélange des deux mots
"#$%ABCDLMNhijklmnop·üôüôáÓÊÓ´áÓ©©}áláÓÊÓVáÓ©©*júhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#j}h.-^UmHnHujh.-^UmHnHuh.-^mHnHu*jhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHujhUh
n½M ¼ J
Æ
OÜmË%
q
Ù
' xîSÜgµ&¦õïïïïïïïïïïïïïïïïïïéééïïïéé_
Æ.!
^
Æ.!
]
Æ1@&gdäpX·¸¹º»¼½¾¿ÛÜÝÞ+ , - G H I J K L M N O k l m n íÞÓÞÀ¯À¡¡À¡wÞweÞÓÞÀ¯À¡¡OÀ¡w*jîhÈh.-^0JaUmHnHu#jqh.-^UmHnHuh.-^mHnHu*jôhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHu#jwh.-^UmHnHu µ ¶ · ¹ º » ¼ ½ ¾ Ú Û Ü Ý '
(
)
C
D
E
G
H
I
J
K
L
h
i
j
k
ðåÓðÈ𵤵wµåðåeðÈ𵤵Oµ*jâhÈh.-^0JaUmHnHu#jeh.-^UmHnHu*jèhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHu#jkh.-^UmHnHuh.-^mHnHujh.-^UmHnHuk
£
¤
¥
¿
À
Á
Ã
Ä
Å
Æ
Ç
È
ä
å
æ
ç
,-.HIJLMNOPQmnñæ×æÅ׺ק§ññw§ñæ×æe׺ק§ññ#jYh.-^UmHnHu*jÜhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHu#j_h.-^UmHnHujh.-^UmHnHuh.-^mHnHuhÈh.-^0JamHnHunop¹º»ÕÖ×ÙÚÛÜÝÞúûüýJKLfghjklmnoê×ɾ¯¾¯¯××ÉxÉb×ɾ¯¾P¯¯××Éx#jMh.-^UmHnHu*jÐhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jSh.-^UmHnHujh.-^UmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu*jÖhÈh.-^0JaUmHnHu¨©ªÄÅÆÈÉÊËÌÍéêëì
"
#
$
%
&
ñÛÈñ½®½®®ÈÈñwñaÈñ½®½O®®ÈÈ#jA
h.-^UmHnHu*jÄ hÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jG h.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*jÊhÈh.-^0JaUmHnHuhÈh.-^0JamHnHu&
'
C
D
E
F
N
O
P
j
k
l
n
o
p
q
r
s
¶
·
¸
Ò
Ó
Ô
Ö
×
Ø
ñèñÒ¿ñ´¥´¥¥¿w¿ñèña¿ñ´¥´O¥¥¿#j5h.-^UmHnHu*j¸hÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#j;h.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*j¾
hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHuØ
Ù
Ú
Û
÷
ø
ù
ú
!"$%&'()EFGHopqîÛÍÄÍ®ÛÍ££wÛîÛÍÄÍaÛÍ££Ow#j)h.-^UmHnHu*j¬
hÈh.-^0JaUmHnHuhO/UmHnHu#j/
h.-^UmHnHujh.-^UmHnHuh.-^mHnHu*j²hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHu°±²³æçè
'()*UVWqrðÝÌݾµ¾Ý¾ððwðÝÌݾµ¾aݾðO#jh.-^UmHnHu*j hÈh.-^0JaUmHnHuhO/UmHnHu#j#h.-^UmHnHuh.-^mHnHu*j¦hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHujh.-^UmHnHursuvwxyzËÌÍçèéëìíîïð
012LðåðÒÁÒ³ª³Ò³ðwðåðÒÁÒ³ª³aÒ³ð*jhÈh.-^0JaUmHnHu#jh.-^UmHnHuh.-^mHnHu*jhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHuLMNPQRSTUqrst¹º»ÕÖ×ÙÚÛÜÝÞúûüýDEíÞÓÞÀ¯À¡¡À¡wÞweÞÓÞÀ¯À¡¡OÀ¡w*jhÈh.-^0JaUmHnHu#jh.-^UmHnHuh.-^mHnHu*jhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHu#jh.-^UmHnHuEF`abdefghi
®¯°²³´µ¶·ÓÔÕÖðåÓðÈ𵤵wµåðåeðÈ𵤵Oµ*j|hÈh.-^0JaUmHnHu#jÿh.-^UmHnHu*jhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHu#jh.-^UmHnHuh.-^mHnHujh.-^UmHnHuÖ !#$%&'(DEFG
¡£¤¥¦§¨ÄÅñæ×æÅ׺ק§ññw§ñæ×æe׺ק§ññ#jóh.-^UmHnHu*jvhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHu#jùh.-^UmHnHujh.-^UmHnHuh.-^mHnHuhÈh.-^0JamHnHuÅÆÇüýþ !=>?@rst³ê×ɾ¯¾¯¯××ÉxÉb×ɾ¯¾P¯¯××Éx#jçh.-^UmHnHu*jjhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jíh.-^UmHnHujh.-^UmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu*jphÈh.-^0JaUmHnHu³´µ¶"#$&'()*+GHIJTUVpqrtuvwxñÛÈñ½®½®®ÈÈñwñaÈñ½®½O®®ÈÈ#jÛh.-^UmHnHu*j^hÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jáh.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*jdhÈh.-^0JaUmHnHuhÈh.-^0JamHnHu)wÜSßbÓ_ÜR¹;¼#¤+×.|óNêUùùùùóóùóóóùóóùóóùùùùùùóùóóó_
Æ.!
^
Æ.!
xy¹º»ÕÖ×ÙÚÛÜÝÞúûüý012LMNPQRñèñÒ¿ñ´¥´¥¥¿w¿ñèña¿ñ´¥´O¥¥¿#jÏh.-^UmHnHu*jRhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jÕh.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*jXhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHuRSTUqrst¼½¾ØÙÚÜÝÞßàáýþÿ?@A[\]_îÛÍÄÍ®ÛÍ££wÛîÛÍÄÍaÛÍ££Ow#jÃh.-^UmHnHu*jFhÈh.-^0JaUmHnHuhO/UmHnHu#jÉh.-^UmHnHujh.-^UmHnHuh.-^mHnHu*jLhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHu_`abcd°±²ÌÍÎÐÑÒÓÔÕñòóôXYðÝÌݾµ¾Ý¾ððwðÝÌݾµ¾aݾðO#j· h.-^UmHnHu*j: hÈh.-^0JaUmHnHuhO/UmHnHu#j½h.-^UmHnHuh.-^mHnHu*j@hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHujh.-^UmHnHuYZ\]^_`a}~¹º»ÕÖ×ÙÚÛÜÝÞúûüý/01KðåðÒÁÒ³ª³Ò³ðwðåðÒÁÒ³ª³aÒ³ð*j."hÈh.-^0JaUmHnHu#j±!h.-^UmHnHuh.-^mHnHu*j4!hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHuKLMOPQRSTpqrs²³´¶·¸¹º»×ØÙÚíÞÓÞÀ¯À¡¡À¡wÞweÞÓÞÀ¯À¡¡OÀ¡w*j"$hÈh.-^0JaUmHnHu#j¥#h.-^UmHnHuh.-^mHnHu*j(#hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHu#j«"h.-^UmHnHu45689:;IhÈh.-^0JaUmHnHuä(å(æ(ç()))) )!)$)%)&)')()))E)F)G)H)b)c)d)~)))))
)))ñÛÈñ½®½®®ÈÈñwñaÈñ½®½O®®ÈÈ#j©Lh.-^UmHnHu*j,LhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#j¯Kh.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*j2KhÈh.-^0JaUmHnHuhÈh.-^0JamHnHu))¤)¥)¦)§)À)Á)Â)Ü)Ý)Þ)á)â)ã)ä)å)æ)****.*/*0*J*K*L*O*P*Q*ñèñÒ¿ñ´¥´¥¥¿w¿ñèña¿ñ´¥´O¥¥¿#jNh.-^UmHnHu*j NhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#j£Mh.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*j&MhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHuä)R*ê*E+¯+,x,Å,3--å-F.¡.ð.R/Û/>0¥01u1à1:22ö2X3º3&4¦4ùóóóùùóóóóóóóóóùùùííííííóùù`
Æ.!
^
Æ.!
_
Æ.!
Q*R*S*T*p*q*r*s*Æ*Ç*È*â*ã*ä*ç*è*é*ê*ë*ì*+ +
++!+"+#+=+>+?+B+îÛÍÄÍ®ÛÍ££wÛîÛÍÄÍaÛÍ££Ow#jPh.-^UmHnHu*jPhÈh.-^0JaUmHnHuhO/UmHnHu#jOh.-^UmHnHujh.-^UmHnHuh.-^mHnHu*jOhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHuB+C+D+E+F+G+c+d+e+f++++§+¨+©+¬++®+¯+°+±+Í+Î+Ï+Ð+í+î+ï+ ,
,ðÝÌݾµ¾Ý¾ððwðÝÌݾµ¾aݾðO#j
Rh.-^UmHnHu*jRhÈh.-^0JaUmHnHuhO/UmHnHu#jQh.-^UmHnHuh.-^mHnHu*jQhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHujh.-^UmHnHu
,,,,,,,,/,0,1,2,T,U,V,p,q,r,u,v,w,x,y,z,,,,,¡,¢,£,½,ðåðÒÁÒ³ª³Ò³ðwðåðÒÁÒ³ª³aÒ³ð*jüShÈh.-^0JaUmHnHu#jSh.-^UmHnHuh.-^mHnHu*jShÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHu½,¾,¿,Â,Ã,Ä,Å,Æ,Ç,ã,ä,å,æ,---+-,---0-1-2-3-4-5-Q-R-S-T-^-_-íÞÓÞÀ¯À¡¡À¡wÞweÞÓÞÀ¯À¡¡OÀ¡w*jðUhÈh.-^0JaUmHnHu#jsUh.-^UmHnHuh.-^mHnHu*jöThÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHujh.-^UmHnHu#jyTh.-^UmHnHu_-`-z-{-|------- -¡-¢-£-¤-Á-Â-Ã-Ý-Þ-ß-â-ã-ä-å-æ-ç-..ðåÓðÈ𵤵wµgåðåUðÈ𵤵#jgWh.-^UmHnHuhÈh.-^0Ja^JmHnHu*jêVhÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHuhO/UmHnHu#jmVh.-^UmHnHuh.-^mHnHujh.-^UmHnHu...".#.$.>.?.@.C.D.E.F.G.H.d.e.f.g.}.~....... .¡.¢.£.¿.ê×ɾ¯¾¯¯××ÉxÉb×ɾ¯¾P¯¯××Éx#j[Yh.-^UmHnHu*jÞXhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jaXh.-^UmHnHujh.-^UmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu*jäWhÈh.-^0JaUmHnHu¿.À.Á.Â.Ì.Í.Î.è.é.ê.í.î.ï.ð.ñ.ò.////.///0/J/K/L/O/P/Q/R/S/ñÛÈñ½®½®®ÈÈñwñaÈñ½®½O®®ÈÈ#jO[h.-^UmHnHu*jÒZhÈh.-^0JaUmHnHuh.-^mHnHu!h.-^CJOJQJaJmHnHuhO/UmHnHu#jUZh.-^UmHnHujh.-^UmHnHuh.-^mHnHu$jhÈh.-^0JaUmHnHu*jØYhÈh.-^0JaUmHnHuhÈh.-^0JamHnHuS/T/p/q/r/s/·/¸/¹/Ó/Ô/Õ/Ø/Ù/Ú/Û/Ü/Ý/ù/ú/û/ü/000607080;00?0@0\0]0^0_0000000¢0£0¤0¥0¦0§0Ã0Ä0Å0Æ0û0ü0ý01111îÛÍÄÍ®ÛÍ££wÛîÛÍÄÍaÛÍ££Ow#j7_h.-^UmHnHu*jº^hÈh.-^0JaUmHnHuhO/UmHnHu#j=^h.-^UmHnHujh.-^UmHnHuh.-^mHnHu*jÀ]hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu$jhÈh.-^0JaUmHnHu!h.-^CJOJQJaJmHnHu1111 1!1=1>1?1@1Q1R1S1m1n1o1r1s1t1u1v1w11111¼1½1¾1Ø1Ù1ðÝÌݾµ¾Ý¾ððwðÝÌݾµ¾aݾðO#j+ah.-^UmHnHu*j®`hÈh.-^0JaUmHnHuhO/UmHnHu#j1`h.-^UmHnHuh.-^mHnHu*j´_hÈh.-^0JaUmHnHuh.-^mHnHuhÈh.-^0JamHnHu!h.-^CJOJQJaJmHnHu$jhÈh.-^0JaUmHnHujh.-^UmHnHuÙ1Ú1Ý1Þ1ß1à1á1â1þ1ÿ122222223242728292:2;2zyz¬z¯zºz7{8{´{Ê{î{ï{ð{ò{||;}@}G}H}g}h}~~\~]~©~ª~),-6 02de¾ÏÐèø&(TV[\d|}~üøôøüøðìðìðìðèìäìðìðèìèðèìäÝÖÝìøüøôøüøüøüøüøüøôøôüôøüøôøüøÏüÏËÇÃÇÏøüø¿øüø¿hX\\híDrh® Ýh®5hTRNhh®5h®5h®5h_#h*¿h«JJh_#h)$)hTRNhh6ðJò{-~x~XVdÝÂIø
,! Ì5nÛ$nìºÞúõúúðëææõúúúúúúõúúúúúõúúúú+gdXgd4gdgd1V
gdÃÄÛÜÞßý %INXYgqrµÎÏÓÔæçõö%&ACjkls¾ÀÂñò"I^_noèéw
x
]`§¨qsÎüøôåÞåôÚôøôüôÚôÓüôÓôÏôüôÚôüôËôËôÚôÚôÚôÚËÚôËôÚôÇÀǼÇôËôËô¸ôËôËôËô¸ôËô¸ô¸ôhâNh²ghf
RhÇbghÇbgh6ðh¹hï$ohï$ohï$oh5jh5UmH sH hhX\\hÊ3UHÎÏGJRUst®,-gh¯°úû!+@HJV`aop|}¬®BE
ÌÍãäRSY¡£Ë./åhçVCJnHtHh¾$_CJnHtHhÙCJnHtHhFÃCJnHtHhNoBCJnHtHhNoBhNoBCJnHtHhNoBhç74CJnHtHhNoBhÈ6:CJnHtHhNoBhçVCJnHtHhç74CJnHtHhÈ6:CJnHtHhçVCJnHtHhD_CJnHtHhõR¦CJnHtH"H
½ë?@A£®´àìþhiy¯°´ÂÃÕÖ « #!%!Ï!Ú!õ!ý!óéßéßÕéÕËéÁéÁéÁ´§´vqvjfb^b^hi"h~¨hFÃh~¨hå, hå,jhå,Uhå,hP5h´khP5h´kh1Ruh´kh3ªhp ÆCJnHtHhîÃhîÃCJnHtHhîÃhç74CJnHtHhç74CJnHtHh~qACJnHtHh¡ARCJnHtHhP5CJnHtHhÞg CJnHtHhÌ>åhÞg CJnHtH$ý!"Å"###k$l$u%«%¬%%Ð%Ñ%ê&'A**** *¡*®*ê*---.-g-o.p.00o1£1¦1í1î12ñ23üøôüðìôìðåÛÖÛðÒðôðôðÎðôðĺĺ°¦°°°zpfh~²~³~ß~à~45CDÈÉæç{|°±¿À
OPüøüøüøüøüøôøôøüøüøôøüøôøêåêøüøáøôøüøôøôøüøôøüøüøüøÝøüøüøÝøÝøüøüøüøüøüøÝøüøüøüøüøÝøüøÝøühCw×hóR¼ hjhUhÂ3$hh6ðWþÒæèóÉ[
ñ
BÃüúúõððëúúúæúú F#EÆ£çF·ðgdgd1V
gdgdAgdgd
ÓÔVY\]uv¶·æçïð./+,JKRSWX
±
²
ñ
û
ü
Aqr´µÆÇñòÉÊàáÑÒHI¦§©ªüýþÿDELMüøüøüôüøüøüøüìüèüøüèüäüøüÚÕÚüøüèüøüøüøüÎøÎøÎüøüÚÕÚüøüÚÕÚüøüøüøüøüÊøÊüÊüÊüÊøÊüÊüÊhAÿhAÿh hjhUhGºh!jáh!UhCw×h6ðhPMVWXYlyª«NOßà?@¶½AB`aÕÖáâ*+01_`£¤ÌÍ jk»¼åæ?KLYZbl³´üüøüøüøüøüôüøüøüôüôüôüêåêüáÝüôüáüÝÙüôüêåêüÕüêåêüÍüôüÉüÍüÝüôüôüôüôüøüôüôüÕüôüôüôüh h³)ÿh6h?Dh#I&hº`ûhêxP hjhUh6ðhg_²hO¾çÿÊ>ËL!!"¸#0&D&l&'¹´¯ª¥¥¥´´´´ ´´¯ª¥gd~¨+gdü
d+gdXgd4gdgdF#Eƪçf·ðgdg_²üýcd:;¢£wx
ÓÔÙÚùú E F b c w x ~ ¼ ½ Ô Õ Û Ü Ý ê '!(!I!J!L!!!!Ò!Ó!" "B"C"z"{"""¾"¿"Ö"×"¸#Á#Â#í#î#$$5$6$r$s$ $¤$%%&%(%&üøüøôøüøüøôøôøüøêåêøüøêåêøüøêåêøôüôøêåêøÞøüøüøüøüøüøÚÖÌÇÌÖøüøêåêøÃø¿ø¿øüø¿øh±hïaÄ h~¨jh~¨Uh~¨hº`ûh±h hjhUh?Dhh6ðK&&¤&§&e(f((
(((é(ê(®)¯)"*#*$***X*Y*â*ã*©+ª+¯+º+¼+½+',(,¯,°,¸-¹-@.A.T.U.i.j.~....Ç.Ì.Ú.Û.F/G/00Á0Â0Í0Î0à0á0æ0ç0û0ü0111'1B1C1_1`122÷2ø23333'3(33üøüøôøüøüøôøðøðôðøðøôøæáØáæøôøðøôøæáæøæáæøôøðøÔøôøôøôøæáæøôøæáæøÌøôøôøðøôøôøôøôøhAÊh6hg_²h0JaJ hjhUhþK:h6ðhh±P'Z''((Ý()@)°)Ò+1-d-Ø.0f24í4p5úúúúúúúúõõðõõõõõªF#EÆ ªçf·ðgdg_²,gd´kgd+gd33ª3«3¹3º3·4Æ4Õ4Ö4â4ë4í4î4þ4ÿ4555&5m5o5p5q55
555 5¡5¢5¯5ÿ56666"6Ç6È6Þ6à6á6â6í6î6
77>7@7w7y7z7{7º7¼7½7¾7û7ü7þ7ÿ788¸8¹8è8é84959^9_9r9s999«9¬9Û9Ü9
::::8:9:d:e:üøüøüøôøüøðøðøæáæøôøðøðøæáÜáæøôøðøðøôøüøðøðøüøôøôøðøðøðøðøôøüøæáæøüøôøüøæáæøüøüøüøüøüøæ hþK: hjhUhg_²hþK:hh6ðWp56á6z7¹s-F#EÆ ªçf·ðgdg_²F#EÆ ªçf·ðgdg_²F#EÆ ªçf·ðgdg_²z7½78Å9é9(:÷:ÏÎ>÷>¹snidnnn_Z(gd'gd,gd´kgd1V
gdF#EÆ ªçf·ðgdg_²F#EÆ ªçf·ðgdg_²
e:::±:²:Í:Î:Ù:Ú:æ:ç:ô:õ:ù:ú:;;;;';(;5;6;A;B;O;S;T;Z;c;f;k;l;²;³;W>X>Ê>Ë>â>ã>õ>ö>ü>ý>ÿ>????????*?+?5?6?úðìèìèìðúãúðìèìèìðúãúðìèìßèßìßìèìèìèìÛìèìèìèì×ìèìèìèìèìèìèì×ìÓìðúðìÍìèìÍìèÍìÍìÍìÍ
hAÊ^Jhº`ûh-Hvh#I&hþK: h6ðh6ðhjhU hQ÷>ø>? ?!?r?¤?ý?I@öíäUíLLL *$IfgdkdD_E7F¹s-F#EÆ£ªçf·ðgd-HvF#EÆ£ªçf·ðgd-HvF#EÆ£ªçf·ðgd-Hv_D`DoDsDtDxDyDÁDÂDÏDÐD\E^E_EdEmEnEpEqE|EEFF+F,F4F6F7FBF[F_F»F¼FGGNGGÀGÁGHH5H6HLHMH
HHHHH®HÉHÊHIIIIIIâIãIPJQJxJyJ°J±JÀJÄJÉJÊJKK3K4KMKNK}K~KKKKKÓKÔKüøôüøüøüøüøôøôøôøüøôøüøüøðøðøðøüøüøéøüøüøüøüøüøüøüøüøåøüøüøüøÛÖÛøüøåøüøüøÛÖÛøüøåøüøü hjhUhwfMh#4HhhXX.h-Hvhh6ðT7FNGG÷HýIÕJLìLøL2M3MRMtMM¹´¯¯¯¯¯ª¥ )$Ifgd(gd'gdgd,gd´kF#EÆ£ªçf·ðgdXX.
ÔKWLXL[LcLLLLL¢L£L®L¯L½L¾LËLÌLÍLÛLàLáLêLëLôLõLMM=M>MHMIM_M`MgMhMMMMMMMMM¢M£M¦M§MâMãMñMöMøMúMNNN"N5N7N8N>N@NCN\N]NiNjN¡N¢N¯N°NOOVOüøüôüôüôüðüæáÜáæüôüðüôüøüðüôüÖüÒüðüÒüÒüðÖüôÖôüÊÂÊÂÊÂÊÂÊÂÊÂʺÂÊÂʺʺʺʺÊh6ðmHsHhwfMmHsHhmHsHhAÊ
hAÊ^J h6ð hjhUh6ðhwfMhº`ûhIMM§MôM8N^NJOOÇO]TKKKKKK *$Ifgd )$Ifgd¡kdGØ$$IfTl4ÖÖ\ÿ!ã"ÿÿÿÿ
ÿÿÿÿÿÿÿÿv ÿÿÿÿÿÿÿÿL ÿÿÿÿÖ0ÿÿÿÿÿÿöO#6ööÖÿÿÿÿÖÿÿÿÿÿÿÿÿÿÿÿÿÿÖÿÿÿÿÖÿÿÿÿÿÿÿÿÿÿÿÿÿ4Ö
laöytTVOWOfOgOOOOO¯O°OÅOÆOÇOËOãOéOPPP
P#P'PLPMPTPUPZP[PjPkPlPpP«P¬PÊPËPçPèPòPóPEQFQ|Q}QQQQ¡QÌQÍQRRRR>R?R@RJRORPRSRTRµR¶RÏRÐRÝRÞR#S$SSSSSÎSÏSçSèSTTTTbTcTTT®TøðøðèðøðèðèðèðèðøðèðèðøðèðøðèðèðèðøðøðèðøðèðèðèðèðøðèðèðäàÚàäðøðèðøðèðèðøðèðèðèðèðèðøð
hAÊ^JhwfMhhwfMmHsHhmHsHh6ðmHsHVÇOPlPPôP~QÎQR@Rööíööööö *$Ifgd#I& *$Ifgd@RARTRÑR%SSÐSTdT]TKKKKKK *$Ifgd )$Ifgd¢kdwÙ$$IfTlÖÖ\ÿ!ã"
v L Ö0ÿÿÿÿÿÿöO#6ööÖÿÿÿÿÖÿÿÿÿÖÿÿÿÿÖÿÿÿÿ4Ö
laöytT®T¯T¹TºTÐTÑTÛTÜTùTúTUUUÇUÈUV'V9V:V_V`V|V}V V¡VùVúVWW.W/W0W~WWWWËWÌWóWýWXX¨X©XÂXÃXãXäXçXèXWYXYYYeYYYµY¶YþYÿY8Z9ZeZfZ±Z³ZÐZÑZêZëZ[[Q[R[[[À[Á[â[øðèðèðèðøðèðäàäÜäàäàäÒÍÒäàäàäÜàäàäÜäàäÉäÉäàäÒÍÒäàäÉàÉäÒÍÒäÉäàäàäÜäàäÒÍÒäÅäàäÒÍhº`ûhg_² hjhUhÉh6ðhhwfMmHsHhmHsHh6ðmHsHNdT»TÝTU U-UkU±VöööTOJEgd,gd´kgd1V
¢kdFÚ$$IfTlÖÖ\ÿ!ã"
v L Ö0ÿÿÿÿÿÿöO#6ööÖÿÿÿÿÖÿÿÿÿÖÿÿÿÿÖÿÿÿÿ4Ö
laöytT *$Ifgd±VÿWXgYZú´n(F#EƧªçf·ðgdg_²F#EƧªçf·ðgdg_²F#EƧªçf·ðgdg_²gdZ[U]}^_Õ_ï`ú`7aæbdDdúúúúõúðëææ F:EÆ°ªçf§ðgdg_²+gdXgd4gd,gd´kgdâ[ã[æ[ç[ò[ó[ÿ[\\\\\§\¨\Æ\×\U]a]]]¥]©]à]á][^\^®^¯^_
_;_gnjÁl.nõort,tøuwx²zi|}}}×*
ö
5úúúúúúúõúúúúúúðëúúæææáÜ×Qgdgdgdgd6gd\-5gdg_²gd1V
gdhh¹hºh»hôhõhiii$i6i7i{ii®i²ijj/j0jÁjÂjäjåjkkk klllllll¢l£l¤lÚlÛlõlöldmemtmumèmómômõmUnVn]n^nÒnÓnðnñnÿnoooQoToWoXouovo®o¯o¼o½oûoüo$p%p4p5pKpLppp´pµpÑpÒpqqXqüøôüøêåêøôøüøáøôøüøüøüøêåêøüøüøêåêøôøüøüøüøôøüøôøüøüøüøüøüøôøüøôøüøüøüøüøüøüøêåêøêåêøüøüøh#I& hjhUh
,Éhh6ðYXqYqqqÁqÂqâqãqùqúq:r;r?s@sÐsÑsòsóst+tXtYtzt{tttt¢tµt¸tuu=u>uaubuyuzuÈuËuKvLv[v_vgvhv
vv¸v¹vºvÀvÅvÈvÜvàvøvüvww w#w^w_w`www¦w§w¨wÞwßwxxxxRxSxzx{xxxx®xôxõxcyüøüøüøüøüøüøüøôøüøíøãÞãøÚøÚøÚøüøãÞãøüøÚøüøÚøüøüøÚüÚøÚøÚøÚøÚøÚøÚüøôøÚüøüøüøÚøüøãÞãøüøÚøhGT¤ hjhUh hhº`ûhh6ðVcydyrysy
yyäyèyüy%zjzz°z²z³zµz¶zÑzÒz{{{{ {¡{¸{¹{Ð{Ñ{o|t|||§|¨|}}}}}}}}}®}Î}Ï}J~K~d~f~g~h~n~~~~~Ó~Ô~ð~ñ~MNÊËfgª«ÌÍèüøôøðìðìðìøìøôøåøüøôüôøüøüøüøôøáøüøüøüøÚÖÏøüøüøüøÖôüôøôøüøüøüøôøüøüøüøüøÅÀÅø hjhUhg_²hg_²h¼V±hg_²hh@\hf
Rhü
dh(nh.ahGT¤hh6ðLèé
34LMÝÞFI[\y{
ª«ÕÖôõÿY]~¼½rs×Ø
(
+
,
J
K
Ð
Ñ
ÿ
z{«¬ÐÑí»¼ÁÄKöñæÝñöÙÕÙÕÙÕÙÑÙÑÙÕÙÑÙÑÙÕÙÕÙÕÙÑÙÕÙÑÙÕÙÑÙÕÙÕÙÕÙÕÙÕÙÕÙÑÙÕÙÕÙÕÙÕÙÍÙÕÙÉÙÕÙÕÙÕÙÑÙÑÙÑÙhg_²h¼V±hGT¤h6ðhhOJQJh6OJQJ hjhUO:R_«jä¸ÌªsGoZez4
¢Ê¤úõðëõõõõõõæõõõõõõáÜ×Òõõõ+gdg_²+gdü
dXgd4gd+gd\-,gd´kgd1V
gdPgdKL¬°±µ¾ñòKL~ÙÚ56NOtuÃÄËÌóô1DEÒÓÞáZ[YZ}~³´½¾ÊÛ@Ahi¯°èé
]füøôøüøôøüøüøôøôøôøüøüøüøüøüøüøüøüøôøüøüøíæíâøüøôøüøôøüøüøüøôøüøüøÞøôøâøüøüøüøüøüøüøÞøôøôh ¢h93ìhe4 h6ðhe4 hhÓFØhh6ðXfôõ;?@AEFNO !qrõöDERS_`¾ÃÄGH}~¾Àìíüý-.=>]^¬½¾ÆÇÔÕéêïð]^ ¢ôögxyz§üøüøüôüôüôüôüôüôüôüêüôüôüôüôüæüôüôüôüôüøüôüôüôüôüôüôüÜ×ÜüÜ×ÜüôüÜ×Üüôüôüôüøüøüøüôüæüôü hjhUhe4 jh0JdUh6ðhÓFØhU§¨ÅÆ×Øþÿ'(mn¯°¶·ËÌ
}~ÊØøü*+
¨©°±³´¼½àáïðòóýþ;é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytT''0'1'o'pg^U *$Ifgd×3 *$Ifgd )$IfgdkdïI$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytTo'p'ù(m*+h-G/È1@3§35d5pkkkkkkkkffgdO{gdkd¨J$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytTÒ>BDõEFpGGJIJQJ^J¼JÀLoNøO5RØSTUàUéUVúõððëÞðððÙÔõððððððððÏÊ6gdw¿5gdgdAgd
+-DMÆ
ÿÿgdçsgdçsgdgdgdY`ÁEÓEF)F*F7G8GtGuGGGPHQH^H_HHH@IAIIIII£I¤IÝIäIGJHJIJXJYJZJ[JoJpJJJºJ»JêJõJK KKKKKCKDKaKbKK
KÉKÊKL"LILJLLLM*M-M0MrMsMêMëMúMýMÂNÃNÈN#O(O)O2O3OüøôðøôøðøðøðøðøðøðøæáÜáæøôøÔÐøÌøÈøðøæáæøôøðøôøðøæáæøðøðøôøðøðøôøôøðøôøôøðøÐøðøðhrËhY`hÇ
ujÏ0hÇ
uU h6ð hjhUh6ðhóûhhçsO3Oc?cRc^cscxcycc¨cÂcdddÏdÐdõdödýdþd$e%eueve¬eeÕeÖeàeáeff4g5gKgLg£g¤gßgàgõgög1h2h»hÃhëhìhiiiiPiQiwixiiiüøüøüøüøôøôøüøôíôøôæßæßæØÑÊÑÊÑÊæøüøÆøüøüøüøüøüøüøÆøüøüøüøüøüøüøüøÆøüøüøüøüøüøÆh¾O hÄ]½hÇ
uhÄ]½hÄ]½hÄ]½h¥hÄ]½h6ðhÄ]½hhf
Rh¥h¥hh6ðNiËiÌiôiöiøiùi·j¸jðjñj k
k)k*k@kAkckdkfkgkjkvkwkkkkkÕkÖkôkõk÷kþk
ll9l:lolplrlulvlmmKmLmamhmÏmÑminjnnnþno@oAo o¡o§o¨op p^p_ppp¡püøüôüôüøüøüêåêüÞ×ÍÞÉ»ô»ô»ø»É»·³·»ø»ø»É»üôü¯ü¯ü¯ü¯üøü¯ü¯üøüøüøüøü¯üøüh.Eþh¬ØIذءÛTÝ
àâäùämæè¸èê7ëûìíîðöñló¿óôIô2õõ/÷÷÷òòíííííííèíííãíííííííííí/gdý#k.gdý#kgd+gd+$a$gdá?ÈÝ!Ý"ÝTÝUÝVÝfÝgÝ{Ý ÝÞÞÞùÞúÞßß%ß&ß@ßAßBßÛßàà àà!à@àCàQàUàeàfààààà¥à§à¨àªàµà¶à»à¼àÈàÉàÊà:á;áPáQáváwá}á~ááÎáÙáâââ
â!â"âKâLâüøüñíñíñæñüøüøüøüÜ×ÜÓüÌ¿ÌüÓüÓüÓüøüÜ×´«×ÜÓüÓüÜ×ÜÓüøüøüÓüøÓüÓüøüøüøüøhOJQJh6OJQJjhæp1hi10JdUhæp1hhi1 hjhUhá?Èhá?Èhá?Èhá?Èhh6ðhCLââââââââ¥â¨âãâæâ'ã(ãTãUã¤ã³ãÐãÒã÷ãøãùãþãääää!ä"äOäPäää¬ääåååå å$å4å5ååå¶å·åææ®æ¯æ`çaçççççlèvèè¢è£è·è÷èúèéé
ééééÔéÕéÿéê"ê#ê8ê9êëë:ëüøüîéîøüøüøüåüåüøüøüøüøüåüáüåüåüîéîüåüÝåÝüåüåüåüåüåüîéîüåüÝüÖÝÖüÝüåüåüåüîéîüîéîüåüh¯7hhh¯7hh0&h6ð hjhUhi1hR:ëEëFëXëYë]ë^ëúëûëKìLìêìúìíí$í%í9íBí¼íÀíÉíÌíÕíÖí×íØíýíîî î
îîîîî î!î"î#î(îkîpîqîsîtî~îî
îîîîîîî&ï'ïxïyï ð
ðeðfðxðyðzð|ð²ð³ðÉðÊðßðàð÷ðñAñ÷íèíäàäÜäÜäàäÜäÜäàäÕÎÇÎÇÎÃÎÇÃÇÃÇÃÇÃÇÃÇÃÇÕÎÃÎÃÎÃÎÃÎÃÎÕÎä¿äÜäÜäíèíä¿äÜäÜäÜä¿ähk8h-hý#khý#khý#khhý#kh¯7hh6ðh¯7hh hjhUhý#kh6KAñBñXñ_ñqñrñññâñãñìñ÷ñøñòò+ò/ò]òaò¡ò¢òÌòÛòó ólónóoó|óôôôôFôHôKôOôôôÝôèôõõõõ
õõ/õ1õ4õ7õDõEõNõOõõõ¡õ¢õÒõÕõÞõáõ²ö³öÀöÁöøöùö÷÷÷÷é÷ê÷ë÷î÷ü÷þ÷ø
øSøTøZø[øhøoøxø}øÓøÔøåøæøüøôøüøüøüôøüøüøðøðøüøôøüøôøôøìøìøìøìøôøôøôøôøôøìøìøüøüøìøüøôøôøüøüøüøüøüøôüôøôøôøüøèøôøôøèøüh.'hv}h-hk8hh6ð\/÷°ø6ú üýFýÄþú}4?fÝíIúúúúõúúúúúúðúëæááF:EÆÄâçf*§ðgd+gdXgd4gd/gdBm3/gd-gdæøEùFùùùùùÔùÝùúúúú·ú¸ú¿úÀúåúæúûûÿûüüü?ü@üQüWünüoü¦ý§ýöý÷ýþþhþiþþ¥þàþìþ ÿ
ÿÿ ÿBÿCÿOÿPÿÑÿ×ÿþÿÿÿbcnopsÒÓæç/0JK¬56flüøüôøôüôüôüêåêüøüøüôüøüôüøüôüøüØüøüÔüøüôüÐüøüôüøüøüôüÐüÐüøüôüôüøüøüêåêüÐüøüøüÈhox¡h6hv}hæp1jhæp1hæp10JdU hjhUh.'h6ðhNlmªå#$êë)*OS»¼çê$X\ÂÃúû
#$op}~ÛÜíî45FHIJ¢£ÂÃÏÐ@AÖ×9 : Z [ j k ² ³
H
ôðìèìðäðàðèðèðàðèðÜðàðØðØðèðèðÎÉÎðÎÉÎðàðàðèðàðàðèðàðàðèðàðàðèðàðàðàðèðèðèðèðèð hjhUh_}hBm3h¢>hæp1h6ðh.'hjhæp10Jd6UNI¤Â¹´n(F:EÆÄâçf-§ðgdF:EÆÄâçf,§ðgd+gdF:EÆÄâçf+§ðgdØM û ¸
¬3öÂ¥ËCOú´úú¯¯¯¯¯¯¯¯¯¯ª¥ (gd'gdgdBm3gdF:EÆÄâçf.§ðgd+gdH
I
J
U
V
f
i
SX®XY`a±²ÀÁ
¢
£
Ê
Ë
ô
°±²³½¾âã@A\]bcdj+,-345;(>m>n>º>Â>Ó>Ô>A?B?X?Y?d?e?j?k?Ë?Ì?ë?ì?@@(@)@R@S@f@g@Ì@Õ@Ö@×@ÿ@A,A-AeAfAAAªA«AÀAÁAæAçA!B"B6BüôüðüðüìüìüìüìüèìèüìüäüìüìüìüìüèüìüàüìüÖÑÌÑÖüìüÖÑÖüÈüìüÖÑÖüàüìüìüìüìüàüàüìüàüàühv} h6ð hjhUhXX2h hÎdh6ðhï@
j´53hUhO;D;/M>?@8@#BVByCúõõðõõª¥_¥F#EÆÒëçi·ðgd3gdF#EÆÒëçh·ðgd,gd´kgdgd
6B7B8BTBUBBBÔBØBêBñBòBóBC"C,C-C2C6CMCNCwCxCCC×CØCäCåC/D0DHDIDeDfDDD¹DºDÂDÃDâDãDôDõDKELEEEEEµE¶EfFgFxFyFzFFF¥F²FÈFËFÙFÜFúFûFGGGG
GG¢G¦GøGùGHH$H)HüòíòéüéüéüéåéüéòíàíòéüéåéåéåéòíòéåéåéåéåéòíòéåéüéåéåéòíòüéÜéÜéüéüéåéåéåéåéüéåéüéÕháÑhhï@
hXX2h6ðh hjhUhXX2QyCCQF\F³FdGHHØHaI¹´¯ª¥¥¥¥_F:EÆÕëç/§ðgdn±+gdXgd4gd3gdF#EÆÓëçj·ðgd )H*H-HRH|H}HHH H¡HÌHÖH×HØHÙHáHåH^I`IaIbIiImInI·I¹IºI»IËIÎIóIôI7J9J:J;JBJFJfJmJnJ¦J§J1K2KLKMKnKoK|K}K´KºK¿KÀKÝKÞKèKòKûKüKLLòëäàÜàØàÜàÑÄѽѽѽѽѽ¶Ñ½Ñ½Ñ½Ñ¶Ñ½Ñ½Ñ½ÑàÜà²àÜਣ¨àÜààÜàÜààÜàÜhÖ! hjhUhn±hêcæh6ðhêcæhn±jhêcæhêcæ0JdUhêcæhhXX2h6ðhháÑhháÑhXX2jháÑháÑ0JdU>aIºI:J¨JÐJ¹s-(,gd´kF:EÆÕëç2§ðgdn±F:EÆÕëç1§ðgdn±F:EÆÕëç0§ðgdn±LUL\LeLfL°L±L½L¾LïLñLòLõLM#M$MAMBMQMRMcM¥M¦MNNN N!N$N2N3NHNINdNfN»N¼NìNïNOOO O!O$OEOFO¾OÁOÄOÅOðOñOúOýOP'P P§PµPüøüôüôüôüðüðüéÜÔÜéÍÆé¿é¿é¸éðü®©®üð¢¢ðüôüðüðüôüøüôüôüøüøüøühô|«h6hô|«h hjhUhêcæhv}hêcæh6ðhêcæhêcæhêcæhÖ!hêcæhjhêcæhUhêcæhhv}h6ðhÖ!h;ÐJpLòL!NfNìNúú´nigdô|«F#EÆÙëçl·ðgdF#EÆØëçk·ðgdv}gdìN!OMOP¹PQQ
Q¹snid[R )$Ifgd $Ifgd(gd'gdgdF#EÆÙëçn·ðgdF#EÆÙëçm·ðgdµP¶PÅPÆPàPáPþPÿPQ;QºGºHºRºSº_º`ºsºtºuºººººªº«ºïºðºZ»`»»
»»»È»Ñ»á»â»ä»å»þ»ÿ»¼¼¼¼!¼"¼U¼V¼¼¼½½x½üøüøôøüøíæâíøüøüøüøüøüøÞøüøüøÔÏÔËøüøÇøüøüøÇøüøüøÀ¹¬øüøüøüøüøüøüøüøüøjhOähOä0JdUhOähÃ,³hOähhÃ,³hu· hjhUh
Âhù~+hù~+hù~+hù~+hhé{hh6ðDºã»K½¿dÁEÃGÄƹȳɵÉÈÉÕÉ
ÊÂË^ÌjÌ̷̯ÍÎϲÐ%ÑrѱÑúúúúúúõõðëæáÜðð×××ððððð××#gdgdgdAgdgdgd
Âgd+gdx½y½É½Ê½Û½Ü½è½é½ÿ½¾¾¾¾¾¾*¾+¾6¾7¾@¾A¾k¾l¾}¾~¾M¿N¿e¿f¿v¿w¿¿¿Ë¿Ì¿FÀGÀTÀUÀÕÀÖÀóÀôÀÁÁ Á!Á"Á#Á.Á/ÁAÁCÁIÁJÁKÁLÁTÁUÁZÁaÁbÁcÁÁÁ¡Á¢Á½Á¾ÁÌÁÍÁáÁåÁüøüøüøôøêåêôøôøüøôøüøüøüøüøüøüøüøüøüøüøüøôøêåêôøÝØÝøôÑøÌøôøôøôøüøêåêøêåÁh6OJQJ hH*hÃ,³hÃ,³ h6ð6hÃ,³h6 hjhUhÃ,³hh6ðHåÁæÁúÁüÁýÁÂÂSÂTÂeÂfÂzÂ{¡ÂíÂîÂõÂöÂ5Ã6ÃEÃPÃhÃiêëÃÑÃÒÃãÃäÃ}Ä~ÄÁÄÂÄúÄþÄÿÄÅÅÅ-Å7Å8Å=ÅGÅIÅJÅÅÅÁÅÂÅæÅçÅÆÆ]Æ^Æ¡Æ¢ÆÅÆÆÆËÆÌÆâÆãÆÇÇ^Ç`ÇaÇiÇÇÇÜÇöíèÞÚÖÚÖÚÖÚÖÚÖÚÒÚÒÚÖÚÖÚÖÚÎÚÖÚÖÚÖÚÖÚÖÚÖÚÒÚÖÚÖÚÊÞèÅèÞÚÖÚÖÚÖÚÖÚÖÚÖÚÊÚÖÚÊÚÖÚÒÖÒÚÖÚ hu·hu·hOähÃ,³h6ðhjhU hhOJQJh OJQJNÜÇÝÇOÉRÉ^É_ÉjÉmɳɴÉÏÉÐÉòÉóÉÊ ÊÊÊ0Ê1Ê=Ê>ÊQÊRÊ"Ë#Ë1Ë2Ë;ËçççÁçÂçÙçäçåçæçéçêçöç÷çOèPèèè«è¬èééé é¥é¨é0ê7ê@êAênêpêrêsêêêêêÂêÃêÍêÎêÝêÞêêêëêëë5ëúìàúÖÒÎÒÎÒÎÒÎÒÊÒÎÒÎÒÎÒÎÒÎÒÊÒÆÂÆÒÎÒÎÒÎÒÎÒÎÒÎÒÊÒÊÒÊÒÎÒÊÒÎÒÎÒ¸³¸ÒÎÒÎÒÎÒÊÒ hjhUhC¶h/fhXh6ðhjhHRÊUhóhHRÊOJQJhóhHRÊ6OJQJ hHRÊF3êëeëÎëÔí¹s-(gdF#EÆBìç·ðgd
ÂF#EÆBìç·ðgd
ÂF#EÆBìç·ðgd
Â5ë6ëTëUëaëcëdëeëëë
ëëëëÎëáëâëïëðë0ì1ìIìNìÅìÆìîìïìíííí(í)í.í8í9í:ífígíkíyíííÜíÝíßíåíèíïíðíî îBîCîLîMîXîYîmînîî
îîöñöíéíéíöñàñöíÙÒÙÅÙÒÙ¾ÙÒÙÒÙÒÙÒÙÒÙ¾ÙÒÙÒÙ¾ÙÒÙÒ¾Ù¾ÙÒÙ¾ÙÒٷٷٷ٪jhé
àhUjhé
àhé
à0JdUhé
àhu·hé
àhXjhé
àhOä0JdUhé
àh6ðhé
àhh0JaJhXh hjhU>ÔíAîðð¥ð²ðêðñ°óLôØôõõùÄù¢ú×üJþþ ýúúúõðëæúúúúáúúúúúÜú×gdé
à,gd´kgd1V
9gdgdgdAgdgdîîîªî¯î°îÆîÇîÊîËîúîûî\ï]ïwïxïïÜïÝïêïëïìïïïðïñïðð$ð%ððððð¬ðð½ð¾ðÅðêðñññUñVñññññññ§ñ«ñ´ñÓñ÷êãÜÕãÎãÇãÇãÇãÇãÿûûÿÿ÷÷ïëÿÃ㤤ÃÿÿÿÃÃhr'h6hþ^$!jhé
àhþ^$0JdUmH sH hbZôhhé
àj¤ä5hUhu·hXh6ðhhé
àh6ðhé
àhu·hé
àhé
àhé
àhXhé
àhjhé
àhUhé
àh5ÓñÔñÕñÚñòòòòòò(ò)ò*òAòCòYòZò[ò~òò«ò¬ò×ò÷ò&ó'óOóPóRómónóóóôôMôNôÙôÚôÿôõ!õ"õ'õ2õ4õ5õMõNõnõoõõõ¬õõàõáõoöpözö{ööüòíåíòüáÝáüÝáüÕüËÆËáÝá¾á´¯´ü¾üá«áÝáÝáÝáÝáËÆ¢ÆËáÝáÝááÝáÝáÝáÝáh]RMhh0JaJh hþ^$jhþ^$Uhr'h6 hjhUhHÀh 6h6ðhhÆB(h!1 h!1jh!1Uhþ^$=öö¤ö¥öäöèö÷÷ ÷
÷.÷/÷9÷:÷m÷t÷÷÷÷÷÷÷ ÷¡÷à÷ã÷ú÷û÷;øü?üDüPüdüeüfühü
üüüüüü¯ü°ü»ü¼üðüñüòüóüÿüýýGýHýIýNýRýSýàýáýåýïýðýñýòýÿýþ
þþþ)þIþJþþþþ¬þ®þ³þ´þºþùòùòëòäëäòäÚÕÍÕÚòÆòÆòäëäòëòäò¿òëò¿ò¸äòäòäòëòäòäëò¿ò¿òäò´´©´¥´¥´h¸|áh¹pÖh¹pÖhhhé
àhé
àhé
àhu·hé
àh5Rmhifhtz# htz#jhtz#Uhé
àhIbÛhé
àh6ðhé
àhhé
àh @ºþ»þ*ÿ+ÿÿÿÿ§ÿ°ÿ±ÿËÿÌÿÕÿÖÿáÿâÿ !BC¡¢ÍÎ12IJz{°¶Ûßhj¨©ÆÇ×úþ*3jk¡§¨éêóù´µÄÅõö?@ËÌëìüøüøôøôøôøðøüøðøüøìøìøüøüøìøâÝâøìøìøìøüøÙøüøÕìøüøìøüøüøìøüøüøìøüøüøüøüøüøüøüøüøüøüøühUohé
à hjhUh¹pÖh¸|áhÑhh6ðTý¡öô¹s-(.gdF#EÆSèF·ðgdyUÝF#EÆSèF·ðgdyUÝF#EÆSèF
·ðgdyUÝÊo
ìk
lw³ó¾'*g,G #t$5&V&-*#-9/J//Ï/úúúúúõúúúõúúúúúúúúúúðúúúëúðgd1V
,gd´k.gdgdìï
+,LN¡¢ÈÉËÌåæôõ123D{|
°±%&FGIRvwN O X \ ¯ °
,
g
h
É
Ê
Ë
*+üõîõîõçõÚÒÚõËÃËõËÃËõËÃ˶õü²ü®ü®ü²ü®üªü¦ü®üªü²ü¦ü¦ü®ü¢ü®ü¦®ü¦ü¦ü¦hUohgcÒh¸|áh6ðh¹pÖjhqm[hqm[0JdUhqm[h6hqm[hA¥hqm[hjhqm[hUhqm[h hqm[h6ðhqm[hh@+\]ijéêëì29:PQ\]¶ºÎÏöû
6
7
M
N
[
\
Ä
Å
à
á
lmnx³´ØÙ67E[ÎÏÐÒ#$/123467\üøüøüôüôüðüøüøüøüðüøüðüðüøüðüøüøüðüðüðøðüøüøüøüøüðüéâéÛâÛéÔéâéÛ˾´éÛéhqm[h¸|áh¸|ájhqm[hqm[0JdUhqm[hqm[0Jdhqm[hâFhqm[h¿ðhqm[h6ðhqm[hh¿ðhA¥h6ðhE\]st±»ÁÒÓáâïðBKstÎÏÚÛÿCDGHLMUVÈÉèé
#$&*.45;TU^_op£¤¥ÆÇôõ¼½âã78DEóëãëóÜÕÜÑÍÑÍÑÉÑÉÑÍÑÅÑÉÑÉÑÉÑÉÑÍÑÉÑÉÑÉÑÉÑÉÑÉÑÅÑÍÑÍÉÍÑÉÑÅÑÅÑÅÑÁÑÉÑÅÑÅÑÅÑÁÑÅÑÉÑÉh¯
Ñh¸|áh6ðh¿ðhhqm[h6ðhqm[hhqm[h6ðhqm[hjhqm[hULEadhims¼½ÐÑæçRSqrûü@A_`|}¶·ÈÎ56ILMNVWÑÕ×Øâãèé59:GHuv¤¥¦§½¿ûü)*vw"%&0güøüôüðüðüìüìüðüâÝâüìüìüìüâÝâüìüðüðüìüðüìüðüÙüðüìüðüìüðìðìüðüâÝâüðÑðüâÝâüÌüìüðìðü h6hâFh6h¸|á hjhUh6ðh¯
ÑhâFhUohPghxy³´ÚÛ$%89æ顬ûüBCefxyÄÉÎÏØÙéê7 8 W X ¯ ° ¾ ¿ Ê Ë × Ø ä å ë ì ÷ ø þ ÿ
!!!!!!ó!õ!" """Q"R"¹"º"/#0#N#O#q#r#üøôøêåêøáøáøáøôøÝøôøáøáøêåêøáøáøáøôøôøôøáøÝøêåêøêåØåêøêåêøêåêøêåêøêåêøôøÝøÝøÝøáøêåêøá h!1h¸|áh6ð hjhUh¯
Ñhh Ur#²#³#Ð#Ñ#$$}$~$$$Â$Ã$â$ã$%%a%b%ª%«%²%·%&&'&?&@&&&¬&&''O'P'''µ'¶'ç'è' (
((+(D(E(À(Á(Ü(Ý(Þ(æ(ø(ù(û(ü(ý())_)`)j)k)w)x)á)â))***-*.*>*?*l*m*Þ*ß*è*üøüøüôüøüøüôüêåêüøüôüôüøüøüøüøüøüøüáüáüáüáüÝüøüøüøÝüÕáüÎÇÎøÎÝÎÝÎøÎøÎÇÎÝüøüøüÝüh¸|áh¸|áh¸|áhháEIh6háEIh¸|á hjhUh¯
Ñh6ðhNè*ê*ë*õ*&+'+°+±+,,¦,§,}-~-»-¼-Ñ-Ò-æ-ç-ü-ý-..(.).|.}.µ.¶.Å.Æ.ð.ñ.
//9/I/R/S/f/g///00m0n0111 1+1,1X1Y1¢1£1Ñ1Ò1ý1þ1À2É2ò23333¤3¥3Ã3Ä3Æ3Ç3üøüøôøüøðøôøôøôøôøôøôøôøôøôøôøôøôøôøéøôøåøáøôøôøôøôøôøôøôø×Ò×øåøËÄËÄËÄËáø¼j§6hsj'Uhqm[h6ðhqm[h hjhUhqm[hï{Yhï{Yhh¸|áh6ðhháEIJÏ/H1ò2Å3Æ3È3Û3è3'4µ47f9,:²:?üøüøüøüøüøüîéîüøüåüåüåøåüøüøüøüåüøüåüåüøüøüøüøüøüáüÝüøüøüåüÙüåîéÔéîüÍÙÅÙüÁüÁhbõhÑh6hf
RhÑ hÆP0hÑhh¸|áhðKm hjhUh6ðhL?UVXYop·¸èï#$_c¹ºÚÛòó !"]axyËÌ%&LMjk
£¤¥78JKijvwÁÂ
uvª«NO!üøüôüðüðüøüðüôüðüðüðüðüðüôüðüðüôüðüðüðüðüéðéåéðéüåüðüøüðüøüÛÖÑÖÛüðüðüðüðüøüðüøüÍühÆP0 hGo hjhUhGohGohh6ðhbõh¸|áhQq¤^c¢¦=§]§|§Ê§æ§úúõúúúúúðõúªF#EƳ#èf·ðgdgd1V
,gd´kgd!6>ABCDSWabs()!"RSÁÂëì+,{|¦§ Ï Ð õ ø &¡'¡\¡]¡}¡~¡¡¦¡Î¡Ï¡¢¢(¢)¢`¢a¢}¢~¢¢¢¢¢¹¢º¢â¢ã¢££¹£º£ó£ô£~¤¤¤¤Ú¤Ý¤¥¥¥üøüøüôüøìäìøüøôøôøôøôøüøüøôøôøôøôøôøàøôøôøàøôøàøôøàøôøôøôøôøôøôøÜøôøôøôøôøØøÔøôøÜøÜôhU1h¸|áhä*6h]WmhU1h6ð6hU1h6h6ðhhÆP0T¥¥2¥3¥P¥Q¥S¥Z¥c¥d¥f¥¥¥¦¥ô¥¦¦¦¦K¦L¦`¦a¦|¦}¦¦¦¶¦º¦É¦Ê¦ø¦ù¦§ §#§$§j§k§|§§¢§«§¬§·§Å§È§Ê§Ë§ã§å§æ§ç§ï§ñ§ò§ó§¨¨¨¨¨¨¨ ¨-¨.¨0¨1¨c¨d¨©¨ª¨
©©"A"Q"R"£"§"å"ê"##0#1#@#A###Â#Å#$$\$]$^$x$ª$«$¼$½$Á$öñöíéíöñöíåíåíåíéíåíåíéíåíåíéåíéíéíåíåíåíéåíåíåíåíåíåíåíéíéíåíéíéíåíåíåíéíéíåíÞåÞíöñöíh yhh6ðh7wøh hjhUVÁ$Ð$Ó$Ô$ñ$õ$%%%%%%$%@%A%²%¶%ä%å%î%ï%,&-&@&A&N&O&¼&½&''F'G'b'|'}'''Ó'ò'ö'÷'ø'ý'($(,(N(o(p(q(üøîéÞÕéîøüÑÉøÑøÑøÅøÅøîéîøÅøÑøÅøÅø½îéîø¶¯¶¨¶¯¶¯¶¡jhÏ@©hUjhÏ@©h y0JdUhÏ@©hÏ@©hÏ@©h6ðhÏ@©h yhÏ@©hhglh6h6ðhß]Ãh6h yhOJQJh6OJQJ hjhUhhß]Ã2q(((½(¾(Ð(Ñ(Õ(Ö(ä(å())')7)8)S)\)h)i))) )¡)Õ)Ö)ô)ý)ÿ) *****Í*Î* +
+:+;+i+j+++Ø+Ù+ö+÷+T,U,,,,,-
----4-5-6-9-:-K-L-Z-[-f-g-÷êãê÷êãÜãÜãÜãØÔØÌÄÀØÔØÔØÔØÀØÀØÔØÔØÔØÔØÀØÔØÀØÔØÀØÔØÀØÔØÀÔÀؼãµãµãµãÜãµhÏ@©h«^8hÏ@©h«^8hglh«^86hglh6h6ðhhÏ@©h6ðhÏ@©hjhÏ@©hUhÏ@©hEg-i-¤-¥-²-³-Ê-Ë-ÿ-.".%.M.N.Y.\.À.Á.ù.ú.////////¥/¦/00@0A0f0g000J1L1T1U1^1_1`1e1g1h1p1q1¬11Ô1Õ1Ù1Ú1222 2@2A2_2`2i2j2~22Û2Ü2ü2ý2@3S3T3U3V3[3ùõñõñõñõñõíõñõíõñõãÞãõíõñõãÞãõñõñõñõíõÚõÚõÚõÚõñõÚõñõÚõÚõÚñÚõÚõÚõÚõÚõñõñõÓÌÓÌÓhÏ@©h]4æhÏ@©hh$Ý hjhUh«^8h6ðhhÏ@©hÏ@©M[3\33333333Ö3Ø3Ù3ì3í344!4"4@4A4z4}4~4
4§4³4´4Ò4Ô4555!5"5,5-595:5C5E5N5U555è5é56666666676H6I6J6V6e6f6¤6±6¼6¿6òëÞÖÞÏÈëÄÀ¼Ä¸Ä®©®Ä¸Ä¼¸Ä¼ÄÀÄÀÄÀ®©¤©¤©®ÄÀÄÀĸĸĮ©®Ä¸Ä¸Ä ¸ Ä¸Ä Ä hYP¹ hYP¹ hjhUh6ðh$Ýh]4æhhÏ@©h]4æhÏ@©h$ÝhÏ@©hjhÏ@©hUhÏ@©hjhÏ@©hYP¹0JdU?¿6×6Ø6=7>7Q7R7X7Y777²7º7ã7ä78
888÷8ù8999 999 9!9^9_9ó9ô9/:0::::::Ë:Ñ:Ò:Ô:÷:ø:ù:ú:;;;;;;&;+;-;3;4;8;;;H;I;;;¸;¹;Å;Ê;Ó;Ô;ù;ú;??q?r???À?Á?Ò?Ó?×?Ø? @
@%@&@/@1@4@5@H@I@]@^@y@z@@ @¾@¿@ý@þ@AATAUAAA®AµAäAåAùAúAûAXBYBhBiBÙBßBìBîBñBòBCC-C.CCCüøüôüìâÝâôüøüøüøüøüøüøüøüøüôüøüôüâÝâüøüøüôüôüôüøüâÝâüôüøüôüôüôüøüôüâÝâôüøüøüôüôüôüâÝâüô hjhUh]4æh6h yYh6ðhWU>2@ïBC¨DE×GãGHHHOHÓHáHºK\MiMyOeQQõQþRTUÅVZF[úúúúúúõðëæëæúúáúúÜúúúúúúú,gd´kgd1V
PgdQgd]4ægdgdgdCC
C C¡C±C²CºC»CÍCÎCëCKD¥D§DªD«DËDÌDÐDÖDEEEE«E¬E¸E¹EíEîEAFBFTFUFtFuFFFFF¥F¦FhGiGzG{GGG×GßGàGâGR?R@RKRRRRR´RµRÿRSS$SHSIS_S`S~SSS SS®S³S´ST TkTlTTTÂTÃTÆTÇTáTâT2U5U[U_U¬UU¹UºUVVIVJVV±VÈVÎVçVèVñVòVöñöíéíåíéíéíéíéíéíéíéíéíéíéíöñöíåíéíéíéíéíáíöñöíöñÜñöíéíáíéíáíáíéíéíáíáíéíéíéíéíáíáíéíé h6ðh¡BÜheh6ðh hjhUWòVW%W.W/W@IJKz{()7Mab~ ¡ÇÉËÌÖ×CKLuvÆÇÖ×çèé67¬ij¾¿×Ø÷øüøôøüôüøüêåêüôüáÚÓÚÓÚüôüøüøüáüôüêåêøüÏüôüÏüôüÏôüôüÏüøüøüÈôÈüôüôüÄüôüôüôüêåêüôhÓ hÓ hhþkRh9Q³h?¨h9Q³hh9Q³ hjhUh6ðh?¨hM#$>?¹ºÒÙëì÷ø& ' G H I Y ¿ À ß à ¡¡¡¡¡¡%¡1¡c¡d¡p¡t¡Ü¡Ý¡ö¡÷¡n¢¢È¢Ê¢££££££££'£)£:£=£m£n£v£w£ £¡£¬£¯£ö£÷£¤¤T¤¤¤¤¤±¤²¤½¤¾¤Ø¤Ù¤¥¥>¥?¥æ¥ç¥û¥ü¥¦¦:¦üøüøüøüôüøüôüêåêüôüôüøüôüøüôüôüøüôüøüôüôüôüøüôüôüôüôüôüøüøüøüôüøüôüÞôÞôüøüøüøüøüøüôüôüøühÓ h hjhUhÓ h6ðhX:¦;¦Z¦¦ê¦ë¦K§L§j§k§×§Ø§=¨>¨L¨M¨T¨U¨©©7©8©9©:©>©?©H©I©r©x©y©©©°©²©³©´©µ©º©»©5ª6ªªª»ª¼ªÑªÒªÔªßª««`«a«¬«¯«Ò«üøñøüøüøüøüøüøüøüøüøìøüøüøüøåØжÐØå©øüøüø¥øøø¥øüø¥øh9Q³h6 hjhUhË÷jhnñhË÷0JdUhnñhOJQJhnñh6OJQJhnñhjhnñhUhnñh h6hË÷hhh6ð8Ò«Ó«¬¬¢¬Æ¬à¬á¬ÇÈëð®®+®,®1®2®J®K®®®®Ô®Õ®ß®å®Z¯[¯¶¯¾¯æ¯ç¯û¯ü¯,°-°]°^°m°n°°°z±{±±±±¡±¢±£±Ç±È±Ò±Ø±7²8²²²*³+³D³E³G³S³T³k³o³³³
³³³³³¨³üøüøôøüøüøüøôøüøôøüøôøôüøôøôøïøôøüøüøïøôøüøüøüøôøôøüøüøôøüøüøåàåøØåàÍÄàåøüøüøhOJQJh6OJQJh9Q³h6 hjhU h6hË÷hh6ðM-°³¨³Ý´[µãµúõú¯iF#EÆÁ4覷ðgd]hF#EÆÁ4覷ðgd]h+gd9Q³gd¨³©³«³¬³Ê³Ë³Ì³Ô³´´,´5´=´>´?´O´P´^´_´`´u´v´´´´Å´Ú´Ü´Ý´Þ´ß´Xµ[µ\µ]µiµjµµ µ¡µ¢µ°µ±µ»µ¼µàµãµäµåµ¶¶ ¶¶;¶ ?> @> á? â? î? ï? x@ y@ @ @ B B ¶B ·B C C C !C ûD üD 3G AG NG QG GI ûI üI ,J -J 5J O _O aO O O ³O ¾O ¿O ÔO P óëóäàÜà×ÏàÅÀÅàÅÀÅàÅÀÅàÅÀÅàÜ๵à±Ü§Ü£ÜàààààhP5mHsHh0/õhP5h1Ruj
MhP5Uh#I&h-
YjhFþ0JdUh«)8hKhhµj7hP5 hP5jhP5Uh9@hP56 h#I&6hFþhP5hP-hP5hP-hP5jhP-hP5U1dO O O ³O ´O ÀO ÁO ÔO ´P úõðçÞdÞ[ *$IfgdWJzkd¾çM$$IfTlÖÖ0ÿÞJ8Ö0ÿÿÿÿÿÿö6ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö
laöytWJT )$IfgdWJ $IfgdWJ(gdP5'gdP5gdP5P P ³P ´P ¸P ¹P ÃP ÄP ÅP ÞQ ßQ éQ êQ &R 'R *R +R NR OR PR jR kR uR vR
T [U \U U U X X (X )X CX DX aX bX #Z $Z )Z 5Z 7Z 8Z qZ rZ Z Z óZ ôZ [ [ öîäàÖÑÖàîúÃî೦¦³îúÃîàÖÑÖàÖÑÖàÖÑÖàÖÑÑÖàÖÑÖàÖÑhP56OJQJhP56OJQJh0/õhP5jh0/õhP5Uh0/õhP5hP5mHsHjhP5UmHsH hP5jhP5UhP5hP5PJmHsHhP5mHsHhP5^JmHsH2´P µP ÅP &R zq *$IfgdWJ )$IfgdWJ|kd]èM$$IfTlÖÖ0ÿÞJ8Ö0ÿÿÿÿÿÿö6ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö
laöytWJT&R 'R PR
T zq *$IfgdWJ )$IfgdWJ|kdéM$$IfTlÖÖ0ÿÞJ8Ö0ÿÿÿÿÿÿö6ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö
laöytWJT
T T ïU eX 6Y AY Y )[ A\ b] Å] ý] ~~~ytooojj:gdP5+gdP5XgdP54gdP5gdP5|kd£éM$$IfTlÖÖ0ÿÞJ8Ö0ÿÿÿÿÿÿö6ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö
laöytWJT[ [ "[ #[ D[ E[ \[ ][ ß\ à\ û\ ÿ\ ] ] ] ý] þ] ^ (^ )^ j^ k^ p^ q^ r^ s^ ¶^ ·^ ¾^ ¿^ Ã^ Ä^ _ _ _ _ _ _ Z_ [_ g_ h_ r_ s_ ¶_ ·_ ¾_ ¿_ Ì_ Í_ ` ` ` ` ` !` b` c` h` i` s` t` º` »` Å` Æ` #a $a ua va ²a ³a ûa öñçãçñçãçñØöñçãÑÊƾº¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¾º¶º¶º¶ºh6ðhjhUh1Ruhw¸h1RuhP5hP5hP56OJQJhP5jhP5U hP5hP5OJQJHý] þ]
^ (^ È` Ô` &c bc vc äe Ëh *j
k k Yk vn ²p Ìp Hr @s s Tt t úõðëæáÜ×ÒÒÒÒÍÈþ׾¾¾¾¾gd~ ? Ù Ú Ý Þ 4 S T n o ùòëòçãçßçßçßçßçßçßçãç×çßçßçòÐòÈòÐòÐòÐòÀò·ª¦çãçççãçãçh
-h6 hjhUh¿7øjh¿7øh¿7ø0JdUh¿7øh¿7ø0Jdh¿7øhH*h¿7øh6h¿7øhêE-h)oh6hêE-h6ðhh¿7øh6ðh¿7øhh¿7øh¿7ø8Þ n × @ ú´n(F:EÆIâçfR§ðgdêE-F:EÆIâçfQ§ðgdêE-F:EÆIâçfP§ðgdêE-Wgd@ a # ä í L ^ w H v ® Å f è ö ¡ ¢ Z£ F¥ c¥ ¥ úõõðëõõðæëëëõúõõõðáëëëõõúõXgdõÞXgd+gd4gdgd,gd´k É Ê × Ø þ ÿ 5 6 M N w x # % N O ] ^ Ã Ä L M Y Z m n ¬ ° ± á â ã 4 ÿ
Wÿ
jÿ
ÿ
´ÿ
Âÿ
ãÿ
úÿ
%ITm¶Í#7iy²Ïùùùùùùùùùùùùùùùùùùùùùùùùùùùùù
Æ*
Ïö/Fg¯çDa¤µÏêYk¬Ñü5Yrùùùùùùùùùùùùùùùóóóóóóùùùùùùù
Æ*
Æ*
r©ÃØCªÁÒâ+6JlÂÞðLnùùùùùùùùùùóùùùùùóóóóùùùùùùùù
Æ*
Æ*
Ðäù
< N h ½ ë
&
?
Y
c
|
Æ
ð
+MeÀùùùùùùùùùùùùùùùùùùùùùùùùùùùùù
Æ*
À×ý 8_t¨ÅÚ÷
O
°
Á
Ú
ø
BM]ùùùóóùùùóùùùùùùùùùùùùùùóùùóù
Æ*
Æ*
¤·Ùû%2M´ÃçõFo¬ÌÖçô#^n~Äãùùùùùùùùùùùùùùùùùùùùùùùùùùùùù
Æ*
¤±¹½Âìðô9=J&éòêð®½ÁÑ×Ûߢ¦0 4 9 Î Ò ã ä ô '#+#/#ø$ü$%W&[&j&&&'' '
''òé×Çé×Çé×Çé×Çéòéòé×Çé×Çé×Çé×Çé×Çé×Çé×Çéòé×Çé×Çé×Çé¹é±h|1h.-^CJjh|1h.-^0JdCJUhjhUhma©hO/U6mHnHuhma©hO/UOJQJmHnHu"hma©hO/U6OJQJmHnHuhO/UmHnHuhma©hO/U5mHnHu8ãKa
§Â×ìü'Om¨Ïóü*>u§¿Üéóùùùùùùùùùùùùùùùùùùùóóùùùùùùù
Æ*
Æ*
óÿ5Ki}®Éêþ×fgd
Æ*
Æ*
' '")#)$)ý)ÿ)!*"*#*$*+
++++++_-º-½-¿-À-@2A2B2U2j25393:3;3K3úñíÞÕÞÕíËíñíËíñí¼³ªúªªzmzczTjhNoBh.-^0JdCJUh.-^CJOJQJhNoBh.-^CJOJQJhûCÍh.-^CJOJQJjhNoBh.-^UhNoBh.-^CJjhûCÍh.-^0JdCJUhûCÍh.-^CJhbZôh.-^CJjhbZôh.-^0JdCJUjh.-^0JdUh0~h.-^CJjh0~h.-^0JdCJUh.-^h|1h.-^CJ
h.-^CJ ¿-A2:3G4¸5ü56¾:®<=£?fA®ACÀCD¹DBE`EÖEFoFëFúíëëëëæëëëáëëëÜëëë×ÎÅÀfgdZy8Á^ÁgdZy7Á^ÁgdZyfgd{g
fgdfgdhX+fgd