Titre du chapitre - Exercices corriges
Le projet initial de réseau informatique donnera Arpanet, dont les trois premiers
n?uds verront le ..... Aussi bien le « framework » Microsoft . ..... Car des
premières versions de sites institutionnels, au Web sémantique qui se profile à l'
horizon, ...
part of the document
Sommaire
TOC \o "1-3" \h \z \u HYPERLINK \l "_Toc261901236" Avant-propos PAGEREF _Toc261901236 \h 7
HYPERLINK \l "_Toc261901237" La valeur du système dinformation réside dabord dans ses actifs immatériels PAGEREF _Toc261901237 \h 8
HYPERLINK \l "_Toc261901238" Réfléchir à linformation avant de penser aux technologies PAGEREF _Toc261901238 \h 9
HYPERLINK \l "_Toc261901239" Une course aux technologies contre-productive sil y a un existant à gérer PAGEREF _Toc261901239 \h 10
HYPERLINK \l "_Toc261901240" Lévolution travaille sur ce qui existe déjà PAGEREF _Toc261901240 \h 10
HYPERLINK \l "_Toc261901241" La direction des systèmes dinformation est une question transverse de stratégie dentreprise PAGEREF _Toc261901241 \h 11
HYPERLINK \l "_Toc261901242" David contre Goliath : Internet et linnovation par le système dinformation PAGEREF _Toc261901242 \h 12
HYPERLINK \l "_Toc261901243" Principe et structure de louvrage PAGEREF _Toc261901243 \h 15
HYPERLINK \l "_Toc261901244" Partie 1- Le poids de lexistant PAGEREF _Toc261901244 \h 17
HYPERLINK \l "_Toc261901245" Chapitre 1 PAGEREF _Toc261901245 \h 18
HYPERLINK \l "_Toc261901246" Un patrimoine hétérogène PAGEREF _Toc261901246 \h 18
HYPERLINK \l "_Toc261901247" Cinquante ans et plus PAGEREF _Toc261901247 \h 18
HYPERLINK \l "_Toc261901248" Laprès tour de Babel PAGEREF _Toc261901248 \h 21
HYPERLINK \l "_Toc261901249" Le défi de la communication PAGEREF _Toc261901249 \h 25
HYPERLINK \l "_Toc261901250" Chapitre 2 PAGEREF _Toc261901250 \h 30
HYPERLINK \l "_Toc261901251" Un catalyseur du changement- la plate-forme globale Internet PAGEREF _Toc261901251 \h 30
HYPERLINK \l "_Toc261901252" Les débuts dInternet PAGEREF _Toc261901252 \h 30
HYPERLINK \l "_Toc261901253" Java et le rêve dindépendance aux plate-formes PAGEREF _Toc261901253 \h 32
HYPERLINK \l "_Toc261901254" Les logiciels libres PAGEREF _Toc261901254 \h 34
HYPERLINK \l "_Toc261901255" Une nouvelle façon de penser les développements PAGEREF _Toc261901255 \h 35
HYPERLINK \l "_Toc261901256" Lévolution des modèles de conception PAGEREF _Toc261901256 \h 36
HYPERLINK \l "_Toc261901257" Du service informatique aux services informatisés PAGEREF _Toc261901257 \h 37
HYPERLINK \l "_Toc261901258" Larchitecture orientée services PAGEREF _Toc261901258 \h 39
HYPERLINK \l "_Toc261901259" Chapitre 3 PAGEREF _Toc261901259 \h 41
HYPERLINK \l "_Toc261901260" Les forces en marche PAGEREF _Toc261901260 \h 41
HYPERLINK \l "_Toc261901261" Comprendre les métamorphoses du Web PAGEREF _Toc261901261 \h 42
HYPERLINK \l "_Toc261901262" Le web 2.0 PAGEREF _Toc261901262 \h 43
HYPERLINK \l "_Toc261901263" Le monde interactif de linformation PAGEREF _Toc261901263 \h 43
HYPERLINK \l "_Toc261901264" La surexposition de linformation PAGEREF _Toc261901264 \h 44
HYPERLINK \l "_Toc261901265" Maitrise de linformation : régulation et coordination PAGEREF _Toc261901265 \h 44
HYPERLINK \l "_Toc261901266" Le Web 3.0 et le sens de linformation PAGEREF _Toc261901266 \h 46
HYPERLINK \l "_Toc261901267" Une évolution à deux vitesses PAGEREF _Toc261901267 \h 46
HYPERLINK \l "_Toc261901268" Partie 2 -Lentreprise et lévolution des SI : Enjeux et risques PAGEREF _Toc261901268 \h 47
HYPERLINK \l "_Toc261901269" Chapitre 4 PAGEREF _Toc261901269 \h 48
HYPERLINK \l "_Toc261901270" Les enjeux dévolution PAGEREF _Toc261901270 \h 48
HYPERLINK \l "_Toc261901271" Le péché originel de la productivité PAGEREF _Toc261901271 \h 48
HYPERLINK \l "_Toc261901272" Le paradoxe de Solow PAGEREF _Toc261901272 \h 48
HYPERLINK \l "_Toc261901273" Une vision bipolaire PAGEREF _Toc261901273 \h 51
HYPERLINK \l "_Toc261901274" Pourquoi lévolution de léconomie immatérielle pousse à la modernisation des SI PAGEREF _Toc261901274 \h 56
HYPERLINK \l "_Toc261901275" Chapitre 5 PAGEREF _Toc261901275 \h 61
HYPERLINK \l "_Toc261901276" Les risques de lobsolescence PAGEREF _Toc261901276 \h 61
HYPERLINK \l "_Toc261901277" Lobsolescence : bien plus quun problème technique PAGEREF _Toc261901277 \h 62
HYPERLINK \l "_Toc261901278" Les systèmes dinformation : un avantage concurrentiel ? PAGEREF _Toc261901278 \h 64
HYPERLINK \l "_Toc261901279" Contrôler les biens immatériels PAGEREF _Toc261901279 \h 67
HYPERLINK \l "_Toc261901280" Manque dagilité et exemples dévolutions nécessaires PAGEREF _Toc261901280 \h 69
HYPERLINK \l "_Toc261901281" Mieux vaut prévenir que guérir PAGEREF _Toc261901281 \h 69
HYPERLINK \l "_Toc261901282" Fusions & acquisitions PAGEREF _Toc261901282 \h 70
HYPERLINK \l "_Toc261901283" Applications ebusiness PAGEREF _Toc261901283 \h 70
HYPERLINK \l "_Toc261901284" Flexibilité des offres de services PAGEREF _Toc261901284 \h 72
HYPERLINK \l "_Toc261901285" Pilotage et manipulation de données cohérentes PAGEREF _Toc261901285 \h 73
HYPERLINK \l "_Toc261901286" Prévenir les risques dobsolescence PAGEREF _Toc261901286 \h 75
HYPERLINK \l "_Toc261901287" Critères dusage et dévolutivité PAGEREF _Toc261901287 \h 75
HYPERLINK \l "_Toc261901288" Politique de prévention des risques dobsolescence PAGEREF _Toc261901288 \h 77
HYPERLINK \l "_Toc261901289" Les enjeux humains PAGEREF _Toc261901289 \h 78
HYPERLINK \l "_Toc261901290" Ne pas faire évoluer les compétences est un risque dobsolescence PAGEREF _Toc261901290 \h 78
HYPERLINK \l "_Toc261901291" La valorisation des compétences existantes et lanticipation PAGEREF _Toc261901291 \h 80
HYPERLINK \l "_Toc261901292" Vers une gouvernance du patrimoine SI PAGEREF _Toc261901292 \h 82
HYPERLINK \l "_Toc261901293" Partie 3 -Enjeux et défis des DSI PAGEREF _Toc261901293 \h 83
HYPERLINK \l "_Toc261901294" Chapitre 6 PAGEREF _Toc261901294 \h 83
HYPERLINK \l "_Toc261901295" Les enjeux dorganisation PAGEREF _Toc261901295 \h 84
HYPERLINK \l "_Toc261901296" Le rôle du DSI PAGEREF _Toc261901296 \h 84
HYPERLINK \l "_Toc261901297" Le DSI idéal PAGEREF _Toc261901297 \h 84
HYPERLINK \l "_Toc261901298" Les missions du DSI PAGEREF _Toc261901298 \h 85
HYPERLINK \l "_Toc261901299" Types dorganisation PAGEREF _Toc261901299 \h 87
HYPERLINK \l "_Toc261901300" Lorganisation par fonctions informatique PAGEREF _Toc261901300 \h 89
HYPERLINK \l "_Toc261901301" Lorganisation orientée services informatique PAGEREF _Toc261901301 \h 91
HYPERLINK \l "_Toc261901302" Positionnement de la DSI PAGEREF _Toc261901302 \h 93
HYPERLINK \l "_Toc261901303" Le modèle « centre de coûts » PAGEREF _Toc261901303 \h 94
HYPERLINK \l "_Toc261901304" Le modèle « centre de services » PAGEREF _Toc261901304 \h 94
HYPERLINK \l "_Toc261901305" Le modèle « centre de valeurs » PAGEREF _Toc261901305 \h 95
HYPERLINK \l "_Toc261901306" Comment aller du centre de coûts vers le « centre de valeurs » ? PAGEREF _Toc261901306 \h 95
HYPERLINK \l "_Toc261901307" Chapitre 7 PAGEREF _Toc261901307 \h 99
HYPERLINK \l "_Toc261901308" Les enjeux et défis de pilotage PAGEREF _Toc261901308 \h 99
HYPERLINK \l "_Toc261901309" Rendre le SI intelligible PAGEREF _Toc261901309 \h 101
HYPERLINK \l "_Toc261901310" Maîtriser ses coûts et son budget PAGEREF _Toc261901310 \h 105
HYPERLINK \l "_Toc261901311" Optimiser la relation avec les autres directions de lentreprise PAGEREF _Toc261901311 \h 110
HYPERLINK \l "_Toc261901312" Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif PAGEREF _Toc261901312 \h 110
HYPERLINK \l "_Toc261901313" Responsabiliser les métiers PAGEREF _Toc261901313 \h 116
HYPERLINK \l "_Toc261901314" Le nécessaire marketing du S.I. PAGEREF _Toc261901314 \h 120
HYPERLINK \l "_Toc261901315" La conduite du changement PAGEREF _Toc261901315 \h 125
HYPERLINK \l "_Toc261901316" Lautonomisation des métiers PAGEREF _Toc261901316 \h 127
HYPERLINK \l "_Toc261901317" Gérer efficacement les ressources et les moyens PAGEREF _Toc261901317 \h 128
HYPERLINK \l "_Toc261901318" La théorie du chaos PAGEREF _Toc261901318 \h 128
HYPERLINK \l "_Toc261901319" Le cycle de vie des applications PAGEREF _Toc261901319 \h 130
HYPERLINK \l "_Toc261901320" Anatomie des désastres PAGEREF _Toc261901320 \h 134
HYPERLINK \l "_Toc261901321" Limplication des utilisateurs au bon moment PAGEREF _Toc261901321 \h 137
HYPERLINK \l "_Toc261901322" Un pilotage multidimensionnel PAGEREF _Toc261901322 \h 142
HYPERLINK \l "_Toc261901323" Exploiter les bonnes pratiques PAGEREF _Toc261901323 \h 143
HYPERLINK \l "_Toc261901324" Gérer les compétences PAGEREF _Toc261901324 \h 149
HYPERLINK \l "_Toc261901325" Chapitre 8 PAGEREF _Toc261901325 \h 152
HYPERLINK \l "_Toc261901326" Activer les leviers de création de valeur PAGEREF _Toc261901326 \h 152
HYPERLINK \l "_Toc261901327" La valeur passe avant le R.O.I PAGEREF _Toc261901327 \h 153
HYPERLINK \l "_Toc261901328" La vue partagée 360° du SI PAGEREF _Toc261901328 \h 154
HYPERLINK \l "_Toc261901329" Apprivoiser le changement PAGEREF _Toc261901329 \h 154
HYPERLINK \l "_Toc261901330" Sinspirer de la théorie de la simplexité PAGEREF _Toc261901330 \h 156
HYPERLINK \l "_Toc261901331" Changer de point de vue : le passage de linfini au fini PAGEREF _Toc261901331 \h 158
HYPERLINK \l "_Toc261901332" Lanalyse par la valeur PAGEREF _Toc261901332 \h 162
HYPERLINK \l "_Toc261901333" La gestion du portefeuille applicatif PAGEREF _Toc261901333 \h 167
HYPERLINK \l "_Toc261901334" Contrôler ses biens logiciels PAGEREF _Toc261901334 \h 167
HYPERLINK \l "_Toc261901335" Evaluer la valeur des applications PAGEREF _Toc261901335 \h 169
HYPERLINK \l "_Toc261901336" Le cycle de vie des évolutions PAGEREF _Toc261901336 \h 171
HYPERLINK \l "_Toc261901337" Partie 4-Les approches de modernisation PAGEREF _Toc261901337 \h 173
HYPERLINK \l "_Toc261901338" Chapitre 9 PAGEREF _Toc261901338 \h 174
HYPERLINK \l "_Toc261901339" Mise en perspective PAGEREF _Toc261901339 \h 174
HYPERLINK \l "_Toc261901340" La gouvernance de lhéritage PAGEREF _Toc261901340 \h 174
HYPERLINK \l "_Toc261901341" Lévolution préventive PAGEREF _Toc261901341 \h 175
HYPERLINK \l "_Toc261901342" Chapitre 10 PAGEREF _Toc261901342 \h 177
HYPERLINK \l "_Toc261901343" Les approches tactiques orientées solutions PAGEREF _Toc261901343 \h 177
HYPERLINK \l "_Toc261901344" Abandonner, réutiliser, rénover lexistant PAGEREF _Toc261901344 \h 178
HYPERLINK \l "_Toc261901345" Faire une croix sur lexistant PAGEREF _Toc261901345 \h 179
HYPERLINK \l "_Toc261901346" Réutiliser des services de surface PAGEREF _Toc261901346 \h 181
HYPERLINK \l "_Toc261901347" Rénover en profondeur avec la réingénierie logicielle PAGEREF _Toc261901347 \h 182
HYPERLINK \l "_Toc261901348" Comment débuter ? PAGEREF _Toc261901348 \h 183
HYPERLINK \l "_Toc261901349" Le champ de la réingénierie logicielle PAGEREF _Toc261901349 \h 186
HYPERLINK \l "_Toc261901350" La rétrodocumentation PAGEREF _Toc261901350 \h 186
HYPERLINK \l "_Toc261901351" La conversion de langage PAGEREF _Toc261901351 \h 187
HYPERLINK \l "_Toc261901352" La réarchitecture de code PAGEREF _Toc261901352 \h 190
HYPERLINK \l "_Toc261901353" La migration de plateformes PAGEREF _Toc261901353 \h 195
HYPERLINK \l "_Toc261901354" Quelle solution privilégier ? PAGEREF _Toc261901354 \h 197
HYPERLINK \l "_Toc261901355" La méthode PAGEREF _Toc261901355 \h 197
HYPERLINK \l "_Toc261901356" Le contrôle de lévolution PAGEREF _Toc261901356 \h 199
HYPERLINK \l "_Toc261901357" La rénovation progressive du patrimoine PAGEREF _Toc261901357 \h 201
HYPERLINK \l "_Toc261901358" Diagnostic PAGEREF _Toc261901358 \h 202
HYPERLINK \l "_Toc261901359" Redocumentation PAGEREF _Toc261901359 \h 202
HYPERLINK \l "_Toc261901360" Simplification/rationalisation PAGEREF _Toc261901360 \h 204
HYPERLINK \l "_Toc261901361" Transformations dinfrastructures PAGEREF _Toc261901361 \h 204
HYPERLINK \l "_Toc261901362" Introduction du paramétrage PAGEREF _Toc261901362 \h 205
HYPERLINK \l "_Toc261901363" Contrôle de lévolution PAGEREF _Toc261901363 \h 205
HYPERLINK \l "_Toc261901364" Partie 5- Les meilleures pratiques de lévolution PAGEREF _Toc261901364 \h 206
HYPERLINK \l "_Toc261901365" Chapitre 11 PAGEREF _Toc261901365 \h 207
HYPERLINK \l "_Toc261901366" Aspects dArchitecture dEntreprise PAGEREF _Toc261901366 \h 207
HYPERLINK \l "_Toc261901367" Le Concept de SI durable PAGEREF _Toc261901367 \h 208
HYPERLINK \l "_Toc261901368" Gouverner lhéritage du passé pour contribuer au futur PAGEREF _Toc261901368 \h 208
HYPERLINK \l "_Toc261901369" Modernisation et urbanisation : les deux faces de Janus PAGEREF _Toc261901369 \h 213
HYPERLINK \l "_Toc261901370" Durabilité et chaîne dagilité PAGEREF _Toc261901370 \h 216
HYPERLINK \l "_Toc261901371" Les cartographies PAGEREF _Toc261901371 \h 220
HYPERLINK \l "_Toc261901372" Le géographe et les explorateurs PAGEREF _Toc261901372 \h 220
HYPERLINK \l "_Toc261901373" Référentiel de lecture ou référentiel spatio-temporel PAGEREF _Toc261901373 \h 221
HYPERLINK \l "_Toc261901374" Lutile et lindispensable PAGEREF _Toc261901374 \h 222
HYPERLINK \l "_Toc261901375" Le temps de cartographier PAGEREF _Toc261901375 \h 223
HYPERLINK \l "_Toc261901376" La carte nest pas le territoire PAGEREF _Toc261901376 \h 225
HYPERLINK \l "_Toc261901377" Les référentiels PAGEREF _Toc261901377 \h 226
HYPERLINK \l "_Toc261901378" La cartographie des référentiels sur la « vue 360° » du SI PAGEREF _Toc261901378 \h 226
HYPERLINK \l "_Toc261901379" Les référentiels darchitecture dentreprise PAGEREF _Toc261901379 \h 228
HYPERLINK \l "_Toc261901380" Du bon usage des référentiels PAGEREF _Toc261901380 \h 230
HYPERLINK \l "_Toc261901381" Chapitre12 PAGEREF _Toc261901381 \h 232
HYPERLINK \l "_Toc261901382" Lindustrialisation PAGEREF _Toc261901382 \h 232
HYPERLINK \l "_Toc261901383" Le triptyque : Coût, délai, qualité et ses limites PAGEREF _Toc261901383 \h 233
HYPERLINK \l "_Toc261901384" Les modèles de lindustrie qui font rêver linformatique PAGEREF _Toc261901384 \h 235
HYPERLINK \l "_Toc261901385" Lamélioration continue PAGEREF _Toc261901385 \h 235
HYPERLINK \l "_Toc261901386" La roue de Deming et le sens du mouvement PAGEREF _Toc261901386 \h 237
HYPERLINK \l "_Toc261901387" Lhumain en moteur de lévolution PAGEREF _Toc261901387 \h 239
HYPERLINK \l "_Toc261901388" Industrialisation des logiciels PAGEREF _Toc261901388 \h 240
HYPERLINK \l "_Toc261901389" Le principe dusine logicielle PAGEREF _Toc261901389 \h 240
HYPERLINK \l "_Toc261901390" Lindustrialisation de la maintenance PAGEREF _Toc261901390 \h 241
HYPERLINK \l "_Toc261901391" Les unités duvre PAGEREF _Toc261901391 \h 244
HYPERLINK \l "_Toc261901392" La standardisation PAGEREF _Toc261901392 \h 248
HYPERLINK \l "_Toc261901393" Les avantages des standards PAGEREF _Toc261901393 \h 248
HYPERLINK \l "_Toc261901394" Labus de standardisation peut être préjudiciable PAGEREF _Toc261901394 \h 249
HYPERLINK \l "_Toc261901395" Linformatique en flux tendu PAGEREF _Toc261901395 \h 252
HYPERLINK \l "_Toc261901396" Les origines PAGEREF _Toc261901396 \h 252
HYPERLINK \l "_Toc261901397" Le parallèle PAGEREF _Toc261901397 \h 253
HYPERLINK \l "_Toc261901398" La mise sous tension du système dinformation PAGEREF _Toc261901398 \h 254
HYPERLINK \l "_Toc261901399" Chapitre13 PAGEREF _Toc261901399 \h 255
HYPERLINK \l "_Toc261901400" Innovation et Intelligence de lévolution PAGEREF _Toc261901400 \h 256
HYPERLINK \l "_Toc261901401" Linnovation PAGEREF _Toc261901401 \h 257
HYPERLINK \l "_Toc261901402" Différenciation ou nécessité PAGEREF _Toc261901402 \h 257
HYPERLINK \l "_Toc261901403" Domestiquer la «courbe des tendances » PAGEREF _Toc261901403 \h 260
HYPERLINK \l "_Toc261901404" Le paradoxe dAchille et la tortue PAGEREF _Toc261901404 \h 261
HYPERLINK \l "_Toc261901405" Lévolution des compétences et des organisations PAGEREF _Toc261901405 \h 265
HYPERLINK \l "_Toc261901406" Le lien entre savoir-être et savoir-faire PAGEREF _Toc261901406 \h 266
HYPERLINK \l "_Toc261901407" Lintelligence de linteraction PAGEREF _Toc261901407 \h 267
HYPERLINK \l "_Toc261901408" Des binômes agiles pour lévolution PAGEREF _Toc261901408 \h 271
HYPERLINK \l "_Toc261901409" Conclusion PAGEREF _Toc261901409 \h 272
HYPERLINK \l "_Toc261901410" Annexe PAGEREF _Toc261901410 \h 275
HYPERLINK \l "_Toc261901411" Les grands changements de paradigme qui ont précédés Internet PAGEREF _Toc261901411 \h 276
HYPERLINK \l "_Toc261901412" Première époque La période centralisée (années 50-60) PAGEREF _Toc261901412 \h 276
HYPERLINK \l "_Toc261901413" Le règne des titans PAGEREF _Toc261901413 \h 276
HYPERLINK \l "_Toc261901414" Les amorces du changement PAGEREF _Toc261901414 \h 277
HYPERLINK \l "_Toc261901415" Deuxième époque La période dOuverture (décennies 70-80) PAGEREF _Toc261901415 \h 278
HYPERLINK \l "_Toc261901416" Les systèmes transactionnels PAGEREF _Toc261901416 \h 278
HYPERLINK \l "_Toc261901417" Unix : une rupture significative PAGEREF _Toc261901417 \h 280
HYPERLINK \l "_Toc261901418" Larrivée des ordinateurs personnels PAGEREF _Toc261901418 \h 282
HYPERLINK \l "_Toc261901419" Un nouveau modèle économique PAGEREF _Toc261901419 \h 283
HYPERLINK \l "_Toc261901420" Troisième époque les architectures Distribuées (1990- 2000) PAGEREF _Toc261901420 \h 284
HYPERLINK \l "_Toc261901421" Le modèle client-serveur PAGEREF _Toc261901421 \h 284
HYPERLINK \l "_Toc261901422" Les niveaux darchitecture PAGEREF _Toc261901422 \h 286
Avant-propos
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Le commencement est la moitié de tout.
Platon
Après cinquante ans dexercice en entreprise, linformatique nest plus un secteur si nouveau quil justifia den vulgariser lapproche pour les spécialistes.
Rien nest moins sûr, car les technologies de linformation et des communications sont une chose, les systèmes dinformation dentreprise, une autre. Tant que cette vérité première naura pas été comprise par les directions dentreprises, elles ne sauront pas utiliser et piloter intelligemment un levier stratégique dadaptation à léconomie immatérielle : leur système dinformation.
Comment dès lors faire évoluer les comportements, les organisations et lhéritage du passé pour exploiter pleinement ce levier potentiel? Ce livre a pour ambition déclairer les différentes parties prenantes, chefs de projets, directions des systèmes dinformation mais aussi directions générales et directions métiers, sur les enjeux dévolution qui sont à luvre dans le pilotage des systèmes dinformation.
Il nous paraît en particulier nécessaire de rappeler sept vérités :
1 La valeur du système dinformation réside dabord dans ses actifs immatériels, pas dans une logique purement tayloriste.
2 Le système dinformation nécessite davoir réfléchi sur linformation avant de réfléchir aux technologies.
3 La course aux technologies est contre-productive quand on a un existant à gérer.
4 L'évolution ne tire pas ses nouveautés du néant. Elle travaille sur ce qui existe déjà.
5 La direction des systèmes dinformation est une question transverse de Stratégie dEntreprise.
6 David contre Goliath : Internet et linnovation par le système dinformation
7 La gouvernance commence par la gestion du patrimoine
La valeur du système dinformation réside dabord dans ses actifs immatériels
En effet, ce nest pas une logique purement tayloriste qui fonde la valeur dun système dinformation.
Quand on parle de productivité et dindustrialisation, les abaques et les mesures des secteurs industriels producteurs de matières, en particulier la logique du taylorisme, ne sont pas applicables à un système dinformation dont la valeur se mesure surtout à laune dactifs immatériels. Or ce type de mesure est mal maîtrisée (voir lencart ci-après « Comment mesurer lintangible ? »).
Les actifs immatériels sont des biens non physiques de lentreprise mais qui représentent un patrimoine à valeur ajoutée, comme, par exemple, la valeur dune marque connue, ou des bases de données dentreprise contenant de précieuses informations sur les clients ou les fournisseurs. Ces biens ont une valeur certaine mais implicite et rarement formalisée clairement dans un portefeuille de gestion des actifs, ainsi que les risques associés. Pour les entreprises qui raisonnent encore en « centre de coûts » pour leur informatique (voir plus loin les définitions centre de coûts, centre des services et centre de valeur), il serait utile de leur demander de réfléchir aux conséquences financières dune interruption totale de tous leurs systèmes ou plus simplement une perte de données clients sur leurs ventes de produits et services.
Comment mesurer lintangible?
Une économie immatérielle à 86%
« Selon une étude de la Banque mondiale, léconomie française est immatérielle à 86 %. Sur les grandes places financières, lévolution est de même nature. Ainsi, la valeur immatérielle des entreprises cotées est devenue nettement supérieure à leur valeur comptable. Enfin, les normes IAS-IFRS accompagnent ce mouvement en reconnaissant un nombre important dactifs incorporels et la nécessité de les mesurer précisément. »
Cet extrait est issu du portail de lobservatoire de limmatériel (www.observatoire-immateriel.com) dédié à la mesure des actifs immatériels. Créé en 2005, suite au constat de limportance financière et managériale de ces derniers dans la gestion dentreprise et au manque de normes et méthodes de mesures, ses contributeurs ont entrepris un important travail de recherche pour proposer un premier référentiel européen de mesure de ces actifs à laide dun outil « baromètre » qui organise la mesure, la comparaison et la progression de 9 actifs fondamentaux, 71 critères danalyse et 175 indicateurs de mesure.
Le système dinformation figure au titre des 9 actifs fondamentaux, mais son rôle est particulier. Ainsi que le souligne Jean Pierre Corniou, président de EDS services qui livre son témoignage sur ce même portail « Dans lère immatérielle nous sommes passés de la main duvre au cerveau duvre. Le Système dinformation est le bras armé du cerveau duvre » et de préciser « la capacité du SI à fédérer lensemble du capital immatériel de lentreprise représente un facteur stratégique pour lentreprise [] en créant une communauté virtuelle efficace entre tous les acteurs».
Selon ses termes « le temps cest la pertinence du SI », car, bien utilisé, le SI est un accélérateur autant pour capter les besoins clients, les évolutions sociétales, que pour délivrer plus vite sur le marché des produits et services y répondant. Mais cette capacité suppose quil soit « dégagé des contraintes du manque de visibilité et du manque dintelligence ». Cest là quintervient la nécessité de moderniser les Systèmes dinformation pour les libérer des contraintes dincohérence et de manque de visibilité afin que leur rôle soit non seulement de « baisser les coûts de fonctionnement ce qui est tangible et très visible, mais aussi daccroitre la valeur intrinsèque »
Réfléchir à linformation avant de penser aux technologies
Un système dinformation ne se résume pas à un assemblage de technologies, loin sen faut. Les fameuses statistiques déchecs de projets informatiques (voir en chapitre 7 REF _Ref260503033 \h La théorie du chaos) nillustrent pas seulement une faiblesse éventuelle de pilotage ou des difficultés dordre techniques, mais également la défaillance de la nécessaire composante humaine, organisationnelle et architecturale de tout projet de changement dun système dinformation.
Car il ne faudrait pas oublier lobjectif au final de ces fameux systèmes dinformation. Il est de stocker, préserver, exploiter et échanger des informations pour automatiser des tâches réplicables de façon plus sécurisée que ne le pourrait une intervention humaine, ou fournir à des utilisateurs les informations indispensables pour leur permettre dagir à bon escient et plus vite.
Or sil ny a pas de réflexion amont sur la valeur de linformation à manipuler, comment larchitecturer puis comment en expliquer et en diffuser lutilisation, le système risque fort dêtre insatisfaisant pour les utilisateurs. Voire plus, il pourrait conduire à une plaie commune aux entreprises de toutes tailles : une floraison de petites applications à droite et à gauche, développées par des utilisateurs sur des applications bureautiques (en particulier grâce aux macros ©Microsoft Excel). Applications qui ont été créées au fil de leau, pour reconstituer rapidement les informations oubliées ou difficilement accessibles des systèmes institutionnels. Les conséquences pour la cohérence de lensemble sont facilement imaginables.
Une course aux technologies contre-productive sil y a un existant à gérer
Le cycle de vie des applications en entreprises nest pas celui des technologies et la course folle vers les dernières nouveautés peut savérer à certains égards contre-productive si, en courant, on oublie en quelque sorte de défaire les liens qui peuvent entraver les pieds, c'est-à-dire « lhéritage » des cinquante dernières années (voir laparté ci-après et le chapitre 1 consacré à lhéritage des SI). Une application en entreprise peut vivre quarante ans sur des technologies dont le support sur le marché ne dure pas aussi longtemps. Reste, bien entendu, à mesurer aussi toutes les conséquences de lobsolescence, et comprendre comment prévenir les seuils critiques dobsolescence plutôt que de réagir quand ils sont atteints, au risque de mettre en danger la viabilité de lentreprise toute entière.
Ils lont dit
Papillonner dune technologie à lautre : un coût aberrant, par Paul Strassmann
Cost of technology churn (1)
Every seven years, we have torn up what has gone before and started again
There have been eight cycles of 'build and scrap' since 1946. The first cost $100m, equal to 7 per cent of business investment at the time. The last cost $2,000bn, or 47 per cent. The next would have cost $5,000bn but we have run out of money: we have come to the end of history as we know it.
Paul A. Strassmann, former Chief Information Technology executive for General Foods, Kraft, Xerox and the US Department of Defense. http://www.strassmann.com/
Le coût de labandon des anciennes technologies pour des nouvelles :
« Tous les sept ans, nous avons jeté à la poubelle à ce qui avait été commencé auparavant et recommencé. Il y a eu 8 cycles de « construction et abandon » depuis 1946. Le premier a coûté 100m$, ce qui correspondait à 7% de nos investissements dentreprise à lépoque. Le dernier à coûté 2 milliards soit 47%. Le suivant aurait coûté 5 000 milliards mais nous étions à court dargent : nous sommes arrivés à la fin de lhistoire telle que nous la connaissions »
Lévolution travaille sur ce qui existe déjà
La réflexion amont ne suffit pas si elle ne prend pas en compte les contraintes ou les forces de lexistant. Des schémas directeur dont les grandes lignes directionnelles omettent les capacités et les contraintes de départ, voire sous-estiment la connaissance déjà enfouie dans les systèmes existants, sans même parler des habitudes dusage, sont voués à léchec.
Certains de ces systèmes sont le fruit de nombreux investissements, opérationnels depuis des années, ils peuvent avoir recueilli les meilleures pratiques suite à des demandes dévolution de la part des utilisateurs et ils soutiennent parfois des opérations critiques pour le métier des organisations (exemple des transactions bancaires). En parallèle, ils doivent faire face à une pénurie de compétences et une perte de connaissances, car ou bâtis sur des technologies anciennes non enseignées ou conçus par des personnes qui ne sont plus disponibles pour les faire évoluer.
De surcroît, la logique de conception, ancienne, ne répond probablement pas à lagilité requise aujourdhui par le contexte économique, c'est-à-dire la capacité à répondre rapidement à de nouveaux besoins fonctionnels et métiers. Dès lors, la tentation est grande dopter pour des solutions de remplacement ou de refonte. Or sans lecture approfondie des avantages et des limites de ces solutions non seulement par rapport aux nouvelles fonctions et nouveaux services quelles pourraient fournir, mais aussi par rapport à leur capacité de couverture de tous les services existants, la réponse sera insatisfaisante. Malheureusement, les services existants ne sont pas suffisamment visibles dans leur ensemble pour que cette lecture ait lieu sans effort conséquent.
Du coup, le paradoxe est le suivant : par difficulté à mettre de lordre dans lexistant, le faire réagir plus rapidement et donner plus de visibilité à sa valeur, on rajoute des couches hétérogènes les unes sur les autres. On construit alors une architecture accidentelle ou chaque nouveau besoin conduit à une nouvelle application, jusquà ne plus avoir du tout de visibilité sur la valeur réelle du système dinformation global à lentreprise devenu une sorte de tour de pise construite par strates- et pas plus de capacité à y mettre de lordre.
La direction des systèmes dinformation est une question transverse de stratégie dentreprise
La direction des systèmes dinformation nest pas affaire uniquement de maitrise des technologies de linformation. Elle est nécessairement transverse, doù lambition de ce livre de lêtre. La transversalité est indispensable pour remonter vers la qualification de la valeur de linformation évoquée ci-dessus. Si le principe des architectures Orientées Services (SOA), na pas abouti aux succès escomptés, cest en partie faute davoir réussi cette prise de conscience de limplication profonde des autres directions de lentreprise dans la démarche et davoir aussi donné du temps à cette prise de conscience. On ne brusque pas le changement.
Ensuite la transversalité est nécessaire pour piloter des ressources très différentes, alliant des problématiques dinfrastructure techniques à celles de gestion des ressources humaines. Il sagit de mobiliser des compétences hétérogènes, multiculturelles et multi-disciplines, avec de surcroît des logiques de fournisseurs internes et externes à lentreprise. Cette dernière ne peut plus être garante seule de disposer de toutes les compétences.
La transversalité est également nécessaire pour ne plus raisonner «en silos» et découper le système dinformation en applications ou en organisations verticales. Les conséquences de ce découpage sont souvent les mêmes : difficulté à gérer des processus métiers de bout en bout ou difficultés de continuité entre lémission dune demande métier, le développement ou la maintenance évolutive y afférant, et la mise en production dune application.
Mais la transversalité doit aller au-delà dune vision projet, fût-il dentreprise. Nous sommes à une époque charnière, où les systèmes dinformation dépassent le cadre de lentreprise grâce à la « plate-forme globale Internet » et la bascule du centre de gravité de léconomie des pays développés des productions lourdes vers léconomie immatérielle.
David contre Goliath : Internet et linnovation par le système dinformation
Ce n'est pas le concept, ni même les technologies, qui sont nouveaux. C'est plutôt l'arrivée à maturation d'un processus lancé en 2000, et qui voit aujourd'hui le niveau d'équipement des ménages (accès Web, téléphones mobiles) progresser d'une manière telle que les offres purement numériques, c'est-à-dire purement issues dun système dinformation, ont une audience de plus en plus large, et sont même attendues des clients et/ou usagers. Quand le concept rencontre le marché, il n'y a plus innovation, mais nécessité.
On voit ce changement avec lapparition dentreprises nouvelles, fondées sur le commerce électronique, dont le modèle repose justement sur lusage intensif des technologies de linformation, à tel point que le ratio du budget de la DSI par rapport au chiffre daffaires de lentreprise avoisine les 50%, là où les entreprises traditionnelles, tous secteurs confondus, se cantonnent à des pourcentages moyens à un chiffre.
Dautre part, il y a une formidable opportunité pour les petites et moyennes entreprises de renverser une donne qui jusquà présent voulait que seules les organisations ayant suffisamment de moyens en budget et en ressources humaines compétentes pouvaient bâtir des systèmes dinformation performants.
Avec les modèles de léconomie immatérielle rendus possibles par la plate-forme globale Internet, telles les offres du logiciel libre actuelles, les solutions de type Software As a Service, ou plus largement « X As A service » et jusquau cloud computing ( voir définition chapitre 11), des infrastructures dentreprise puissantes, et jusquà des briques logicielles pointues, sont à portée de tous, pour pouvoir se concentrer sur la valeur des services et non sur les contraintes de la technique. Dès lors, linnovation par le Système dinformation peut être un critère de différentiation des Davids contre les Goliaths.
Un peu dhistoire
La Plate-forme Globale Internet : retour vers le futur
Souvent évoquée comme une nébuleuse, la plate-forme globale Internet est juste lillustration dune évolution commencée au milieu des années 90s. La mise à disposition dune infrastructure réseau à travers une interface conviviale permettant de la publication et de la recherche dinformation, le Web, à un public étendu, a progressivement conduit à faire dInternet un tissu cellulaire de léconomie immatérielle en étant un réseau déchanges dinformations et dachats/ventes de biens et services reliant entreprises, clients, fournisseurs et partenaires.
Des intranets des débuts aux sites Internet institutionnels en passant par les extranets reliant des partenaires, puis aux « ASP », Application Service Provider, débuts balbutiants du « Software As a Service » en amorçant des logiques dhébergement dapplications chez le fournisseur accessibles au client par Internet, les technologies et les niveaux de maturités ont conduit à de véritables plate-formes de services profitant dune puissance dinfrastructure démultipliée par les techniques de virtualisation et de cloud computing (cf définitions chapitre11).
Pour retracer cette évolution en quelques chiffres et dates clés, la première démonstration publique du réseau Arpanet a eu lieu en 1972, en 1995, le navigateur Mosaic faisait une timide apparition dans quelques rares intranets dentreprises, pour structurer et échanger plutôt de linformation documentaire. En 2000, les perspectives de commerce électronique sétiolaient brutalement avec léchec des places de marché, pour reprendre de façon exponentielle dès 2005. Les ventes en ligne brassent aujourdhui des milliards de chiffre daffaires et poursuivent une croissance à deux chiffres.
Internet est loin de se cantonner uniquement à la vente en ligne et à de nouveaux canaux de ventes. Le web (qui ne cesse dévoluer avec le 2.0) a favorisé léclosion de nouveaux services, de nouveaux modèles économiques, de nouveaux modèles dorganisation, de nouvelles logiques darchitecture, de nouvelles bases dinformation et de connaissance.
Aujourdhui, il y a nécessité et urgence pour toutes les entreprises traditionnelles daugmenter leur offre de services numériques ainsi que leur usage interne de ces technologies désormais largement diffusées à lextérieur. Sinon elles perdront des parts de marché face à des entreprises plus agiles, qui démarrent sans passif dexistant, pour exemple, de codes spécifiques à maintenir.
La gouvernance commence par la gestion du patrimoine applicatif
Pour rester compétitives, les entreprises doivent réfléchir à lintégration à part entière du système dinformation dans leur stratégie. Il sagit daller bien au-delà dune déclinaison tactique des enjeux métiers qui consisterait à aligner le système dinformation à une stratégie dentreprise déjà déterminée.
En parlant dalignement stratégique, on risque dinduire implicitement que le système dinformation suit les décisions stratégiques de lentreprise. Cest ce qui se passe au mieux dans les entreprises déjà matures. Le retard est énorme, car le tournant aujourdhui se situe davantage dans une approche proactive où le système dinformation doit participer aux orientations stratégiques, en impliquant les bons acteurs dans les comités de direction.
Or, pour que les directions des systèmes dinformation puissent peser sur les décisions stratégiques et prétendre à un apport de valeur, elles doivent avoir la capacité à prendre du recul et voir plus loin que la gestion des contraintes opérationnelles de continuité de services qui est leur première mission.
Ce qui veut dire se libérer autant que faire se peut des contraintes non justifiées par la valeur mais imposées par linertie dun existant. C'est-à-dire appliquer cette fameuse gouvernance des systèmes dinformation, dont on parle depuis quelques années, dabord à « lhéritage patrimonial ». Cest en effet sous le terme « legacies » que nos amis anglos-saxons désignent les applications existantes. Elles savèrent être aussi bien des legs précieux que des dettes, si on ne sait pas les faire évoluer en utilisant les meilleures pratiques et référentiels de la profession.
Car sans gestion volontaire de leur patrimoine, les directions des systèmes dinformation peuvent se retrouver asphyxiées en permanence par le maintien à niveau dun existant de plus en plus rigide et coûteux, qui demande de plus en plus defforts pour fournir a minima les mêmes services aux utilisateurs.
Principe et structure de louvrage
Ce livre veut montrer en quoi les enjeux dévolution économique des entreprises nécessitent une nouvelle approche des systèmes dinformation et des organisations associées, guidée par la valeur. Mais lapproche ne peut aboutir sans faire évoluer un héritage dapplications et de pratiques existantes, à travers une véritable gestion de patrimoine immatériel. Ce livre dresse les pistes pour y arriver, pistes nécessairement transversales et multiaxes, multiples également selon le niveau de maturité et le contexte de lentreprise. Pour autant, elles ne font quappliquer quelques principes de bon sens doublés de bonnes pratiques.
Lobjectif de cet ouvrage est de donner à ses lecteurs les moyens de comprendre les tenants et aboutissants des enjeux de pilotage des systèmes dinformation existants, afin de pouvoir élaborer des trajectoires dévolution en disposant dune vision de ce que devrait être la place stratégique du système dinformation dans lentreprise et comment y arriver.
Au-delà de cet objectif premier, lambition de cet ouvrage sera atteinte si tout lecteur amené à prendre une décision dévolution sur son système dinformation, quelle que soit la direction à laquelle il appartienne et la taille de son entreprise, puisse y trouver matière à organiser sa réflexion sur la stratégie dévolution et sa déclinaison opérationnelle. Nous souhaiterions également quil ait envie de partager cette réflexion avec ses pairs, car le directeur des systèmes dinformation idéal, qui rassemblerait toutes les qualités nécessaires à une approche guidée par la valeur, est un
collectif de compétences (voir au chapitre 6 « le DSI idéal »).
Aussi, ce livre, sil traite du pilotage des systèmes dinformation, ne sadresse pas seulement aux fonctions transverses et de directions propres aux métiers des systèmes dinformation. Cest à dire Directeur des SI, responsables de services informatiques ou de domaines applicatifs, urbanistes, architectes, chefs de projet, et autres. Il sadresse également à tout acteur de lentreprise souhaitant mieux comprendre comment faire du système dinformation un atout gagnant pour la stratégie de son entreprise et comment piloter la transition vers cet état.
Aussi, pour ne pas perdre ses lecteurs, ce livre prendra le parti pris de revenir, grâce à de multiples apartés, sur du jargon technique ou sur des fondamentaux des systèmes dinformation qui paraissent évidents aux spécialistes mais quil est toujours bon de rappeler, ainsi que quelques historiques qui ont semblé à lauteur ne pas manquer dintérêt pour comprendre les évolutions.
Ce livre sattache également à avoir une fluidité de lecture en partant dun constat, lhéritage de cinquante ans dinformatique et les enjeux et contraintes qui en découlent, pour aller de fil en aiguille au développement possible de la place stratégique des systèmes dinformation dans lentreprise.
Pour ce faire, louvrage est divisé en cinq parties principales. En premier, il part du constat du legs dun patrimoine hétérogène et la nécessaire modernisation associée, puis traite en second lieu des enjeux exogènes de lévolution des systèmes dinformation (pressions externes dues au contexte socio-économique) et des risques au niveau entreprise. En troisième partie, il développe les enjeux, défis, moyens et pratiques de la DSI pour se diriger du pilotage opérationnel vers le pilotage par la valeur, pour ouvrir en quatrième partie sur les solutions tactiques de la modernisation et terminer en cinquième partie sur les meilleures pratiques de lévolution.
Ainsi les chapitres 1, 2 et 3 sattachent à exposer létat des lieux des systèmes existants, les étapes historiques qui ont menées aux difficultés de faire communiquer des strates hétérogènes et en quoi Internet est devenu un véritable catalyseur de lévolution. Ils dressent ainsi la genèse du défi que constitue un héritage complexe, peu agile au regard des pressions dévolution de plus en plus fortes.
Lévolution est exigée par la bascule vers une économie majoritairement immatérielle, où les systèmes dinformation sont devenus les colonnes vertébrales des entreprises. Or le manque dagilité de ces derniers peut conduire les entreprises au bord de la paralysie face à des enjeux dévolution qui requièrent des systèmes flexibles, rapidement adaptables. Outre le risque du manque dagilité face à un environnement concurrentiel mouvant, risque loin dêtre neutre, lobsolescence des systèmes conduit à dautres risques certains pour les entreprises. Cest ce que décrivent les chapitres 4 et 5 de la partie 2.
En partie 3, les chapitres 6,7 et 8 décrivent lévolution des organisations vis-à-vis de leur système dinformation (chapitre 6), quels sont les enjeux et défis des DSI (chapitre 7) et comment activer des leviers de création de valeur pour faire du SI un levier dévolution dentreprise (Chapitre 8).
La partie 4 souvre sur la mise en perspective des solutions de modernisation (chapitre 9) pour expliquer ensuite les différentes options tactiques (chapitre10) et la méthode dapproche pour une rénovation progressive de lexistant.
En partie 5, lauteur a voulu aborder les meilleures pratiques de lévolution, autant en terme dapproche architecturale de construction des Systèmes dinformation quen termes dindustrialisation. Dune part pour que les SI puissent sadapter dans la durée et disposer de composants recyclables dans un cadre de cohérence global (chapitre 11), dautre part pour exploiter le potentiel dindustrialisation de certains processus propres au développement et à la maintenance des systèmes. Pour finir sur lavenir et la création de valeur, les meilleures pratiques de lévolution intègrent les dimensions indispensables de linnovation et de lévolution des compétences, en chapitre 13.
Partie 1- Le poids de lexistant
Chapitre 1 un patrimoine hétérogène
Chapitre 2 un catalyseur du changement : la plate-forme globale Internet
Chapitre 3 les forces en marche
Cette partie a pour objet de dresser le paysage des systèmes dinformation actuels, en expliquant les fondations qui y ont présidées. Elle expliquera les enjeux dintégration et de communication entre applicatifs dus à la cohabitation de systèmes très hétérogènes, les applications névoluant pas au même rythme que les changements darchitecture ou de concepts. Les grandes étapes de ces changements et leurs conséquences sont par ailleurs décrites en annexe (les changements de paradigme). Au chapitre 2, nous reviendrons plus particulièrement sur lévolution autour dInternet et comment ce dernier est devenu un catalyseur du changement pour les systèmes dinformation.
Pour finir, le chapitre 3 reviendra sur les phases de métamorphoses du Web qui ont dune part, permis daccélérer linteropérabilité et la logique de services dusage pour linformatique, dautre part accentuées le schisme entre lévolution des technologies et la maturité des organisations. En effet, dans une économie devenue majoritairement immatérielle, les différentes phases dadaptation du Web, passé dune vitrine pour les entreprises à un outil pour tous, ont transformé lenjeu dévolution des systèmes dinformation, jusqualors vécu de façon endogène (en interne à lentreprise, voire à la direction informatique), en un enjeu exogène, où ce sont les pressions externes de lenvironnement socio-économique qui poussent à lévolution des systèmes dinformation.
Reste dès lors à réconcilier la gestion dun patrimoine existant, plutôt rigide et pas forcément homogène ou cohérent avec la stratégie de lentreprise, avec les nécessités dagilité du SI, présentes et futures, dont nous décrirons les enjeux pour lentreprise en partie 2.
Chapitre 1
Un patrimoine hétérogène
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
«Pour prévoir lavenir, il faut connaître le passé, car les événements de ce monde ont en tout temps des liens aux temps qui les ont précédés. Créés par les hommes animés des mêmes passions, ces événements doivent nécessairement avoir les mêmes résultats»
Nicolas Machiavel
Après cinquante ans dinformatique, le paysage des systèmes dinformation dentreprise est très hétérogène. Des mainframes aux architectures orientées services, en passant par les différents modèles darchitecture clients/serveurs, ce sont des technologies très diverses qui sont amenées à cohabiter au sein des entreprises. De ce fait, les approches dintégration et de réutilisation se sont peu à peu imposées et ont évolué en maturité au fur et à mesure que les systèmes évoluaient en complexité et hétérogénéité. De même que les approches de conception ont incorporé de plus en plus de niveaux dabstraction afin dêtre à lavenir moins tributaires des plateformes dimplémentation.
Cinquante ans et plus
Il est un peu arbitraire de déclarer que linformatique a cinquante ans. On pourrait tout aussi bien dire quelle remonte au 17e siècle, à Blaise Pascal et à linvention de la Pascaline, première machine à calculer. Auquel cas nous pourrions parler de siècles. Nous pourrions aussi prendre 1946, année durant laquelle Turing présente son projet de construction d'un calculateur électronique, comme l'acte de naissance de l'ordinateur.
Par contre, où placer les débuts de linformatique en entreprise : à la naissance du terme en France au début des années soixante avec la contraction dInformation et Automatique ? Aux calculateurs et simulateurs des projets Manhattan et Enigma, au concept de la machine de Turing, à larchitecture du calculateur universel de Van Neumann ?
En réalité, il ny a guère plus de cinquante ans. Il faudra attendre 1956, avec Grace Murray HOPPER, pour assister à la naissance du premier langage compréhensible hors du cercle scientifique. Ce langage, spécialisé pour la gestion et le domaine bancaire, destiné à un usage métier, fut nommé
le Cobol (Common Business Oriented Language).
Un tel langage était la clé de voûte qui manquait pour que la programmation des ordinateurs devienne accessible à un plus grand nombre, conduisant progressivement à un usage de plus en plus répandu des technologies de linformation et des communications en entreprise. Lhistoire des systèmes dinformation commençait.
Un peu dhistoire
« Père et mère » fondateurs de linformatique
A lorigine de linformatique moderne, un homme et une femme ont particulièrement marqué les esprits et le cours de lhistoire. Tous deux mathématiciens, ils eurent pourtant des destins et des reconnaissances différentes. Pour démentir la règle, la femme fût couverte dhonneurs, à linverse de lhomme. Il sagit de laméricaine Grace Murray Hopper dun côté, du britannique Alan M. Turing de lautre.
Grace, morte en 1992 à lâge de 86 ans, était encore consultante chez digital IBM à 80 ans et a obtenu plusieurs prix prestigieux. En 1969 elle fut la première « homme de lannée » en Computer Science et en 1971 Sperry créa un prix annuel portant son nom pour honorer de jeunes scientifiques. En 1973 elle fut la première personne aux Etats-Unis et la première femme au monde à être « Distinguished Fellow »de la British Computer Society
Cette pionnière eût la vision dune informatique à portée de tous, du moins une programmation élargie hors du cercle des mathématiciens et des experts en super calculateur. Elle participa activement à concrétiser cette vision avec les premiers compilateurs et le premier langage commun de gestion, le Cobol. Elle sétait aussi engagée dans la marine à lentrée en guerre des Etats-Unis et pour lanecdote, était contre amiral dans la réserve en 1986.
Alan M. Turing fût également un mathématicien de génie, engagé, lui aussi, pendant la seconde guerre mondiale. Cest grâce à une machine algorithmique de sa conception que le code secret Enigma, qui protégeait les transmissions des sous-marins du Reich, a été déchiffré. Selon Gordon Brown (the Daily Telegraph, Londres, 10 septembre 2009) : « Il n'est pas exagéré de dire que, sans sa contribution hors du commun, l'histoire de la seconde guerre mondiale aurait pu être très différente".
Cette déclaration intervient toutefois à titre dexcuses posthumes dun pays qui a condamné Turing, ainsi que 100 000 autres Britanniques, à la castration chimique, pour raison dhomosexualité. Jusquà ce que le vote du Sexual Offences Act, en 1967, ne considère plus lhomosexualité masculine comme un délit. Entre temps, Turing, interdit quasiment de tout projet scientifique suite à sa condamnation en 1952 pour « indécence caractérisée », se suicida en 1954, en croquant une pomme empoisonnée au cyanure.
Une pomme à demi croquée étant limage dune célèbre marque, certains y ont vu un hommage à titre posthume. Que cette référence soit vraie ou fausse, linformatique doit beaucoup à Alan Turing et aurait pu lui devoir davantage ; on ne peut que regretter quil nait pas eu une carrière aussi longue que Grace Murray Hopper pour quil en soit ainsi.
Après le Cobol, bien des générations de langages se sont succédées, variantes et versions venant compliquer la donne de la filiation. Lévolution nous conduit progressivement, en partant des langages rudimentaires dit de « bas niveau », c'est-à-dire proche de la machine, à des « meta-langages » (langages de description dautres langages), en passant par des langages évolués. Lobjectif est toujours le même : parler avec la machine. Cette dernière ne comprend que le binaire (des suites de 0 et de 1, type 01001001
), ça ne rend pas le dialogue passionnant si on en reste à ce «bas niveau».
Lévolution a consisté à élaborer des langages de haut niveau (évolués, donc), lesquels autorisaient le programmeur à manipuler de plus en plus dinstructions et de concepts structurellement compréhensibles par un humain, pour les traduire ensuite en langage compréhensible par la machine. Dabord «une» machine puis progressivement « les » machines, dès lors que des plates-formes virtuelles permettaient de faire abstraction des adhérences avec le système dexploitation.
Le traducteur qui permet de parler à la machine, est un programme capable de traduire un jeu de symboles en un autre jeu, par application de règles de syntaxe et de sémantique. Suivant la nature du langage de programmation employé, ce programme s'appelle un compilateur ou un interpréteur (voir encadré de définition). Plus le langage est évolué, plus il présente un niveau dabstraction par rapport à la machine.
Il est amusant de faire une comparaison, toute relative et sujette à caution quelle soit, entre lévolution des niveaux dabstraction en peinture, suivant les âges, et lévolution des niveaux dabstraction dans les langages informatique (voir figure 1-1). Ainsi pourrait-on filer la métaphore, en partant des grottes de Lascaux et le langage assembleur, pour aller jusquà Picasso et le langage objet. Si la métaphore montre bien le besoin dévolution dans les niveaux dabstractions, elle ne montre pas un autre aspect des générations de langages : la cohabitation, pour partie nécessaire, pour partie subie.
EvolutionLangage.png
Légendes figurant dans limage
Figure SEQ Figure \* ARABIC \s 1 1-1
Evolution des langages et évolution picturale
Définition
Parlez-vous le compilé ou linterprété ?
Langages compilés
Les langages compilés sont des langages ou toutes les instructions sont traduites en code objet avant dêtre exécutées. Cette conversion s'effectue au moyen d'un compilateur.
Langages interprétés
Les langages interprétés sont des langages décodés et exécutés instruction par instruction à l'aide d'un programme appelé interpréteur. (ex BASIC, bien que la plupart des versions actuelles en permettent ou en imposent la compilation. )Liste à numéros de lencadré
Laprès tour de Babel
Le mythe le plus pertinent pour linformatique serait la tour de Babel. Il ny a pas de langage unique pour « les contrôler tous». Ainsi comptait-on déjà 700 langages en 1969 à la NASA pour la mission Apollo, 2000 langages en lan 2000, plus de 2500 aujourdhui. Et encore, tout dépend du mode de décompte, car si on prend en compte variantes et versions, les chiffres peuvent devenir faramineux. Il suffit de consulter quelques listes en référence sur le Web dont celle de Bill Kinnersley, (accessible au lien suivant : http://people.ku.edu/~nkinners/LangList/Extras/langlist.htm) ou celle dEric Lévénez (http://www.levenez.com/lang/).
En réalité cette diversité sexplique non seulement par les évolutions techniques mais également par des objectifs différents, car tous les langages ne se valent pas au regard de lapplication recherchée. Il existe des langages dédiés pour concevoir du matériel, des langages orientés système, des langages à balises pour gérer lhétérogénéité, des langages plutôt utilisés en mathématiques appliquées, en simulation et gros calculs, etc. En particulier il existe des langages adaptés aux systèmes embarqués (pour les transports, lastronautique, larmée, les télécommunications,
) dont les multiples contraintes (denvironnement, de ressources, de performance) nécessitent des technologies spécifiques, tant en terme logiciel que matériel.
Une intéressante taxonomie sur les langages a été établie par luniversité de murdoch en Australie (http://hopl.murdoch.edu.au/taxonomy.html). Dès lors et en toute logique, de nombreux langages cohabitent en entreprise. Selon une étude de T. Welsh, Cutter, de 2004, 59% des services informatiques utilisent plus de deux langages, 15% en utilisent plus de quatre. On retrouve cette diversité dans la constitution de logiciels open source. Pour sen convaincre, il suffit de regarder la composition du noyau linux.
Cela dit, bon nombre de langages ont disparu au fil des ans et peu de langages sont réellement industriellement utilisés.
Dautre part, outre la multiplication des langages, dès 1974, le développement dapplications prend une autre tournure avec lapparition de progiciels, c'est-à-dire dapplications qui peuvent être vendues sur catalogue par des sociétés éditrices de solutions logicielles. A la différence des développements dits spécifiques, dont lobjectif est de réaliser des applications spéciales destinées aux besoins dune entreprise et adaptées à son environnement, les progiciels répondent à lenjeu dintéresser le plus de clients possibles. Ils fournissent en conséquence des fonctions standard dun domaine, ou générique (ex : paie, comptabilité, facturation, prise de commande) ou vertical, c'est-à-dire visant un secteur de marché précis, par exemple, dans lindustrie, la planification des ressources de production.
Cela ne va pas toujours sans heurt dans la mise en uvre, puisque limpact organisationnel du choix dun progiciel nest pas négligeable, et on y reviendra. Toujours est-il que si ces derniers sont peu utilisés dans les années 70, ils prennent peu à peu de lampleur et constituent aujourdhui facilement la moitié du parc applicatif des entreprises, voire davantage.
Comment choisir entre un progiciel et un développement spécifique ?
Avantages et contreparties
On choisit sur « étagère », pour ne pas réinventer la roue, une application qui dispose déjà en standard de la plupart des fonctions désirées par les utilisateurs auxquels elle est destinée. Il sagit dacheter, auprès dun éditeur, le produit logiciel qui couvre le mieux des fonctions indifférenciées lesquelles seraient une perte de temps à développer en interne puisque, identiques pour toutes les entreprises, elles napportent pas davantage concurrentiel. Les anglos-saxons désignent ces applications «par le terme « COTS », pour Commercial On the Shelf.
Derrière le choix dun progiciel se cache une promesse, maîtriser davantage les services rendus par lapplication (en termes de fonctions) la fiabilité des données, les coûts et les délais de mise en uvre et le résultat final.
Autre intérêt, l'entreprise utilisatrice bénéficie en principe constamment des évolutions technologiques et fonctionnelles que l'éditeur introduit dans le progiciel au fil des nouvelles versions (à condition toutefois que le passage dune version à une autre soit simple, ce qui nest pas toujours le cas).
En contrepartie de ces avantages, les Entreprises doivent ajuster leurs organisations et leurs procédures de travail, revoir le contenu de certains de leurs métiers et développer de nouvelles compétences.
Ainsi cohabitent dans les entreprises des progiciels (applications standard) avec des applications spécifiques de gestion, des applications temps réel/embarqué, des applications scientifiques
Là où les choses se compliquent cest quand cette cohabitation nest plus due à une nécessité dutiliser le langage adéquat ou le bon progiciel, mais quand elle vient de couches hétérogènes de qualité inégales héritées de rapprochement organisationnels, ou de développements antérieurs. Quil sagisse dapplications qui datent de 1969, en Fortran ou Cobol, encore utilisés plus de quarante ans après leur apparition, ou dapplications développées en Java, il y a dix ans, qui ne présentent pas forcément une meilleure qualité que les précédentes.
Dans les deux cas, les symptômes dobsolescences sont les mêmes : les développeurs initiaux sont partis ailleurs, ceux qui maintiennent le code sont peu au fait de ses fonctionnalités métiers et préfèrent faire des correctifs rapides type « dupliquer et remplacer » plutôt que restructurer intelligemment le code.
Quant à certains progiciels, ils peuvent tout simplement
disparaître. Soit parce quil sagit de progiciels de niche, sur un marché sectoriel très restreint, et que léditeur na pas survécu à une année moins faste que les autres, soit du fait de multiples rachats, nombreux dans un univers où la meilleure façon de se débarrasser de son concurrent consiste parfois à
le racheter. Cest une manière de récupérer sa base installée, pour petit à petit convaincre les utilisateurs de migrer vers les propres solutions de lacheteur. Dans tous les cas, il en ressort une complexité et des coûts croissants de maintenance.
Ajoutons à cela quen parallèle de lévolution des langages et de celle des solutions logicielles proposées par le marché, des changements technologiques majeurs ou de nouveaux modèles impactent profondément la façon de concevoir et mettre en uvre les systèmes dinformation. Ils modifient ainsi durablement le cours de lhistoire informatique. Cest ce quon appelle les changements de paradigme, tels que, pour nen citer que quelques uns (on renverra à lannexe « les changements de paradigme » pour les autres) : lapparition des systèmes ouverts, lordinateur personnel, lapparition des communautés open source, ou loffre «Software As A service ».
Définition
Paradigme? Paradigme ? Est-ce que jai une gueule de paradigme ?
Un paradigme est un modèle de représentation du monde, un schéma de pensée qui oriente la réflexion et la recherche scientifiques sur la base de croyances fondamentales (des « axiomes » ou des principes de base sont posés comme permanents mais de manière empirique).
Que les principes changent du fait dune découverte qui ébranle les fondamentaux scientifiques, ou parce que lenvironnement lui-même change et autorise des méthodes de travail différentes et nous assistons à un « changement de paradigme ».
Lapparition de vrais ordinateurs portables, les PC (Personal computer) ont ainsi mis à mal le paradigme dordinateurs réservés exclusivement aux entreprises. Couplés à lapparition dInternet, les PC ont permis au numérique, avec lavancée également des technologies de communication, de modifier profondément la société et ses modèles économiques. Lapparition du système dexploitation Unix qui ouvrait le champ aux systèmes dits ouverts, puis distribués, est un changement de paradigme par rapport à lépoque des ordinateurs centralisés (Mainframes), car il impliquait également de revoir complètement la façon de concevoir et réaliser des systèmes dinformation.
Reste quun changement de paradigme informatique ne se diffuse pas du jour au lendemain dans les entreprises. Entre la conception en laboratoire dUnix au début des années 70 et son utilisation à large échelle dans les années 90, il se passe près de vingt ans. Entre la création du noyau linux par linus Torvalds en 1991 et lexpansion large des licences Gnu/linux, il se passe également près de quinze ans.
Les cycles dadoption des changements technologiques sont longs, bien plus longs que les cycles dadoption des innovations dusage. En outre, cest souvent nécessaire pour mûrir des pratiques de développement, voire les standardiser et ce nest pas forcément suffisant pour substituer à une application installée, en exploitation, la même application restructurée avec de nouvelles technologies.
Encore faut-il que le jeu en vaille la chandelle. Or si lapplication répond bien aux demandes des utilisateurs et que lobsolescence technologique ne représente pas de risques (tels que la perte de compétences ou larrêt du support, par exemple), sengager dans un redéveloppement coûteux de mêmes fonctionnalités est difficile à justifier.
Le défi de la communication
Il y a un autre aspect du problème : la communication entre toutes les applications. Car ces dernières sont rarement autonomes, elles ont besoin déchanger avec dautres, soit pour récupérer des données, soit pour fournir à leur tour des informations. Un processus métier sappuie souvent en transverse sur plusieurs applications et alimente lui-même dautres processus métiers. Les flux des échanges sont supportés par des protocoles, des formats déchange et des outils de communication (exemples : http, smtp, rpc, queue de messages, middleware, etc.), plus ou moins évolués, plus ou moins standardisés.
Dailleurs, quand une entreprise adopte des standards, cest le plus souvent pour les futurs développements dapplications. Reste à faire fonctionner ces dernières avec les applications patrimoniales, dont les développements ont été antérieurs à larrivée du nouveau standard.
Comment ça marche ?
Processus métiers et informatique
Selon la norme ISO 9001 :2000, un processus est un ensemble d'activités corrélées ou interactives qui transforment les éléments d'entrée en éléments de sortie. Par éléments, il faut comprendre objets matériels ou information.
Une autre définition est « ensemble dactivités qui consomment des ressources et produisent des résultats qui ont une valeur pour un client (utilisateur) identifié. Un processus met en jeu des rôles qui sont tenus par des acteurs ».
Dans une organisation, il existe des processus principaux opérationnels directement liés au cur de métier de lentreprise (production de biens ou de services) et des processus secondaires, dits de support, dont les résultats sont nécessaires pour lexécution des processus principaux (ex : comptabilité, paye, RH,
»). Il existe également des processus de pilotage et de décision pour contrôler latteinte des objectifs au regard de la stratégie de lentreprise. En réalité tous ces processus sont des processus métiers au sens où ils décrivent les activités de transformation de différents métiers sexerçant dans lentreprise.
Un processus métier nest pas forcément automatisé. Il peut lêtre pour partie, ou pas du tout. Par contre, le système dinformation ne se conçoit pas sans sa finalité de support ou de mise en uvre de processus métiers (au sens large). Doù lintérêt de cartographier les processus métiers de lentreprise, pour une meilleure visibilité (quoi et pourquoi) et lisibilité (quoi et comment) de lapport du système dinformation à chacun, afin de mieux comprendre la valeur du SI (le coût quil y aurait à faire sans) et ses possibilités dévolution (les bénéfices de faire avec).
La maturité des entreprises par rapport à lalignement de leur système dinformation avec leurs enjeux dépend aussi de leur capacité à évaluer en quoi celui-ci supporte les objectifs de leurs processus métiers, et en quoi il pourrait aider à faire mieux, ou autrement.
Lévolution des sigles relatifs à la conception et à lautomatisation des processus métiers dans le système dinformation montre bien lévolution des préoccupations, de la vision technique à la vision métier. Ainsi a-t-on dabord parlé de workflow (flux de travail) pour lautomatisation dun processus, puis de BPM (Business Process Management) pour évoquer une couche de gestion des processus orientée métiers au dessus de leur automatisation, à la suite de quoi lOMG (Object Management group) a essayé de standardiser la formalisation des processus métiers pour mieux passer de la modélisation fonctionnelle à son instanciation outillée, avec le BPMN (Business Process Modeling Notation).
Pour compléter cet aperçu des strates de complexité, il ny a pas que lhétérogénéité des langages et des plates-formes pour constituer un défi dintégration entre applications. Ces dernières ont souvent été développées au coup par coup des besoins, sous légide dune entité organisationnelle, et intégrées au point par point, suivant une logique « tuyaux de poêle » avec dautres applications, pour ses besoins immédiats déchange. La conception nenvisage pas le plus long terme. Le résultat est un « SI spaghetti », véritable casse-tête de lintégration.
sispaghetti.png
Figure 1-3.
Le SI « spaghetti »
Du coup, dune part, il est difficile de considérer une intégration avec une autre application comme un simple branchement, dautre part, les applications développées en «silos organisationnels» présentent des fonctionnalités et des données redondantes avec dautres à léchelle du système dinformation dentreprise.
Si ces redondances se conçoivent éventuellement dans des grands groupes du fait quune entité puisse ignorer ce qua déjà réalisé une autre ce qui suppose ne pas gérer le portefeuille applicatif en global entreprise, cas qui na malheureusement rien dexceptionnel - les sociétés de moyenne importance ne sont souvent pas mieux loties.
Car la redondance nait souvent dun manque dhomogénéisation des développements, de labsence de cadres de référence (standards, recommandations et référentiels) et de labsence de recherche de ré-utilisation, par facilité. En effet, il est souvent plus facile, à court terme, de « copier et coller » du code, que de réfléchir à une fonction, un module qui puisse être factorisé et dès lors réutilisable, pourquoi pas en termes de service métier, dans les futurs développements du système dinformation.
Certes, choisir le court terme se paye à long terme : si le défi de lintégration entre applications nest pas traité dans une approche darchitecture globale, on aboutit au « SI spaghetti » (cf. figure 1-3), où les strates de complexité saccumulent, les communications ressemblent à une pelote de laine aux fils inextricables et rendent de plus en plus difficile la visibilité (quest-ce qui fait quoi) et la lisibilité (à quoi ça sert) de ce quapporte le système dinformation. Dès lors, la possibilité dévaluer leffort de ce quon maintient en exploitation au regard du bénéfice diminue en proportion.
Si beaucoup de choses ont évolué depuis cinquante ans dinformatique en entreprise, si des architectures et des méthodes de conception et de développement émergent pour rapprocher la mise en uvre de services informatiques des besoins métiers auxquels ils doivent répondre, lhéritage a également évolué de son côté, pour devenir de plus en plus complexe. Tant quil ne sera pas traité à sa juste mesure, les systèmes dinformation auront une épée de Damoclès au-dessus deux, toujours prête à casser le fil de lévolution vers la valeur.
Car si lordinateur des années 60 est à des milliers dannée lumière des PC daujourdhui, le problème initial «comment communiquer avec la machine» à lorigine de différentes générations de langages, sest complexifié au cours du temps en «comment faire communiquer la machine avec lutilisateur » puis «comment faire communiquer toutes les machines entre elles» et nous conduit à des machines virtuelles. Les systèmes dinformation sont multiformes, ils reposent non plus sur une génération de technologie mais sur plusieurs générations qui doivent cohabiter et communiquer.
Un peu dhistoire
Evolution des technologies dIntégration dApplication dEntreprise
Depuis les années 60, le système dinformation sest construit avec des strates technologiques et applicatives hétérogènes, entre progiciels divers et variés aux sigles multiples (ERP, MRP, PDM, PLM, SCM, ERMS
), applications spécifiques en langage Cobol sur Mainframe, plate-forme .Net cohabitant éventuellement avec des applications Java, solutions de-commerce, etc.
Les composantes du Système dinformation constituent une constellation dapplications, darchitectures, dinfrastructures (système dexploitation, réseaux, bases de données) différentes, mais qui doivent impérativement pouvoir communiquer, et de préférence, indépendamment de leurs particularités dimplémentation.
Cest ce à quoi semploient les technologies dintégration, évoluant progressivement dune logique « point à point» proche des « tuyaux » physiques déchange avec des formats standard et des logiques de file de messages, vers létablissement de couches dabstraction avec des processus plus complexes autorisant de piloter un « bus dintégration » entre applications (ESB pour Enterprise Service Bus).
Ce dernier est lévolution de ce qui nétait au départ que simple « couche du milieu » ou middleware entre logiques applicatives, devenue ensuite couche dintégration transverse à lentreprise (EAI : Enterprise Architecture Integration) pour évoluer en une troisième étape vers une approche orientée « métier » de lintégration avec la composante BPEL (Business Process Execution Language) des architectures orientées services (SOA).
Le WS-BPEL a en effet pour visée dorchestrer la succession et lexécution de différents services Web (éventuellement fournis par des applications différentes sur des plates-formes différentes) dont lensemble peut constituer lautomatisation dun processus métier de bout en bout.
EvolutionIntegration.png
Légendes figurant dans limage
Figure 1-4.
Lévolution des méthodes dintégration
Tableau 1-1
Les méthodes dintégration
DéfinitionMode point à pointLes interfaces sont développées entre une application et une autre. A lajout dun nouveau système, il faut développer, de façon spécifique, chaque échange de flux (asynchrone) avec chaque système avec lequel il communique. EAICest un centre de traitement où tous les échanges passent. Il permet dorganiser et de normaliser ces derniers avec des formats pivots, de mutualiser des fonctions techniques, de minimiser les interfaces. Ainsi si une donnée est mise à jour dans une application « maitre », lEAI transmet linformation à toutes les applications clientes.ESBCest lévolution de lEAI dans une architecture orientée services. Cest un système bâti sur les standards des Web services qui fournit une vue logique dun ou plusieurs réseaux avec une ou plusieurs entités connectées lesquelles fournissent des services à dautres entités qui les requièrent. Les services ont une méthode dinvocation standard avec des déclencheurs et des sorties également standard (en général des messages).La communication est dailleurs loin de se cantonner à laspect machine. Un des aspects les plus structurants de linformatique dentreprise est que la construction de systèmes permettant doptimiser avec des outils automatiques lexploitation dinformations, nécessite une vraie réflexion collaborative sur la valeur et le cycle de vie de linformation ainsi que sur la meilleure façon de la stocker, la partager le cas échéant, et la traiter.
Or faire communiquer les différents acteurs de cette réflexion, utilisateurs, responsables métiers, responsables fonctionnels, architectes, experts techniques, développeurs, etc. est lun des défis les plus épineux depuis plusieurs décennies. Ce défi est lui-même à lorigine de nombreux modèles, voire des paradigmes déchanges, eux aussi sujet à des changements de paradigme dans léchelle de lévolution, tels celui déclenchée par larrivée des méthodes agiles face à la séparation française traditionnelle de maitrise douvrage (MOA) et maitrise duvre (MOE).
Reste quil ny a pas de solutions miracles pour favoriser le dialogue et que sans collaboration effective entre tous les métiers, la construction ne peut saligner sur les enjeux auxquels elle doit répondre.
Définition
Maîtrise douvrage et Maîtrise duvre, le SI avec « pelles et truelles »
La séparation « Maîtrise douvrage » et « Maîtrise duvre », inspirée du domaine de la construction, est française, comme lest lapproche urbanisation au départ. La maîtrise douvrage est le donneur dordres pour lequel louvrage (ici le projet informatique) est réalisé (léquivalent anglais est « project owner »).
Cest ce « donneur dordres » qui doit formaliser lexpression de ses besoins dans un cahier des charges (CDC) quil remettra à une « maîtrise duvre » qui exécutera, comme dans le bâtiment, la conception détaillée et la réalisation effective du projet.
Le Club des Maîtres d'Ouvrage des Systèmes dinformation, association loi 1901 créée en 1997, donne la définition suivante. La fonction de maître d'ouvrage du système dinformation, apparue dans les années 90, a pour objectifs de :
définir le système dinformation, étroitement couplé aux objectifs et stratégies de l'entreprise,
piloter les développements informatiques nécessaires.
Chapitre 2
Un catalyseur du changement- la plate-forme globale Internet
« Je prédis quInternet va devenir une supernova spectaculaire avant de seffondrer complètement en 1996 »
Bob Metcalfe, in InfoWorld, 1995, le même ayant mangé larticle un an plus tard dans une démonstration publique où il avouait sêtre trompé.
La décennie 90 voit apparaître le Web, la fameuse toile qui allait couronner définitivement Internet, le réseau de « tous les réseaux ». La toile allait prendre dans ses rets des générations jusqualors complètement indifférentes à linformatique. Le Web et laugmentation de puissance des micro-ordinateurs allaient accomplir la révolution numérique prédite dès ses débuts (pour ceux qui en ont eu la vision, sachant ce que les visions valent, voir laparté en début de chapitre). Mais, comme tout changement de paradigme, cette révolution a pris son temps. Pourtant, Internet a changé profondément le paysage économique en diffusant lusage de linformation numérique et de ce fait, il na pas fini dimposer ses rythmes de changement aux systèmes dinformation des entreprises.
Les débuts dInternet
Internet ne commence pas avec le Web, pas plus que ce nest et na jamais été une invention de hackers, ainsi que certains se plaisent à réécrire lhistoire. Comme toute innovation informatique des débuts, il nait des évolutions dun programme de recherche initié par
larmée, ou plus exactement lArpa, lAgence militaire de Recherche en Projets Avancés. Le projet initial de réseau informatique donnera Arpanet, dont les trois premiers nuds verront le jour aux Etats-Unis en 1969.
Dautres réseaux suivront et pour résoudre le problème de leur inter-connexion, Vinton Cerf et Robert Khan, deux universitaires américains mandatés par le groupe de travail inter-réseau (très loin de limage de hackers) publièrent en 1974 le protocole TCP/IP, devenu le mode de transmission natif dUnix et lacte de naissance du mot « Internet ». Pourtant, les bouleversements futurs que cette naissance engendrera vont rester dans luf encore un bon moment.
Ils lont dit
Lart de la prédiction est un art difficile
« la puissance de calcul des ordinateurs, et aussi les applications spécifiques, pourront un jour être vendues sur le modèle de lélectricité ou de leau » Cest la vision que John McCarthy, spécialiste américain de lintelligence artificielle (détenteur dun « Turing Award » en 1971) a défendue en 1961 durant la célébration du centenaire du MIT.
« Il ny a pas la moindre raison pour que quelquun puisse vouloir dun ordinateur à la maison » Ken Olsen, fondateur de Digital Equipement (1977)
« Au tournant du siècle nous vivrons dans une société sans papier » Roger Smith, président de General Motors, 1986
« Ces types de Google, ils veulent devenir milliardaires et rocks stars et ils sont à toutes les conférences et tutti quanti. Nous verrons bien sils veulent encore dominer le marché dans deux ou trois ans », Bill Gates, en 2003.
Le réseau prendra de lampleur tant en usage que dans lesprit du public grâce à un développement de Tim Berners-Lee, un informaticien du CERN (Centre Européen de Recherche Nucléaire), devenu depuis le directeur du Consortium international World-Wide Web (W3C), gardien des standards du Web. Pour aider les chercheurs du centre à trouver les informations dont ils avaient besoin (dans les différents serveurs de fichiers), Berners-Lee inventa le World Wide Web et quelques protocoles associés URL, HTML, HTTP.
Les débuts du Web coïncident avec ceux des années 90 et restent essentiellement dans le monde de la recherche jusquà larrivée dun navigateur, MOSAIC, développé par le Centre national de superinformatique (NCSA) de l'université de l'Illinois, qui a la particularité dêtre disponible non seulement sur environnement X-Window, mais aussi PC et mac Intosh, donc
nettement plus accessible au grand public. Enfin, grand public, cest encore relatif en 1995, mais cela ne tardera pas à devenir vrai.
Un peu dhistoire
Comment le Web a étendu sa toile
Fin 1994
Le Web comptait 10 000 serveurs, dont 2000 à usage commercial, et 10 millions d'utilisateurs
Fin 1997
1 million de serveurs
2004
50 millions de serveurs
2006
100 millions de serveurs
Janvier 2008 : 155 millions de serveurs
2009
234 millions de sites internet
2,2 milliards dinternaute prévus pour 2013
Grâce à la diffusion de technologies et doutils qui vont en faciliter lusage, notamment en simplifiant de plus en plus linteraction, linteropérabilité des applications et la richesse des interfaces, la montée en puissance des ordinateurs personnels, la plate-forme globale Internet va permettre et accélérer dautres changements de paradigme.
Java et le rêve dindépendance aux plate-formes
Le langage Java, présenté officiellement en 1995 à Sun World, est le premier jalon de ces mutations. Son concept poursuit la lignée des systèmes ouverts, en allant un degré plus loin : celui de développer des applications qui pourraient sexécuter dans nimporte quel environnement sous réserve que ce dernier dispose dune machine virtuelle Java (JVM). Un principe appelé « write once, run everywhere » (un seul développement qui peut sexécuter partout, sous-entendu, sur toutes les plateformes). Java doit adresser lensemble des plateformes existantes : postes client, serveurs, équipements mobiles, cartes à puce
Le rêve de lépoque va jusquà envisager des applications Java incorporées au frigidaire pour refaire la liste des courses. La réalité au démarrage est plus décevante, dans la mesure où le rêve doit se confronter à la difficulté de développer des machines virtuelles homogènes sur lensemble des plateformes ciblées. Ce nest pas si simple et le slogan est vite détourné, comme tout bon slogan se doit de lêtre, en : « write once debug everywhere » (traduisible en « tu écris ton code une fois, tu le corriges partout »).
Reste que Java se répand, notamment grâce à des environnements de développement de plus en plus perfectionnés (dont Eclipse), et trouve sa place sur le serveur avec J2EE (Java2, Enterprise Edition), les classes Java et les EJB (Enterprise Java beans) sur les serveurs dapplications.
Comment ça marche ?
Pour répandre des grains de Java dans mon serveur dapplications, rien ne vaut les EJB
Les serveurs EJB (Enterprise Java Beans) sont des serveurs dapplications entre les services de présentation qui peuvent être sur client lourd ex Win32, ou client léger (navigateur html)) et les services daccès aux données, transactions et messages.
Ce sont des serveurs de composants, au sens où ils hébergent des conteneurs de composants métiers ainsi que des services de nommage, de moniteurs transactionnels, de déploiement, de mapping sur base de données, et également des API sur les services (ex JDBC pour laccès aux bases de données).
Un objet EJB, un « bean » est un composant logiciel dun serveur dapplications à la norme J2EE, écrit en Java, qui remplit une fonction déterminée, parmi trois catégories. Sil sagit daccès à une donnée métier (ex : produit, client, etc.) qui va être stockée de manière persistante entre deux sessions, dans ce cas on utilisera des « EJ Bean Entity ». Il existe deux autres catégories dEJB, lune dédiée à lexécution de services, éventuellement métiers (par ex la facturation), avec ou sans conservation détat entre les appels (EJ Bean session) , lautre au traitement de messages asynchrones (EJ bean message).
Côté client, Java sera vite éclipsé par des technologies concurrentes qui permettent plus facilement de réaliser des « RIA » ou « Rich Internet Application », applications destinées à sexécuter pour partie sur le poste client, pour partie à lintérieur du navigateur.
Définition
Ajax en ria
Les applications dites « RIA » pour Rich Internet Applications ont pour vocation de fournir une interface dynamique puissante qui réponde immédiatement à toute entrée de lutilisateur. En général linterface consiste en une page simple qui contient toutes les informations dont lutilisateur a besoin pour compléter la transaction. Les données de la page peuvent être actualisées sans procéder au rechargement total de cette dernière. Les exemples de RIA sont nombreux aujourdhui, de la personnalisation du modèle dun véhicule doccasion recherché sans rafraichissement de la page, au plan personnalisable dune maison, à la possibilité de feuilleter un livre virtuel, en passant par la « customisation » dun tee-shirt sur un catalogue de-commerce. Les RIA apportent à Internet le niveau dergonomie des applications du poste de travail des années précédentes, jusqualors non égalé sur le Web.
AJAX, pour Asynchronous Javascript And XML, correspond à un ensemble de technologies les plus utilisées pour concevoir ce type dinterface dont XHTML, CSS, Javascript/DOM (Document Object Model), XML et les requêtes http.
La montée dInternet correspond à la fois à lavènement du « tout distribué » grâce à un environnement dans lequel nimporte quelle machine peut communiquer avec une autre pour peu quelles emploient toutes deux protocole IP et la poursuite de la bataille entre le monde « ouvert » versus le monde « propriétaire ». Ce dernier en loccurrence sincarne à cette époque dans Microsoft, devenu un géant de lédition avec lhégémonie de Windows comme système dexploitation des PCs.
Or Java va faire rapidement peser une menace sur le rôle du PC et de Windows, menace doublée par lapparition de Linux. Cest de la conjonction de ce dernier et du projet GNU que naîtra lopen source et la mouvance des « logiciels libres ».
Les logiciels libres
Tout commence en 1984 avec le projet de Richard Stallman, en réaction à lévolution commerciale autour dUnix, devenu de plus en plus cher, avec ses différentes branches généalogiques poussées par des constructeurs/éditeurs. Face aux HP-UX, AIX (IBM), Unixware (Univel/SCO) de la famille système II et V dun côté et de lautre Sun OS puis Sun Solaris, Next puis Mac OS, issus de la mouvance Berkeley Software Distribution, Stallman veut revenir à lesprit ouvert des débuts.
Ce chercheur en Intelligence Artificielle lance le projet GNU pour faire une copie dUnix, gratuite et
« libre », au sens où le code source serait accessible par tous pour en faire des copies, des évolutions/améliorations, le diffuser et lutiliser partout, sans redevance commerciale pour ce faire (attention toutefois aux différents types de licences et droits dauteurs).
Le code source est « ouvert » (« open » source), tout le monde peut regarder les programmes, à linverse du code Windows qui reste une boîte noire. En 1991, un étudiant finlandais, Linus Torvalds, crée un noyau dOS, linux. Les deux démarches savèrent complémentaires entre les programmes dits libres développés par Stallman (programme de copie de fichier, suppression de fichier, éditeur de texte) et le cur développé par Linus.
Certes, Linux est loin au démarrage de pouvoir concurrencer les systèmes dexploitation tels que Windows ou Sun Solaris, faute doffres dapplications dentreprises disponibles sur cet OS. Mais ceux qui ignorent cette menace sen mordront les doigts, car ils nont pas compté sur le formidable potentiel de développement des communautés open source du Web, et le levier des protocoles standardisés. Et avec Java, on peut faire du Web une plate-forme dintégration.
Comment ça marche ?
Libre jusquoù et à quel coût ?
La liberté des uns sarrête là où commencent celles des autres.
Un logiciel « open source » stricto sensu ne garantit que laccès à son code source. Ensuite, il y a des conditions plus ou moins permissives qui en restreignent ou non lusage, la copie, la diffusion (à caractère commercial ou non), la modification, etc. Ces conditions sont formalisées à travers des licences, nombreuses. Une des plus célèbres est la GNU General Public License (GPL) qui donne lautorisation, pour tout logiciel soumis à cette licence, de lexécuter pour nimporte quel usage, de le diffuser et de le modifier librement, sous réserve de rendre publique les versions ainsi modifiées qui devront être également sous licence GPL. Ce qui veut dire permettre laccès à lensemble du code source et donc des risques induits pour des logiciels modifiés dans un contexte spécifique dutilisateur.
La licence GPL ninterdit pas de vendre une version modifiée dun programme open source. Linconvénient, cest quelle autorise ou plutôt impose aussi sa diffusion gratuite.
Elle limite ainsi la possibilité de développer un logiciel sur la base dun module propriétaire (cas par exemple de bibliothèques spécifiques à une entreprise, ou module logiciel propriétaire) quon souhaiterait étendre avec des modules libres. Doù lapparition de la licence LGPL (Lesser General Public License), dérivé de la GPL, qui autorise lintégration de modules non libres.
Les licences du libre ne sappliquent pas quaux programmes. Ainsi, il y a également des licences pour la documentation (telle la GFDL) pour rendre létude, lutilisation, la modification et la redistribution libre et les licences « creative commons By » ou « creative commons by SA » sappliquent pour tout type de création : texte, film ; site web, video, musique,
.. Pour en savoir plus sur les licences voir la liste sur ce site : http://www.gnu.org/licenses/license-list.fr.html
Ensuite, la « liberté » logicielle a un prix. Libre ne veut pas dire gratuit et gratuit ne veut pas dire libre.
Si lopen source permet de ne pas payer de coût de licences logicielles, sous réserve du type de licences encore une fois, il reste dautres natures de coûts à considérer, dont ceux liés à la formation et à la maintenance sur des logiciels spécifiques, non supportés par un éditeur. Cest ainsi que le modèle économique dun fournisseur tel que Redhat (connu pour sa distribution linux et le middleware Jboss) repose sur les services de support et de maintenance. Le choix dun logiciel « libre » doit toujours être accompagné dune grande vigilance sur lactivité de la communauté qui le supporte, sous peine de se retrouver à terme avec des coûts cachés inflationnistes du fait de lobligation, par exemple, de mettre en place des équipes de maintenance spécifiques.
Reste que lopen source bénéficie dune puissance de frappe en développement, avec les communautés du Web, quaucun éditeur ne peut égaler.
Une nouvelle façon de penser les développements
Microsoft na pas réagit tout de suite aux nouvelles perspectives dInternet. Quand léditeur de Redmond le fait, cest pour proposer aux débuts des années 2000, Microsoft .Net, un environnement de développement pour prendre en compte lunivers fondamentalement hétérogène de ce nouveau monde distribué, où le PC nest plus le terminal de prédilection face aux portables, smartphone et autres PDAs et où les services peuvent être hébergés sur des serveurs Unix, Linux ou Windows.
La promesse de .Net est celle, comme Java, de linteropérabilité et de la portabilité. .Net propose un environnement de développement multi langages où on peut choisir son langage de programmation parmi plusieurs dizaines en faisant abstraction des plate-formes cibles, grâce à une compilation dans un langage intermédiaire (MSIL pour Microsoft Intermediate Language devenu CIL Common Intermediate Language), qui sera ensuite exécutée dans une machine CLR (Common language Runtime), installée sur chacune des plates-formes cibles (ce qui nest pas sans rappeler la machine virtuelle Java).
Aussi bien le « framework » Microsoft .Net que J2EE bénéficient de lévolution des préoccupations méthodologiques en matière de développement et des outils associés, respectivement à travers Microsoft Visual Studio pour lun, et Eclipse pour lautre. Ainsi ces « IDE » (Integrated Development Environment) sont bien loin des simples compilateurs du début pour traduire en langage machine un code source.
Ils offrent de multiples services, éditeur de texte, «debugger» (pour rechercher lanomalie en exécutant le programme pas à pas), gestionnaire de versions, restructuration de code, utilisation de langage de modélisation comme UML, etc. Ils sont également accompagnés par une évolution de la réflexion sur le lien entre la conception et limplémentation.
Lévolution des modèles de conception
Concevoir un système dinformation nécessite de passer par des modèles. Ce sont des représentations abstraites dune réalité, exprimées à laide dun formalisme conventionnel et des règles de représentation. Ces règles sont subjectives, au sens où elles visent à faire ressortir les points auxquels on sintéresse et à répondre aux questionnements liés (quoi ? comment ? qui ? quand ?) et simplificatrices au sens où elles doivent faciliter une compréhension commune de systèmes complexes. Ces représentations doivent pouvoir être partagées entre et exploitées par les différents acteurs qui interviennent de la modélisation à limplémentation.
Il existe plusieurs types de modèles, selon quon sintéresse plus particulièrement aux structures de données, aux organisations, aux processus organisationnels, aux traitements
Un modèle est un instrument de travail collectif. Complété par les langages, les outils, les démarches, il fournit un cadre méthodique qui fixe un vocabulaire et des normes de spécification précises. On peut considérer quatre générations de méthodes de modélisation, chacune avançant dune étape dans labstraction :
Années 70 approche cartésienne
Méthode danalyse illustrée par SADT avec une décomposition fonctionnelle des traitements
Années 80 approche systémique
Méthode marquée par MERISE et le modèle entité-association. Lidée est de privilégier une approche conceptuelle globale du SI basée sur la recherche des éléments pertinents du SI et de leurs relations.
Années 90 approche conduit par les objets
Approche objets marquée par Unified Modeling Language (UML, né de la fusion dOMT, OOSE et Booch) basée sur le concept dobjet et de relations entre objets.
Années 2000 approche conduite par les modèles
Approche marquée par MDA (Model Driven architecture), poussée par lOMG (Object Management Group) basée sur le concept de méta-méta-modèles (modèles décrivant les modèles).
UML est aujourdhui une des méthodes de modélisation les plus employées. Cest déjà un méta-modèle qui utilise un formalisme de représentation graphique de diagrammes (classe, objet, cas,
) mais avec MDA apparaît un changement de paradigme et de vision qui élève encore dun cran le niveau dabstraction au dessus des plates-formes de déploiement.
Lobjectif est daméliorer la collecte des besoins et les spécifications du système et de construire un modèle indépendant de limplémentation dans un langage métier (Platform Independant Model), mais dont limplémentation peut en être dérivée sur différentes plates-formes cibles via des modèles dimplémentation spécifiques (Platform Specif Models).
La possibilité de génération automatique de code permet également de développer les logiciels dans une logique de chaine de production entre la conception et la construction, tandis que le capital intellectuel (la logique métier) de la modélisation reste dans les modèles, pas dans le code. Toutefois, il sagit encore dune démarche assez lourde dans la pratique, même si à moyen terme elle porte les fruits de linvestissement initial.
Du service informatique aux services informatisés
Si J2EE et Microsoft .Net reflètent au niveau des développements spécifiques le nouveau paradigme dun environnement tout distribué, la diffusion dapplications sur Internet, laccès de plus en plus répandu, les standard dinteropérabilité, une bande passante élevé, conduisent aussi à de nouvelles façons de penser lorganisation des développements, ou la localisation des applications.
Après tout, si les communautés du Web sorganisent pour développer ensemble des logiciels open source, quest-ce qui empêche une entreprise de sous-traiter une partie de ses développements nimporte où dans le monde, de façon transparente pour le résultat final, si cela lui apporte un bénéfice?
Pourquoi une entreprise devrait-elle investir dans une infrastructure lourde et des ressources pour la maintenir quand elle peut faire héberger ses applications chez un sous-traitant qui la gèrera pour elle, en lui offrant la mutualisation de services dadministration et de sauvegarde ? La première idée conduira à linfogérance et lexternalisation, la seconde, dabord aux ASP (Application Service Provider), puis aux offres Saas (Software As A Service).
Ils ont dit
Le monde est plat, Thomas Friedman journaliste, 2004
Thomas Friedman est surtout connu dans le monde informatique en raison de son ouvrage « the World is Flat ». Dans ce livre écrit en 2004 et réactualisé en 2006, le journaliste lauréat du prix Pulitzer avait fourni sa vision de lévolution vers laquelle tendait le vingt et unième siècle. Un monde plat où les distances sabolissent avec les nouvelles technologies de linformation, où les échanges saccélèrent et où le centre de gravité politique et économique se déplace vers lAsie avec la globalisation. We are taking apart each task and sending it
to whomever can do it best,
and then we are reassembling all the pieces
Le Saas sinscrit dans la lignée de lévolution de linformatique dune orientation technologique vers une orientation services. Lidée au final est de fournir un service dusage avec les technologies de linformation et des communications aussi simplement que de lélectricité. Les moyens de production, les usines, les câbles, tout doit être transparent pour lutilisateur qui doit pouvoir accéder simplement au service et ne se soucier que de sa valeur dusage et de sa disponibilité.
Définition
Saas sert à quoi ?
Il y a différentes variantes de ce quest le Saas, acronyme de Software As A Service, dépendantes du modèle de tarification et de larchitecture. Plus précisément, un modèle Saas peut être évalué sur trois axes : économique, architectural et opérationnel.
Pour exemple, sur laxe tarification, labonnement peut être mensuel ou annuel voire « à la demande » au sens où le paiement se fait à lusage, celui dune transaction ou dune fonctionnalité du logiciel. Le « paiement à la demande » (« pay as you go ») peut sappliquer également au matériel, dans ce cas, les clients payent pour la capacité de stockage ou la puissance de calcul quils utilisent.
Une définition simple et large du Saas serait « logiciel déployé comme un service hébergé accessible via Internet ». Dans ce cas les ASP (application Service Provider), les maintenances à distances, les applications à la demande avec des éditeurs dapplications naturellement conçues pour le mode en ligne seraient des variantes plus ou moins mûres du modèle Saas.
Le Gartner donne une définition plus restrictive du modèle Saas à travers trois principes qui le caractérisent: Le service est hébergé chez le fournisseur ou un partenaire du fournisseur, il est utilisé avec un modèle one-to-many (appelé également architecture multi-tenants), de façon à ce que chaque société lutilise avec le même code et le même modèle de données, et le service est tarifé en fonction de lusage, en mode ponctuel ou abonnement.
Dans cette définition, les ASP ne répondent pas aux principes darchitecture multi-tenants. Or ce sont ces principes qui permettent de réaliser le déploiement immédiat à tous les abonnées de modifications sur le modèle. Le Saas a lavantage par rapport aux ASP de pouvoir proposer des évolutions de fonctionnalités très rapides partageable par tous.
Certes, le logiciel comme un service délectricité est un principe qui a de lintérêt dans le cadre où les fonctions recherchées sont standards, c'est-à-dire relativement indifférenciées selon les entreprises. A partir du moment où le service est très spécifique à un contexte, la démarche trouve ses limites et nous entrons dans des logiques de construction avec des plans fait sur mesure.
Néanmoins, même dans cette approche où un architecte va prendre en compte lenvironnement, le contexte, les fondations éventuellement existantes et lintégration dans un paysage existant, une logique orientée services, où des briques de construction sont ré-utilisables pour des usages prédéfinis chez différents clients, est à envisager.
Il serait en effet ennuyeux quun architecte nutilise pas certains matériaux standard de construction, voire napplique pas des conventions liées à lévacuation des eaux usées ou la sécurité des circuits électriques.
Larchitecture orientée services
Nous entrons ici dans le cadre des concepts SOA (Service Oriented Architecture), darchitecture orientée services, qui ne sont pas si neufs, bien que lon en ait beaucoup parlé seulement les cinq dernières années. Là encore, il sagit dun processus de maturation à long terme, pour lequel le développement des échanges sur le Web a servi de catalyseur et daccélérateur dévolution.
En effet, laccélération des développements et les échanges entre entreprises plaident pour la réutilisabilité de modules fonctionnels qui puissent livrer le même service à tous les partenaires et/ou acteurs dun domaine ainsi que pour des logiques de communication de données métiers entre machines.
Lobjectif au final est celui de lentreprise dite étendue, où il devient possible de piloter automatiquement lactivité dun processus métier de bout en bout, même si les données qui séchangent entre les tâches de ce processus passent du système dinformation dune entreprise à une autre, et que ces entreprises sont localisées à deux pôles différents.
Un peu dhistoire
La longue route de la SOA
LArchitecture Orientée Services nest ni un outil, ni un concept nouveau. Dès 1990, larchitecture CORBA (Common Object Request Broker Architecture), poussé par lOMG, Object Management Group, est née du besoin de faire communiquer ensemble des applications en environnement hétérogène (plusieurs systèmes et plusieurs langages). Corba intègre, sous la forme de lORB (Object Request Broker), un routeur de messages, une sorte de bus/communication qui permet de faire transiter des requêtes sur les objets entre applications, indépendamment des langages de programmation, grâce à des interfaces daccès aux objets exprimées en IDL (Interface Definition Language). Corba fait partie dune vision globale promue par lOMG , l OMA (Object Management Architecture). LOMA est du SOA avant lheure, mais avec la logique SOA, lintégration franchit encore une étape.
OMA.png
Figure 2-3
Le modèle OMA, préfigurateur du concept SOA
La logique déchange de données automatisé entre machines a une histoire, celle de lEDI (Electronic Data Interchange). Ce dernieri a connu beaucoup de formats propriétaires si on peut dire, car localisés souvent à un secteur et un segment géographique, sans même parler des réseaux privés déchange historiques très coûteux. On peut citer par exemple Odette pour lindustrie automobile européenne, ou EAN devenu GS1 officiant pour la grande distribution et le commerce en général (cest ce qui est derrière les codes à barre). Avec lessor du format déchange XML définissant des « méta-données », c'est-à-dire décrivant les données que doivent contenir des documents déchange, avec laccès généralisé à Internet de toutes les entreprises, avec lapparition doutils facilitant lintégration dapplications entre elles (EAI), lEDI a pris une autre dimension.
Si on ajoute à cette dimension celle de lautomatisation et loptimisation des processus métiers dune part, et dautre part, celle de la réutilisabilité de composants dapplications aussi bien sur des plateformes internes à lentreprise quexternes, alors on est assez près de couvrir les concepts darchitecture orienté services. Cest sur ce paradigme que se joue aujourdhui lassemblage entre composants applicatifs hétérogènes dun ou plusieurs systèmes dinformation, pour constituer une réponse optimisée à des besoins métiers, déchange, de partage, de traçabilité et dexploitation dinformation.
Chapitre 3
Les forces en marche
La HYPERLINK "http://www.evene.fr/citations/mot.php?mot=vitesse" vitesse est la HYPERLINK "http://www.evene.fr/citations/mot.php?mot=forme" forme d' HYPERLINK "http://www.evene.fr/citations/mot.php?mot=extase" extase dont la HYPERLINK "http://www.evene.fr/citations/mot.php?mot=revolution" révolution HYPERLINK "http://www.evene.fr/citations/mot.php?mot=technique" technique a HYPERLINK "http://www.evene.fr/citations/mot.php?mot=fait" fait HYPERLINK "http://www.evene.fr/citations/mot.php?mot=cadeau" cadeau à l' HYPERLINK "http://www.evene.fr/citations/mot.php?mot=homme" homme.
Milan Kundera
Lévolution est un processus lent. Ce nest pas le cas des conséquences dInternet. Elles entrainent des bouleversements économiques et sociaux au fur et à mesure de lextension et des modifications de la toile. Elles changent les habitudes culturelles, facilitent le partage de linformation comme elles mettent en lumière ou accélèrent des inégalités.
Le Web ressemble plus à un moteur à révolutions quà une évolution. Cest une remise en cause déquilibres anciens, un repositionnement des rôles, un mélange didéaux coopératifs et déconomie ultra-libérale. Cest aussi un modificateur de frontières, un catalyseur de changements aussi bien dans les sociétés, que, par voie de conséquences, dans les organisations, qui ont du mal à suivre.
Le Web na dailleurs pas fini ses mutations et dès lors, il na pas fini de révolutionner les habitudes. Car des premières versions de sites institutionnels, au Web sémantique qui se profile à lhorizon, en passant par le Web interactif, ou Web 2.0, ce sont plusieurs révolutions qui donneront corps à la « révolution numérique » prédite.
Ce chapitre évoque brièvement, à travers une définition des métamorphoses du Web et le constat dun monde à deux vitesses, les forces en marche qui vont profondément changer lunivers des systèmes dinformation dentreprise.
Comprendre les métamorphoses du Web
Les architectures orientées services sont laboutissement de la première époque du Web vécue dans le début des années 2000. Grâce aux standards dinteropérabilité nés du Web, linformatique dentreprise évolue dune logique de machines à une logique de services, où lobjectif est de pouvoir de plus en plus sabstraire de la complexité des couches basses et des technologies employées pour se concentrer sur la valeur dusage du service fourni. Derrière, à terme, peu importera où se situera linfrastructure.
La seconde époque commence en parallèle, cest celle de la popularisation des technologies de linformation et des communications. Depuis lapparition en 95 de Microsoft Windows 95 qui a généralisé les interfaces graphiques sur les Pcs, à aujourdhui, on a vu apparaître une notion dinterface avec le monde numérique plus accessible à tous aussi bien que plus étendue.
Pour les employés des entreprises, linterface avec des données informatiques est de moins en moins liée à un appareil fixe. Lutilisateur doit pouvoir accéder facilement aux services dinformation de lentreprise quelque soient ses déplacements, en tous lieux et à toute heure. Le navigateur Web devient de son côté linterface de prédilection daccès aux informations pour une partie grandissante de la population.
Avec le Web 2.0, les réseaux informatiques prennent une autre dimension, ils donnent naissance aux réseaux sociaux, la « toile » relie les individus davantage que les machines ou les entreprises et ces dernières ne peuvent négliger la transformation qui en résulte. Les frontières entre lentreprise et ses partenaires, ses fournisseurs, ses employés et ses clients ne sont plus les mêmes. Les contraintes physiques et temporelles nont plus le même sens.
Si lentreprise pouvait se contenter dexposer une vitrine de son savoir-faire et de ses services sur un site institutionnel à la première époque des sites Internet, elle doit aller beaucoup plus loin et offrir non seulement des services spécifiques à travers le Web, mais aussi utiliser ce dernier pour en construire de nouveaux.
Pour cela, il faut être capable dexploiter lintelligence dissimulée dans une information multiformes et tentaculaire, sinspirer des traces laissées par les usager du Web pour mieux comprendre les clients potentiels et sadapter à leurs besoins, trouver le sens des évolutions pour innover à bon escient au bon moment et ne pas nager à contre-courant des changements socio-économiques. Exploiter lintelligence que recèle la masse dinformation du web, cest ce que promet sa troisième métamorphose, le Web sémantique.
Reste, avant dy arriver, à exploiter pleinement le potentiel de la métamorphose précédente, davantage subie que comprise. Les entreprises continuent à fonctionner sur des modèles dorganisation clos, alors que leurs clients choisissent leurs fournisseurs ou leurs produits, publient leurs avis, passent commande sur Internet, tandis que leurs nouveaux employés échangent au quatre coin du monde à travers des réseaux sociaux, la visio conference, la téléphonie sur ip.
Le web 2.0
Le monde interactif de linformation
Pour comprendre la première métamorphose sociale du Web, ce qui a été nommé « le Web 2.0 », il faut sabstraire de la logique dinterface de lhomme avec la machine pour raisonner en termes dinterface avec la connaissance que représentent potentiellement (avec des limites à ne pas négliger) les informations du Web. Dès lors que lutilisateur a de plus en plus accès à la connaissance non pas en mode passif mais en mode interactif, avec la capacité à réagir et à partager avec tout un réseau de pairs, la révolution des usages se répand à celle des organisations.
Le Web 2.0, avec ses blogs, ses forums, ses réseaux sociaux et tous ses outils dinteractivité (y compris les RIA, Rich Internet Application) est le ferment dune révolution organisationnelle.
Les logiques dintelligence collective bousculent peu à peu des organisations hiérarchiques pour leur substituer des organisations matricielles et des communautés dexpertises. Lindividu, professionnellement, nest plus limité au cadre géographique de son entreprise, il rayonne dans un environnement ouvert : les réseaux sociaux. Les risques en termes de sécurité, confidentialité et fiabilité ou non détournement des informations diffusées sont à la mesure des gains potentiels.
En diluant les frontières entre information structurée et non structurée, entre infrastructure interne et externe (à travers la virtualisation, le cloud computing), la plate-forme Internet introduit progressivement toujours plus de perméabilité entre le lieu clos de lentreprise et lunivers extérieur. En bien, comme en mal.
Ainsi les entreprises viendront aux technologies de collaboration du Web 2.0, car elles savèrent pertinentes dans bien des cas et correspondent à des modes de travail plus actuels. Le partage dinformation favorise le partage des connaissances, doù un fort potentiel damélioration des performances de lentreprise.
A linverse, la rapidité de partage dinformations tronquées ou inadéquates peut conduire à un enchaînement rapide de mauvaises décisions, de même que lutilisation à outrance du Web comme outil tant professionnel que privé conduit, en entremêlant informations personnelles et professionnelles, à des confusions dangereuses. Lexemple des informations personnelles de John Sawers (chef des services secrets Britanniques), publiées par sa femme sur Facebook, ou les divulgations de marines, sont flagrants sur les problèmes de sécurité posés de ce type. Lusage du Web pour publier un bout de code dun programme confidentiel «buggé» dans lespoir que la communauté des internautes vienne à le corriger, aussi.
La surexposition de linformation
La facilité apparente de recherche sur le Web est également un dangereux miroir aux alouettes quant à labsence de réflexion quelle peut induire. Laccessibilité nest pas gage de fiabilité, pas plus que de pertinence.
Il est toujours intéressant de vérifier jusquà quel point la surabondance dinformation ne cache pas un seul angle, un seul regard, une répétition spontanée dun parti pris. Le rapport « state of the news media 2006 » du Pew Research Center's Project for Excellence in Journalism, affilié à luniversité de Columbia, montrait que sur une journée, les 14 000 articles accessibles en ligne via Google News ne recouvrait en réalité que 24 sujets. Ce rapport, actualisé en 2009, montre également quAOL et YAHOO NEWS relaient essentiellement des informations de Wire. Les flux RSS ne changent rien à la donne, au contraire, en permettant la réplicabilité de linformation, jusquà aboutir à une éventuelle surexposition dune information dont la « valeur » tant pour lusage ou la connaissance quelle apporte, est au final très limitée au regard de sa diffusion.
Les risques induits par le foisonnement et le côté presque intrusif du Web sur le pouvoir de contrôle de linformation, ne signifie pas quil faille en revenir à un cloisonnement strict des informations internes à lentreprise et externes. Cela reviendrait à une tentation de protectionnisme qui, pour linformation comme pour le commerce, ne résout rien à léchelle mondiale, parce quon perdrait dun côté ce quon gagne de lautre avec la coopétition.
Maitrise de linformation : régulation et coordination
Pour autant, cela nempêche pas de sinterroger sur le minimum de régulation et de coordination, nécessaires à un accès à et une diffusion maitrisés de linformation.
Rappelons que la valeur dune information, le pouvoir quelle peut procurer si on lutilise à bon escient, dépend beaucoup de sa fiabilité et de sa pertinence. De ce fait, la valeur du système dinformation est liée à la qualification de ses informations par les métiers et la direction générale. Le Web pose plus clairement que jamais le problème de la qualification et du contrôle, parce quil accélère le volume des données à traiter et quil multiplie les sources et les redondances tout autant que les risques dintrusion et de récupération dinformation.
La capacité que développent progressivement les systèmes dinformation à manipuler sur un même plan linformation structurée et non structurée, du fait de limpulsion donnée à cela par le Web, doit conduire dune part, à développer davantage les politiques de qualification et de contrôle des informations nouvelles, dautre part, à mieux exploiter et protéger le capital de connaissance enfouit dans lexistant.
Il sagit tout autant de vérifier la pertinence des informations, leur fiabilité, que den connaître le potentiel de réutilisabilité, et den valider laccessibilité. Quitte pour cela à passer à des techniques nouvelles pour mieux gérer les données de références ou les règles métiers afin daméliorer la qualification et la qualité, donc la valeur de linformation. Il est également impératif davoir une réelle politique de sécurité en termes de définition des profils et des habilitations, sachant toutefois que les niveaux dautorisations ne se peuvent définir sans avoir qualifié au préalable linformation.
Encore faut-il donner du temps à cette entreprise de qualification et de contrôle. Mais dans une société où justement le partage rapide de linformation implique que la durée de sa valeur soit plus courte, prendre le temps de vérifier les sources ou de bien qualifier la pertinence, va a contrario de la nécessité dagir vite, pour obtenir un avantage concurrentiel. La tentation est grande alors de déléguer ce rôle à des professionnels de linformation. Mais là encore, cette délégation induit une déresponsabilisation sur lestimation de la valeur de linformation, et, dès lors, une perte de pouvoir. Et qui sera juge de la légitimité des juges?
Pour les systèmes dinformation, ne pas faire qualifier la valeur des informations quils recèlent pour la plupart déjà, par ceux qui doivent les utiliser, soit les métiers et la direction générale, cest tout simplement passer à côté dun enjeu de pouvoir, celui de lavantage concurrentiel quils peuvent conférer à une entreprise ( performance interne, connaissance du marché,
) et à la réelle création de valeur quon pourrait en attendre.
Le Web 3.0 et le sens de linformation
Reste que la masse dinformations du Web est encore chaotique, voire peu fiable et pas toujours pertinente. Si on pouvait chercher plus efficacement les informations qui font sens pour un objectif de recherche précis, nous serions plus près de cette interface avec la connaissance évoquée. Aujourdhui, linterface en question nous confronte à des millions de pages de textes et nous autorise des discussions avec quelques êtres humains à la fois. Il faut naviguer dans des présentations et des documents multiples, prendre beaucoup de temps à échanger avec les uns et les autres, sans garantie que les réponses offertes soient les bonnes si notre question souffre dune quelconque ambiguïté.
Potentiellement, il y a un gisement de connaissances et dintelligence collective énorme mais pas vraiment exploitable rapidement, sauf à
créer un «Web sémantique». Un Web où les informations seront reliées entre elles par des liens de sens, et où les moteurs de recherche pourront répondre au plus près des concepts de la question posée, autrement quen envoyant des milliers de pages pour chaque mot dune phrase.
Trouver le sens des mots ne suffit pas, encore faut-il pouvoir garantir la fiabilité des informations et borner malgré tout les droits de les étudier, utiliser, diffuser, et modifier. Le rêve libertaire dune information sans contrôle a ses limites, justement dans le respect des droits des individus et la volonté de ne pas nuire à autrui. En dautres termes, les contraintes existent et la liberté bien employée, cest aussi la connaissance de ces contraintes.
Cette seconde métamorphose du Web, à peine amorcée, nous fait quitter définitivement lhéritage des systèmes dinformation pour entrer dans le futur.
Une évolution à deux vitesses
Toutefois, cette rapide description des métamorphoses du Web illustre un monde à au moins deux vitesses, où les entreprises qui étaient autrefois les premières à disposer des dernières technologies de linformation et communication peuvent être dépassées par lusage qui en est désormais proposé au grand public.
Il y a dès lors deux logiques de pression dévolution des systèmes dinformation. Une logique endogène qui pousse à des travaux de fond pour remettre de la cohérence dans un système construits par strates dhétérogénéité, au fil de leau des changements de paradigmes, afin de limiter les redondances et les différentes contraintes dintégration nuisibles à lagilité. Une logique exogène, où la mutation du monde environnant impose de prendre en compte les demandes demployés, de clients, de partenaires ou de fournisseurs qui attendent de lentreprise ou des organisations des services dinformation matures par rapport aux accès à linformation et à la connaissance dont ils disposent par ailleurs.
Pour clore cette partie, le schéma ci-dessous illustre, sans prétendre être exhaustif, quelques grandes étapes des évolutions et changements de paradigme des débuts de linformatique en entreprise à aujourdhui.
EtapesEvolution.png
Légendes figurant dans limage
Figure 2-4.
Les grandes étapes de lévolution informatique
Partie 2 -Lentreprise et lévolution des SI : Enjeux et risques
Chapitre 4 les enjeux dévolution
Chapitre5 les risques de lobsolescence
Dans cette partie nous décrivons les leviers de la modernisation des systèmes dinformation au niveau exogène. Il sagit des enjeux dadaptation et danticipation auxquels sont confrontées les entreprises dans un environnement mouvant modelé par les technologies de linformation qui poussent à moderniser des systèmes existants, devenus incapables dy répondre. Nous abordons également le pourquoi de cette incapacité en traitant les risques de lobsolescence et leurs conséquences.
Chapitre 4
Les enjeux dévolution
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Modernization starts where existing practices fail to deliver against business objectives »
La modernisation commence là où les pratiques existantes échouent à répondre aux objectifs des affaires
ADM.OMG.ORG
Par enjeu dévolution, nous entendons les enjeux de changement auxquels lentreprise et les directions concernées sont confrontées dans leur environnement économique et qui peuvent pousser à la modernisation de systèmes existants pour les rendre plus agiles, c'est-à-dire capable de réagir plus rapidement aux nouveaux besoins en proposant des réponses appropriées.
Le péché originel de la productivité
Le paradoxe de Solow
Le défi de lhéritage des systèmes dinformation nest pas seulement technique. Il y a un déficit dimage qui a amené les directions générales à considérer les directions informatiques dabord comme des centres de coût.
Ajoutez au fameux paradoxe de Solow (voir aparté plus loin), les déclarations au milieu des années 80 de Paul Strassmann- célèbre gourou américain, successivement responsable de systèmes dinformation dentreprises telles que General Foods, Kraft et Xerox avant dêtre responsable du traitement de linformation du Department of Defense (DoD) sur la non existence de relation directe entre le montant des investissements informatiques dune entreprise et ses performances, et vous avez une génération dentreprises prêtes à considérer linformatique comme un centre de coûts à réduire. Cela en sautant sur des conclusions hâtives, sans passer par lanalyse des raisons du constat, et du coup, en le renforçant.
Les causes sont pourtant de plusieurs natures : dune part, il est difficile de mesurer sur du court terme des effets qui ne deviennent visibles que sur du long terme (3 à 7 ans). Dautre part, ainsi que le souligne P. Strassmann, on ne peut mesurer que la productivité des individus, pas celle des ordinateurs.
Est-ce la productivité des individus quil faut dailleurs mesurer, ou ladéquation de linformation quon leur fournit par rapport à lenjeu de meilleure productivité? En effet, les ordinateurs ne sont là quen tant que ressources dun dessein plus large, celui de manipuler efficacement de linformation utile, quelque soit son format (données, texte, images, sons, etc), pour exécuter au mieux des processus métiers, dans et entre des organisations.
Comment déterminer lutilité dune information ? Par lanalyse des enjeux auxquels elle doit répondre, car la valeur de linformation nest pas absolue. Pour en revenir aux définitions, le petit Larousse nous en fournit plusieurs sur le mot information, dont on retiendra les trois suivantes :
Action dinformer, fait de sinformer,
Renseignement obtenu de quelquun sur quelquun ou quelque chose,
Elément de connaissance susceptible dêtre codé pour être conservé, traité ou communiqué.
Les deux premières montrent bien une dynamique qui fait que lintérêt dune information dépend de son public et de sa cible car il y a volonté et action pour la capter. La dernière introduit implicitement les systèmes dinformation dentreprise en tant que gestionnaires des moyens et opérations pour capter, utiliser, transmettre et stocker les informations afin dexploiter au mieux ces éléments de connaissance.
La difficulté du paradoxe de Solow cest de vouloir faire une équation directe entre des technologies dautomatisation et des bénéfices de productivité, comme il pouvait y en avoir eu par le passé avec lintroduction dautomates pour le travail à la chaîne. Seulement, il ne sagit pas ici de travail manuel.
Sans analyse préalable de la valeur de linformation, sans reconnaissance par les utilisateurs de lapport du système dinformation pour partager et manipuler cette dernière dans les processus métiers, il ny aura pas adhésion de leur part, et donc, pas de levier de productivité : ils continueront à faire autrement.
Les individus ne sont pas contre le changement sils en voient clairement les bénéfices. Or sils ne sont pas accompagnés dans lusage de nouvelles applications et/ou technologies qui viennent changer leurs habitudes, ils perdront dabord de la productivité à comprendre ou à expliquer (pour ceux qui ont compris) le nouveau système.
Le problème est dabord organisationnel et de pilotage avant que dêtre affaire de technologies. Depuis le milieu des années 80, heureusement les mentalités ont évolué et lapparition de méthodes de « conduite du changement » ont fait progresser les entreprises, jusquà ce quau milieu des années 90 on puisse enfin mesurer indirectement les apports des systèmes dinformation dans la productivité des entreprises.
Le paradoxe de Solow
Le péché originel de la productivité
En 1987, Robert Solow, économiste américain, fit cette remarque « Nous voyons des ordinateurs partout, sauf dans les statistiques de productivité », remarque à lorigine du fameux «paradoxe de Solow». Le constat de Solow validait une déception quant à la productivité attendue des systèmes dinformation, puisque l'introduction massive des ordinateurs dans l'économie, contrairement aux attentes, ne se traduisait pas par une augmentation statistique de la productivité dentreprise.
Solow a reconnu aujourdhui que son paradoxe nexistait plus (la tendance sétant inversée depuis le milieu des années 90).
Reste que le « péché originel » na pas fini davoir des effets. Ainsi, une récente étude du cabinet Ernst & Young (octobre 2009) révèle que « la perte de productivité d'un salarié lorsqu'il est face à des outils informatiques qu'il ne maîtrise pas peut atteindre 4 000¬ par an. Face à l'ampleur de ce constat, il devient stratégique pour toute PME dynamique de consolider les efforts de formation bureautique auprès de ses collaborateurs. » . Ce constat « stratégique» est un peu tardif, mais mieux vaut tard que jamais.
Une vision bipolaire
Si le « paradoxe de Solow » nexiste plus, les attentes des entreprises vis-à-vis de leurs systèmes dinformation sont encore extrêmement modelées par une vision bipolaire.
En effet, le système dinformation est vu à la fois comme un accélérateur de productivité et comme un vecteur de changement. Il nest dailleurs pas sûr que les entreprises le voient de ces deux façons en même temps, comme nous y reviendrons dans le positionnement des DSI.
Ainsi, à la question « quels sont les enjeux dévolution dentreprise qui poussent le plus à la modernisation des SI ?», posée en 2009 et 2010 par le cabinet Sapientis dans son observatoire « modernisation des systèmes dinformation et maturité des entreprises » à un échantillon représentatif de DSI, la « réduction des coûts de fonctionnement » et la « création de nouvelles offres/services » sont revenus en tête deux années de suite.
EnjeuxEvolutionSI.png
Figure 4-1.
Les enjeux dévolution dentreprise
Source Cabinet Sapientis (copyright)
En premier, les entreprises attendent toujours beaucoup des systèmes dinformation en matière de productivité, notamment en réduisant les coûts de traitement de certaines opérations grâce à lautomatisation de tâches jusqualors manuelles. Outre le fait de réduire les temps de traitement, cette automatisation à également lavantage, en échangeant des données numériques, de réduire des risques éventuels derreur de resaisies qui pourraient générer des litiges dans un processus de facturation, par exemple.
La nouvelle donne de léconomie immatérielle, ce monde plat cher à Thomas Friedman, apporte encore un autre éclairage à cet aspect « réduction de coûts de fonctionnement », en autorisant la recherche de partenaires et fournisseurs à nimporte quel endroit du monde, sans logistique lourde associée. La connexion Internet devient la clé vers ce monde ouvert, davantage que plat. De même la collaboration et léchange inter métiers et inter géographies au sein dune même entreprise, peuvent bénéficier dapplications collaboratives, conduisant à des réductions dallers-retours ou de déplacements, et donc, contribuant à réduire les coûts.
Mais cette vision du système dinformation le cantonne encore essentiellement à un rôle de support. Cest ici un accélérateur de changement, pas un catalyseur. Il ne modifie pas le métier de lentreprise, il contribue seulement à aller plus vite, en réduisant les risques derreur et les coûts.
Or dun autre côté, de plus en plus dentreprises ont conscience dêtre entrées dans lère de léconomie immatérielle. En corollaire, leurs clients ont changé. Ils sont surtout de plus en plus équipés en portables, PDA, téléphones mobiles intelligents, etc. De plus en plus déquipements mobiles font office dinterfaces avec le monde numérique.
La convergence des canaux de diffusion des informations sest accélérée en quelques années. Les particuliers attendent des entreprises et des institutions quelles prennent en compte ces changements dans leurs modes de relations avec eux. De nouveaux services peuvent être potentiellement délivrés en utilisant exclusivement les technologies de linformation et des communications et en tirant partie des différents équipements de connectivité. Ainsi voit-on apparaître des sociétés dont le modèle économique repose en premier sur les plateformes déchange et de diffusion à travers des portails de services.
Comment ça marche ?
B2B, B2C, B2B2, m-commerce le B.ABA du ecommerce
Dans la relation commerciale sur Internet, le système dinformation (la manipulation et le contrôle de linformation numérique) est la clé des échanges de lentreprise avec ses clients ou avec ses partenaires.
B2C : Business To Consumer, se dit des relations de commerce en ligne entre une entreprise et ses clients particuliers.
Parmi les différents modèles économiques il y a celui des boutiques dachats en ligne, laffiliation, avec des acteurs plus larges comme Amazon, par exemple, les mises à disposition de contenu par abonnement (portails de services dinformation), ou le modèle publicitaire qui est celui retenu par les moteurs de recherche. Avant Google, le modèle classique était dutiliser un système de bannières publicitaires affichées sur les pages de résultats. Avec Google et lachat de mots clés, il y a un affichage plus discret de liens publicitaires correspondants aux thématiques de la recherche et le paiement se fait au « clic ». Lannonceur ne paie quen proportion du nombre dactivation des liens qui pointent vers son site commercial et le positionnement du lien dans la liste des liens commerciaux dépend de la somme quil est prêt à verser.
B2B : Business To Business, il sagit ici des relations commerciales entre entreprises via le commerce en ligne et notamment des « places de marché » qui mettent en relation fabricants, fournisseurs et clients, pour des échanges commerciaux ou des projets de collaboration (Exemple Exostar pour laéronautique et la défense) ;
B2B2C : Business to Business to consumer, échanges ou transactions commerciales en ligne où une entreprise vend un produit ou un service à un consommateur en se servant dune autre entreprise comme intermédiaire.
m-commerce : il sagit des échanges et services commerciaux via les téléphones ou équipements mobiles (ex : envoi dune facture par sms, eticketing, achat/téléchargement de sonneries, etc). En particulier la technologie NFC (Near Field Communication), le "sans contact mobile" permet déchanger ou de collecter des informations en toute simplicité : il suffit pour cela de positionner un téléphone portable équipé à quelques centimètres d'une borne. Un mobile NFC peut servir, par exemple, de titre de transport, de billet de concert, de moyen paiement et de carte de fidélité chez un commerçant, de code d'accès à une entreprise, de lecteur d'étiquettes électroniques apposées sur un produit ou un équipement urbain, ou même de système d'échange entre deux téléphones.
Le système dinformation peut ici, au-delà daugmenter la productivité au regard de processus existants, apporter de la valeur au cur de métier dune entreprise, par exemple en permettant la création de nouvelles offres multi-canal, ou une approche et un suivi différent du client et de ses besoins, ou des échanges nouveaux avec les clients et/ou partenaires en exploitant toutes les possibilités du commerce électronique dans un monde où le PC nest plus le seul moyen daccès aux offres numériques.
Le système dinformation peut aussi augmenter la qualité dun processus par une meilleure traçabilité et un contrôle dinformations financières ou de flux logistiques, ou de biens matériels. Il peut également aider à optimiser la mobilité des employés (interventions dagents terrain ou de commerciaux, télétravail) et répondre à des niveaux dengagement élevés.
Comment ça marche ?
Mobilité : les nomades urbains et loptimisation des interventions sur le terrain
Quentend-t-on par mobilité ? La capacité des personnels itinérants ou nomades à communiquer avec leur entreprise et à effectuer des transactions depuis leur lieu dintervention en sappuyant sur les nouvelles solutions technologiques.
En réalité la mobilité couvre de nombreux cas de figures, des collaborateurs dits nomades qui veulent retrouver leur bureau hors des murs de lentreprise et disposer des mêmes services que leurs collègues en poste fixe, en toute sécurité, aux techniciens de maintenance en passant par les forces de vente sur le terrain. En accédant en temps réel au SI de lentreprise, les forces sur le terrain peuvent disposer dinformations pertinentes pour réduire les temps de déplacement, gérer plus rapidement les données logistiques, optimiser les tournées
La mobilité permet également de la télé-surveillance en temps réel des chaines déquipements constituant un réseau de distribution (eau ou électricité par exemple) en fournissant des informations via RFID (Radio Frequency IDentification) sur ces composants tels que tuyaux, pompes, réservoir, vannes, installations de retraitement
Les commerciaux de leur côté ont la possibilité daccéder aux informations clients et produits sur site, et peuvent établir des devis ou des promotions sur place.
Derrière ces enjeux dévolution, il y a à la fois les nouvelles technologies qui rendent possible ces gains, le nécessaire questionnement sur les choix dinfrastructure, déquipements, dintégration et de sécurité des échanges, mais surtout la prise en compte des changements dorganisation sans lesquels les gains ne pourront être obtenus. La mobilité a une dimension transformationnelle pour les processus de lentreprise.
Au-delà des équipements de la mobilité, terminaux mobiles tels que PDA, tablet PC, smartphone, chez les agents, téléphones plus intelligents, plus interactifs chez les clients (NFC), technologies de communication (3G,GPRS, WIFI,
), progiciels de gestion des interventions, géolocalisation, il ne faut pas négliger le « middleware dintégration», c'est-à-dire la couche dintégration des technologies entre elles. Cest cette dernière qui va permettre dhomogénéiser les accès vers le SI. De même, il faudra adapter linfrastructure de sécurité à lenjeu mobilité.
Reste que pour répondre à ces deux natures de besoins, « réduction des coûts de fonctionnement » et « création de valeur », le système dinformation, afin dêtre crédible, doit dune part éliminer ses propres coûts récurrents, sils ne sont pas justifiés au regard de la productivité recherchée, dautre part faire la preuve rapidement de sa valeur dans la création de nouveaux services différentiateurs au sein dun environnement de plus en plus concurrentiel.
Or si lévolution est freinée par un héritage lourd, aussi bien en matière de contraintes darchitecture technique que de freins organisationnels, le système dinformation ne sera pas en mesure de répondre aux attentes de valeur ajoutée.
Il existe également un engrenage pernicieux.
Quand lexistant a été construit par strates hétérogènes, que le résultat au fil des ans sest transformé en un « SI spaghetti » avec non seulement un entrelacs de connexions point à point entre applications mais également des redondances de fonctions et de données et des codes sources complexes, les coûts récurrents de maintenance et dexploitation dapplications en production grossissent de façon disproportionnées.
Ces coûts dexploitation et de maintenance deviennent si élevés quils laissent peu de place à linvestissement sur de nouveaux projets, en particulier
ceux qui devraient contribuer à réduire les coûts récurrents en restructurant le système dinformation pour plus dagilité et de flexibilité. Lengrenage de lévolution se grippe de lui-même, progressivement et sûrement.
Si, par contre, lentreprise prend la peine de rationaliser ses coûts récurrents non dans une optique financière court terme mais bien avec lambition de réinjecter les économies ainsi obtenues dans le système dinformation pour financer une architecture globale plus agile, alors, dune part, les coûts récurrents diminueront progressivement, dautre part, le système dinformation saura en proportion être plus réactif aux demandes dévolutions fonctionnelles.
LevierEvolution.png
Légendes figurant dans limage
Figure 4-2.
Les leviers dévolution
Si les deux leviers coût et agilité sont bien perçus comme corrélés, ils peuvent contribuer à mettre une dynamique vertueuse en place. A linverse, mis en opposition, ils figent le système.
Reste que réinvestir les économies de rationalisation des coûts récurrents dans une restructuration de lagilité de larchitecture peut sembler très théorique. Pour que le projet puisse aboutir, il faut procéder par étapes, avec des résultats intermédiaires visibles et qui démontrent concrètement lapport des changements effectués pour la mise en uvre de nouveaux services.
La démarche pragmatique consiste donc à inclure autant que possible la modernisation dun existant dans tout projet métier auquel il peut contribuer.
Pourquoi lévolution de léconomie immatérielle pousse à la modernisation des SI
Le monde plat où les clients sont connectés à lentreprise, les employés nomades, les partenaires « en flux tendu » directement connectés dans une logique dentreprise étendue, tout cela nécessite une intégration toujours plus forte de technologies très hétérogènes entre elles. En corollaire, cela impose également des contraintes très fortes douverture du système dinformation avec les problématiques de sécurité liées, ainsi que la nécessité de réutilisabilité des fonctions et services sous peine de ne pas avoir la flexibilité nécessaire face à des besoins et des comportements nouveaux.
Les systèmes dinformation ne sont plus totalement dans une logique de développer des applications pour des utilisateurs internes à lentreprise. Les frontières se sont déplacées sur plusieurs axes à la fois.
Axe géographique: Les applicatifs sont devenus mondiaux, les utilisateurs mobiles et internationaux.
Axe temporel : les services doivent parfois fonctionner en continu, 24h/24, 7j/7. La raison en est autant la mondialisation, que lexigence des clients qui ne se déplacent plus en boutiques ou en agences, mais vont consulter les informations sur leurs comptes, ou effectuer des achats, via Internet et au-delà (PDA, smartphone,
), à toute heure.
Axe services : qui, au final, utilise les services du système dinformation dune entreprise ? Au-delà de la logique interne, où les utilisateurs sont des employés, les utilisateurs sont aussi les clients, à qui il faut fournir des services dinformation via des technologies de communication de plus en plus variées. Ce sont également des fournisseurs, des partenaires dans la logique dentreprise étendue. En particulier, lentreprise doit apprendre à mieux partager ses services dinformation, par exemple pour les collaborations de type ingénierie, en conception mais aussi en après-vente, sur des savoir faire pointus (référentiels et catalogue de données techniques), ou pour les collaborations de type achat/vente sur des catalogues doffres.
Dès lors, les enjeux dévolution poussent à la modernisation des SI, afin quils puissent fournir les services permettant la mise en place dun modèle dentreprise en réseau, communicante, ouverte et sécurisée.
En particulier il sagit de fournir une infrastructure banalisée daccès au SI et aux outils de communication, à tout moment, depuis nimporte où et en toute sécurité. Ensuite il faut pouvoir partager les données efficacement, optimiser encore les processus, voire les changer en prenant en compte les nouveaux modes de travail et dinteractions avec le SI.
Les systèmes dinformation hérités du passé sont loin davoir la flexibilité requise, en raison dune architecture rarement pensée de façon globale (en particulier pour la sécurité) et le cas échéant, pas assez orientée vers un usage de services partagés, au-delà même des murs de lentreprise. Leur logique applicative est même en cause car elle a souvent entraînés des silos de données et de fonctions, avec pour conséquence des doublons, des incohérences, des redondances. Dailleurs, quand bien même une application donnerait satisfaction aujourdhui, cela ne garantit en rien son adaptabilité future.
En annonçant en fin dannée 2007 sa banque « Web 2.0 », ou la mise en service dun environnement personnalisable avec les dernières technologies du Web, pour quune clientèle aisée puisse gérer ses comptes en ligne, la Banque Barclays préfigurait ce que sera linformatique de demain.
Cette dernière est fondée sur un nouveau paradigme, extension de lapproche centrée client réservée jusqualors aux solutions de gestion de la clientèle (CRM). Il sagit ici de changer lapproche des systèmes dinformation pour quils ne soient plus des usines à collecte et retraitement de linformation, mais des organismes adaptables, perpétuellement capables de saligner avec les besoins des utilisateurs et des clients finals en recyclant linformation nécessaire.
En quelque sorte une théorie de lenvironnement appliqué au numérique. Exit donc la vieille définition de traitement de linformation et dès lors la séparation entre informatique industrielle et informatique de gestion
Définition
Informatique ou Informatiques ?
Longtemps le distinguo a été fait entre
Linformatique industrielle : traitement de linformation liée à lindustrie et au sens large tout ce qui a trait aux activités de production
Linformatique scientifique : traitement de linformation issue de la recherche scientifique applicable à la recherche opérationnelle, la bio-informatique, etc.
Linformatique de gestion : traitement des données de gestion
Linformatique au sens large devient un outil pour optimiser des services dinformation à des clients, quils soient internes à lentreprise (on parlera alors dutilisateurs) ou externes, cest à dire clients de lentreprise elle-même. Linformatique devient le nerf de certains métiers et non plus un outil de support au traitement des données comme elle a pu être considérée auparavant. De la même manière, les outils dentrepôts de données (datawarehouse) ont évolués vers des outils danalyse et daide à la décision adaptés aux métiers (BI pour Business Intelligence).
Cette évolution nest pas que de pure forme, nen déplaise aux esprits chagrins.
Cela change fondamentalement les règles de gestion des systèmes dinformation et a de lourds impacts en modernisation de systèmes existants. En voici quelques exemples concrets : une société du domaine de lénergie avait jusquà récemment considéré ses clients à travers les compteurs et les points dentrée de distribution dénergie. Ce faisant, établir de nouvelles règles de gestion ou de nouvelles offres qui cumuleraient sur une même facture pour un client donné, sa maison principale, sa maison de campagne, voire son entreprise dans le cas dartisans, supposait de modifier des systèmes existants qui, voyant deux ou trois compteurs différents, établissaient automatiquement deux ou trois factures différentes sans avoir la capacité à lier ces factures en fonction de leur point commun : le client. Cest la conception des liens entre données métiers qui est à revoir et cela modifie profondément limplémentation.
De même, de nombreuses compagnies dassurance souhaitent évoluer dun modèle traditionnel de gestion par produit vers un modèle client multi-produits. Le changement peut transformer lorganisation à léchelle de lentreprise et, là encore, la conception des systèmes dinformation est à revoir.
Car si les règles de gestion des anciens systèmes exécutent une logique métier stable depuis des dizaines dannées, ce nest pas forcément à la manière souhaitée aujourdhui par les utilisateurs. Cest là où la modernisation devient clé pour accompagner le changement.
Le tableau page suivante montre, pour différents enjeux dévolution dentreprise, le type denjeu de modernisation du système dinformation existant à considérer.
Tableau 4-1
Enjeux dévolution et modernisation
Enjeu dévolutionOccasion de modernisationAccroissement de la productivité des salariés dans toute l'entreprise et réduction de coûts
Réduire les coûts de processus internes et externes. Mise en uvre de processus administratif internes dématérialisés grâce au Web. Déport de services et de support en ligne (opérations réalisées par le client).Mise en place de workflow collaboratif et de référentiels internes. Automatisation des requêtes internes (demande de congés, notes de frais) et autorisations en ligne. Mise en place dun annuaire des employés.
Si existence de données ou base de connaissance à préserver, migration de données à envisager.
Si documents et archives, idem.
Mise en place de contrat cadres pour les achats auprès des fournisseurs
Rationalisation de lapprovisionnement par des techniques de-procurement (achats en ligne)
Optimisation des coûts de lexploitation informatiqueCréation de nouvelles offres/servicesAugmenter le chiffre daffaires par un canal favorisant latteinte de nouveaux clients et utilisateurs, réduire le coût dacquisition client.
Améliorer le service apporté aux clients existants via des nouveaux services en ligne
Accéder à de nouveaux clients en mettant en uvre des offres spécifiques à des secteurs de clientèles particuliers (« jeunes actifs », « retraités », etc).
Sadapter aux changements des modes de consommation ou à de nouvelles opportunités de ventes de par la régulation :
Exploiter la demande client et/ou loffre pour mieux cibler la production et/ou le prix.
Augmenter la visibilité dune marque.Mise en place dune architecture plus moderne, autorisant laccessibilité Web et mobiles, et un meilleur usage de services partagés (SOA°) ainsi quune flexibilité dans la gestion des règles métiers
Favoriser une meilleure gestion de la relation client via un référentiel de données client unique et centralisé pour obtenir une vue 360°
Optimisation de lentreprise etendueAméliorer la coopération entre les donneurs d'ordre et leurs sous-traitants
Augmenter la collaboration avec des partenaires locaux
Engager la collaboration avec des partenaires internationaux
Améliorer les capacités dintégration des systèmes existants avec des systèmes dinformation externes (éventuellement via une architecture orientée services).
Améliorer la gestion des données de références pour mieux contrôler les flux de données et les échanges avec les acteurs externes (fiabilité, cohérence, etc.).Developpement de leadministration et des eservicesRencontrer les attentes des citoyens avec des services de proximité via le web pour le gouvernement.
Cf. « optimisation de lentreprise étendue » et « création de nouvelles offres/services »Economie internationale et Régulation
Obtenir un meilleur contrôle des coûts et des risques opérationnels
Faire appliquer les règles de conformité et les directives légalesSimplifier la complexité des codes.
Mettre en place un référentiel pour le suivi de la qualité des applications.consolidation de societes (y compris fusions et acquisitions)Etendre sa clientèle par acquisition dune base « client » installée ou dune image de marque
Acquérir des services de proximité,
Se lancer dans une extension géographique
Effectuer des regroupements dintérêts
Compléter une offre par des produits à valeur ajoutée.Mettre en place des moyens de pilotage et de consolidations des informations financières communes
Aligner les modes de fonctionnement aux nouveaux contextes métiers (ex services 24/24, 7j/7, banques multi-canal, etc.)
Reprendre connaissance des applications logicielles spécifiques à travers un inventaire global et un diagnostic de létat des applications. Redocumenter lexistant
Collecter et rationaliser les données de référence (pour préparation à la migration ou intégration)
Exploiter au mieux le meilleur des deux systèmes dinformations, faire converger les applications, résoudre les problématiques dintégration, optimiser le partage des données (base clients par exemple)
Recenser les compétences nécessaires à la préservation du « patrimoine applicatif » et créer un référentiel de compétencesChapitre 5
Les risques de lobsolescence
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
En juillet 2005, HSBC a admis quune panne hardware, la pire de toute son histoire, a provoqué un crash majeur ayant des répercussions sur des milliers de clients des distributeurs et des services en ligne
En décembre 2006, une interruption machine a empêché des contrôleurs aériens en Floride didentifier et de suivre 200 vols, permettant dès lors à des avions de sapprocher trop près les uns des autres.
En Novembre 2004, une panne machine au Department for Work and Pensions (DWP) a empêché 80 000 employés de traiter les retraites et remboursement sur plusieurs jours
En 2005, la New Zealand's Reserve Bank doit subir une interruption de service, a priori due à un upgrade dun microcode sur un disque IBM shark qui a mis en danger la capacité de la banque à procéder à des règlements internationaux
Ces exemples sont autant davertissements pour les entreprises qui négligent les risques que représentent lobsolescence ou le manque de support attaché à leur système dinformation.
Il en existe dautres moins retentissants mais tout aussi dommageables, où des entreprises nont pas réussi à mettre en uvre des évolutions souhaitées, faute dagilité de leur système dinformation. Nombre sont celles qui ont payé ce retour dexpérience avec des projets coûteux de réécriture devenus des fiascos. Avant den arriver là, une bonne gestion des risques simpose et commence par la gestion de lévolutivité des systèmes. Dans ce chapitre nous montrerons les différentes natures de risques, leurs conséquences et pourquoi il faut en appeler à une gouvernance de lévolution des SI.
Lobsolescence : bien plus quun problème technique
Le manque dagilité est le plus grand des risques de lobsolescence
La gestion des risques de lobsolescence ne consiste pas seulement à gérer des risques dinterruption de service due à un matériel ou un logiciel obsolète, où il faut trouver le niveau de maintenance préventive économiquement viable pour cibler les opérations indispensables de modernisation technique. Cet aspect peut relativement bien se gérer, dans la mesure où lobsolescence technologique des infrastructures saccompagne le plus souvent darrêts de support programmés, ce qui conduit les entreprises à réagir en fonction déchéances et de coûts assez bien connus.
Toutefois, même des problèmes techniques prévisibles montrent limpréparation des entreprises pour gérer les risques dobsolescence. Elles préfèrent traiter ces derniers le plus tard possible en comptant sur le remplacement progressif des applications quelles laissent vieillir dans lintervalle.
Le problème de lan 2000 renouvelé en 2019
Des formats de dates IEEE qui attendent lan 2019 pour poser problèmes
Le problème de lan 2000, aussi relativement simple quil ait été à première vue date codée sur les deux derniers chiffres des années a provoqué une première prise en compte des répercussions catastrophiques potentielles des risques d'obsolescence. En effet, une simple modification répercutée à léchelle de millions de lignes de code a montré brusquement lampleur des enjeux relatifs à lévolution de systèmes devenus obèses, utilisant des techniques de codage obsolètes sans typage de structure par exemple - et, de facto, peu flexibles. Lan 2000 na pas suffit toutefois à atteindre le seuil de conscience nécessaire à une remise en état programmée des vieux systèmes. Lapproche a été essentiellement réactive.
En effet, les corrections de programmes ont été effectuées au niveau local (sur quelques applications), pour un problème spécifique de date, sans chercher à traiter au niveau global (sur lensemble du portefeuille) dautres problèmes prévisibles identiques. Du coup, le même type de problème nous attend pour 2019. Les formats de dates IEEE, pour les programmes C et C++ couplés à certaines versions de bases de données relationnelles, sont prévus pour stocker des dates à partir de 1889 sur un différentiel de 4 milliards de seconde
ce qui nous amène à envisager un problème potentiel en 2019.
Dici là, me direz-vous, toutes les applications auront été remplacées. Quen savons-nous ?
Des applications écrites en 1965 ont duré jusquen 2000, voire au-delà. Pourquoi des applications écrites il y a cinq ou six ans ne dureraient pas jusquen 2019, telles quécrites ?
Or les cycles de remplacement ne sont pas assez courts pour empêcher quune application ne souffre dobsolescence durant son cycle de vie. Il nest pas rare aujourdhui de trouver des applications en entreprise qui sont en production depuis une vingtaine dannées. Les applications durent souvent beaucoup plus longtemps que ne lenvisageaient leurs concepteurs et développeurs initiaux. Mais faut-il toutes les laisser durer et comment gérer efficacement le cycle de vie des applications en production?
Comment et jusquà quand une entreprise peut-elle justifier dune application si cette dernière nest pas si spécifique quelle ne puisse être reproduite par dautres et proposée comme une offre de service partageable, moins coûteuse que des développements et une maintenance en interne?
Comment et jusquà quand une entreprise peut-elle dépenser de largent pour une application uniquement pour la maintenir en état, sans être capable de la faire évoluer, et sans être pour autant capable de la remplacer ?
Laisser « durer » des applications sans gestion réfléchie de son patrimoine applicatif, cest sexposer à dautres risques que techniques, souvent mal évalués. En particulier le risque du manque dagilité par rapport aux nouveaux besoins métiers. En effet, certaines applications deviennent très difficile à modifier rapidement, en raison de la complexité de codes mal structurés et volumineux, accompagnée dune mauvaise documentation des logiciels, voire de la disparition des compétences.
Depuis lan 2000, la pression des marchés ouverts, la concurrence mondiale, conduisent à vouloir accélérer les temps de mise sur le marché de nouvelles offres, dans une économie où linformation numérique et la vente en ligne deviennent des incontournables. Le débat sur limportance et la valeur de différenciation que les technologies de linformation et des télécommunications et les applications de ces dernières peuvent ou non permettre a tout lieu dêtre, car les opportunités à saisir ne dureront jamais longtemps.
Il ne sagit pas seulement de créer de nouvelles applications agiles. Il sagit également de ne pas laisser des applications existantes hypothéquer le futur économique de lentreprise, parce quelles empêchent déjà lagilité de lensemble du système dinformation et sa capacité à créer de la valeur.
Les systèmes dinformation : un avantage concurrentiel ?
Si les entreprises ont lobligation de se servir des systèmes dinformation à bon escient pour ne pas jouer avec un arc et des flèches dans une guerre économique mondiale, il reste une question. Est-ce que ces systèmes dinformation sont des ressources rares, stratégiques, fondamentales pour asseoir un avantage concurrentiel majeur? Ou est-ce que la standardisation des ressources de stockage, traitement et transport des données, ne fait pas des TIC juste une composante de plus de linfrastructure économique à comparer aux systèmes deau potable, dirrigation, dassainissement, aux routes, aux trains, à linfrastructure électrique
?
Cette question, Nicholas G. Carr, un écrivain américain, se lest posée et y a répondu avec un scepticisme au moins égal à lenthousiasme de Thomas Friedman vis-à-vis de son monde plat, quant à limportance stratégique des technologies de linformation pour les affaires.
En effectuant un parallèle avec le développement de lélectricité et celui de lère numérique, il argumente que les TIC sont devenus une commodité semblable aux technologies liées aux transports et à lélectricité, incontournables, certes, mais non stratégiques. Aucune entreprise ne construit sa stratégie sur lusage de lélectricité. Doù le conseil de G.Carr de gérer les TIC par les risques et les coûts, car « quand une ressource devient essentielle pour la compétition mais sans conséquence sur la stratégie, les risques quelle crée deviennent plus importants que les avantages quelle procure ».
Ils lont dit
IT doesnt matter (jeu de mots sur deux niveaux de lecture, « cela ne fait rien » et « les TIC nont pas dimportance »)
Cest en premier le titre dun article de Nicholas G. Carr, publié en mai 2003 dans lédition de la Harvard Business Review. Cest ensuite devenu un livre de lauteur « Does IT Matter? Information Technology and the Corrosion of Competitive Advantage, publié par les editions de la Harvard Business School.
Dans cet article, lauteur examine lévolution des technologies de linformation dans les affaires et établit le parallèle avec lévolution de technologies plus anciennes telles que lénergie électrique et les transports ferrés. Pour lui, lévolution est strictement similaire et si pendant une période les TIC ont offert une opportunité pour les compagnies visionnaires de gagner un avantage compétitif sérieux, à partir de maintenant, la disponibilité dapplications standardisées et la diminution des coûts dacquisition et de possession rendent les TIC invisibles aux yeux de la stratégie, ce qui fait que les « TIC nont pas dimportance ».
Selon Nicholas G.Carr, « derrière le changement de pensée envers linformatique »[considérée dabord comme un outil de bas niveau puis une valeur stratégique] « repose une hypothèse simple : comme la puissance et lomniprésence des TIC ont augmenté, il en est de même de leur valeur stratégique. Cest une hypothèse sensée, et même intuitive. Mais elle est erronée. Ce qui rend une ressource réellement stratégique ce qui lui donne la capacité à être à la base dun avantage concurrentiel durable nest pas lomniprésence mais la rareté. Vous ne pouvez gagner une longueur davance sur vos rivaux quen ayant ou en faisant quelque chose quils ne peuvent avoir ou faire. Dès à présent, le noyau même des fonctionnalités de lIT le stockage, le traitement et le transport de données, est devenu accessible et abordable pour tous. Leur puissance et leur présence même les a transformés de ressources potentiellement stratégiques en des commodités facteurs de production. Les TIC sont devenus des coûts pour faire des affaires que tous doivent payer sans pour autant fournir de différenciation à aucun ».
Il faut toutefois nuancer la vision de Nicholas G.Carr. Il a en grande part raison et beaucoup tort également.
Il a raison dans le sens où nous sommes effectivement arrivés à un point de bascule aujourdhui, où beaucoup dapplications propriétaires pèsent plus lourd en coût quelles ne valent.
Un point où une petite entreprise peut très rapidement avoir accès à des puissances serveurs et des fonctionnalités qui étaient lapanage des grandes il y a peu. Un point également où on voit bien lévolution des plateformes applicatives, des applications en mode services qui viendront, tôt ou tard, concurrencer les éditeurs de progiciel.
Car tout ce qui existe et a pu être pensé en termes dédition logicielle aujourdhui se verra progressivement proposé sous la forme dabonnement de services, sans infrastructure lourde, sans équipe, sans développement spécifique à gérer, compte tenu de la rapidité des évolutions mises à disposition de tous. Vouloir concurrencer ce futur est inutile et coûteux. Cest le moment ou jamais de profiter des opportunités quil offre. Mais cela sera plus facile pour des petites structures agiles que pour les groupes, moyens ou grands, qui nont pas su gérer leur héritage.
Quand ce que vous aviez développé en interne est devenu une meilleure pratique disponible sous forme de services Web, vous avez tout intérêt à basculer comme utilisateur de ces services plutôt que de maintenir un existant à tous prix. Ainsi Carr évoque à juste titre lexemple de AHS (American Hospital Supply), précurseur en 1976 avec ASAP, un système développé en interne qui permettait aux hôpitaux de passer des commandes électroniques de médicaments. Ce système, à lorigine de profits pendant plus de dix ans, a été dépassé par lévolution dInternet et du commerce en ligne dans le tournant des années 90 et est devenu depuis une corde au cou des dirigeants, selon une étude de cas de la Harvard Business School.
Certes, les applications vieillissent et il y a un moment où ce qui a été développé en interne est à revoir. Ne rien faire amène inéluctablement à payer plus cher le manque de vision.
Cest là où Nicholas G.Carr a tort, quand il recommande de prendre une position défensive plutôt quoffensive vis-à-vis des TIC, et dattendre la disponibilité de nouveaux services plutôt que dinvestir. Lapproche nest pas si manichéenne dans les choix. Geler linvestissement fait peser le risque sur lévolution des applications existantes et certaines ne peuvent pas se trouver sous forme de services communs à tous.
Nicholas G.Carr a doublement tort, parce quil confond technologies informatique et systèmes dinformation. La vision de N.G.Carr est celle qui a conduit à dévoyer le découpage maîtrise douvrage et maîtrise duvre vers un découpage inefficace entre organisations métiers et organisations informatiques (voir chapitre 7, « REF _Ref261026164 \h Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif »).
Un système dinformation dentreprise ne manipule pas que des données parfaitement standardisées dans des tuyaux parfaitement interopérables, on est loin du compte. Il représente une modélisation du cerveau et du corps dune entreprise, il est la mémoire de ses processus, les informations échangée ont un impact totalement différent suivant qui les lit. Pour faire le parallèle avec lélectricité, si la lumière est la même pour tous, linformation dont chacun a besoin est différente, même si beaucoup doivent être partagées.
Il y a des applications spécifiques qui peuvent apporter un avantage concurrentiel sérieux à des entreprises quand elles portent sur les processus liés à leur cur de métier. Il sagit là de la distinction que G.Carr fait lui-même entre les technologies propriétaires et ce quon peut appeler les technologies dinfrastructure. Et parce que ces applications spécifiques nappartiennent quà une seule compagnie, ne sont pas facilement réplicables car liées profondément à son savoir-faire, à ses ressources humaines, à ses informations historiques (qui, soit dit en passant, sont aussi des biens de lentreprise), lusage de ces applications est un atout concurrentiel.
Oui, les systèmes dinformation sont des armes à double tranchant. Ils peuvent servir à des innovations dusage, fournir des opportunités de différentiation. Mais si on les utilise pour développer ou maintenir en spécifique une application pour faire ce que tout le monde fait, fût-ce avec les dernières technologies, on se trompe de cible. Dautres sauront le faire à moindre coût et proposer des services que vos concurrents gagneront à acheter.
Car, en effet, le service ou la fonction fournis par linformatique nétablissent pas de réelle différenciation métier dès lors quils sont largement adoptés, et standardisés dans les modes de fonctionnement de la plupart des entreprises. Ce sont là des commodités dont Nicholas G.Carr peut dire sans hésiter quon ne peut pas ne pas les avoir, sans pour autant quelles soient stratégiques.
Contrôler les biens immatériels
A linverse, indépendamment de leur âge, les applications existantes peuvent être des systèmes clefs, et receler une logique métier spécifique à lentreprise tant en termes de données que de règles de gestion et de processus. Cette proximité avec le métier de lentreprise est difficilement remplaçable par des applications en mode services Web, ou par un progiciel standard du marché et représente souvent une gageure en temps et coûts pour un redéveloppement complet. Dès lors, les applications patrimoniales représentent réellement cette ressource rare que les concurrents ne peuvent avoir ou cette longueur davance quils ne peuvent franchir aisément.
Mais, ainsi que nous y reviendrons au chapitre 7, ce type de bien, tout immatériel quil soit, se dégrade inéluctablement, plus ou moins vite, selon quon fasse un effort ou non. Ne pas faire deffort pour gérer son patrimoine en système dinformation, cest progressivement perdre le contrôle dune bonne partie de ses biens immatériels. Cest sexposer dès lors à transformer un avantage concurrentiel en « corde au cou », selon la formule du HAS.
Dès lors, la question de la modernisation se pose en ces termes:
Les composants de mon système existant représentent-ils une valeur métier ou de productivité spécifique à mon entreprise ? Si oui, est-ce que je les valorise et les préserve de façon appropriée à mes enjeux ? Si non, est-ce que je peux en abandonner certains, en remplacer dautres, selon lanalyse de la valeur ?
Quels sont leurs états dobsolescence et quels sont les risques à ne rien faire (ne pas agir de façon proactive en prévention de lobsolescence) ?
Est-il possible den faire un meilleur usage pour les nouveaux besoins de lentreprise, pour soutenir les changements auxquels elle doit faire face, à moindre coût, plus vite et à moindre risque quen choisissant de lécarter au profit de nouvelles solutions ?
Comment sinsère la modernisation de ce système dans une gouvernance globale du système dinformation ?
A présent que nous sommes effectivement dans une économie immatérielle, quand léconomie accélère, ou quitte une vitesse de croisière adossée à quelques paradigmes (sociétés considérées comme stables, cours dactions, comportement des acheteurs, situation de monopole, cours des matières premières, etc) et change de paramètres, le manque de contrôle des systèmes dinformation devient flagrant, dans leur incapacité à prendre rapidement en compte la fluctuation des paramètres.
Les systèmes dinformation existants nont jamais que les capacités de contrôle et dadaptation que les organisations leurs ont prévus et force est dadmettre que cela na pas été leur préoccupation jusquà présent. Il est grand temps pour les entreprises de faire lanalyse de la valeur de ce dont elles disposent, de nettoyer, faire évoluer, écarter, remplacer, les composants de leurs systèmes. Sinon, effectivement, lapport de ces systèmes ne se lira plus quen termes de coûts et de risques, comme nous le décrivons ici.
Manque dagilité et exemples dévolutions nécessaires
Mieux vaut prévenir que guérir
Les entreprises ont donné priorité au pragmatisme ces dernières années, en ciblant leurs actions sur latteinte dobjectifs tels que la réduction de coût et les gains de productivité en maintenance et exploitation, compte tenu des coûts visibles et quantifiables associés à ces postes. Doù des actions tactiques telles que donner la maintenance à des tiers (TMA : Tierce Maintenance applicative) pour rationaliser les processus de maintenance et leur pilotage sur la base de services définis à la cible (SLA : Service Level Agreement), ou de loutsourcing pour diminuer les coûts de main duvre.
Toutefois ces actions ne diminuent pas le risque du manque dagilité, car elles nont pas pour objectif la gestion de lagilité des applications. Or tous les risques, en particulier celui du manque dagilité, se traduisent pour finir en coûts. Ne pas faire à temps la modification du système dinformation que le métier ou les exigences externes imposent est un risque économique non négligeable. Lagilité doit donc faire lobjet de procédures préventives, sauf à laisser se dégrader jusquau point de non retour ladaptabilité des applications au fil du temps.
En quoi consiste le risque du manque dagilité, comment le contourner ? De nombreuses sociétés se satisfont depuis longtemps de systèmes Mainframe qui tournent bien, au sens où ils répondent à des volumes de transactions très importantes, et de manière sécurisée. Pour tout dire, beaucoup de distributeurs dargent automatiques reposent encore sur des transactions cobol sur Mainframe. Il nest pas rare de trouver dans des entreprises, particulièrement dans les secteurs finance et industries, des applications ayant près de 40 ans de « bons et loyaux services ».
Pour autant, il serait illusoire de croire que ces applications sont hors du champ des changements de paradigmes dun monde en évolution. Continuer à faire toujours mieux ce que lon sait bien faire est un principe de bon sens qui ne devrait pas pour autant en occulter un autre : dans un monde en mutation, les savoir-faire peuvent avoir à sadapter ou à changer. Les Mainframes sont loin dailleurs dêtre les seules applications à moderniser. Des applications dune dizaine dannées réalisées en Java souffrent de défaut de conception pour avoir été rapidement développées.
Nous allons prendre quelques exemples de situations pratiques pour mieux illustrer ces propos.
Fusions & acquisitions
Le domaine bancaire est sujet à de nombreuses fusions et acquisitions dans un contexte international. Un rapport du Gartner met en exergue que les acteurs internationaux convergeant sur des marchés traditionnellement desservis par des banques de proximité, ont trouvé difficile détablir des économies déchelle en raison des challenges associés aux applications informatiques existantes tels quinflexibilité, cycle de développement long, et modifications non documentées.
Pour donner un exemple concret, ce type de fusion et acquisition impose à des systèmes prévus pour fonctionner en transactionnel sur des fenêtres de temps restreinte (9h à 17h par ex, sur un créneau horaire) une disponibilité 24h/24, 7j/7. Du coup, le traitement des données en « batch » de nuit, héritage danciens systèmes, nest plus possible, il faut passer à des traitements quasi temps-réel sous peine de ne plus être concurrentiel au niveau des temps de réponse aux clients ou au niveau de la mise en ligne de nouveaux produits et services ou encore au niveau du traitement des transactions financières.
La question à se poser est donc: dois-je refondre mon système (sans garantie sur le délai) ou trouver un moyen de restructurer son architecture en réponse à ce besoin de transaction 24/24, 7j/7 ?
Applications ebusiness
Autres exemples, la nécessité de gérer louverture vers les clients et/ou partenaires et fournisseurs à travers le Web. En particulier, lintégration de prises de commandes de clients en lignes ou laccès à distance à travers un portail Web pour des partenaires pour le suivi des achats, des bons de commande, des factures, des stocks, etc.
Cet aspect a, pour les systèmes centralisés sur Mainframe, dans un premier temps été géré par le développement dinterfaces Web en lieu et place des anciens 3270. Le bénéfice immédiat a été de remplacer une interface graphique peu attrayante et à risque derreurs (codes et abréviations à saisir au lieu de menus déroulants) par une interface ergonomique permettant de réduire la durée de traitement des dossiers et de déporter une partie de la saisie chez les clients et/ou partenaires usagers.
Cette étape de modernisation cosmétique, ne modifie pas les fonctions existantes, et souvent le code des traitements reste inchangé. Cest une première étape simple dont le retour sur investissement est rapidement démontrable.
On peut également choisir pour ce premier stade, suivant le coût ou le risque dobsolescence des plate-formes, de migrer vers des architectures client/Serveur ntier, qui impliquent « de facto » une séparation données/traitement/présentation et une couche de présentation Web.
Pour tirer pleinement profit de louverture au Web des processus de prise de commande, la modification des interfaces, doit être accompagnée dune approche de rationalisation des données, pour pouvoir construire une vue client unique (la fameuse vue 360° du CRM), essentielle dans le commerce électronique, dont les avantages sont de trois natures :
Centralisation des informations clients pour faciliter les prises de décision opérationnelles par une meilleure connaissance du dossier client,
Possibilité détablir des stratégies marketing via une meilleure exploitation des données,
Meilleure satisfaction des utilisateurs.
Cette approche peut se faire en réutilisant au maximum les systèmes et logiciels existants. Il sagira dabord détablir un dictionnaire de données de référence client (référentiel client standardisé), grâce à la réingéniérie du code et des données, puis, dans un second temps, de confier lorchestration (en particulier la synchronisation) des données à un Master Data Management (MDM) qui évitera dès lors toutes redondances et duplications de données ou risques dincohérence et simplifiera les flux.
Comment ça marche ?
MDM -Les données de référence auraient-elles trouvé leur maitre ?
Les données de références (Master Data) sont des informations essentielles pour lentreprise, manipulées dans la plupart des processus métiers et qui existent indépendamment des applications. Ainsi en est-il des données clients, fournisseurs, produits, employés, sous-traitants, comptables, contractuelles... .
Le meta-group a défini une méthode de gestion de ces données (MDM) destinée à qualifier et à uniformiser le mode de description des informations pour en garantir une prise en compte correcte. Elle englobe ainsi tous les moyens pour constituer un référentiel de qualité comme le nettoyage des données, la mise en cohérence, la consolidation, la mise à jour, l'élimination des doublons et l'établissement des descriptifs des données de référence de l'entreprise.
Par extension, les solutions sappuyant sur cette méthode ont pris le nom de MDM et comprennent la base de stockage de données maîtres et les outils de leur gestion.
A ce stade, lapplication nest pas encore plus flexible. Elle est plus accessible, plus rationnelle au niveau des données, mais ni plus structurée, ni plus flexible. Introduire une nouvelle offre pour un segment de clientèle particulier impliquera encore un cycle de développement et de mise en production long, pour ce qui pourrait nêtre quune modification mineure dun montant dans une règle de gestion, et la séparation en deux modules dun traitement indifférencié.
En effet, cette modification a priori simple peut-être complexifiée par laspect monolithique du code de programmes de centaine de milliers de lignes. Il est très difficile de retrouver dans des millions de lignes non documentées, où les données sont manipulées et où la règle se déclenche et quels sont les impacts de la modification sur les autres programmes, etc.
Une nouvelle réflexion quil faut entreprendre ici consiste à pouvoir sortir du monolithe les aspects métiers et les rendre paramétrables en dehors du cycle de développement et de mise en production, pour ne pas retomber dans le cycle de lobsolescence et pouvoir réagir simplement à un changement de pure logique métier.
Dès lors on sintéressera à la modularisation de code (par des techniques de restructuration), à lextraction des règles métiers que lon pourra gérer en dehors du code grâce à un moteur de règles et à lenchainement des modules autonomes à travers un orchestrateur de processus.
Flexibilité des offres de services
Sadapter à une concurrence féroce qui impose des cycles de mise sur le marché dinnovations courts, nécessite de rendre les systèmes plus adaptables, afin quils autorisent des modifications doffres ou de services au niveau des métiers et non de linformatique.
Si hier loffre se déclinait par une règle de gestion (ex : si autorisation client > xx et client classe A alors activer programme « offre jeune actif ») écrite directement dans le code des programmes, demain, la modélisation de la règle dans un moteur de règle permet de faire la modification par un simple changement de paramètre et nimpose pas une remise en production complète.
Comment ça marche ?
Les règles du jeu des règles de gestion
Les règles de gestion partagent en général 3 aspects, un aspect de calcul, un déclenchement conditionnel et des règles de contrôles sur les données ou des contraintes.
Le calcul peut être une formule simple ou un algorithme complet.
Voici deux exemples de déclenchement conditionnel :
Si la quantité disponible en stock devient inférieure à la limite, déclencher le processus de réapprovisionnement.
Le mode de calcul du salaire de retraite dépend du montant net (selon le montant net, le programme nappellera pas la même branche)
Quant aux règles de Contrôle sur les données/contraintes, en voici quelques exemples :
Le salaire dun employé ne peut pas régresser.
Une facture comporte au moins une ligne de facture.
Le montant total des factures non réglées par un client ne peut pas dépasser le crédit autorisé pour ce client
Pour cela, il faut pouvoir identifier les données métiers de références dans le code existant et les rationaliser, cest à dire supprimer les redondances, les polysémies et les incohérences et établir des règles de nommage. Ensuite, on pourra identifier à partir des données métiers les règles de gestion qui sy appliquent dans les programmes et extraire ces règles en respectant les contraintes de programmation pour pouvoir les modéliser dans un système externe qui autorise la modification par paramétrage (moteur de règles).
La mise sur le marché plus rapide de nouvelles offres de services aux clients passe dabord par une meilleure gestion des données, éventuellement par une migration de systèmes avec des structures de données vieillissantes le cas échéant, vers des bases de données relationnelles pour répondre aux besoins en structuration et manipulation de données.
Pilotage et manipulation de données cohérentes
Aux exemples précédents, il faut ajouter les besoins en pilotage par consolidation dinformation et en manipulation de données. En effet, pour pouvoir améliorer toute performance, en particulier en termes de productivité ou de compétitivité dune entreprise sur son marché, il faut avoir les données nécessaires à la mesurer.
Or les systèmes vieillissants souffrent de problèmes de structures de données, de sécurité, de redondances, daccès et de flexibilité, notamment pour la capacité à exporter simplement les données dans une forme facilement manipulable. On notera en particulier la difficulté à changer les structures de données ou dajouter de nouvelles tables dans les systèmes de stockage de données sous fichier ou les bases de données pré-relationnelle.
Les besoins en statistiques et en alimentation dinfocentres ou dentrepôts de données (datawarehouse) peuvent ainsi justifier dun projet de modernisation dune application de type rationalisation de données ou migration vers une base de données relationnelle. Il en est de même dans les cas de gestion de données sensibles (dossier assurés, dossiers patients) où la protection des données est évidemment primordiale.
Tout projet impliquant la cohérence de données et la récupération de données existantes sous de nouveaux formats, tel que la fusion de systèmes dinformation, linstallation dun progiciel ou dun nouveau développement, le transfert de fichiers entre machines hétérogènes, la mise en uvre dinterfaces entre applications, lalimentation dun entrepôt de données, devrait impérativement avoir un chantier modernisation dédié aux données.
En effet, les applications de gestion vieillissantes partagent toutes des besoins en rationalisation de données, car elles ont développé au cours du temps au moins un, voire tous, des quelques exemples dincohérence suivants :
Règles de nommage incohérentes : une même donnée peut avoir différents noms dans différents programmes,
Structures de champs incohérentes : un même attribut peut avoir une longueur différente dans différents programmes,
Valeurs par défaut incohérentes : des programmes différents peuvent affecter des valeurs par défaut différentes à la même donnée logique. Cela peut provoquer des problèmes dans les programmes qui nont pas créés la donnée,
Différence dunité (devise locale versus Euro) selon les programmes pour une même information => conséquences majeures sur les transactions financières,
Différentes règles de validation appliquées selon les programmes,
Différentes conventions sémantiques dans différents programmes doù des rejets non justifiés,
Etc.
Moderniser un programme pour le rendre plus flexible au sens métier, passe donc par une étape indispensable de rationalisation du code, où, en plus de la restructuration de larchitecture du code, les données de références devront être identifiées, et, grâce à des techniques de propagation, dextension de champs, remises en cohérence dans lensemble des programmes.
Prévenir les risques dobsolescence
Critères dusage et dévolutivité
Les risques de lobsolescence des applications patrimoniales, sont en grande partie liés à leur degré dutilisation et leur degré dévolutivité.
Quentendre par degré dutilisation et degré dévolutivité? A la fois ce quun capital doit respecter pour être utilisé (et réutilisable) et ce quil doit assurer afin de pouvoir mettre en uvre rapidement des évolutions fonctionnelles et être réactif à lapparition de nouveaux besoins, même sur des signaux faibles. Les critères à mesurer pour vérifier que le système est utilisable et évolutif sont décrits dans le tableau 5-1.
L'obsolescence des applications est liée à une baisse inévitable des degrés dutilisation et dévolutivité, pour de multiples raisons. Parmi ces dernières, nous citerons laltération de la qualité du code du fait de multiples interventions en maintenance, laltération physique des supports, lobsolescence des formats, des difficultés prévisibles comme larrêt du support d'un produit, limpossibilité pour un système de par sa conception, de prendre en compte un produit plus récent ou une architecture plus récente, etc.
Tableau 5-1
Usage et évolutivité
degré dutilisationdegré dévolutivitécritères à mesurer (a respecter par le système pour être utilisable ou évolutif)Système Connu (documentation complète et à jour).
Système validable (on peut prouver à tout moment qu'il est conforme aux spécifications).
Système facilement accessible (fonctions accessibles par les utilisateurs)
Système Maintenu et supportéLe système assure :
Des modifications sur des temps de développement ultra-courts.
Une scalabilité instantanée (pour des pics de charge imprévisibles de fréquentation de sites Web, par exemple).
La fiabilité et la robustesse : Des temps de non fonctionnement réduits au maximum et la possibilité de mise à niveau des systèmes sans les arrêter.
Louverture des interfaces et laccessibilité aux données : afin de répondre aux multiples besoins dintégration et déchanges avec des systèmes internes ou externes connus et/ou futurs.
La sécurité : en termes dintégrité des données et des contenus, et en termes de sécurité des échanges .Dès lors que les conditions dutilisation et dévolutivité énoncées ne sont plus remplies, lentreprise risque dêtre confrontée à des :
Temps de non fonctionnement hors de prix.
En effet, si lapplication nest plus connue, le support dun composant dinfrastructure interrompu, le temps de mise à niveau des systèmes nest plus prévisible.
Défauts catastrophiques sur l'image de marque.
Sil ny a pas eu de période de rodage, si les tests ont été insuffisants car lapplication nest pas assez documentée, la mise en production se fait en dépit de la qualité et la satisfaction des clients est directement mise en danger.
Difficulté dintégration
Le système peut avoir des limites dans la capacité à exploiter des ruptures technologiques ou architecturales majeures (objet, web, SOA) par difficulté dintégration avec lexistant
Délais de réaction inacceptables
En particulier, ces délais peuvent devenir catastrophiques par rapport aux modifications de l'environnement concurrentiel, notamment face à la nécessité de faire converger des systèmes dinformation pour consolider des données financières.
Politique de prévention des risques dobsolescence
Ne rien faire et garder des applications obsolètes n'est souvent ni la solution la moins risquée ni la plus économique. L'évolution est inévitable. Elle est guidée par l'évolution du marché, l'environnement économique et technique, la stratégie de l'entreprise. Elle n'est pas guidée par l'utilisation qui est faite dune application dans un système particulier.
Il faut donc au plus tôt établir une stratégie de rénovation, pour pouvoir proposer des politiques patrimoniales à long terme, au-delà de lurgence de la sauvegarde quinduisent les réactions aux points de rupture et du court terme de linnovation technologique.
Cette stratégie consiste à trouver, dès les premiers signes de ruptures prévisibles, le meilleur compromis entre le risque et le coût de limmobilisme et les risques et coûts de lévolution.
En parallèle, pour se prémunir des manques dagilité, il faut déterminer un seuil de criticité par application, mesuré en fonction du degré dutilisation et du degré dévolution, qui, si tôt franchi, devrait déclencher une action dentretien et une rénovation systématique en prévention des risques.
Le tableau suivant illustre les signes des ruptures prévisibles et sur quels critères évaluer à la fois le coût et les risques dimmobilisme et les risques et coûts de lévolution
Tableau 5-2
Ruptures prévisibles et critères destimation des risques
Signes de Ruptures prévisiblesRisques et coûts de l'immobilismeRisques et coût de lévolutionFacteurs exogenesAnnonce de la fin de support ou la fin de commercialisation par un vendeur de :
Plates-formes, bases de données ou langages du système
L'un des progiciels du système
Nécessité d'intervenir sur le système à travers un grand chantier d'évolution, quil soit dû à des besoins métiers, de nouvelles réglementations, ou du besoin de convergences de systèmes dinformation (suite à consolidation de sociétés).Coût élevé d'un support ou dune maintenance spécifique
Coût élevée d'une infrastructure appropriée (Compétences, matériel)
Non respect des obligations vis à vis du client final de lentreprise
Rupture de services (non disponibilité) et pertes de chiffre daffaire ou dimage de marque
Non compétitivité (incapacité de délivrer de nouveaux services)Possibles répercussions sur d'autres systèmes vendus par l'entreprise
Risque de ne pas pouvoir assurer la disponibilité en continu (la « bascule » de lancien système vers le nouveau doit être transparente)
Coût de maintenir éventuellement deux systèmes en parallèle pendant un temps
Difficulté de maîtriser les services cibles (courbe dapprentissage)
Délais et coûts du projet de modernisationFacteurs endogenesDécision stratégique de basculement sur un progiciel qui peut avoir à échanger des données avec dautres systèmes existants
Apparition dune nouvelle application ayant à échanger avec les systèmes existantsDisfonctionnements pouvant apparaître dans les systèmes existants dus à des échanges non standardisés
Lourdeur de lintégration et rajout de « tuyaux » en point à point
Redondance de processus, de fonctions, de donnéesCohérence système (Possibles répercussions sur les autres applications ou progiciels du système)
Possibles répercussions sur la gouvernance des systèmes dinformation de l'entreprise
Nouvelles compétences à acquérir
Coût de la restructuration darchitectureLes enjeux humains
Ne pas faire évoluer les compétences est un risque dobsolescence
Tout changement peut potentiellement entraîner des résistances. Un projet de modernisation dune application implique une rupture dans le quotidien des équipes en charge, aussi, il ne faut pas sous-estimer limpact organisationnel et planifier laccompagnement au changement dès le départ.
En réalité, la problématique à adresser en premier précède la décision dun projet de modernisation. Il sagit de définir et évaluer les réels enjeux de changements humains au même titre que les enjeux dévolution. Ainsi les questions fondamentales à résoudre vont bien au-delà dune vue projet ponctuelle, et sont les suivantes :
Peut-on anticiper les besoins RH de la DSI en fonction de facteurs exogènes tels que les évolutions technologiques ou les évolutions du marché IT ?
Peut-on accompagner lévolution des compétences quimpliquent de nouvelles méthodes (ITIL, CMMI), de nouveaux modes de fonctionnement des directions des systèmes dinformation ?
Peut-on organiser le transfert des compétences entre générations et préserver la maîtrise des savoir-faire spécifiques?
Si ces questions ne sont pas envisagées dans le cadre dune approche globale, on prendra le risque davoir à gérer des conflits locaux au cas par cas des applications à rénover. Car ne rien faire en matière dévolution des compétences, revient, de la même manière que de garder des applications obsolètes, à prendre par défaut une solution risquée et coûteuse.
Dune part, en raison de la raréfaction des ressources quon laisse sinstaller, dautre part, de par lultra spécialisation de ressources sur des systèmes anciens. En effet, avec la pyramide des âges, des compétences disparaissent naturellement de lentreprise (suite aux départs du papy boom). Il faut reformer des personnes, ou sous-traiter pour prendre la relève et assurer la continuité opérationnelle.
Dautre part, la connaissance fonctionnelle et technique nétant plus documentée, les compétences technologiques étant peu réutilisables hors dun contexte applicatif particulier, les personnels expérimentés ne sont plus valorisés que par la détention individuelle dune connaissance incontournable.
Dès lors, tout changement entrepris pour rendre lapplication intrinsèquement plus utilisable et évolutive, est vécu comme un risque de mise à lécart et provoque naturellement des freins. Or un facteur clef de réussite du changement est la collaboration des équipes en places.
La valorisation des compétences existantes et lanticipation
La mise en place dune politique de GPEC (Gestion prévisionnelle des emplois et des compétences) permet de proposer une démarche globale pour anticiper et accompagner les évolutions des métiers et des compétences.
Définition
GPEC Gestion prévisionnelle des emplois et des compétences
Cette notion légale est apparue Depuis janvier 2008, les entreprises de plus de 300 salariés sont obligées de négocier la mise en place dun dispositif de GPEC. Cette loi de programmation de cohésion sociale dite « loi Borloo » a été votée le 18 janvier 2005 (loi n°2005-32) et devait donner lieu à louverture de négociations jusqu au 20 janvier 2008. Depuis cette date, les syndicats peuvent exiger une négociation sur la GPEC.
Selon le CIGREF (source publication « OUTIL DE SCENARISATION PROSPECTIVE DES BESOINS RH DE LA DSI), elle met en place une politique qui permet :
de capitaliser sur les compétences individuelles et collectives
danticiper les compétences émergentes et le recrutement ou la formation des personnes concernées
danticiper les compétences obsolètes et le reclassement des personnes concernées
de limiter la perte dexpertise suite notamment aux départs
Doù lintérêt de cette démarche globale dans une approche « gouvernance du patrimoine SI», car elle accompagnera la rénovation progressive des systèmes sous langle ressources humaines.
En parallèle, pour tout projet de modernisation, on veillera, dès la planification, à accompagner le changement de paradigme technologique, le changement des modes de travail et des rôles, et enfin le changement culturel dans la vision du système dinformation.
Les modernisations par migration de base de données, de langages ou de plates-formes, introduisent de nouveaux styles technologiques. Quant une grande partie de la logique et des composants du système source peut être préservée et auto générée sur de nouvelles cibles darchitectures, il est possible de préserver une grande partie des acquis de lexistant et des compétences, et accompagner le changement par un transfert de compétences et la mise en place déquipes mixtes, à la fois expérimentées dans les expertises de type mainframe et sur les nouvelles technologies, telles J2EE et .net. Quant les interactions et les transformations entre les deux mondes sont claires, cest également plus facile dadopter de nouvelles expertises sur les plates-formes cibles.
De nouvelles méthodes accompagnent souvent les nouveaux paradigmes. Les principes danalyse des demandes de changement de lexistant évoluent, de même que les méthodes pour tester les évolutions et les référentiels pour capitaliser. De nouveaux rôles apparaissent, les rôles existants se transforment et sont attribués différemment, des nouvelles expertises sont requises, notamment sur le plan managérial et relationnel, ou sont à acquérir (comme par exemple en matière de pilotage dans le cadre de loffshore), dautres deviennent obsolètes.
Ce changement peut être loccasion de tirer profit dun capital de connaissances acquis par des personnels expérimentés afin de valoriser leurs expériences terrain et du métier de lentreprise et des bonnes pratiques informatiques, en leur proposant une évolution de périmètre métier (par exemple passer dune fonction opérationnelle à une fonction de contrôle).
Enfin, il faudra faire comprendre que lenjeu nest plus de répondre à un besoin par un projet qui ajoute une nouvelle application à partir des données répliquées à partir des applications existantes. Il sagit désormais dune part, de mieux aligner la dépense en applications sur les bénéfices métiers, dautre part, de travailler à léchelle du SI, ce qui conduit progressivement à passer dune logique dapplications à une logique de processus et de services.
Pour lexistant, la poussée de nouveaux modes dexternalisation de la maintenance et la nécessité de faciliter une rénovation progressive inscrite dans des schémas dévolution durables se traduit par un besoin de contrôle dautant plus poussé des transformations et des évolutions. Ce contrôle sera dautant plus accepté par les équipes en place quil sera décliné de manière progressive et flexible et quelles y verront la possibilité dadhérer à une vision dentreprise.
On ne peut traiter complètement les risques liés à lobsolescence sans évoquer également le risque humain. Ce dernier est souvent laissé de côté au profit de critères plus déterministes. Pour autant, une politique de gouvernance des applications patrimoniales ne sera pas complète si elle ne prend pas en compte lévolution des compétences, les nécessaires transferts de connaissances et la capitalisation sur les compétences déjà acquises. Le facteur humain est primordial dans la réussite dun projet de modernisation.
Vers une gouvernance du patrimoine SI
La rénovation des applications patrimoniales est une nécessité qui se planifie, en termes de durée et périodicité des remises à niveau, elle entraîne des coûts qui doivent être prévus et acceptés à l'avance. Elle impose une gouvernance destinée à minimiser l'impact de ces rénovations, qui implique de détecter les signes de ruptures et mesurer en permanence le seuil de criticité.
Ainsi faut-il veiller à ne pas descendre en dessous du seuil fixé pour les degrés dutilisation et degrés dévolution afin de maximiser l'utilisation du patrimoine existant au sens large, cest à dire code déjà existant, progiciels déjà connus, compétences déjà acquises.
De même faut-il minimiser la nécessité de développer du nouveau code, introduire de nouveaux progiciels à intégrer dans une infrastructure, obtenir de nouvelles compétences, si rien de cela ne sinsère dans une approche long terme du Système dinformation
Certaines opérations de modernisation se justifient delles-mêmes de par la réduction de coût ou de par les risques dobsolescence technique liés à un arrêt définitif de support. Toutefois lier une approche de modernisation seulement à des critères de réduction des coûts ou des risques immédiats savère dangereuse sur le long terme, car elle ne prend pas en compte la dimension du futur et les bénéfices dinvestir pour plus dagilité. Il ne sagit pas là de stratégies de modernisation, mais de tactiques ponctuelles pour réagir à des contraintes immédiates.
A linverse, la mise en uvre dun grand programme de rationalisation pour la modernisation des applications existantes est rarement envisageable, car il présenterait le même risque que les grands projets de cartographie de lexistant : séloigner très vite de lapproche pragmatique quimplique le rythme des changements et perdre ainsi leur crédibilité, faute à pouvoir présenter des retours sur investissement dans un délai acceptable.
Aussi il faut appeler à une gouvernance du patrimoine SI qui sintègrerait dans une gouvernance globale, au sens où tout nouveau projet, toute demande métier, devra être loccasion dune étape de modernisation dont le retour sur investissement permettrait de budgéter la suivante.
Partie 3 -Enjeux et défis des DSI
Si le système dinformation est un levier fort dévolution pour accompagner les changements vers une économie de plus en plus immatérielle, les entreprises vont attendre quil les serve avec agilité, cest à dire rapidement et efficacement. Or si lagilité est contrainte par un existant rigide, le système dinformation ne servira pas lévolution sans avoir à
évoluer lui-même. Notamment en mettant tout en uvre pour disposer dune flexibilité qui lui permette de répondre rapidement à des nouveaux besoins métiers, en restant aligné sur une stratégie dentreprise.
Cette évolution est difficile en raison non seulement dun héritage technique éventuellement contraignant, mais également du regard porté sur loutil informatique par les directions générales.
Les mesures de R.O.I. (Retour sur Investissement) appliquées aux systèmes dinformation sont aujourdhui insatisfaisantes car axées sur des critères de coût quantifiables directement, sans prendre en compte tous les coûts induits, les chiffres daffaires indirects et le prix du « non investissement ». Comment gérer économiquement et globalement un SI ? Comment passer dune vision du SI en tant que « centre de coût » à une vision du SI en source defficacité et de création de valeur pour lagilité et la performance de lentreprise? Comment incorporer lévolution vers un univers numérique pour faire de la stratégie SI part intégrante de la stratégie dentreprise?
Au-delà dun outil support, voire même accélérateur dune stratégie, le SI peut être lui-même un axe stratégique de conquête de marchés, de clients, lélément générateur de nouveaux produits et services. Dès lors, comment réorganiser lentreprise pour que la fonction SI devienne lisible et visible, fournisse une vision claire de ce quelle apporte économiquement et, pro-activement, de ce quelle pourrait apporter ?
Lobjectif de cette partie est daborder ces différentes questions en mettant en relief les enjeux et défis de lévolution et les réponses possibles, tant en termes dorganisation que de pilotage des SI.
Chapitre 6
Les enjeux dorganisation
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Tout est changement, non pour ne plus être mais pour devenir ce qui n'est pas encore.
Epictète
Ce chapitre traite de lévolution des rôles et des modèles dune direction des Systèmes dinformation, du modèle « centre de coûts » au modèle « centre de valeurs ».
Le rôle du DSI
Le DSI idéal
La liste à la Prévert qui suit est extraite des desiderata exprimés de chasseurs de tête chassant le DSI: passionné, technophile, stratège, charismatique, visionnaire, opérationnel, gestionnaire, communiquant, leader, fédérateur, porteur didées nouvelles
. Le profil unique pour réaliser tout cela demeure un idéal souvent impossible.
Parce quil nest pas forcément opportun de demander au même profil dêtre opérationnel au jour le jour, dassurer la continuité de systèmes existants complexe hérités du passé, tout en réduisant les coûts et de fournir à côté de cela une vision stratégique de la contribution du SI à la valeur intrinsèque de lentreprise, sans même parler de fournir des idées nouvelles pour une création de valeurs. Laspect gestionnaire et laspect innovateur restent des états desprits qui ne sont pas cumulables au même moment et on ne peut pas demander lun et lautre sans être clair sur le poids de lun par rapport à lautre.
Or les directions qui recrutent le DSI ne sont pas forcément claires sur le rôle de la mission à lui attribuer, dautant que, nayant pas de visibilité sur la valeur, elles se rattachent le plus souvent à des objectifs tangibles et visibles de coût, tout en attendant cette valeur, ce qui positionne le DSI demblée dans une situation difficile.
Il vaut mieux voir la DSI comme une collégiale de compétences complémentaires en systèmes dinformation, guidée par une vision commune de lentreprise, quun individu unique, fut-il surdoué. La direction des systèmes dinformation doit chapeauter des responsables gestionnaires et des innovateurs métiers technophiles, des innovateurs techniques passionnés du métier et des concepteurs, des développeurs, des architectes et des techniciens opérationnels, elle doit piloter en transverse des fonctions très différentes et na pas vocation que le directeur, responsable de la stratégie, les prenne en direct.
Mais, pour prétendre à la création de valeur, elle a vocation à prendre des risques, à être force de proposition et darbitrage et non uniquement force dexécution. Cette vocation doit être légitimée par la Direction Générale. La DSI idéale serait donc celle qui donne de la visibilité sur ce quelle fait et sur la valeur du système dinformation, celle qui est constituée dune collégiale de compétences et dintelligences transverses à toute lentreprise, et qui interagit au niveau de la stratégie dentreprise avec le soutien de la Direction Générale.
Cela ne suppose pas forcément de recruter davantage de profils. Cela suppose de faire intelligemment avec les profils existants et de combler les manques éventuels par du recrutement si le besoin est essentiel et permanent ou sinon de faire appel à du conseil externe par choix de compétences. Quil sagisse daider à prendre des directions stratégiques à un tournant ou dapporter des connaissances pointues, ou méthodologiques ou technologiques. Il paraît également judicieux pour une DSI de développer des communautés dintelligence avec des pairs pour partager les meilleures pratiques et disposer dun miroir réfléchissant afin dévaluer son propre niveau de maturité.
Les missions du DSI
Quelles sont les missions « régaliennes » du directeur des systèmes dinformation ? Celles sans lesquelles le système dinformation dentreprise nexisterait pas et qui ne peuvent être confiées à aucune autre direction ?
La DSI est dabord et avant tout une direction au service des autres (directions de lentreprise) ou des utilisateurs. Elle utilise des systèmes dinformation pour fournir des services transverses à lentreprise ou des services sectoriels (propres à une branche, ou un métier). Ces services sont des services dinformation, quils soient de contrôle, daccès, de diffusion, dexploitation. Lutilité du service, sa valeur dusage, dépend tout autant de la pertinence, de la fiabilité et de laccessibilité de linformation pour son utilisateur que du fait daccélérer les échanges ou de mettre en cohérence des sources dinformation variées.
Derrière chacun de ces mots et concepts clés : pertinence, fiabilité, accessibilité, accélération des échanges, mise en cohérence, se trouve une des missions dune DSI.
Derrière le concept de pertinence se cache la mission de traduction par la DSI dexigences métiers en matière de manipulation dinformation, en une logique darchitecture de linformation efficace. Les composants dun système logique et physique devront semboîter pour fournir des informations directement exploitables par lutilisateur, sans gymnastique intellectuelle supplémentaire. Il sagit daligner le service dinformation aux besoins auquel il doit répondre et de qualifier linformation en fonction de son utilité et de ses usages.
Derrière le concept de fiabilité, se cache la mission dassurer la robustesse du système qui stocke les informations, de façon à ce quelles soient efficacement sauvegardées, mises à jour régulièrement, sans perte ni de linformation, ni de la connaissance de son utilité et de ses usages.
Derrière le concept daccessibilité, se cache la mission dassurer dune part la disponibilité de tout service dinformation et dautre part den assurer un usage simple, compréhensible, sans « temps derrance » pour lutilisateur.
Définition
Lutilisateur errant
Le temps derrance, c'est à la fois un coût souvent caché car non mesuré, et le temps perdu par un utilisateur dans la prise en main dun nouvel outil informatique, à rechercher la bonne information sur un paramétrage ou une utilisation, voire à solliciter dautres collègues (dont la mobilisation représente elle-même un coût) parce que le déploiement de loutil na pas inclus suffisamment de support ou de formation.
On estime que ce temps improductif dans lusage des moyens informatiques en entreprise peut atteindre jusquà 9% de la masse salariale totale (soit 20 fois à 30 fois le coût dun service dassistance de type help Desk)
Derrière « laccélération des échanges », se cache la mission dêtre à lécoute du potentiel de transformation des technologies de linformation et de la communication pour simplifier les modes déchange entre hommes et/ou machines et repousser des contraintes de temps et despace pour trouver de nouveaux usages, ou renouveler des modes de fonctionnement jusqualors limités.
Derrière « la mise en cohérence » de sources dinformation variées, se cache la mission dune DSI de faire du système dinformation un système daide à lintelligence collective dentreprise, capable de fédérer la connaissance des différents métiers, suivre les activités de lentreprise, pour en reconstituer un ensemble cohérent et un accélérateur daide à la décision.
La maturité dune DSI vis-à-vis de ses missions ne sévalue pas à la maîtrise des moyens technologiques dont elle dispose. Il sagit ici dune condition sine qua non mais pas suffisante. Tout le challenge est de dépasser lambiguïté des rôles et des responsabilités entre ceux qui demandent le service, et ceux qui le fournissent. La maturité dune DSI sévalue dans les méthodes et les critères utilisés pour définir le service avec les utilisateurs, et en évaluer le coût de mise à disposition avec une logique de valorisation complètement compréhensible par toutes les parties prenantes, afin que la logique dinvestissement se fasse en toute connaissance de cause.
Types dorganisation
Il existe différents types dorganisation de DSI. Elles dépendent autant de la taille de lentreprise, de lorganisation de lentreprise elle-même (si cest une holding avec des filiales par exemple), que de la maturité de lentreprise vis-à-vis du métier de la DSI. Selon que lentreprise considère ce dernier à part entière et générateur de valeur comme les autres métiers de lentreprise, ou comme une fonction de support encore mal définie dont il est difficile de percevoir la contribution à la création de valeur pour lentreprise. Le cas échéant, rien ou quasiment nest mis en place pour la mesurer et lévaluer et le pilotage en est essentiellement par les coûts.
On peut toutefois, dans cette multitude dorganisations, déterminer essentiellement deux axes pour positionner les typologies dorganisation, lun orienté « fonctions informatiques », lautre orienté « services informatique». Selon que ce découpage soit orienté vision interne de la structure dune DSI et de ses rôles, ou vision externe, c'est-à-dire plus proche de la finalité des fonctions (rendre des services à des utilisateurs clients) que des moyens pour les assurer.
Il existe beaucoup de variantes entre ces deux visions, selon, par exemple, quil y ait un mixte entre fonctions et/ou métiers propre à la DSI et services fournis aux métiers, ou que le découpage en termes de services soit purement vertical (par secteur métier de lentreprise) ou matriciel (services spécifiques à des divisions métiers et services transverses). Lenjeu dévolution toutefois est de sortir dun découpage vertical, quil soit interne, orienté vers les activités du cycle de vie logiciel, ou externe, orienté vers les donneurs dordre. Cest indispensable pour éviter les silos techniques ou applicatifs et pour aller vers un découpage matriciel qui soit à léchelle des besoins de coordination dune architecture dentreprise orientée services.
Il faut bien comprendre également que selon le type dorganisation de la DSI, la maîtrise du budget, la répartition des coûts par activité et la possibilité dimpliquer plus ou moins la maîtrise douvrage dans lévaluation de la valeur et des coûts, seront plus ou moins facilitées.
Le schéma ci-dessous illustre les typologies dorganisation qui pourraient apparaître selon ces deux axes. Les paragraphes suivants détaillent dune part lapproche organisationnelle historique, et classiquement répandue, du découpage de la DSI par fonctions informatique, dautre part, lapproche matricielle
OrganisationSI.png
Légendes figurant dans limage
Figure 6-1.
Typologie des directions des Systèmes dinformation
Lorganisation par fonctions informatique
Ce type, « classique » au sens historique, est une organisation fonctionnelle orientée autour des étapes du cycle de vie des logiciels. Ainsi y-aura-t-il des entités spécialisées par grande étape du cycle de vie de développement, et plus largement, du cycle de vie de lapplicatif.
Ce sont des découpages organisationnels quon retrouve dans bon nombre dentreprises, en particulier pour la fonction « exploitation et production » comme lillustre dans la figure ci-dessous un des résultats de létude Sapientis « modernisation des SI et maturité des entreprises » de 2010, où 60% des participants ont une entité « production & exploitation » et 55% une entité « étude, développement et intégration ».
DecoupageOrga.png
Légendes figurant dans limage
Figure 6-2.
Résultats de lenquête « modernisation des SI et maturité des entreprises » - découpages organisationnels reconnus
Copyright Sapientis
Pour la partie amont, « études et développement », une entité se verra chargée deffectuer les études de faisabilité et de gérer le développement (souvent appelé le Build, par opposition au Run, qui est lexploitation) des projets afin de répondre aux expressions de besoin des directions générales et métiers. Suite à la mise en production, il faut gérer lexploitation des applications patrimoniales, maintenir leur qualité, prendre en compte les demandes de changement des utilisateurs, quil sagisse de corriger des anomalies ou détendre des fonctionnalités.
Une entité « production & exploitation » est le plus souvent dédiée à cela, tandis quune autre entité gère les aspects « infrastructures » (systèmes dont les serveurs, les plateformes, les réseaux, les télécommunications) qui se sont complexifiés au fil du temps.
Dans ce type dorganisation, il nexiste pas toujours dentités transverses responsables de la cohérence et de la coordination des projets et des applicatifs entre eux, et les fonctions support ne sont pas forcément centralisées dans un centre de services dédié. La figure suivante illustre lorganigramme classique de ce type dorganisation, avec en pointillé les structures qui peuvent, ou non, y exister :
OrgaDSI1.png
Légendes figurant dans limage
Figure 6-3.
Organigramme « classique » dune DSI
La maturité de ce modèle dépend en partie du type de relations entre la DSI et les directions métiers, et la présence de fonctions transverses nécessaire à la coordination globale. Si les relations entre DSI et directions métiers sont de type « client-fournisseur » mais non formalisées, il y a fort à parier que linformatique soit perçue comme une boite noire et ne pouvant évaluer sa contribution aux autres directions métiers, comme un « centre de coûts ». Le support aux utilisateurs dans ce contexte ne sera pas géré comme la vitrine des services de linformatique quil doit être, mais plutôt comme un passage obligé pour répondre aux bugs, aux plantages, aux problèmes techniques, sans garantie dengagement de services.
Si au contraire les relations sont formalisées, des fonctions transverses de planification, de conception darchitecture globale, de mutualisation, ou de stabilisation des fonctions de base existent et si le service utilisateur est bien géré, ce modèle peut contribuer à une direction informatique performante. Reste que la dimension pilotage des Systèmes dinformation avec les métiers, manque à ce paysage.
Lorganisation orientée services informatique
Lobjectif de cette approche est dorganiser les moyens et les ressources de la DSI autour de sa finalité, fournir des services dinformation transverses à lentreprise ou sectoriels (par métier de lentreprise), qui contribuent à la performance de lentreprise sur son marché.
Dans cette approche, il est essentiel de définir et formaliser le type de prestations fournies par la DSI auprès des clients internes (directions opérationnelles ou fonctionnelles), ainsi que la façon dexprimer, de valider et de tracer la demande (gérer les « exigences »).
Les clients sont les entités responsables de la demande de prestations, qui auront à prendre en charge les coûts correspondant dans un compte dexploitation.
La définition des prestations passe par un catalogue de produits et services qui servira ensuite de base pour évaluer aussi bien le respect des engagements de la DSI, sa performance, la satisfaction des utilisateurs au regard du périmètre attendu, etc. Cest une condition indispensable à ce que la DSI ne soit pas traitée comme un centre de coût mais bien comme une direction opérationnelle comme les autres directions métiers.
Le catalogue doit être non seulement compréhensible par les clients (sans jargon trop technique), mais également correspondre à des services où les engagements des parties prenantes peuvent être clairement définis, ainsi que la mesure de limpact des services rendus au niveau des métiers (performance des ressources humaines, gains quantitatifs et qualitatifs des traitements, volume dinformation générée ou traitée automatiquement, etc.).
Afin dimpliquer avantage les donneurs dordre, c'est-à-dire les clients internes à lorigine des demandes de services à linformatique, lorganisation de la DSI peut inclure des divisions dédiées à un client ou une typologie de clients, et ensuite estimer les coûts par activité pour refacturer les services aux directions opérationnelles ou fonctionnelles.
Toutefois la structure ne peut être seulement divisionnelle car ce serait négliger la mutualisation de services transverses, la vision urbanisation de larchitecture dentreprise, et la nécessaire coordination du portefeuille des applications et des projets en fonction des enjeux et priorité de lentreprise.
Il faut donc ajouter à ce découpage vertical, c'est-à-dire par métier de lentreprise, un découpage horizontal, c'est-à-dire transverse à tous les métiers, pour les activités qui relèvent dune nécessaire vision globale. Ainsi en est-il des méthodes, de larchitecture et de la sécurité (qui doit, pour être efficace, être nécessairement vue dans le contexte global de lentreprise).
Pour des organisations larges, plus particulièrement des grands comptes, on trouvera en outre des fonctions transverses liées:
à la communication;
Il sagit ici de communiquer à lavance sur les changements (futurs services, modification dun service existant, interruption de services) et du nécessaire marketing de la fonction DSI sur lequel on reviendra ;
aux achats informatiques ;
Selon le volume il peut y avoir une entité dédiée chargée de mutualiser, dobtenir des contrats cadre, etc;
aux ressources humaines spécifiques à la DSI ;
Ce qui se conçoit dans des groupes ou linformatique interne compte des centaines voire des milliers de ressources ;
au contrôle de gestion IT.
La DSI devenant une entité opérationnelle, elle doit avoir un compte dexploitation, et son budget dépendra à la fois du volume de la demande et de sa performance dans la réalisation du service correspondant.
La figure 6-4 illustre le type de découpage organisationnel. Dans ce découpage ne sont pas abordés les aspects stratégiques du système dinformation dans lévolution de lentreprise.
Il sagit ici en premier dévoluer vers une direction générale des systèmes dinformation reconnue au même titre que les autres directions métiers.
OrgaDSI2.png
Légendes figurant dans limage
Figure 6-4.
Organigramme dune DSI matricielle
Positionnement de la DSI
Les enjeux, défis et contraintes des DSI peuvent être sensiblement les mêmes dune entreprise à lautre, mais les priorités changeront de façon drastique suivant le positionnement de la DSI au sein de lentreprise, directement corrélé à la vision que peut avoir le Direction Générale sur lapport du système dinformation à ses enjeux et objectifs.
Le rattachement hiérarchique du DSI est dailleurs en lui-même une illustration symptomatique des positionnements que nous décrivons plus loin, en cela quil ne reporte pas systématiquement à la direction générale (seulement 40% des cas dans létude du cabinet Sapientis citée ci-dessous) et quil est souvent proche du directeur financier à qui il reporte directement ou indirectement.
Proximite.png
Légendes figurant dans limage
Figure 6-5.
Niveau de proximité du DSI avec le DG ou le DAF-
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Aujourdhui il y a trois modes de positionnement, centre de coûts (50% des organisations), centre de services (45%) et centre de valeurs (5% des organisations). Lévolution vers ce dernier reste difficile.
Le modèle « centre de coûts »
Dans ce modèle, il ny a pas de formalisation des services rendus par linformatique, ni de refacturation desdits aux métiers.
La DSI a un budget de fonctionnement et remonte des indicateurs essentiellement axés sur les dépenses de fonctionnement (coût matériel, logiciels, ressources humaines, formations,
) non les résultats en termes de gains et bénéfices métiers. Ce qui conduit a un mode réactif et correctif piloté par les coûts, avec un budget menacé de constante diminution au regard du manque de visibilité sur la valeur.
Le modèle « centre de services »
Dans ce modèle, la DSI agit comme une société de service interne, et il y a une formalisation forte de la relation client-fournisseur, allant jusquà la création dun catalogue de services précisant la définition des services rendus par la DSI et une refacturation aux métiers avec des logiques de tarification plus ou moins élaborées (du coût j/h de la prestation à des principes de partage de gains/bénéfices en passant par la refacturation à «lagglomération » de services partagés).
Si le modèle permet dobjectiver cette fois-ci les résultats de la DSI aux regards des enjeux donnés, il peut présenter deux inconvénients majeurs. Le premier est daccentuer la relation client-fournisseur au préjudice dune relation partenariale et stratégique avec la direction générale. Le second est de piloter par un R.O.I (retour sur investissement) axé sur le profit comptable qui peut freiner la pérennisation de la création de valeur et lanticipation/innovation.
Le modèle « centre de valeurs »
La direction des systèmes dinformation est un partenaire stratégique de la direction générale, à qui elle rapporte. Elle est jugée sur des résultats objectivés, mais au regard dune analyse de la valeur de lenjeu pour lentreprise. Il sagit dapporter une valeur différenciatrice, que ce soit dans des services support qui augmentent la productivité interne, ou par lutilisation des S.I. pour que les produits/services de lentreprise soient plus compétitifs sur leur marché. Le formalisme existe aussi, pour contrôler linstanciation de la stratégie, mais il ne sarrête pas au niveau comptable. Dans ce modèle, il y a une véritable gestion du portefeuille des actifs immatériels du S.I.
Comment aller du centre de coûts vers le « centre de valeurs » ?
Lévolution du modèle « centre de coûts » vers le modèle « centre de valeurs » ne se fait pas sans heurts, mais il est indispensable dans cette évolution de passer par le modèle « centre de services ». Cela pour donner une visibilité tangible aux services rendus par linformatique et pour être en mesure daméliorer les performances sur la base de mesures factuelles, afin de démontrer, avant denvisager danticiper, la création de valeur.
Cette approche « fournisseur de services », particulièrement quand elle intègre une logique de refacturation interne, peut sembler un peu rigide pour certains. Elle présente à leurs yeux le risque de ramener la direction des systèmes dinformation à un prestataire interne soumis à concurrence avec des prestataires externes, sans prendre en compte le niveau de connaissance et dexpertise qua développée la DSI sur les applicatifs et le métier de lentreprise.
Cest une évolution qui peut être ainsi vue à double tranchant, comme un premier pas vers lexternalisation, mais cest se tromper sur son utilité et lemployer à mauvais escient le cas échéant. Car lapproche « fournisseur de services » qui refacture en interne ne suffit pas pour décider dune stratégie dexternalisation, sauf à être dans une tactique court terme de réduction de coût, tactique risquée à
court terme également. Il y a des logiques complexes de benchmarking dunités duvres et de gestion des compétences stratégiques quune comparaison rapide sur les coûts ignore.
Cette évolution vers le « centre de services » est nécessaire en dépit même parfois dun niveau de satisfaction élevé au sein de lentreprise vis-à-vis des services informatiques. Cest la seule garantie déchapper à une vision réductrice de service de frais généraux.
Car la satisfaction quune entreprise peut avoir de son informatique ne la dispense pas de formaliser les relations entre sa DSI et les autres directions opérationnelles. La satisfaction est nécessaire, mais pas suffisante pour mesurer la performance et la capacité dévolution du SI, tant les aspects humains sont importants dans la satisfaction ressentie, ou non.
Une DSI à taille humaine peut développer avec les utilisateurs métiers des relations très cordiales, en acceptant de développer « au fil de leau » les modifications demandées. Lentreprise pourra être très satisfaite de la réactivité de son informatique, jusquà ce quelle ait à affronter une croissance rapide. Là, elle devra affronter les conséquences des développements au fil de leau.
Les conséquences des développements au fil de leau
Engorgement des services informatique pour lintégration de toute nouvelle application
Si les développements seffectuent au « fil de leau », il ny a en général pas de recherche de mutualisation ou de réutilisation. Un client interne exprime son besoin, et à un besoin, correspond une application. Dès lors il y a de fortes probabilités pour quaucun dispositif dintégration de type middleware, EAI et encore moins ESB nait été mis en place. Les interfaces sont vraisemblablement en mode point à point, asynchrone, et lintégration de toute nouvelle application, éventuellement héritée du rachat ou de la fusion avec une autre structure, nécessite décrire une interface par échange de flux.
Redondances de fonctions et de données
Ne pas concevoir les fonctionnalités ou les services des applications dans une logique de réutilisabilité implique une redondance probable de fonctions et de données, voire des incohérences dans la manipulation de données de référence. Le cas est particulièrement criant pour les applications de gestion de la relation client (de la gestion des contacts au campagne marketing en passant par la gestion des forces de ventes). La multiplication des applications implique souvent des opérations lourdes de dé-doublonnage de bases ou fichier clients.
Multiplication de tableurs de type feuilles Microsoft Excel
Si la DSI est réactive, elle peut être systématiquement occupée à la mise en uvre de nouveaux projets, ou avoir par contrainte de délais, négligé le modèle conceptuel des données dune application de gestion.
En conséquence, les directions utilisatrices ayant besoin dune donnée manquante dans une application, à des fins opérationnelles ou de reporting, vont être tentées de développer une solution de facilité « à côté » des applications officielles, qui leur permettront de collecter et de manipuler simplement des données, ce quoffrent les principaux tableurs du marché.
A terme, la multiplication de ces solutions de contournement conduira à des redondances et des incohérences de données, et au non partage dans lorganisation dinformations cruciales pour tous.
Nécessité de passer par un cycle de développement/mise en production pour toute évolution fonctionnelle mineure
La nature du développement « au fil de leau » ne vise pas à favoriser le paramétrage, pas plus que la réutilisation. En particulier, il existe aujourdhui des solutions (exemple moteur de règles) qui autorisent les utilisateurs à modifier des règles de gestion sans pour autant entrer dans un cycle de remise en production (avec les tests de non régression et les fenêtres de mises en production associés).
Pas de gestion des enjeux globaux du parc applicatif
Sur quelle application investir ? Laquelle modifier, suspendre ?
La DSI étant en mode réactif par rapport aux demandes métiers, elle naura pas développé avec les directions métiers un dialogue sur lensemble du parc applicatif pour pondérer les investissements au regard des enjeux et il ny aura aucune responsabilité pour déterminer le sort des applications plus ou moins « obsolètes », ou du moins à remplacer par des standard, dont le coût de maintenance et dexploitation vient « polluer » le budget SI.
Les limites du centre de services
Si on voit bien la nécessité de passer par un « centre de services », à linverse, dans ce modèle, il faut être très prudent sur plusieurs aspects. Ainsi, réduire lévaluation de la performance informatique à la lecture des indicateurs dun tableau de bord serait aussi dangereux que de se baser sur une satisfaction a priori
Le tableau de bord peut être « au vert », le service mauvais et les utilisateurs mécontents, si la définition des indicateurs na pas été faite en collaboration avec toutes les parties prenantes, et les mesures, significatives. La consolidation dindicateurs est importante en ce sens.
Si la DSI mesure sa performance en termes de délais de temps de corrections des anomalies, elle naura pas une vision de limpact utilisateurs. Une anomalie dite critique sur une application peu utilisée na pas le même poids que sur une application fréquemment utilisée, mais si cette application peu utilisée est elle-même critique, une seule anomalie sur une fonction essentielle peut induire des risques supérieurs que dans des cas fréquents dutilisation, etc.
De même, si une anomalie est rapidement corrigée, cela ne signifie pas que la correction est de qualité. La pression des délais conduit souvent les techniciens de maintenance à effectuer des « copier coller » de code avec, en conséquence, des codes « obèses » de plus en plus difficiles à maintenir. Sans indicateurs de qualité, la rapidité de corrections peut être à double tranchant.
Il y a également un nécessaire devoir de marketing de la DSI, qui ne se réduit pas à une prestation tarifée « client-fournisseur » : celui dêtre à lécoute de ses clients pour leur proposer les bons services, et celui de les informer au mieux des services existants et den améliorer continuellement la qualité. Cest une évolution vers lanticipation des bons services qui ne peut se produire quà condition davoir des relations de confiance entre la direction générale, les directions métiers et la DSI.
Quant à la refacturation interne, elle doit privilégier des unités duvres définies avec les métiers et adoptés par eux, et lisser autant que faire se peut les coûts des services transverses.
Pour exemple, il serait catastrophique de faire payer au premier projet métier le surcoût dinvestissement initial dune architecture SOA.
Il faut donc prévoir une logique dabonnement, comme pour les offres Saas, où tous les clients bénéficient de la mutualisation, le modèle économique se basant sur le volume, plutôt quune facturation excessive aux premiers clients qui, de surcroît, ne bénéficieront pas tout de suite des bienfaits de la rationalisation dune architecture, ces derniers portant sur la réutilisation ou lintégration.
Dans le cas contraire, on sexpose à la mise en uvre de solutions de contournement. Ainsi, un grand groupe international avait mis en place une structure interne type « centre de services » pour le déploiement et lutilisation dun EAI (Enterprise Architecture Integration) dans toutes les filiales du groupe.
Les filiales étant refacturées pour chaque application connectée à lEAI sur la base dindicateurs non métiers et sur une facturation supérieure à ce que leur aurait coûté une intégration point à point, ce dernier mode dintégration sest répandu, non officiellement mais rapidement, dans le groupe.
Chapitre 7
Les enjeux et défis de pilotage
"La liberté consiste à être gouverné par des lois et à savoir que les lois ne seront pas arbitraires".
Montesquieu
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Nous avons vu précédemment que le DSI entre « réduire les coûts et investir » disposait dune marge de manuvre étroite, et risquait de se retrouver coincé dans un engrenage figé, si la rationalisation des coûts ne permettait pas de réinvestir dans dautres projets informatiques. En réalité, sa marge de manuvre dépend de sa capacité à rendre le S.I. lisible, c'est-à-dire à expliciter et valoriser les services fournis, ou limpact de ceux demandés. Pour cela, il se trouve confronté à plusieurs défis, dont quatre principaux que nous détaillerons dans ce chapitre.
En premier, rendre le SI intelligible. La méconnaissance de ce que fait lexistant et comment, naide pas à optimiser les coûts récurrents. Cette méconnaissance est structurelle car elle est due à un système de construction des SI où la gestion des connaissances et les concepts durbanisation nont pas été suffisamment pris en compte. Le chapitre suivant détaillera davantage ce défi, mais force est de reconnaitre que sans visibilité sur son parc applicatif, les contrats liés, les coûts dispersés, le DSI peut difficilement actionner les dispositifs de mutualisation, dexternalisation, de data centers ou de rationalisation des applicatifs et/ou des contrats fournisseurs.
En second, la maîtrise des coûts et du budget.
Les coûts informatiques sont rarement bien gérés, à la fois pour des raisons historiques et organisationnelles. Le DSI lui-même na pas forcément tous les coûts liés aux Systèmes dinformation sous sa responsabilité directe, mais ce qui est plus gênant, cest quand il nen a pas non plus la visibilité globale, notamment pour les coûts afférant à la maîtrise douvrage ou les coûts cachés de non productivité des utilisateurs, par exemple. Sans connaissance étayée des coûts des services, il est illusoire pour le DSI de vouloir gérer son budget comme celui dun compte dexploitation, ce qui est toutefois nécessaire pour inscrire la direction des Systèmes dinformation comme une direction métier.
Il sagit donc de connaitre les coûts, mais pour quils aient un sens (sont-ils trop élevés ou non ? Faut-il les réduire ou au contraire investir ?) en tant que paramètres de décision du budget de la DSI, connaitre le « coût » dun service ne suffit pas. Il faut également dans lévaluation des services fournis, faire entrer la nature et le niveau de qualité des services ainsi que leur contribution à la valeur de lentreprise, aussi bien immédiatement que dans le futur.
En troisième, optimiser la relation avec les autres directions
Limplication des utilisateurs métiers dans la conception, la réalisation, lévolution, le pilotage des systèmes dinformation est un facteur clé de succès des services fournis et une condition indispensable pour pouvoir réellement les valoriser. Pour autant, cette implication ne se fait pas sans difficulté, faute du dialogue adéquat entre les parties prenantes au bon moment ou faute de prendre le temps de ce dialogue sous prétexte de coût ou de lourdeur immédiats, ce qui ne fait que reporter ces coûts en les multipliant à dautres moments.
Certes, lintervention dune direction générale (DG) en sponsor des S.I., a contrario dune DG indifférente, facilite le dialogue. Il reste toutefois à formaliser plus clairement les processus et les instances de décision, les rôles et les responsabilités des uns et des autres pour que la relation, bâtie sur la connaissance des engagements de chacun, se fasse sereinement.
En quatrième, gérer efficacement les ressources et moyens
La gestion de projets informatique nest pas une science exacte. En partie en raison des trois défis précédents, car la méconnaissance de lexistant, le manque de sponsoring de la direction générale, linsuffisance dimplication des utilisateurs aux moments appropriés, notamment pour définir les objectifs et le périmètre métier, le non suivi des coûts globaux, sont autant de facteurs engendrant des dérapages en coûts et délais des projets. Il en résulte également beaucoup dinsatisfaction quant à la couverture fonctionnelle et la qualité des résultats obtenus.
Mieux gérer les projets informatiques est donc un défi damélioration en termes de moyens de la DSI, laquelle a également un potentiel damélioration dans la gestion de ses propres processus et ressources, humaines et matériels, quelle peut partiellement optimiser grâce à lutilisation des meilleures pratiques, méthodes ou référentiels, de la profession.
Rendre le SI intelligible
La complexité des systèmes dinformation a beaucoup augmenté durant les deux dernières décennies. Les entreprises ont souvent réagi à des pressions de réactivité en répondant à un besoin par un projet de développement qui a ajouté une nouvelle application avec des données répliquées à partir des applications existantes. Larchitecture qui en a résulté est accidentelle, le parc applicatif obèse, avec des redondances de données et de fonctions.
La plupart des entreprises neffectuent pas dinventaire global de leurs applications, ni de benchmark.
Le manque de visibilité sur leur parc applicatif est une des premières causes de difficultés des DSI. Une étude du BPM Forum en 2004 mettait en exergue le fait que 25% seulement des sondés effectuaient une fois lan un inventaire global de leurs applications, et que 73 % des entreprises ne disposaient d'aucun moyen de détection des applications obsolètes ou redondantes
Lobservatoire « modernisation des SI et maturité des entreprises » de Sapientis confirme ces constats en 2009, où les sondés ont reconnus majoritairement avoir des limitations darchitecture applicative en redondance de fonctions, puis en 2010, où la majorité des sondés ne faisait pas dinventaire annuel (avec des chiffres toutefois en augmentation et plus satisfaisants que létude du BPM forum) et nemployait pas de méthode systématique pour étudier les capacités de lexistant avant tout projet de refonte.
LimitationArchi.png
Légendes figurant dans limage
Figure 7-1.
Les limitations darchitecture qui contraignent lévolution du SI
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Inventaire.png
Légendes figurant dans limage
Figure 7-2.
Pratiques dinventaire du patrimoine applicatif
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
EtudeExistant.png
Légendes figurant dans limage
Figure 7-3.
Pratiques détude de lexistant avec refonte
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
La méconnaissance de lexistant sexplique dune part par la difficulté à maintenir une documentation à jour pour des modifications au fil de leau des programmes, dautre part, par des difficultés à trouver le bon grain de collecte, ou la bonne représentation (au sens dune modélisation partageable par toutes les parties prenantes) des informations décrivant le système dinformation. Les projets de cartographie de lexistant, sans parler des choix de méthodes difficiles à évaluer, pèchent par leur inertie (temps de retard sur les besoins métiers) et narrivent pas à être en ligne avec laccélération des rythmes dévolution quimpose une économie désormais mondiale.
Les causes se peuvent comprendre à laune des logiques dorganisation qui privilégient le court terme (la réactivité à la demande exprimée par le client) au long terme (inscrire la réponse à la demande dans un cycle vertueux de mise à jour des connaissances). Restent les conséquences : dans certains cas, pour retrouver la connaissance du système dinformation, pour savoir réellement ce quil fait et comment, il faut plonger dans les programmes des applicatifs existants.
Est-ce le côté aride des bases de données ou des algorithmes de programmation (peu lisibles naturellement par un non technicien), le manque de liens sémantiques, qui fait que lexploitation de la valeur de la connaissance codée des systèmes dinformation de gestion hérités du passé est insuffisante ? Toujours est-il que beaucoup de ce quon appelle la logique métier est enfouie dans des codes sources et peu ou pas utilisée.
Parce que linformation ne répond pas à des critères de qualité, telles que laccessibilité (il est souvent difficile de lidentifier et de la localiser dans des millions de lignes de code pour partie obsolète), la fiabilité (le manque de précision sur le contenu, la fréquence de mise à jour, le type de source, etc.), la pertinence (sans qualification il est difficile pour un utilisateur de lexploiter), et que, ne connaissant pas le réel intérêt de cette information «presque» perdue, le coût de remise à niveau de la qualité est jugé souvent prohibitif, jusquà, bien entendu être mis en demeure de le faire.
En passant, on imagine le coût de maintenance et la perte de connaissance liés aux 11 millions de ligne de code en macro-assembleur de la société américaine Union Pacific, pour que cette dernière se lance dans un programme de migration de 150 à 200 millions de dollars, dont la fin est prévue en 2014.
Le défi à relever ici, sil est devenu partiellement technique au sens où il peut être nécessaire de faire appel à des technologies de rétro-ingénierie pour aider à reconstituer une cartographie de lexistant, est à lorigine essentiellement organisationnel.
En effet, il ny a pas le plus souvent de responsabilité (de rôle ou dentité sponsorisé par la direction) désignée à lévaluation du portefeuille applicatif, cest à dire :
à la mesure de la qualité des applications existantes, et ce en termes pragmatiques de valeur métier, de capacité à évoluer et de risques dobsolescence ;
à la prévention des risques dobsolescence ;
à la suppression des applications obsolètes ou redondantes ;
à lévaluation a posteriori des réutilisations possibles, cette évaluation étant complexifiée par ladhérence des anciennes applications à des technologies et des plate-formes spécifiques.
Il sagit donc pour le DSI de reprendre connaissance de lexistant, non seulement en termes dinfrastructures techniques et dapplicatifs, avec un diagnostic de létat de lieux, mais également en termes de mesures lisibles par toutes les parties prenantes, de lapport du S.I. Pour cela, il ne peut agir seul. Il a besoin de la nécessaire implication des directions métiers. Ce qui est un autre défi à relever.
Maîtriser ses coûts et son budget
Que représentent les dépenses informatiques? A quoi correspondent-elles? Quels sont les postes de coûts et dinvestissements à prendre en compte ? Si on peut noter linitiative de lIGSI (Institut de la Gouvernance des SI fondé en commun entre le CIGREF, club informatique des grandes entreprises françaises, et lAFAI, association française des Auditeurs informatiques), pour mettre en place un benchmarking des coûts informatiques, on peut également noter le manque de maturité des entreprises vis-à-vis de la maîtrise des coûts informatiques.
Ainsi si le ratio budget IT sur chiffre daffaires de lentreprise est souvent cité comme mesure de comparaison dune entreprise à lautre pour évaluer limportance de linformatique pour le métier, force est de constater que cette comparaison est peu fiable tout simplement parce que les entreprises nutilisent pas les mêmes méthodes pour mesures leurs coûts. Ainsi, lorsque dans son observatoire « modernisation des SI et maturité des entreprises », le cabinet Sapientis a interrogé les participants à lenquête sur leur usage de méthode normalisée de mesure des budgets IT, 84% des répondants ont reconnu utiliser leurs propres méthodes.
Methode.png
Légendes figurant dans limage
Figure 7-4.
Méthodes de mesure des budgets Informatique
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Certes, lIGSI remarque que « malgré toutes les difficultés quont les Directeurs des Systèmes dinformation à justifier des coûts associés à leur activité, nous constatons aujourdhui une volonté croissante du management à considérer la DSI comme un centre de services partagés, stratégique pour lentreprise ».
Cest donc un premier pas vers le fait de considérer la DSI comme une direction métier comme une autre, même si ce pas loriente encore vers une direction ou cest dabord un service support, comme les services généraux ou les services comptables. Or la gestion des coûts de la DSI est plus complexe que pour ces services. Dune part, car tous les coûts liés au fonctionnement dun service informatique (fonctionnalité rendue par une application ou service de transmission/échange dinformation comme la messagerie) nentrent pas dans le budget sous la responsabilité du DSI, dautre part, parce quil y a des coûts de fonctionnement incontournables et dautres dinvestissements, des coûts liés au propre fonctionnement de la DSI et des coûts liés à ses services. Il y a également à distinguer les charges informatiques récurrentes (frais de maintenance pour exemple) et la dotation aux amortissements, qui permet damortir linéairement les achats de matériels type serveurs sur plusieurs années.
Les « coûts cachés » de la mise en uvre et du déploiement ont été mis en relief avec le concept de TCO (Total Cost of Ownership ou coût total de possession) du Gartner.
Définition
TCO : coût total de possession
Le « TCO » est un terme inventé par le Gartner pour intégrer tous les coûts qui entrent dans la constitution dun bien IT (logiciel, services,
) tout au long de son cycle de vie, en prenant non seulement en compte les aspects directs (coûts matériels tels qu'ordinateurs, infrastructures réseaux, etc. ou logiciels tels que le coût des licences), mais également tous les coûts indirects (coûts cachés) tels que la maintenance, l'administration, la formation des utilisateurs et des administrateurs, l'évolution, le support technique et les coûts récurrents (consommables, électricité, loyer, etc.).
Au-delà du terme qui sest répandu, le TCO est un modèle de justification des investissements et doptimisation des coûts, créé par Gartner. Il est supposé fournir le véritable coût lié au soutien dune ressource informatique tout au longde sa durée de vie utile.
Le tableau ci-dessous illustre partiellement sur quelques postes de coûts les éléments globaux à considérer
Tableau 7-1
Exemples de postes de coûts
Ex Postes de coûtsCommentaire PersonnelSalaire chargéPour le personnel, on peut considérer les coûts réels direct (salaire chargé + formation + déplacement +
) ou un coût standard complet (tarif journalier moyen) fourni par la DRH incluant les charges patronales et salariales, les congés, formation, réduction de temps de travail etc.PersonnelFormationPersonnelFrais de déplacementsPersonnelEnvironnement de travailPersonnelRecrutementPersonnelOutils de travailApplicationAcquisitionCoût dacquisition des matériels et logiciels sous forme damortissements, de location, de licences, de leasing, de maintenance.
Suivant le type de serveur, les unités de mesure du coût ne seront pas les mêmesApplicationSécuritéApplicationStockage et archivages des donnéesApplicationFormation, support, documentationApplicationMaintenance correctiveApplicationMise en productionIl a fallu lapparition des « data center », centre dinfogérance où étaient hébergés des serveurs et la partie infrastructure à des fins de mutualisation (sauvegarde, ressources,
) pour que certaines entreprises réalisent les coûts délectricité lié au fonctionnement des machines, coûts jusquà présent imputés sur le budget des services généraux et non relié à lactivité des applications en exploitation.
Il faut à présent le questionnement sur les services, les catalogues de services, et la refacturation des services aux métiers, pour sinterroger sur la part de financement du budget informatique par les utilisateurs internes. Il faudrait considérer également dans léquation les coûts propres à la maîtrise douvrage, c'est-à-dire les propriétaires ou donneurs dordre des projets pour calculer réellement le coût total dun projet informatique.
Pendant longtemps, la charge en jours/homme dun projet informatique a été calculée en fonction des ressources de concepteurs, développeurs et testeurs impliqués. Reste également à évaluer et mesurer la nécessaire contribution des utilisateurs clés autour de lexpression des besoins, la conception, la conduite du changement, la validation, le déploiement de lapplication, et ce nest pas anodin, loin de là (jusquà 50% des coûts dun projet).
Le défi du DSI est par conséquent de mettre en place une démarche de gouvernance pour contrôler les coûts informatiques, qui obtiennent ladhésion des autres parties prenantes. Sans cela, le budget mesuré sera incomplet et non significatif.
Bien sûr, au-delà de la mesure, reste également à rapporter les coûts, ou les investissements, aux enjeux auxquels ils répondent. Dans labsolu, les coûts ne signifient rien, sans échelle de mesure qui permette dévaluer la nécessité dengager les dépenses, ou de les réduire.
Cest là que le concept de « tableaux de bord prospectif du SI », autrement dit, le « LIT Balanced Scorecard », prend tous son sens.
Un peu dhistoire
Le « Balanced scorecard » un tableau « bien balancé »
A l'origine du concept, un article de 1992 par Robert S. Kaplan & David Norton, "The Balanced Scorecard: Measures that Drive Performance", publié dans la Harvard Business Review, devenu en 1996 un livre "The Balanced Scorecard: Translating Strategy Into Action" (Harvard Business School Press, 1996). Lobjectif du « Balanced Scorecard » ? Donner un outil de pilotage orienté vers les enjeux, prenant en compte, au-delà des indicateurs financiers traditionnels, lensemble des indicateurs opérationnels clés qui conditionnent le succès de lentreprise à moyen-long terme. Pour cela, ils ont ajouté à la « vue » financière trois « vues » supplémentaires (les perspectives clients, les processus internes, linnovation / la formation) pour mettre en perspective les différents objectifs concourant à la stratégie de lEntreprise, ainsi que les moyens pour les atteindre.
ITBalancedScorecard.jpg
Légendes figurant dans limage
Figure 7-5.
Exemple des vues et indicateurs du « Balanced scorecard » ou tableau prospectif des SI
LIT balanced scorecard traduit une vision équilibrée puisquil permet de construire une vision sur plusieurs axes de point de vue : celui des clients internes ou externes de la DSI (la contribution des SI à la productivité des utilisateurs, aux développements des métiers, à la stratégie de lentreprise en général), celui du Directeur financier (les coûts et aussi les perspectives financières de rentabilité), celui des processus internes de la DSI (performance opérationnelle, meilleures pratiques), et celui du futur, dans la gestion des compétences (formation) et la capacité à créer de nouveaux usages contributeurs de valeur (innovation).
Chaque axe doit faire lobjet de la définition dindicateurs pertinents à consolider. Ainsi laxe « perspectives financières » nécessite une première réflexion sur les axes danalyse des coûts. Une approche complète des coûts viserait à regarder dune part les coûts par activité ou par nature de prestations, selon les méthodes ABC/ABM (Activity Based Costing/Activity Based management) ; c'est-à-dire quil sagit dexpliquer les coûts non par leur origine (doù viennent-ils ?) mais leur destination (que servent-ils à réaliser ? Par exemple, lexploitation), dautre part les coûts par « services », ou, a minima, par domaines applicatifs ou applicatif, et par projets.
Lanalyse de ces coûts doit éviter les écueils classiques des coûts cachés, où on oublie les coûts logistiques liés au projet (salle, équipement, électricité), la valorisation du temps passé par la maîtrise douvrage, ou les coûts de gestion du changement dont la formation.
Optimiser la relation avec les autres directions de lentreprise
Maîtrise duvre et maîtrise douvrage, un découpage dévoyé de son objectif
Le distinguo initial « maîtrise douvrage » et « maîtrise duvre » marquait une évolution majeure dans lévolution de linformatique en entreprise, en France. En effet, il formalisait le passage dune vision technologique, où linformatique était une somme de composants et doutils qui pouvait servir à lautomatisation de tâches de manipulation de données plutôt simples (une évolution mais pas une rupture avec les anciennes techniques de mécanographie), à une vision plus globale de système dinformation.
Un peu dhistoire
La « mécanographie » : lancêtre de linformatique dentreprise ?
Ancienne méthode de dépouillement, de tri ou détablissement de documents administratifs, comptable ou commerciaux, fondée sur lutilisation de machines qui traitaient mécaniquement des cartes perforées (Le petit Larousse)
« La mécanographie s'est développée de la fin du XIXe siècle jusqu'au milieu des années 1960 sous deux formes très différentes, concurrentes ou complémentaires :
l'emploi d'ateliers de machines à cartes perforées ;
l'emploi d'ateliers de machines comptables.
Ces deux outils de gestion ont été remplacé par l'emploi d'ordinateurs, progressivement à partir de 1962, et complètement au début des années 1970 » (Source Wikipedia)
Dans cette vision ce nest plus lautomatisation de tâches de calcul qui prévaut, mais bien la logique dusage globale. Le Système dinformation est là pour formaliser, fluidifier et fiabiliser léchange des informations entre acteurs et ressources de lentreprise pour que cela produise des résultats valorisables.
En dautres termes, il contient linformation sur les processus de lentreprise et les informations dont ces processus ont besoin, avec lobjectif dune part de garantir la qualité de linformation, dautre part lefficacité des échanges.
Si on caricature, un système dinformation peut commencer avec une feuille de papier pour décrire les processus de lentreprise et en rester là. Mais il ne sera pas efficace, en termes de rapidité de mise à jour et de communication des informations et inadapté au stockage et à la manipulation de gros volumes de données. Il deviendra efficace quand il apportera clairement un gain ou en temps, ou en fiabilité, ou en pertinence, dans les échanges et les manipulations (traitements) dinformation.
Cest là que les technologies de linformation et des communications interviennent. Cest là aussi que se fait le distinguo entre une « base dinformations numérisées » et un système dinformation, comme existe un distinguo entre une base de données et un Système de Gestion des Bases de Données.
Il est intéressant à ce stade dintroduire ci-dessous la définition de lorigine de la fonction maîtrise douvrage, extraite du site du « Club des Maîtres d'Ouvrage des Systèmes dinformation »
« Une distinction entre "système dinformation" et "système informatique" apparaît progressivement au sein des entreprises depuis quelques années : le système dinformation comporte les processus de l'entreprise, les informations manipulées par ces processus et les fonctions qui traitent ces informations. Le système informatique comporte les composants techniques (traitements, données, matériels) qui supportent le système dinformation en permettant de l'automatiser et le distribuer. Dans ce contexte, la fonction de maîtrise d'ouvrage du système dinformation émerge et se structure de façon à assurer progressivement la responsabilité du système dinformation, en s'appuyant sur un maître d'uvre interne ou externe du système informatique. »
Pour décrire les processus, qualifier les informations, nul besoin dêtre un spécialiste des infrastructures, systèmes et réseaux, un développeur performant, un administrateur de base de données, ou toute autre spécialité de linformatique. Il faut juste pouvoir modéliser les processus, les fonctions et les données en ne perdant pas de vue le sens de cette modélisation c'est-à-dire lobjectif de valeur (pour les acteurs) assigné au processus quand il transforme des éléments en entrée pour produire un résultat en sortie.
En effet, le processus est en lui-même une notion de représentation du réel, elle ne vaut que si elle est utile à lobjectif poursuivi. C'est-à-dire que cette représentation doit faire ressortir les points auxquels on sintéresse et à répondre aux questionnements liés. Ce qui demande donc une réflexion qui mélange abstraction et compréhension des enjeux de lentreprise, de ses métiers, et des potentiels dautomatisation.
Si une maîtrise douvrage sappuie sur un maître duvre pour automatiser et distribuer ce qui peut lêtre, elle ne doit pas se contenter dexprimer une liste de besoins à la Prévert. Elle doit comprendre et faire comprendre le sens de linformation, cest à dire lobjectif poursuivi dans léchange, le partage, le traitement de cette dernière et se faire aider pour comprendre comment les technologies peuvent contribuer à lobjectif.
Sans viser à lidéal et à la complexité du corps humain, la première chose à établir, quand on veut un S.I. agile, cest le bon niveau de dialogue entre le « cerveau » (le niveau conceptuel du SI « à quoi ça sert ») et le « corps » (« comment ça marche » = le système existant, lensemble des systèmes implantés sur lensemble des couches réseaux, applicatives, etc.).
Mais qui est « le cerveau », qui est « le corps » ? Le rôle que doivent jouer les métiers dans les Systèmes dinformation est primordial, il ny a pour sen convaincre quà revenir aux causes déchec des projets de Systèmes dinformation (voir « anatomie des désastres »). Pour autant, cela ne vaut pas le raccourci rapide de dire la maîtrise douvrage, cest le « client » final, la direction métier utilisatrice du service informatique (applications ou autre), et la maîtrise duvre, « cest linformatique », pour dire, « la DSI ».
Cela ne vaut pas ce raccourci, car cest dune part dévoyer le découpage initial où la réflexion précède laction indépendamment de toute logique organisationnelle, dautre part revenir en arrière sur la notion salutaire de système dinformation. La DSI nest pas « linformatique », son métier nest pas dêtre constructeur de matériels ou éditeur de logiciels (si elle en crée, cest un moyen, pas une finalité).
La DSI est une direction dun métier de services. Il sagit daider à concevoir, construire et faire fonctionner opérationnellement des Systèmes dinformation pour produire un service ayant de la valeur pour lentreprise, de façon globale, ou à travers le bénéfice retiré par une direction opérationnelle. La DSI peut donc être vue comme une direction métier opérationnelle qui a ses propres processus, méthodes et outils et des clients qui sont toutes les directions métiers (y compris elle-même) et la direction générale. Ce nest pas neutre.
Cela veut dire aussi que la DSI nest pas uniquement le « comment ça marche » et que la maîtrise douvrage ne sarrête pas à lexpression dun besoin, car sinon, on va juste automatiser des processus existants, plus ou moins bien déjà formalisé, en les comprenant plus ou moins bien, et arriver à cette expression célèbre « Garbage In, Garbage Out ».
Les technologies de linformation et des communications ont un potentiel transformationnel, le système dinformation a un rôle de levier dévolution. Tout projet de système dinformation a pour objectif de fournir à larrivée une prestation de service utile à un bénéficiaire. Si lutilité du service pour ce dernier est nul (pas de nécessité impérative, pas de gain quantitatif ou qualitatif), le projet na pas lieu dêtre. Toutefois, il y a plusieurs difficultés quant à lidentification de la valeur dusage, lune delles, et pas des moindres, réside dans le fait que le gain sobtient souvent au prix dun changement dans les modes de fonctionnement et quil est difficile den mesurer tout limpact à lavance.
Or les solutions et les technologies évoluent plus vite que la maturité organisationnelle des entreprises. Les directions dentreprise ou les directions métiers ne savent pas forcément ce quil est réaliste, ou pas, de demander comme services au S.I., elles nont pas conscience des limitations éventuelles ou des difficultés dintégration dues à lexistant, pas plus que des possibilités de transformation de certaines technologies, qui devront venir, pour en obtenir un bénéfice dusage, chambouler leurs pratiques de fonctionnement traditionnelles.
Ce qui conduit à deux extrêmes, quand il ny a pas dintermédiaire entre un maître douvrage, direction métier néophyte en S.I. et le maître duvre, la DSI. Lun où la DSI répondra toujours oui à toutes les demandes, fussent-elles irréfléchies, si elle est en position dinfériorité hiérarchique, lautre où la DSI, en position de force ou de status quo, répondra non à des demandes qui pourraient être satisfaites tout ou partiellement par des solutions simples de contournement néanmoins satisfaisantes, mais dont lexpression de besoins mal réalisée laisse envisager des usines à gaz.
Si la DSI dit « oui », elle va se retrouver dans une position très désagréable avec un cahier des charges de réalisation fluctuant au rythme des prises de conscience de la direction métier et avec beaucoup de difficultés de dialogue. Le projet a peu de chances daboutir car la direction métier se désolidarisera très vite de la réalisation pour nexprimer que ses besoins bruts, sans forcément comprendre la nécessité de son implication à diverses étapes du projet. La DSI palliera au manque dimplication avec sa propre perception des enjeux et de la traduction des besoins en matière darchitecture dinformation. Si le projet aboutit, le résultat a de grandes chances de ne pas satisfaire le commanditaire, qui sera autant insatisfait de sa relation avec la DSI quavec un « non » initial.
On arrive ainsi à une dichotomie Directions métiers DSI en plaquant sur le découpage « Maîtrise douvrage »- « Maîtrise duvre » un découpage organisationnel sans commune mesure avec lobjectif poursuivi.
Lerreur donc est organisationnelle dans la définition des rôles et des responsabilités. Avant de lancer un projet, le commanditaire doit pouvoir convaincre du bénéfice, et sappuyer sur un conseil pertinent en système dinformation pour en valider les principes et les conditions de gains, les contraintes éventuelles de lexistant, les possibilités dévolution et aider à établir une première échelle de grandeur de linvestissement requis et du planning nécessaire. Si le projet est validé par lentreprise, le conseiller du commanditaire établira un cahier des charges plus détaillé afin de donner à une maîtrise duvre les éléments qui lui sont nécessaires pour proposer une solution technique réaliste.
Ce conseil peut être issu de la DSI, ou pas, charge au commanditaire den décider, mais il ne doit pas y avoir dambiguïté sur les responsabilités. Cest le donneur dordre qui doit sengager pour porter linvestissement. Cest donc lui la « maîtrise douvrage stratégique » si on reprend le distinguo du club des maîtres douvrage et le conseil est la « maîtrise douvrage opérationnelle ».
Comment ça marche ?
Les « niveaux » de maîtrises à luvre
Maîtrise douvrage stratégique (MOAS) :
Le maître d'ouvrage stratégique (parfois appelé maître douvrage commanditaire, ou simplement maître d'ouvrage) est le responsable opérationnel de l'activité qui s'appuie sur un système dinformation. Il s'agit donc d'une (ou d'un ensemble de) personne(s) qui ne sont pas des professionnels du système dinformation, selon la définition issue du club des maîtres douvrage. Selon le service attendu du Système dinformation, il peut sagir ici de la direction de lentreprise ou dune direction métier. Dans le second cas, il serait judicieux dimpliquer systématiquement la direction générale (ou en fonction du gain attendu et/ou du niveau dinvestissement) et pour responsabiliser lensemble des acteurs sur la pertinence de la solution pour lentreprise.
Maîtrise douvrage opérationnelle
Le maître d'ouvrage opérationnel (parfois appelé maître d'ouvrage délégué, voire aussi simplement maître d'ouvrage) assiste le maître d'ouvrage stratégique dans l'exercice de sa fonction. C'est un professionnel du système dinformation. (Définition du club des maîtres douvrage). Cest une fonction de conseil qui doit bien connaitre les applications existantes de lentreprise, les logiques métiers, les besoins dévolution, les référentiels, le cadre architectural et qui doit être une interface légitime et naturelle entre les utilisateurs et les équipes techniques
Assistance à maîtrise douvrage :
Une maîtrise douvrage peut vouloir être conseillée par des intervenants externes ayant une expertise dans le domaine des Systèmes dinformation pour la faisabilité du projet, ou être assistée dans la réalisation des tâches dont la responsabilité lui incombe dans le déroulement du projet (conception, tests & recettes,
)
Maîtrise duvre (MOE) :
La maîtrise duvre a la responsabilité de proposer une solution technique à la MOA, dans lenveloppe budgétaire et les délais requis, et dalerter cette dernière si ces derniers présentent un risque. Elle supervisera le bon déroulement des travaux, le respect des délais et du budget ainsi que la qualité et la pertinence de la solution, en veillant à faire intervenir les compétences requises pour lexécution. Dans le cas où elle devra faire appel à des fournisseurs externes, elle coordonnera leurs livraisons et sassurera de leur qualité.
Peu importe lorganisation dont le maître duvre opérationnel est issu sil est légitime et crédible pour :
Comprendre les enjeux dentreprise derrière les besoins métiers, les parties prenantes ;
Questionner, clarifier, expliciter les besoins métiers ;
Comprendre en quoi les technologies de linformation et des communications peuvent être un levier dévolution, les opportunités dinnovation éventuelle dans les organisations, les contraintes éventuelles de lexistant, la cohérence de lensemble à respecter ;
Analyser et aider à modéliser les processus, fonctions et données en jeu, établir ou superviser les spécifications générales ;
Faire linterface entre toutes les parties prenantes, tout au long du projet, y compris en particulier entre les métiers ayant exprimé des besoins, la DSI et les responsables dapplications patrimoniales éventuellement concernées ;
Organiser et piloter le(s) projet(s) avec la maîtrise duvre afin entre autres de pouvoir faire intervenir les bons interlocuteurs ou obtenir leurs réponses face aux questionnements qui surgiront dans le déroulement du projet.
Ce rôle, historiquement reconnu plus ou moins sous le vocable de « maîtrise douvrage opérationnelle » dun projet, tend à se professionnaliser sous un autre terme, au fur et à mesure quil apparaît également quil ne sarrête pas au périmètre dun projet. En effet, les notions durbanisations, la part structurante voire stratégique que les Systèmes dinformations prennent dans les entreprises, amènent à considérer un autre niveau dinterface pour faire dialoguer Directions générales (DG), Directions métiers et Direction des Systèmes dinformation, faire émerger les enjeux et aider à exploiter les opportunités des Systèmes dinformation pour améliorer la compétitivité de lentreprise : il sagit de la profession de « Business Analysis », ou analystes daffaires.
Le chapitre Français de lAssociation professionnelle internationale pour les Business Analystes (International Institute of Business Analysis - IIBA®) exprime ainsi cette évolution sur son site :
« Les Analystes dAffaires longtemps considérés comme des maîtres douvrage, revendiquent une fonction plus stratégique qui consiste à faire le pont entre les deux mondes de lentreprise, le monde «technique» et le monde «des affaires». Une double culture qui préfigure de la réussite de ce métier et qui demande une véritable faculté dadaptation, découte et de synthèse. Souvent associé aux métiers de linformatique, lAnalyste dAffaires est présent dans tous les projets de lentreprise de la conception dun produit à la réalisation dune Interface Homme-Machine. »
Responsabiliser les métiers
La DSI, comme tout fournisseur de services, prend des risques à ne pas formaliser clairement sa relation client-fournisseur avec les autres directions de lentreprise, quitte à établir des contrats de service, en précisant les attendus clients, lengagement de niveau de services, voire des modes de refacturation en interne.
Car sinon, ce nest pas seulement la DSI, mais toute lentreprise qui subiront les conséquences de la non formalisation dont :
Manque de visibilité des services rendus par la DSI,
Niveaux dengagement de services mal formalisés doù réduction de coûts nuisibles à la qualité,
Abandon ou dérapage de projets coûteux,
Gestion du court terme de la demande fonctionnelle, pas dévolution des systèmes existants jusquà ce que lévolution soit une nécessité coûteuse impliquant des investissements dans lurgence,
Désalignement progressif du Système dinformation avec les enjeux dentreprise.
Comment ça marche ?
La contractualisation des services
Si la DSI est perçue comme un fournisseur de services dans bon nombre dentreprises, la relation « client-prestataire de services » est rarement formalisée dans un contrat.
Pour autant ce dernier a pour objet de clarifier les conditions opérationnelles de la fourniture de service. Ainsi pour une application en exploitation, le contrat décrit le niveau de fonctionnement et de support auxquels le prestataire fournisseur du service sengage vis-à-vis de lutilisateur. Lequel reconnaîtra dans ce contrat explicitement connaitre le cadre dexploitation de lapplication et les limites du service fourni.
Ce contrat a pour mérite de ramener les « coûts » de linformatique a un référentiel de mesure qui permette de les qualifier en fonction du niveau de service rendu et non de manière intrinsèque, comme dans un ratio de type coût de lexploitation rapporté au poste de travail qui na pas de sens. Une application qui doit fonctionner 24h/24, 7j/7, na pas les mêmes contraintes de disponibilité que les autres, et son coût de développement ET de fonctionnement en est tributaire.
Ainsi les niveaux de services formalisés dans le contrat peuvent prendre en compte les plages horaires du support, les performances attendus, le niveau dassistance fonctionnelle à lutilisation, les temps de correction en cas danomalies et selon leur nature, temps de rétablissement du service en cas de panne, les sauvegardes, les fonctionnements en mode dégradé, etc. Tous sont autant de paramètres qui influent sur les coûts.
Le contrat formalise également les indicateurs qui vont permettre de suivre lengagement de services, et les modalités de revues de ces engagements.
Ce sont des pratiques courantes en infogérance qui peuvent être reportées sur lexploitation et la production interne. Le terme anglo-saxon qui sest répandu pour désigner ses engagements de niveaux de service est SLA (Service Level Engagment).
Si le client na pas à sengager sur le coût des investissements pour un projet, sil nest pas tenu de contribuer au coût de fonctionnement des services quil utilise, sil na pas à clarifier dans ses demandes dévolution ou de changement le gain attendu, et justifier de ses enjeux, le champ des demandes peut être infini. La DSI ne sera pas en mesure de faire le tri, ne disposant pas des critères qui pourraient le lui permettre, et répondra de manière réactive en fonction des pressions exercées, pas en fonction des axes de développement stratégiques pour lentreprise.
On verra les coûts de la DSI, pas les profits, dautant quils seront difficiles à obtenir dans ces conditions.
En effet, les applications développées ne seront pas alignées sur les véritables enjeux consolidés au niveau de lentreprise, puisque réalisées au coup par coup des pressions souvent accompagnées de délais irréalistes par méconnaissance des contraintes de réalisation.
Quant aux applications existantes patrimoniales comment évaluer leur valeur et les risques liés à leur obsolescence (donc a fortiori les éventuels efforts à faire pour remédier à ces risques) si on a peu ou prou didée de ce quil coûterait à lentreprise « à faire sans » ?
Lenquête Sapientis déjà évoquée le montre ici également, il y a un potentiel dévolution extrêmement important dans le fonctionnement des organisations sur ce point.
MoyenPilotageAmélioration.png
Légendes figurant dans limage
Figure 7-6.
Moyens de pilotage estimés à améliorer
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Sans limplication des métiers commanditaires dans la définition de ce qui est attendu dun projet dinvestissement, il a une forte probabilité dêtre voué à un échec onéreux et nous y reviendrons dans les chapitres suivants. Mais limplication ne suffit pas, encore faut-il que le commanditaire sengage à porter tout ou partie de linvestissement du projet, et le coût de fonctionnement du service ensuite, au prorata de son utilisation (sil est le seul utilisateur la « facture » globale lui incombe).
A partir de là, il sera plus prudent dans ses demandes et sinterrogera sur les indicateurs de réussite du projet demandé. Car aucun client nest naturellement prêt à payer pour le fonctionnement dun service dont il narrive pas à mesurer les gains à son niveau, sauf à être dans lobligation légale de le faire. A quoi verra-t-on le changement par rapport à lexistant ? Comment mesurera-t-on le succès du changement ? Comment illustrer concrètement le changement ?
Le rôle de la DSI nest pas de répondre à ces questionnements, cest le rôle du commanditaire du projet de se les poser avant le lancement en prenant bien soin, comme nous lavons évoqué précédemment, de sentourer du conseil pertinent pour trouver les réponses et de définir à leur suite les bons indicateurs métiers qui pourront être suivis opérationnellement par la suite.
Si les utilisateurs des services rendus par linformatique ne sont pas responsabilisés en amont de leur développement, il y a fort à parier que la DSI devra les solliciter ensuite, avec peu de succès, pour retrouver la lisibilité du service rendu, comme le montre cette autre figure extraite de lenquête Sapientis.
Implicationutilisateurs.png
Légendes figurant dans limage
Figure 7-7.
Implication des utilisateurs dans les indicateurs métiers
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
La refacturation des coûts de fonctionnement par la DSI à ses clients, en fonction de leur utilisation des services, ou tout autre moyen de corréler les coûts à lusage et aux gains, c'est-à-dire de valoriser les services, aura au moins un effet vertueux. Les utilisateurs seront plus enclins à ne réclamer que le niveau de qualité dont ils ont réellement besoin. Ce qui limitera drastiquement des fausses contraintes de disponibilité 24h/24, par exemple, en raison des surcoûts induits ou, à contrario, obligera à définir les niveaux de criticité pour chaque application et le niveau de maintenance préventive.
De plus, mettre cette valorisation sous la responsabilité des métiers, induira également un bilan du projet sur la base dindicateurs vérifiables définis en amont. On pourra vérifier les prévisions de rentabilité du projet et progressivement construire un référentiel pour juger de la crédibilité des estimations de gains liées aux demandes, au regard des coûts et résultats réels. Sinon, les estimations resteront déclaratives et sans engagement, laissant les projets risquer les échecs et la DSI en porter le poids.
Le nécessaire marketing du S.I.
Pour aller plus loin dans la logique de la relation « client-fournisseur », il peut être utile de rappeler certaines définitions au sujet des approches que doivent mettre en place tous les fournisseurs de produits/services. Avant de distribuer une offre, c'est-à-dire de proposer des services ou des produits à des consommateurs (clients qui utilisent cette offre), il faut établir une stratégie marketing.
De nombreuses définitions existent sur cette dernière, en voici quelques unes:
« Cette stratégie vise à mettre lentreprise concernée en adéquation avec les exigences implicites ou explicites du marché sur lequel elle agit. Les bases de cette stratégie sont de découvrir les besoins des consommateurs potentiels et de définir les produits et services. La politique de communication, la publicité, la promotion et l'organisation de la vente des produits n'est quant à elle que la partie la plus visible du marketing auprès du grand public. » extrait de Wikipedia
"Le marketing est l'effort d'adaptation des organisations à des marchés concurrentiels, pour influencer en leur faveur le comportement de leurs publics, par une offre dont la valeur perçue est durablement supérieure à celle des concurrents" (Mercator, 8e édition, 2006).
« On appelle stratégie marketing l'approche que l'entité concernée met en place pour atteindre ses objectifs, à partir de décisions prises sur les cibles, le positionnement, le mix et le niveau d'engagement de dépense » selon Philip Kotler et Bernard Dubois.
Un peu de jargon le « mix marketing »
Egalement connu sous le nom des 4 P' c'est-à-dire : Produit, Prix, Place (distribution) et Promotion (communication).
De nombreuses écoles de pensée existent pour définir ce quest ou ce que nest pas le marketing stratégique, quelle est, ou non, sa préséance sur une stratégie commerciale. Lévolution des dernières années montre en tous cas que les notions de marketing se sont répandues en dehors des entreprises commerciales, pour atteindre également les associations et les organisations à but non lucratif, soit pour répondre mieux aux besoins de leurs membres, soit pour mieux faire connaître leurs actions, obtenir des subventions, des partenariats, etc.
Dans le cas des services dune DSI, on retiendra essentiellement ceci : la stratégie marketing est la démarche danalyse et de réflexion pour réaliser ladéquation offre-demande qui s'inscrit dans la stratégie globale de l'entreprise.
Certes, une DSI ne cherche pas à vendre un produit réplicable de mauvaise qualité en masse, ni influencer ses clients pour quils achètent plus, en leur vendant des solutions miracles. Au-delà de cette caricature du marketing que peuvent en avoir certains ingénieurs, il faut garder en tête quune DSI fournit des services en réponse à une demande qui doit sinscrire dans la stratégie globale de lentreprise.
Il y a donc nécessité, afin dobtenir un réel « alignement stratégique des Systèmes dinformation aux affaires », c'est-à-dire ladéquation du S.I. aux objectifs stratégiques de lentreprise, de passer par une approche marketing autour des services du S.I. Cette approche a deux niveaux :
Stratégique
Lanalyse des enjeux de changement ou dévolution, la définition des services métiers prioritaires à développer et pour qui, la définition de services mutualisables à léchelle de lentreprise (stratégie doffres et de développement daffaires), la validation des budgets dinvestissement, la conduite du changement, la décision des alliances stratégiques.
Opérationnel
La réalisation du service, la décision des alliances opportunistes (liées à un projet/service), le déploiement, laccompagnement au changement et la communication envers les utilisateurs finals autour des services ainsi que la collecte des besoins daméliorations auprès de ces derniers.
Cette approche de stratégie marketing nécessaire à la création dune réponse en adéquation aux besoins, est souvent délaissée au profit dune lecture de « lalignement du SI» réductrice et militaire : le SI devrait filer droit avec des processus industrialisés pour lui-même et pour les métiers.
Avant denvisager une industrialisation quelconque (avec ses limites éventuelles), il faut rechercher ladéquation de loffre à la demande et à la stratégie globale. Cela exige réellement un effort dadaptation. Il ne faut pas refaire avec cette séparation stratégique et opérationnelle, lerreur précédente faite sur la séparation « maîtrise douvrage» et « maîtrise duvre ». La stratégie marketing du SI demande la participation dun comité de direction incluant le DSI et des profils de type analyste daffaires pour faire le lien ente les affaires et la technique.
Le rôle de responsable marketing stratégique du SI doit être une responsabilité rattachée à la direction générale.
Ensuite, au niveau opérationnel, il est indispensable que la DSI communique sur ses offres et les prestations de services quelle peut proposer. Elle doit donner de la visibilité aux utilisateurs sur les services et produits disponibles ainsi que leur valorisation en fonction dunité duvre ou de critères non seulement vérifiables et significatifs mais également exprimé en termes utilisateurs.
Comment ça (ne) marche (pas)?
Les ratios à éviter pour valoriser les services
Le ratio coût rapporté au poste de travail
Le coût au MIPS ou CPU - -unité de mesure des coûts des serveurs Mainframe - est à la fois non significatif et incompréhensible pour lutilisateur
Des capacités de stockage
Le nombre de j/h + le tjm en maintenance
Pour donner cette visibilité, la DSI sappuiera sur plusieurs outils, décrits ci-dessous.
Le catalogue de produits et services
Simple et exhaustif, il décrit les produits et services que la DSI fournit aux utilisateurs finals. Les applications du poste de travail, le poste de travail en lui-même (équipé et maintenu), laccès au réseau, les formations, les services dassistance, de support et de dépannage, les conditions dintervention, etc., figurent au titre des services
Les contrats de services associés pour formaliser les engagements de niveau de service (ce qui nest pas toujours le cas)
Une politique de Communication approprié aux changements (cibles, fréquence, moyens). Cette dernière sera déclinée dans le cadre dune conduite du changement plus globale qui en fixera les enjeux
Une vitrine soignée de sa relation client, c'est-à-dire un point daccès unique aux services dassistance et de support pour lensemble des moyens informatiques mis à disposition de lutilisateur final. Cette vitrine ou « service Desk » va accompagner lensemble des clients internes et externes du SI afin de leur faciliter lusage des services informatique rendus. Si on fait le parallèle avec les centres dappels téléphoniques, la réactivité et la crédibilité des réponses de ce service jouera sur la perception de la performance de la DSI, à tous les niveaux (les directions sont également consommatrices des services du SI).
La DSI aura donc tout intérêt à veiller sur les compétences relationnelles des équipes en charge et sur lefficacité de ses processus de support en termes de résolution dincident au premier niveau dappel, ainsi que ses processus de gestion des incidents, gestion des demandes de changements, etc.
Soyons clairs, si on voit aujourdhui une évolution vers cette approche « marketing » du SI, elle reste encore cantonnée davantage à une partie opérationnelle que stratégique. Ce pourquoi le catalogue de produits et services nest pas répandu dans toutes les entreprises, encore moins avec des notions de valorisation tarifée, comme le montre ci-dessous un autre résultat de lenquête Sapientis 2010 « modernisation des SI et maturité des entreprises ».
SHAPE \* MERGEFORMAT
CatalogueProduitServices.png
Légendes figurant dans limage
Figure 7-8.
Existence dun catalogue de produits et services pour les métiers
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
La première démarche quaura donc à effectuer une direction marketing « stratégique » du SI sera détablir un « SWOT » (Pour Strenghts Weaknesses, Opportunities and Threats soit MOFF en francais : Menaces, Opportunités, Forces, Faiblesses) du système dinformation, en collaboration avec toutes les parties prenantes ; Un exemple de « SWOT » est indiqué ci-dessous :
SWOTSI.png
Figure 7-9.
Exemple de matrice « SWOT » dun SI
Le « SWOT » va aider à déterminer et instancier les questions de type :
Comment exploiter les opportunités et les forces?
Comment neutraliser ou éviter les menaces ?
Comment Eviter ou minimiser les faiblesses ?
Sil sagit dun outil danalyse rapide pour avoir un guide dinvestigation, il ne se substitue nullement à une analyse de valeur multidimensionnelle du S.I. que nous décrivons plus loin.
Définition
Le SWOT du SI un nouveau concept marketing ou un outil utile ?
L'analyse SWOT est un outil d'audit marketing de l'entreprise et de son environnement (concurrence). Il aide l'entreprise à se concentrer sur les questions clés. Une fois les questions clés identifiées, elles sont introduites dans des objectifs marketing. La matrice SWOT est employée en parallèle avec d'autres outils d'audit et analyse (5 forces de Porter, PEST,
). Cet outil est très populaire parce qu'il est rapide et facile à utiliser. L'analyse SWOT se fait au moyen dune grille visuelle à quatre quadrants.
La conduite du changement
Quest-ce quune démarche de conduite du changement ? Quel est son périmètre, ses méthodes, ses outils ?
A entendre les discours des uns, il sagirait essentiellement de communication, de formation et daccompagnement au changement. A entendre les autres, laccompagnement au changement cest justement la partie communication et formation de la conduite du changement.
Mais ne sommes-nous là pas en train de parler des moyens et en oublier lobjectif ?
A vrai dire, lambiguïté qui prévaut sur le terme « conduite du changement » naît de la difficulté qui réside toujours dans lentreprise à bien déterminer les rôles et responsabilités en matière denjeux concernant les systèmes dinformation, et surtout, à bien faire dialoguer les acteurs entre eux, en évitant de sombrer dans des découpages hiérarchiques ou organisationnels.
La conduite du changement porte sur lensemble de la démarche qui va de la perception dun problème dorganisation ou dune opportunité dévolution organisationnelle à la mise en uvre satisfaisante dune solution de transformation via la définition dun cadre dactions humaines pour lélaborer, la choisir, la mettre en place.
A cette définition plutôt alambiquée, on peut préférer celle quon trouvera sur le blog de Christophe Faurie, spécialiste des changements de lentreprise et auteur du livre « Conduire le changement » (publié aux éditions lharmattan)
« Conduire le changement » c'est 1) identifier la transformation que doit subir l'entreprise ; 2) la mener à bien. »
De nombreuses sociétés de services en intégration de systèmes après avoir longtemps proposé des prestations de « conduite du changement » de projets lié aux systèmes dinformations, les ont rebaptisé « accompagnement au changement », faute de pouvoir agir sur la direction de la « conduite ». Tout simplement parce que leurs méthodes et approches consistait à définir et décliner un plan de communication ou de formation, sur la base au mieux denjeux partiellement définis, au pire, du calendrier projet et des fonctionnalités prévues.
Si lentreprise se repose sur cette nature daccompagnement seule pour réussir sa transformation, elle manque une étape essentielle, celle didentifier la transformation. Conduire le changement cest :
Identifier et formaliser les axes stratégiques de la transformation,
Analyser les enjeux des parties prenantes, apprécier les dynamiques de changement, les points de résistance, leurs raisons,
Construire une vision équilibrée et partagée des enjeux avec les acteurs pour identifier la trajectoire de transformation,
Piloter par les enjeux, à coût/objectif, pour garder le cap et fixer les bonnes priorités, voire sadapter à bon escient,
Obtenir ladhésion en impliquant les utilisateurs au plus tôt dans la définition et la conception de la solution, en communiquant, en formant,
Faire porter le changement par lencadrement, mais sappuyer sur des champions pour le propager indépendamment du lien hiérarchique, afin que ces évolutions prennent en profondeur et dans la durée
Procéder par itération et ajuster le plan daction et la trajectoire au rythme de son évolution
Tout lart de la conduite du changement consiste donc à comprendre la politique et les structures dune organisation, faire émerger un dialogue ouvert entre les parties prenantes sur les objectifs réels de lentreprise sans se laisser contraindre par des partis-pris, pour pouvoir établir des recommandations de transformation qui aideront lorganisation à atteindre ces objectifs.
Pour citer à nouveau christophe Faurie : « Apprendre à conduire le changement, cest donc apprendre à maîtriser les mécanismes qui permettent au groupe de se transformer en évitant les limites de lhomme ».
Cela peut entrer dans le cadre des fonctions de liaison revendiquées par les « Business Analyst ».
Formation, communication, accompagnement seront les trois leviers pour décliner opérationnellement la vision des enjeux en transformation réelle de lorganisation.
Lautonomisation des métiers
Force est de reconnaître que la vision prospective dil y a cinquante ans dun service informatique aussi pratique à lusage que le branchement de lélectricité est encore
une vision. Certes, lavancée des modèles comme Google ou Sales force, avec les plateformes dapplication, la possibilité dutiliser virtuellement la puissance dun super ordinateur avec des milliers de processeurs et des millions de disques durs, dessinent un monde avec un nombre réduit de super-fournisseurs de puissance serveur, ce qui donne une variante à la vision de John Mc Carthy, 50 ans plus tard, qui est celle de Greg Papadopoulos décrite ci-dessous.
Ils lont dit
The world needs only five computer
Le responsable technique de Sun Microsystems, Greg Papadopoulos paraphrasait en 2007 cette phrase attribuée au PDG dIBM dans les années quarante.
En sappuyant sur le modèle des eBay, Amazon, Google, Yahoo, et autres Salesforce.com , il envisage un mode où la puissance de calcul des ordinateurs se vendra comme de lélectricité avec quelques supers multinationales de lénergie - il en cite sept, et même un état , la chine - disposant de centrales géantes ; il faut comprendre ici des « réseaux dordinateurs » fournissant la puissance et la performance dun ordinateur à grande échelle, et dès lors, toute la gamme envisageable de services associés. Les entreprises ne paieront plus la machinerie et les ressources : elles paieront le résultat, grâce au nouveau modèle du « software as a Service ».
Reste que les fonctionnalités des applications disponibles en mode service sur le web sont encore loin de répondre à tous les besoins des utilisateurs en entreprise. Les bonnes vieilles applications patrimoniales qui répondent spécifiquement aux besoins ont encore de beaux jours devant elles. Lennui, cest quau fil du temps, ce qui est décrit plus loin arrive. Elles vieillissent, deviennent complexes, et la moindre demande dévolution prend du temps.
Trop de temps pour les utilisateurs qui ne comprennent pas forcément quil faille trois mois pour le changement dune simple règle de gestion métier dans le code quand la demande de changement tient en quelques lignes (changement dune échelle de comparaison, dun plafond dautorisation, du mode de calcul dun champ, etc.)
La faute en incombe à des conceptions et des architectures qui nécessitent de passer par le code pour effectuer ces modifications, et donc, par les processus de développements, de tests et de mise en exploitation classique.
La réflexion autour dune architecture agile, qui, grâce à une logique de composant et de paramétrage, autorisera lutilisateur à saisir lui-même, autant que faire se peut, les changements quil souhaite au niveau de la logique métier sans toucher à limplémentation physique, telle est la clé de la facilité dusage du service informatique en entreprise.
Cette « autonomisation des métiers » est cette fois un défi de modernisation darchitecture mais qui entre dans la construction des offres, au titre de marketing produit.
Elle contribuera, comme les autres fonctions de marketing du S.I., à rendre loffre simple et lisible, et dès lors, toutes les directions clients en percevront mieux les bénéfices.
Gérer efficacement les ressources et les moyens
La théorie du chaos
Combien de projets de systèmes dinformation échouent avant datteindre leurs objectifs ? Selon le Standish group, célèbre pour sa « théorie du chaos », beaucoup
Certes, des polémiques sélèvent parfois sur la véracité de ces statistiques, dont une étude réalisée par les universitaires Sauer/Gemino/reich qui aboutit à des chiffres inférieurs, le taux de projets en échec étant ramené à un tiers. Une amélioration qui correspondrait à une meilleure analyse des retours dexpérience voire des méthodes et des outils plus murs pour la gestion des projets informatique. Néanmoins, comme le soulignait en 2006 une enquête de Dynamic Market pour le compte de Tata Consultancy Services, 43% des responsables informatique sattendent à rencontrer des problèmes dans leurs projets.
Un peu dhistoire
La théorie du chaos en informatique
En 1994 le Standish group, un organisme indépendant danalyse et de recherche de la performance des TIC publie son premier « rapport du Chaos », documentant à travers des enquêtes et des interviews les types déchec de projet, les facteurs majeurs déchec et les pistes de réduction de ces derniers.Les premiers chiffres de 1994 sont alarmants, des milliards de dollars sont dépensés pour des projets de développement logiciel jamais achevés. Depuis 15 ans, le Standish group livre annuellement des statistiques abondamment reprises et publiées par tous les spécialistes en performance des Systèmes dinformation. Et si les cinq dernières années illustraient une modification positive de la tendance, laissant penser à une maturité plus grande du pilotage de projets, le rapport du chaos 2009 rappelle de « vieux démons ».
Seulement 32% des projets réussiraient à être achevés en respectant le contrat temps, budget et fonctionnalités, 44% finissent hors délai et en dépassement de budget et/ou avec moins de fonctionnalités que prévues, et pour finir, 24% échouent et sont annulés avant dêtre achevés ou livrent un résultat jamais utilisé. Effet de la crise ? Lannée 2009 représente le plus gros taux déchec depuis une décennie.
Les critères dinfluence sur le succès dun projet considéré par le Standish group sont au nombre de dix et les suivants, par ordre dimportance : Support de la direction, Implication des utilisateurs, Chef de projet expérimenté, Objectifs métiers clairs, Périmètre minimisé au possible, Infrastructure logicielle standard, Exigences fondamentales affirmées, Méthodologie formelle, Estimations fiables, Autres critères (mesuré avec un poids global à lensemble : la compétence des ressources, un planning décomposé en étapes avec des jalons intermédiaires et des échéances courtes)
Mais pourquoi les projets échouent-ils ? Est-ce la faute des outils informatiques ? Des compétences des équipes ? Des difficultés techniques ? Compte tenu dun côté de la maturité des environnement de développement et dans la majorité des cas, des techniques utilisées, de lautre des compétences des développeurs, de plus en plus disponibles sur des technologies largement répandues comme .Net ou Java/J2EE, la cause profonde la plus commune déchec nest pas à chercher là.
Cest en général plus simple et plus difficile à gérer : les difficultés sont essentiellement dordre organisationnel et de pilotage. Faute de procéder méthodiquement, progressivement, avec les bons intervenants ayant les bons rôles au bon moment, les bons questionnements et les indicateurs qui en découlent, les projets sont voués à dériver et une gestion serrée des coûts et délais ny changera rien, sauf à diminuer la couverture fonctionnelle et la qualité du résultat livré.
Si les débordements sont monnaie courante en France, les bilans de projets et le partage des retours dexpérience le sont moins. Pour autant, ils pourraient mettre en lumière un constat général.
Si les outils et les méthodes existent, dans les faits, le facteur humain est prépondérant, car un projet de construction de tout ou partie dun système dinformation fait essentiellement appel à une construction intellectuelle, ce qui nécessite beaucoup plus de concertation, de compréhension et de communication quun projet de construction de bâtiments même si le vocabulaire des acteurs emprunte à ce domaine (architecture, maîtrise douvrage, maîtrise duvre, etc.).
Ils lont dit
Butller group, 2005 Pourquoi les projets échouent ?
Une des raisons majeure est quil existe un énorme fossé entre les développeurs qui travaillent sur les projets dapplication et les responsables qui en ont fixés les objectifs
Lawrence Charles Paulson , professeur à luniversité de Cambridge (Computer Laboratory
« on peut tester un pont avec des charges extrêmes et sassurer ainsi quil ne seffondrera pas avec des petites charges. Avec un logiciel, chaque entrée est une situation différente. Nous avons des modèles mathématiques pour les ponts, pas pour les logiciels. »
Frederick P. Brooks, auteur du livre « the Mythical Man Month
« Plus vous commencez tôt, plus cela va vous prendre du temps »
« Rajouter du monde sur un projet en retard cest uniquement rajouter du retard »
Le cycle de vie des applications
En matière denvironnement de développement, dateliers logiciels, de gestion de configuration, de référentiels dexigences et de tests, de nombreux outils perfectionnés existent pour couvrir le « cycle de lapplication » (ou « ALM » pour Application lifecycle Management).
Définition
ALM : le cycle de vie dune application
Le cycle de vie dune application est le continuum des activités requises pour supporter une application dentreprise du projet dinvestissement initial jusquà son déploiement et loptimisation des systèmes
LApplication Lifecycle Management (ALM) intègre et pilote, tout au long du cycle de vie dune application, les différentes phases de planification, définition, conception, développement, test et déploiement.
Eclipse Application Lifecycle Framework project
Ces outils autorisent la collaboration entre équipes de développement géographiquement dispersées, facilitent la recherche de défauts, les tests
Ainsi il nest guère surprenant den arriver à un stade où les communautés open source garantissent une qualité du code au moins égale à celle des éditeurs de progiciels.
Il existe également, en plus des outils de développement et de tests, des outils de planification, de gestion de portefeuille projets, etc.
Mais cela vaut pour le développement initial dune application, force est de reconnaître quune fois une application en production, le contexte change. Particulièrement quand lapplication vieillit.
Cest un constat, la gestion des développements liés aux évolutions des applications patrimoniale est moins outillée dans les approches de type « ALM » aujourdhui. LOMG (Object Management Group) pointe avec raison ce manque dans le cycle de vie, dans la mesure où, a minima, en moyenne 50% du temps des équipes informatique est passé sur la maintenance. Dautant que la durée de vie dune application en production est bien supérieure à la durée du projet qui lui a donné le jour. Si certains de ces derniers sont longs, que dire dapplications en exploitation depuis quarante ans ?
On estime que les coûts de la maintenance vont jusquà 67% du coût total dune application sur sa durée de vie (si on considère tous les postes de coûts, de linvestissement initial en matériel, logiciel, développements, la formation, etc.) dont 48% sont consacrés à réparer les défauts.
Or ce temps consacré à réparer les défauts pèse lourd, dautant plus quand ils auraient pu être évités en amont (on y reviendra dans limplication des utilisateurs), et quand la validation du problème remonté et lanalyse de la modification à faire pèse énormément sur le cycle de vie de la maintenance.
En théorie, un projet dévolution en maintenance a une grande similitude avec un projet de développement, au sens où tous deux partagent un cycle de vie, une pression permanente, des phases danalyse, de développement et de tests. En pratique, il y a de grandes différences. Pour nen citer que quelques unes, les jalons sont moins bien formulés, les livrables moins explicites, les dérogations plus nombreuses (hot fixes), les objectifs sont moins bien définis et les tests incluent des tests de non-régression, indispensables.
Aussi les modèles destimation de chiffrage traditionnels ne sont pas forcément dun grand secours en maintenance, comme le montre une approche comparée des deux cycles telles quillustrée dans la figure suivante.
Nota bene : les valeurs de pourcentage indiquées sont des moyennes à adapter en fonction du contexte.
CyclesdevieProjetMaintenance.png
Légendes figurant dans limage
Figure 7-10.
Comparaison des cycles de vie projet et maintenance
Une approche incrémentale dapprentissage par la pratique des estimations de coûts et de temps, basée sur des données historiques, fonctionne mieux en maintenance que les ratios projets classiques. Car il est difficile de disposer dun benchmarking destimations exploitable dans tous les cas de figure, tant lhéritage applicatif change les perspectives.
Il faut en particulier insister sur le fait que, dans une application complexe et vieillissante, la compréhension des problèmes se fait au détriment des validations, ce qui entraîne des risques danomalies, qui, à leur tour, entraîneront des demandes de modification, qui à leur tour
On voit le déclenchement du cercle vicieux qui conduit à ne plus maîtriser la maintenance des applications, c'est-à-dire ne plus maîtriser ses biens logiciels.
Il ne sagit pas seulement de délai de compréhension dun problème, mais également de rigueur dans le processus des tests et validation. Les modifications les plus simples sont celles qui ont le plus de chances d'introduire des erreurs, selon le tableau ci-dessous : [Weiner83,Buss1&al94]
Nombre de lignes modifiées151020Probabilité dintroduire une erreur50%75%50%35%Souvent les modifications «simples» ne sont pas prises au sérieux, les tests ne sont pas systématiques... Selon L.R. Weiner, les trois erreurs les plus coûteuses de l'histoire de l'informatique sont liées à la modification d'une seule ligne de code... [L.R. Weiner83]
Un peu dhistoire
Une seule ligne de code vous manque et tout
ne fonctionne plus
22 juillet 1962 :
Un programme qui comportait une omission mineure dans une équation coûta 18,5 millions de dollars au contribuable américain parce qu'on détruisit par erreur une fusée Atlas-Agena. Cette fusée transportait la sonde Mariner I destinée à l'exploration de Vénus. Il manquait une "barre" dans léquation, un trait horizontal sur un symbole indiquant qu'il fallait utiliser des valeurs moyennes et non pas des données brutes.
Fin juin début juillet 1991 :
Aux Etats-Unis, le téléphone ne répond plus dans de nombreux états. A lorigine de coupures en série, un programme de commutation réalisé par DSC communications. Trois lignes non testées, ajoutées à un programme de plusieurs millions de ligne de code, testé au préalable pendant treize semaines, ont suffi à provoquer la situation.
A lorigine de ce cercle « vicieux » ou cette entropie croissante, des lois de lévolution logicielle incontournables, énoncées depuis longtemps par Lehman et Belady et quon pourrait résumer en deux principes majeurs. Pour le premier, tout programme qui est utilisé sera modifié car il ny a pas dapplications en production qui vivent sans demande de changement et/ou de corrections. Pour le second, la complexité dun logiciel augmente naturellement avec le temps si aucun effort spécifique additionnel nest effectué pour la contenir ou la réduire.
Ils ont dit
Les « tables de la loi » de lévolution logicielle
Lois de lévolution logiciel : r a. M.M. Lehamn and L.A. Belady "Program Evolution : process of Software Change" London academic Press (première publication 1984))
Law of Continuing Change : A system that is being used undergoes continuous change until it is judged more cost effective to restructure the system of replace it by a completely new system.
Law of Increasing Complexity A program that is changed becomes less and less structured (entropy increases ) and thus becomes more complex. One has to invest extra effort in order to avoid increasing complexity.
Law of Program Evolution The growth rate of global system attributes may seem locally stochastic, but is in fact self-regulating with statistically determinable trends.
Law of Invariant Work Rate The global progress in software development projects is statistically invariant.
Que les causes soient connues ne veut pas dire quon les traite. Peu ou prou dentreprise, surtout éduquées dans lesprit de réduire les coûts informatique, sont prêtes à payer leffort supplémentaire évoqué dans la seconde loi de Lehamn, pour réduire la complexité. La meilleure démonstration en est la difficulté croissante quont bon nombre de DSI à maîtriser les coûts de maintenance. Cela leur coûte cher au-delà de la valeur monétaire, autant pour leur crédibilité que pour leur capacité à investir dans linnovation, par manque de budget.
La complexité croissante du code entraîne une baisse de productivité des programmeurs et lincapacité à réagir rapidement aux besoins fonctionnels. Quant à la difficulté à tester la qualité du code, voire limpasse sur des tests rigoureux, ils entraînent des pertes économiques pour lentreprise elle-même qui ose passer en production des systèmes insuffisamment testés. En mai 2002, un rapport du NIST « les impacts économiques dune infrastructure pour les tests logiciels » estimait que le coût de logiciels défectueux en production aux U.S. sévaluait en termes de dizaine de milliard de dollars par an.
Il est surprenant dans ces conditions de voir se développer des logiques de gestion de portefeuilles projets sans quil y ait de corollaire équivalent : la gestion du portefeuille dapplications, et la gestion du cycle de vie des évolutions (voir chapitre 8« activer les leviers de création de valeurs).
Reste que cette logique de gestion de portefeuilles projets est nécessaire, même si elle reste insuffisante sans gestion du portefeuille dapplications comme démontrés ci-dessus, ou sans compréhension et moyens de remédiation contre les risques principaux déchec du projet, essentiellement dus à des aspects de pilotage humain et organisationnel ainsi que lexpliquent les paragraphes suivants.
Anatomie des désastres
Dans un de ses cours de génie logiciel pour luniversité de Cambridge, le professeur Lawrence C.Paulson revenait sur « lanatomie des désastres », en comparant les causes déchecs de plusieurs grands projets. En particulier, il citait un projet développé pour le service des ambulances londonien (LAS : London Ambulance Service) et un projet, CONFIRM, destiné à assurer la réservation combinée de vols + hôtels + voiture de location.
Lun et lautre cas furent des échecs patents et très coûteux, respectivement environ 9 millions de livres et 160 millions de dollars. Le premier système, qui visait à informatiser le dispatching et le routage des ambulances, a été mis en production avec 81 erreurs connues et abandonnés après 10 jours dessai pour revenir au mode manuel.
Le second, qui devait en principe réussir car développé par léquipe à lorigine de SABRE, était arrivé à un tel niveau de désastre, volontairement dissimulé par les responsables, que la moitié de léquipe cherchait de nouveaux emplois au milieu du projet. Un consultant fût embauché pour un audit, mais son rapport ayant déplût à ses supérieurs, il fût purement et simplement enterré. Le projet continua encore un an après cela avant labandon. Les analyses effectuées en 1994 (sources Steve Flowers dans le journal The Guardian du 28/4/1994 et Effy Oz in CACM 10/1994) sur les causes déchec sont décrites dans le tableau ci-dessous.
Tableau 7-2
Comparaison de causes déchec
LASCONFIRM DélaisLa maîtrise duvre a été choisie sur les critères coûts (le moins cher) et délais. Léchéance de réalisation à 6 mois a été, jugée par tous irréaliste. Conclusion : pression sur les délais au détriment des tests.Personnel licencié si refus daccepter des calendriers irréalistesEquipe en chargeLes développeurs étaient inexpérimentés dans les systèmes critiques sur le plan de la sécuritéPilotageUn mode de pilotage décrit comme macho déterminé à passer coûte que coûte.Des responsables dissimulant les problèmes sérieux à leurs supérieursDifficulté technique eventuelleLa conception a ignoré les limitations dun système de guidage radio dans les zones urbaines.Incapacité à intégrer deux systèmesLiens clients/développeursConception fondamentalement défectueuse. Or les utilisateurs ont été exclus de la phase de conceptionPas assez de liens entre clients et développeursGestion des changementsChangements des exigences clients tardivement dans le projetLanalyse comparative des deux projets illustre un mode de pilotage hiérarchique à lextrême, sans remise en cause. En effet, les directions de projet refusent de voir les faits (indicateurs de délais irréalistes, par exemple) et préfère dissimuler plutôt que corriger les erreurs. Les délais irréalistes sont connus dès le début du projet, mais acceptés pour signer laffaire à tous prix.
Le projet LAS montre un défaut de compétence de léquipe en charge en matière de systèmes critiques. Si le choix des développeurs est critiquable, pour autant, ils auraient pu éviter une erreur de conception grossière grâce au dialogue avec les utilisateurs. Or ces derniers nont même pas été impliqués dans la conception, phase où leur collaboration est indispensable.
Quant au projet CONFIRM, non seulement les liens entre clients et développeurs sont insuffisants, mais, qui plus est, il y a un manque méthodologique. Il ny a en effet pas de gestion des demandes de changements ce qui abouti à un périmètre projet flou et extensible à lencan.
Ces deux exemples montrent que la gestion de projets par les délais et coûts seulement est vouée à léchec. Sans pilotage intelligent et commun avec le client final (le propriétaire du besoin), sans sponsoring de la direction générale, en particulier pour négocier des délais réalistes, sans implication des utilisateurs dans les phases cruciales, en particulier de conception et de test, les projets ont toutes les (mal)chances dêtre des désastres.
Certes, on peut critiquer le choix des deux exemples. Projets éventuellement jugés pharaoniques (bien que ce ne soit pas le cas pour le LAS), exemples « datés » (1994) et développements spécifiques.
Il ne sagit pas que dune problématique de grands comptes dépassée. Des exemples récents (moins de 5 ans), existent en France. Il sagit de projets de développements spécifiques qui furent désastreux pour les mêmes raisons, au point dêtre abandonnés en cours de route.
Quand à croire que la mise en uvre dun progiciel change la donne précédente, autant se détromper rapidement.
Un projet progiciel c'est avant tout un projet fonctionnel et organisationnel, le coût logiciel ne représente au mieux que 25 à 30% du projet.
Les progiciels intégrés ont un impact fort sur l'organisation même de l'entreprise. L'arrivée de ces outils oblige les entreprises à décloisonner leurs services et les contraint à redéfinir leurs procédures de gestion non plus par service, mais de manière globale.
D'où l'importance d'une campagne d'information et de formation pour faciliter l'introduction de ce type d'outils car il faut convaincre les divisions opérationnelles de l'utilité d'un progiciel intégré. Les utilisateurs doivent apprendre à communiquer dans un langage commun. La conduite du changement incluant larbitrage par les enjeux, la communication et la formation, limplication des utilisateurs sont des enjeux majeurs dans la réussite du projet.
Autre aspect à prendre en compte, les progiciels ne sont pas la panacée si lobjectif est den finir avec une application patrimoniale vieillissante. Opter pour un progiciel en remplacement dune application spécifique « maison » peut conduire tout aussi sûrement au désastre, si la réalité de la couverture « standard » du progiciel, et par là-même des besoins qui ont conduit à lapplication initiale, na pas été correctement évaluée. Pour sen convaincre, il suffit de jeter un il sur les chiffres ci-dessous et les quelques exemples qui suivent.
Ils lont dit
Un projet ERP à plus de 10m$ ? Vous êtes statistiquement perdants !
« Si un projet ERP vous coûte plus de $10m, vos chances pour le mener dans les temps et dans le budget sont statistiquement nulles » Jim Johnson, président du Standish Group International, « Vous avez aussi une chance sur 2 quil soit annulé avant dêtre achevé et après avoir dépensé 200% de votre budget"
35% dabandon définitif (standish group), 55% de dépassement
30% de succès (Gartner)
Statistiquement seulement 40% des fonctionnalités sont déployées
Seulement 10% des projets se font en temps et budget
The Robbins-Gioia Survey (2001) 51% des 232 entreprises interrogées percevaient leur implémentation dERP comme un échec
Pour en finir avec la culture de léchec des projets informatiques, il faut en finir avec la gestion simpliste par « coûts et délais ». Ces derniers ne signifient rien si les enjeux du projet nont pas été clairement définis et partagés entre les différents acteurs parties prenantes ainsi que leurs rôles et responsabilités dans la contribution au succès commun de lentreprise.
Un peu dhistoire
Des exemples de projets ERP malheureux publiés (presses, études)
2004 Ford Motor Co. : système dachat abandonné après un déploiement à 400M$
2004: Avis Europe : ERP abandonné, 54,5 million$
1995-2005 : Irish health service, système SAP pour HR, paie et systèmes liés. Budgété 10,7 M$, prévu sur une durée de 3 ans. Résultat 10 ans, 180 M$
Limplication des utilisateurs au bon moment
Trop souvent, la nécessaire contribution de la maîtrise douvrage nest pas clairement formalisée au démarrage de la réalisation des projets, ou fortement minimisée pour ne pas effrayer les utilisateurs qui ne « doivent pas être trop sollicités », formule régulièrement rencontrée par tout chef de projet. Sil sagit là dun calcul pour économiser un temps jugé précieux, il se trompe de cible.
En occultant la part qui revient à la maîtrise douvrage, on sous-estime le budget du projet et on entérine les dérives de planning, ou les erreurs de conception futures, ou, pire encore, les erreurs grossières en production et les surcoûts associés. Sil sagit de ne pas « heurter » en impliquant les utilisateurs trop tôt dans un projet qui risque de changer leurs habitudes, cest là encore une erreur flagrante.
Car cest en les impliquant au plus tôt que les résistances au changement samenuiseront, pour peu que les utilisateurs puissent comprendre les bénéfices du projet. En passant, sils nen voient aucun à cette phase, on peut légitimement sinterroger sur la viabilité du modèle économique du projet, se demander si les enjeux à son origine ainsi que les gains attendus ont été correctement modélisés et revoir la copie sil y a lieu.
Il faut donc estimer les charges de la maîtrise douvrage au démarrage du projet au même titre que la maîtrise duvre et si cette dernière est déléguée à un sous-traitant, ne pas en profiter pour lui déléguer aussi lestimation des charges de la maîtrise douvrage. Il nest pas exclu de demander conseil à un spécialiste pour obtenir des échelles de valeurs moyennes, mais seule la connaissance réelle des utilisateurs, lhistorique des projets passés et des modes de comportement, permet daffiner cette évaluation. Pour autant, le prestataire choisit aura tout intérêt à demander un niveau minimum dengagement de la maîtrise douvrage.
Le tableau de la figure suivante illustre une façon de représenter lengagement des uns et des autres sur la durée des projets (les pourcentages ne sont absolument pas représentatifs de tous les types de projet).
Niveau attendu dengagementConceptionConstructionIntégration et validationFormation des formateurs, Go liveRôles de la maîtrise douvrageEngagementComité de pilotage20%20%20%20%Responsable projet80%50%50%80%Propriétaire des processus métiers70%50%50%80%Equipe processus50%25%50%80%Equipe responsable des applications existantes25%30%10%10%Rôles de la maîtrise doeuvreEngagementChef de projet(Pendant la durée du projet : planifie, contrôle, évalue(Concepteur et développeur(Pendant la durée du projet : exécute(Consultant technique(Pendant la durée du projet : exécute(Consultants produits le cas échéantEngagementProduct consultant100%10%10%Tableau 7-3
Exemple de formalisation des niveaux dengagement et des rôles des contributeurs projets
Si on modélise grossièrement dans la figure suivante les grandes phases dun projet logiciel, on sapercevra que les zones plus claires nécessitent toutes une implication non négligeable de la maîtrise douvrage. En effet, la documentation doit être revue avec les utilisateurs, la préparation de la formation également, les migrations de données (sil y a lieu) nécessitent un investissement de leur part pour qualifier les sources, les typer « sémantiquement » (la connaissance des acronymes de champ pour désigner un client nest pas innée).
ProjetDvlpt.jpg
Légendes figurant dans limage
Figure 7-12.
Quand à la gestion de projet, elle doit être conjointe pour arbitrer sur les enjeux métiers autant que faire se peut et ne pas laisser la maîtrise duvre arbitrer seule, car en demeure de le faire, elle ne pourra arbitrer au mieux quen termes de coûts et de délais et dans tous les cas, avec un potentiel dinsatisfaction prévisible sur le résultat, voire des retours arrières.
Pourtant, on insiste souvent davantage sur deux phases particulières où lintervention des utilisateurs est critique : la conception, avec la définition des besoins, et la recette, pour la validation. Les deux sont liées, et pour être certains que la seconde se passe au mieux, il faut impliquer sérieusement les utilisateurs dès la phase de conception sur la logique de tests et la construction des référentiels associés.
Car plus une erreur est découverte tard dans cycle de vie, plus la réparation est coûteuse. Une erreur de spécification trouvée en maintenance coûte plus de 60 à 100 fois plus cher que si elle avait été trouvée lors des spécifications. La figure ci-dessous donne une estimation des ordres de grandeur de cette logique de multiplication, pour une erreur qui coûterait un Euro découverte en phase de spécifications.
CoutErreur.png
Légendes figurant dans limage
Figure 7-13.
Estimation de la multiplication des coûts des erreurs au fur et à mesure de leur découverte tardive dans le cycle de vie
Impliquer les utilisateurs le plus en amont est une manière de réduire autant que possible le coût des erreurs de spécification. Limportant est de pouvoir au plus tôt faire la corrélation entre le code réalisé et les besoins demandés, pour détecter les défauts avant les phases de tests officielles (exécution de cas de tests).
Ces dernières, indispensables, ne sont pour autant pas, et ne doivent pas être, les seuls moyens de vérifier la qualité dun logiciel. Tout dabord parce que tester complètement un logiciel coûte cher, voire est pratiquement irréalisable. Parce quil existe une combinatoire extrêmement élevée de cas de test et que chaque entrée peut donner un résultat différent en sortie.
On sen réfèrera plus précisément aux chiffres de Caper Jones, éminent spécialiste de la qualité logicielle et auteur de nombreux livres et études sur le sujet :
Un taux de couverture de code de 50% ne détecte quenviron 10% des défauts
Un taux de couverture de code de 100% ne détecte que 47% des défauts
Un taux de couverture de 100% MC/DC (tests de décisions-conditions modifiées, tests de conditions de branchement et tests de conditions de branchement combinées) détecte 97% des défauts. Il est utilisé en avionique critique, pas dans les banques assurances.
De nombreuses méthodes de validation et de vérification de la qualité existent, mais ainsi que le souligne caper Jones « aucune seule nest adéquate ». Il faut combiner les méthodes de tests dit « statiques », où il sagit de tester sans exécuter lapplication par examen des documentations, du programme, en effectuant des lectures croisées, des revues de code, et tester « dynamiquement », à laide de tests structurels et fonctionnels, en exécutant lapplication. Et ce, tout au long du cycle de vie de lapplication pour optimiser la prévention des défauts
Caper Jones nous alerte aussi sur le fait que la qualité ne signifie pas la « conformité aux demandes des utilisateurs », tout simplement parce que ces demandes, si elles ne suivent pas un cycle de « gestion des exigences », dune part contiennent plus de 15% des sources derreurs, dautre part peuvent grandir excessivement dans la vie dun projet (2% de nouvelles demandes par mois).
La gestion des coûts et délais ne suffisant pas, les tests seuls ne suffisant pas, la qualité ne signifiant pas stricto sensu de se conformer aux exigences sans qualification de la demande et vérification du périmètre projet, nous en arrivons à la nécessité de mettre en uvre un pilotage multidimensionnel des projets.
Ce dernier doit prendre en compte aussi bien les enjeux, la qualité, les risques, que la gestion des coûts et des délais.
Un pilotage multidimensionnel
En premier lieu, un projet, quel quil soit, ne devrait pas démarrer sans avoir mené une étude de cas de ces bénéfices, et définit les critères qui permettront den évaluer le succès, et latteinte des objectifs dentreprise initiaux.
Cest laxe de pilotage par les enjeux, qui serviront toujours à arbitrer en cas de risque de dérive en délais ou en coût, en ramenant lévaluation à une logique coût/objectif.
Il existe un autre axe, celui de la qualité qui vise à déterminer la pertinence des exigences, la bonne traçabilité des spécifications de code au regard de ces exigences (permettant par là de vérifier la documentation), lobtention dune couverture du code maximale par des tests dont les cas doivent eux-mêmes couvrir les exigences (demandes clients). Cest en mettant en place ce triptyque à laide de référentiels (exigences, codes et tests) quil est possible dassurer un résultat satisfaisant au mieux les utilisateurs, en minimisant les risques de défauts du produit livré.
Referentielpilotage.png
Figure 7-14.
Référentiels en support au pilotage multidimensionnel
Laxe « classique » est celui du suivi davancement où on mesure les délais des phases, le respect des jalons de livraisons, les charges en hommes/mois et les coûts globaux
En ne se concentrant que sur cet axe, il est clair que le projet na pas la capacité à réagir aux aléas, ni prévenir les risques de non qualité, qui influeront sur la satisfaction des utilisateurs.
Exploiter les bonnes pratiques
En cinquante ans, linformatique dentreprise a su se professionnaliser, il existe désormais beaucoup de référentiels sur les processus propres au métier de linformatique, processus de développement de logiciels, processus de gestion des incidents, processus de demande
Il est dailleurs significatif que ce qui est au final le plus répandu et commence à être partagé par la profession porte davantage sur les pratiques en exploitation et production, et en développement que les pratiques de pilotage au sens large, c'est-à-dire de gestion des budgets et investissements, de gestion du portefeuille des actifs (ici les applications), de gestion de projets, etc.
CatalogueProduitServices.jpg
Figure 7-15.
Référentiels les plus utilisés pour les SI
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Lenquête « modernisation des SI et maturité des entreprises » de Sapientis montrait que lusage dITIL dépassait de loin les autres référentiels. A contrario, Val IT (Enterprise Value : Governance of IT investments), un cadre de référence qui pose la question de la génération de la valeur des projets à composantes SI pour une gouvernance éclairée des investissements, nest pas entré dans le paysage, et les bonnes pratiques de gestion de projets (PMI), à peine.
ValIT.jpg
Légendes figurant dans limage
Figure 7-16.
Les questionnements de Val IT, par lAFAI
AFAI(copyright)
Les processus les mieux pourvus en matière de référentiels sont ceux de la construction de solutions, mais pas ceux qui contribuent à la proposition de valeur du SI. Ils sont orientés vers la continuité de services et les corrections dun existant. Ainsi limplémentation dITIL, qui se prête bien à une approche progressive, commence majoritairement par la gestion des incidents et des demandes de changements.
Une seconde approche est demprunter à des approches génériques issues de lindustrie des notions damélioration continue de processus, en envisageant dindustrialiser ces derniers autant que faire se peut. Cela se voit dailleurs dans la figure suivante qui reflète la vision du Gartner sur le choix des modèles quà un DSI et le positionnement des uns et des autres
GartnerRef.png
Légendes figurant dans limage
Figure 7-17.
La vision du Gartner sur le positionnement des référentiels
Source Gartner research, juin2008 (copyright)
Six Sigma, qui figure au rang des méthodes génériques ayant un intérêt global pour linformatique, a été de longtemps un modèle pour lindustrie pour loptimisation des performances, dans le cadre de production industrielle.
Mais cette industrialisation souvent envisagée pour améliorer la qualité des services de lexploitation, na guère de sens si en amont la réflexion sur les enjeux et la génération de valeur na pas eu lieu. Viser le « zéro défaut » est une ambition curieuse quand on ne connait pas le bénéfice du service ou la valeur dutilité perçue par le client, qui sont les points essentiels à améliorer, bien en amont de la production du service.
Certes ces référentiels ont le mérite dexister et ils apportent clairement chacun une contribution non négligeable à la maturité des entreprises dans la mise en uvre des processus liés au « métier de la DSI ». Lequel choisir ? La réponse est : plusieurs, car ils sont tous plus ou moins complémentaires et donnent des vues différentes qui senrichissent entre elles.
Certains de ces référentiels sont aussi très normatifs, contraignant dans leur déploiement, comme CMMI et ses niveaux de certification, cest pourquoi ITIL, plus simple et opérationnel, est mis plus facilement en place, par briques. CoBIT, qui se réclame de la gouvernance, est très orienté « contrôle et audit » et ne suffit pas à lalignement stratégique des systèmes dinformation. Val IT lui apporte un complément. La question nest donc pas forcément lequel choisir, mais plutôt : que faut-il prendre aux uns et aux autres, que me manque-t-il ?
Le tableau suivant donne une liste de référentiels de meilleures pratiques existantes avec quelques commentaires sur leur champ dapplication ainsi quil réfère les organismes et/ou associations qui en sont à lorigine.
Tableau 7-3
Liste de référentiels
SigleDéfinition et commentaireAssociation Française des Auditeurs InformatiqueAFAIL HYPERLINK "http://www.afai.asso.fr/" AFAI est le chapitre français de HYPERLINK "http://www.isaca.org/" lISACA (Information System Audit & Control Association), association à lorigine entre autres des référentiels et modèles CobiT, Risk IT, ValITCapability Maturity model integrationCMMIConçu dès 1987, à partir des meilleures pratiques du logiciel, par le SEI (Software Engineering Institute) et des représentants de l'industrie du logiciel, le CMMI est un modèle/guide de développements des applications informatiques (élargi avec « CMMI for maintenance » aux problématiques doutsourcing). Il est donc très orienté développement et intégration logiciel à sa conception, tandis que lapproche ITIL est davantage orientée « production ». Le CMMI est un référentiel international, qui décrit cinq niveaux de maturité, pour lesquels il existe des programmes de certification.Control OBjectives for Information & related TechnologyCoBITModèle de gouvernance IT décrivant les processus IT initié par lISACA (voir AFAI) et dont lobjectif est de faire le lien entre les exigences métiers, les besoins de contrôle et les contraintes techniques éventuelles. C'est un cadre de HYPERLINK "http://www.techno-science.net/?onglet=glossaire&definition=2787" contrôle qui vise à aider le management à gérer les risques (sécurité, fiabilité, conformité) et les investissements. Il est utilisé notamment dans le contexte daudits.Design For Six SigmaDFSSDFSS (Design For Six Sigma) est la méthode d'analyse des processus qui reprend les quatre dernières étapes de six sigma en les adaptant :
identifier : définir les exigences des clients et leurs limites,
concevoir : choisir les concepts, analyser les risques,
optimiser : optimiser la conception pour diminuer les variations du processs de production,
valider.Institut de la Gouvernance des Systèmes dinformationIGSIFondé par lAFAI et le CIGREF, lIGSI a en particulier réalisé un modèle de benchmarking des coûts informatiques (version doctobre 2006 téléchargeable) dont lobjectif est daller vers un standard de pilotage des coûts informatiques.Information Technology Infrastructure Library
ITILNée en Angleterre dans les années 80s, cette démarche se fonde sur une bibliothèque douvrages de meilleures pratiques, qui sappliquent notamment à lindustrialisation de la production des systèmes informatique, particulièrement en termes de performance et de disponibilité mais également à la gestion des services informatiques.IT Service ManagementITSMRéférentiel de gestion de services informatiques rendus sur la base d'une infrastructure informatique et de télécommunications, en suivant les recommandations ITIL.L'ITSM est normalisé au niveau international dans la norme ISO/CEI 20000. ITIL permet de supporter d'autres types de standard tel que COBIT(utilisé pour les audit). D'autres modèles populaires sont le CMMI pour le développement logiciel.Project Management InstitutePMILinstitut a été créé en 1969 par 5 volontaires avec lobjectif de créer un référentiel des connaissances de la profession du management de projet. Il est depuis notamment à lorigine du PMbok et de programme de certification. (cf. le chapitre français Paris-île de France)
Project Management Body of KnowledgePMBOKGuide du PMI définissant les champs de connaissance couvrant les fondamentaux de la gestion de projets (et ce sur un large périmètre incluant la construction, le logiciel, lingénierie et lindustrie, etc.). Du démarrage d'un projet à sa clôture, en passant par la planification, l'exécution et le contrôle des travaux, ce guide accompagne les processus du cycle de vie d'un projet. Il donne la méthodologie à suivre dans l'estimation de la charge de travail, des moyens à mettre en uvre et des coûts induits. Les aspects liés à la qualité, aux risques ou à la communication interne/externe sont également abordés. Sa quatrième version date de fin 2008. Il sert de base de référence, entre autres pour établir les contenus de cours sur la gestion de projet et pour l'élaboration d'examen de certification (certification PMP Project Management Profession). .Val ITLe cadre de référence Val IT explique comment une entreprise peut tirer la meilleure valeur possible de ses investissements informatiquesSIx SIGMAC'est une méthodologie de contrôle de la qualité basée sur létude d'indicateurs de variation (sigma) créée par Motorola dans les années 80. Adaptée à la production industrielle, elle vise une qualité proche du zéro défaut en mesurant la dispersion des produits autour dune moyenne (notion statistique d'écart type).
Le six sigma peut se définir en cinq phases :
définir : déterminer les exigences du client et les processus adaptés,
mesurer : supprimer les suppositions des exigences du client par rapport au processus,
analyser : identifier les écarts entre les performances. Classer les problèmes par importance,
améliorer : mettre en uvre les moyens nécessaires pour éliminer les problèmes,
contrôler : vérifier que les actions correctives produisent le résultat espéré sans nouvelle anomalie.Gérer les compétences
Les DSI ont rarement en interne toutes les compétences nécessaires pour maîtriser lensemble de leurs systèmes, cest encore un constat que confirme lenquête « modernisation des SI et maturité des entreprises » de Sapientis.
competences.jpg
Figure 7-18.
Disponibilité des compétences en interne
Source observatoire « Modernisation des SI et maturité des entreprises » Copyright Sapientis
Pour autant, la même enquête fait apparaître peu ou prou de stratégie dexternalisation choisie pour des compétences spécifiques et un paradoxe : si la gestion prévisionnelle des ressources nest pas perçue comme un des premiers enjeux dévolution endogène des SI, elle est vue parmi les premiers points fortement à améliorer à lavenir.
Les directions des systèmes dinformation, vecteurs profonds de changement dans les organisations, nestiment pas que la gestion de leur propre personnel soit un enjeu dévolution, mais le considère comme un enjeu damélioration. La nuance est de taille, comme considérer que lalignement des SI à la stratégie dentreprise passe dabord par lindustrialisation des processus. Or les processus, sans les hommes, sans les enjeux auxquels ils répondent, ne peuvent pas marcher. Ce sont des moyens, et les moyens ne sont jamais une fin en soi.
La richesse des systèmes dinformation, leur potentiel de création de valeur, ne peut être actionné sans les bonnes ressources humaines.
Dautant quen réalité, il y a clairement un besoin dévolution des compétences dans les SI et une gestion prévisionnelle à prévoir, dans un domaine où les technologies évoluent plus vite que les applications et que les organisations. On peut donc énoncer quelques principes dévolution à prendre en compte pour une gestion harmonieuse des compétences.
Les compétences « clés » et rares, seront celles de directeurs de projet ayant la capacité à piloter les projets sur les axes multi-dimensionnel évoqués plus haut, en abandonnant le côté « à force abrupte » du pilotage hiérarchique.
Dans des projets à composantes systèmes dinformation, il est essentiel dêtre à lécoute des différents acteurs et de faire le lien entre des compétences très différentes pour faire émerger une intelligence collective. Tout mode classique hiérarchique, ou « macho », consistant à faire taire les voix dissonantes et trouver des responsables quand les dérives arrivent ou dissimuler les erreurs plutôt que trouver les solutions (cf. anatomie des désastres), est à proscrire. Cela suppose une évolution dans le cadre de management dans son ensemble, pour construire des relations fondées sur la confiance et la responsabilisation, pas le déni et la non délégation.
Le rôle de profil type « Analyste daffaire » (business Analyst), pourrait être amené à se développer, pour ramener la conduite du changement à son rôle initial, faire émerger la transformation utile, et jouer le rôle de conseil des commanditaires, en loccurrence la « maîtrise douvrage » évoquée plus haut.
Il faudra clarifier et valoriser les compétences des mainteniciens comme un métier à part, avec différents rôles attachés et un niveau de qualification adapté, non sur dimensionné.
Les sociétés de services en infogérance ou en tierce maintenance applicative positionnent souvent de jeunes ingénieurs sur ces missions. Dès lors, il y a un turnover fort élevé, qui se ressent parfois sur la qualité des prestations et la réactivité du traitement des demandes. Léquation est simple, il faut six mois minimum pour maîtriser la connaissance fonctionnelle dune application moyenne en production depuis plusieurs années. Pour un turnover fréquent où les nouveaux arrivants partent au bout dune période de six mois à un an, linvestissement en connaissance est régulièrement à fond perdu. Lerreur est de ne pas adapter la recherche de profil au poste.
Un jeune ingénieur débutant naura aucun enthousiasme à être placé sur un projet de maintenance, quil jugera non valorisant en termes de reconnaissance intellectuelle, car ce projet fera probablement appel à des technologies qui ne sont pas celles qui lui ont été enseignées et on ne lui demandera pas de modéliser/conceptualiser. On peut au contraire le valoriser en lutilisant pour travailler sur des prototypes et des essais avec les nouvelles technologies dont il est familier pour les faire pénétrer dans lentreprise, tout en le formant aux méthodes avec un binôme plus expérimenté. En donnant des responsabilités « encadrées » et en valorisant lapport des nouveaux talents, lentreprise pourra les attirer et les retenir.
A linverse, un maintenicien âgé, dont les compétences sur les anciennes technologies et la connaissance des applications sont réelles et font partie du portefeuille des actifs immatériels, doit être valorisé dans une approche de transmission du savoir. La gestion des connaissances est une clé de la reprise en main des actifs immatériels de lentreprise, et elle passe nécessairement par la motivation des ressources humaines. Pourquoi ne pas utiliser des mainteniciens plus âgés pour former spécifiquement des jeunes « mainteniciens », et non utiliser des ingénieurs détudes ?
Dautres métiers apparaîtront liés au marketing des DSI. Dune part, pour laspect stratégique, ou il y aura une véritable logique découte des clients et de développement doffres de services en adéquation avec la stratégie de lentreprise, pouvant utiliser linnovation ou innovant dans les usages. Dautre part, pour la communication, de laccompagnement au changement au développement de profils professionnalisés pour laccueil de lassistance aux services.
Chapitre 8
Activer les leviers de création de valeur
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Le prix, cest ce que lon paie, la valeur, cest ce que lon reçoit.
Warren Buffet
Monsieur le Chat, demanda Alice. Pourriez-vous mindiquer le chemin à prendre ? Cela dépend en grande partie de lendroit où vous voulez aller, dit le Chat. Cela mest égal, dit Alice. Alors, peu importe le chemin que vous prenez dit le Chat.
Charles "Lewis Carroll"
Pour passer dune DSI « centre de coûts » a minima à une DSI « centre de services », voire centre de profits, il faut que le DSI ait déjà relevé les défis précédents et fait évoluer aussi bien ses méthodes, son organisation, ses moyens pour cela. Dès lors, il sera en posture de proposer un pilotage par les enjeux et dactiver les leviers de création de valeur du système dinformation, avec les outils de pilotage adéquats, de la gestion des portefeuilles applicatifs à la gestion des portefeuilles projets, en passant par la gestion des services.
La valeur passe avant le R.O.I
La pression forte des marchés, les volontés de réduire les coûts, ont conduit beaucoup dentreprises à vouloir établir des plans de « R.O.I », c'est-à-dire de retour sur investissement, pour les projets du Système dinformation comme pour les autres.
Lennui, cest que dune part elles narrivent pas à le faire et que dautre part, elles occultent pour partie un potentiel dévolution.
Sil est vrai que les projets liés au système dinformation doivent justifier dun objectif de bénéfice, le retour sur investissement est un calcul purement financier. Au final, on risque dans cette logique de navoir pour objectif pour le projet que de récupérer plus dargent quon en a versé, dans les deux ans. Or la création de valeur par le SI ne se résume pas à un R.O.I de projet.
Pour faire un parallèle, cest faire le même raccourci abusif quen déclarant que la création de valeur par une entreprise se traduit par : « faire augmenter le profit des actionnaires ». Cest là un raccourci aussi abusif quabsurde. Il faut dabord que lentreprise crée une offre commercialisable qui ait une valeur ajouté pour des clients afin quils soient prêt à la payer. Cest ce quon appelle la Valeur dUtilité Perçue par le Client (VUPC) qui fait quun client accepte dacheter une offre à un prix donné quil estime en deçà du bénéfice personnel induit.
Une proposition de valeur à léchelle dune entreprise, cest dabord ce qui décrit sa mission spécifique, lattractivité économique de sa proposition (je me différencie des autres en proposant un service vraiment utile nouveau ou existant mais pour un coût raisonnable). Cest également la façon dont elle partage avec tous les acteurs de la chaîne la valeur (client, partenaires, fournisseurs) pour que chacun y trouve son compte, et ce quelle garde pour elle afin davoir des affaires rentables. Quil y ait un résultat financier positif pour les actionnaires est la conséquence, pas lobjectif, de la création de valeur.
Autre élément et non des moindre, les ressources et les compétences maîtrisées par lentreprise sont les éléments fondateurs de la valeur créée. Si ces ressources ne sont pas spécifiques, pas rares, parfaitement standard, elles ne sont ni valorisables ni durables. La proposition de valeur ne représenterait dès lors pas un fossé très difficile à franchir pour les concurrents, et narriverait pas à séduire très longtemps les clients, faute dêtre capable de proposer de réelles innovations dusage.
On peut immédiatement faire le parallèle avec les ressources du SI. Une DSI qui nutiliserait que des applications standards, qui sous-traiterait la plupart de ses développements à des prestataires en jouant sur le moins-disant financier et non la recherche de compétences spécifiques, risquerait évidemment davoir de son SI une proposition de valeur limitée pour ses clients.
Définition
Le règne du R.O.I
Le retour sur investissement (RSI en Français) est un pourcentage pour indiquer la rentabilité dun projet. Il est défini pour une période donnée comme la somme des profits actualisés du projet, cest-à-dire les revenus moins les coûts, divisé par les fonds investis dans le projet.
RSI = (bénéfices annuels coûts annuels actualisés)/Coût du projet × 100
Le taux utilisé pour lactualisation correspond souvent au taux dintérêt ou au loyer de largent. Au RSI est souvent associée la notion de « délai de remboursement » ou « Payback period » qui exprime le temps nécessaire pour atteindre « le point déquilibre » où les profits réalisés auront remboursés complètement linvestissement initial.
La vue partagée 360° du SI
Apprivoiser le changement
Selon langle de vue, les attentes envers le système dinformation et les questions posées ne seront pas de même nature. Pour exemple, une direction générale sinterrogera entre autres sur la valeur que peut produire le système dinformation (SI) au regard du métier. Une direction informatique sinterrogera sur les gisements de productivité, les possibilités de réduire les coûts en interne ou externe, la rationalisation du parc pour supprimer les applications devenues redondantes ou inutiles, mais également sur le niveau de satisfaction des utilisateurs et sa propre performance eut égard à leurs attentes.
Les directions opérationnelles clientes auront à cur de challenger le SI et les investissements réalisés au regard des besoins des clients et également de la réactivité obtenue face aux nouveaux besoins émergeants dans un environnement compétitif.
A bien y regarder, cest la capacité dinnovation elle-même qui peut être jugée, car le Système dinformation peut contribuer au business futur en rendant possible de nouveaux modèles dinteraction avec les clients, fournisseurs ou partenaires de lentreprise, tels ceux qui ont émergés avec le Web. En parallèle, ces questions doivent être complétés par un axe « Maîtrise des risques IT » indispensable à une réelle gouvernance, au sens du vieil adage « mieux vaut prévenir que guérir ».
Lobjectif de la gouvernance, cest rassembler des vues et des modèles de construction hétérogènes, challenger les questions des uns et des autres, ensemble, pour faire émerger les vrais besoins dévolution, les vrais axes de transformation.
Car si la gouvernance, cest améliorer ce qui est, toujours apprendre à faire mieux, savoir piloter les efforts dans la bonne direction, cest aussi savoir changer. Sans une approche douverture au changement, la gouvernance crée des sociétés figées et, en matière de Système dinformation, des applications « mammouths » définitivement non agiles, donc inadaptée à un environnement mouvant.
Pour faire un parallèle avec lévolution des civilisations, légyptologue Jan Hassman a développé un essai où il fait le distinguo entre les « sociétés froides », dont la préoccupation permanente est dannuler tout changement que pourraient introduire les aléas de lhistoire et les « sociétés chaudes » qui manifestent un besoin irrépressible de changement.
Essai Jean Hasman
La mémoire culturelle. Ecriture, souvenir et imaginaire politique dans les civilisations antiques
La civilisation Egyptienne a cessé dirriguer la culture et la pensée quand, par exemple, la culture grecque inspire toujours. La différence est dans le commentaire du corpus des textes fondateurs, le besoin de chercher ce qui fait sens dans le mouvement, et par là, daccepter la critique constructive, ou celui de répéter un mouvement sans sadapter.
Citons encore Christophe Faurie qui propose une définition du « changement »
« Le « changement » c'est faire ce que l'on ne sait pas faire. C'est une évolution que lentreprise ne sait pas mener à bien sans un travail dadaptation préliminaire, qu'elle ne sait pas a priori par quel bout prendre. »
Où chercher justement ? Par quel bout prendre ce travail dadaptation ? Avant même de chercher à faire ce quon ne sait pas faire, il sagit de percevoir lutilité de faire autrement. Cette perception passe par le regard et lécoute. Il sagit, non de changer de point de vue pour adopter celui dun autre, mais découter les points de vue des autres, partager ce quon entend et avancer dans une construction commune. Cest laffaire dune construction humaine, dune intelligence collective et dune vision partagée. Il faut écouter pour remettre en cause « les textes fondateurs », au moment que lon sent opportun. Or les « sens » dune entreprise sont aiguisés quant ils ne ressortent pas de visions ou de décisions exclusivement individuelles.
La gouvernance nest pas dasséner des réponses a priori, mais de savoir se poser les bonnes questions. Ou plus élégamment, pour reprendre une citation attribuée à Einstein « il ne faut pas chercher à tout savoir mais savoir où tout chercher ».
Linformatique en entreprise nest pas une science de lautomatisme uniquement traductible par des algorithmes. Les systèmes dinformation comprennent des processus où il y a effectivement automatisation de la collecte, du traitement et du partage de linformation mais aussi beaucoup dinteractions humaines entre différents acteurs et des prises de décisions qui ne peuvent être automatisées.
Sinspirer de la théorie de la simplexité
La formulation uniquement logico-mathématique des problématiques des Systèmes dinformation serait dès lors vouée à léchec car elle ne prendrait pas en compte la dimension humaine. La loi de Murphy le rappelle à sa manière, énoncée de la façon suivante « S'il y a plus d'une façon de faire quelque chose, et que l'une d'elles conduit à un désastre, alors il y aura quelqu'un pour le faire de cette façon. ». Le facteur humain est la prise en compte dune diversité de comportement.
Lhumain nest pas un paramètre dune équation car son comportement nest ni tout à fait aléatoire, ni tout à fait prévisible. Il introduit lincertitude, même sil recherche la stabilité. En outre, il a besoin de fonder ses décisions sur un nombre limité dinformations et les systèmes dinformation lui opposent un vaste espace multidimensionnel dinformations à prendre en compte.
Dès lors, observer et sinspirer empiriquement des mécanismes qui permettent aux organismes vivants de trouver des solutions à la complexité qui les entoure pour se diriger malgré tout efficacement sur la base de principes simplificateurs, a un sens pour mieux modéliser et comprendre les besoins de représentation ou de simplification des informations (et des Systèmes) sous-jacents aux processus de décision. Comme lécrit Alain Berthoz « Il s'agit là d'une capacité de simplification dont l'efficacité réside dans une réelle prise en compte de la complexité. Les méthodes ainsi sélectionnées par l'évolution ouvrent des pistes d'investigation passionnantes pour découvrir de nouveaux modes de résolution des problèmes posés par la complexité. [] » . Il sagit, entre autres pistes, de comprendre « comment s'inspirer du vivant pour résoudre des problèmes de prise de décision».
La théorie de la simplexite Alain Berthoz
Membre de lAcadémie des sciences, lauteur de la « théorie de la simplexité » parue aux éditions Odile Jacob, Alain Berthoz, est professeur au Collège de France, où il est directeur adjoint du Laboratoire de physiologie de la perception et de laction (LPPA, CNRS / Collège de France).
Lauteur retient ici deux principes issus de cette théorie à appliquer à la gouvernance :
1. Les décisions importantes se font sur un petit nombre de paramètres ;
2. Il faut pouvoir regarder le local et le global et avoir la capacité de passer dun point de vue à lautre pour pouvoir se diriger efficacement et éviter les impasses ou points de blocage.
Comment ça marche ?
Le chiffre 7, un chiffre magique ou une limité humaine ?
Pourquoi ne pouvons-nous décider que sur un nombre restreint de paramètres ?
On connait limportance du chiffre sept dans lhistoire humaine, quil sagisse de détailler les vertus, les péchés, les arts, les merveilles, les catastrophes et plaies diverses
Ce chiffre semble marquer les esprits.
Pourquoi ? La raison quen donne les psychologues semble fort simple. Ils affirment que lhomme ne peut avoir une perception globale dun ensemble dès quil comporte plus de sept éléments. Nos capacités détablir des bijections spontanées auraient trouvé là leur limite. Dès lors, nous avons besoins de mécanismes, de règles ou dinstruments pour passer de linfini au fini et réciproquement, pour voir, analyser, agir dans, le monde qui nous entoure et prendre des décisions.
Pour exemple, en mathématiques, la récurrence est un de ces mécanismes qui permettent de passer de linfini au fini.
Henri Poincaré, dans « La science et lhypothèse » pour en justifier le raisonnement, écrivit « un joueur déchecs peut combiner quatre coups, cinq coup davance, mais si extraordinaire quon le suppose, il nen préparera jamais quun nombre fini ; sil applique ses facultés à larithmétique, il ne pourra en apercevoir les vérités générales dune seule intuition directe ; pour parvenir au plus petit théorème, il ne pourra saffranchir de laide du raisonnement par récurrence parce que cest un instrument qui permet de passer du fini à linfini. Cet instrument est toujours utile, puisque, nous faisant franchir dun bond autant détapes que nous le voulons, il nous dispense de vérifications longues, fastidieuses et monotones qui deviendraient rapidement impraticables. ».
En réalité, les décisions stratégiques se font sur la base de très peu dinformations, dautant plus quand elles doivent être rapides. Pour citer encore Alain Berthoz : « En effet, alors que le cerveau peut traiter un très grand nombre dinformations en parallèle cest une des propriétés de la vision les parties frontale et préfrontale du cerveau impliquées dans les mécanismes de décision, darbitrage, ne peuvent traiter que très peu dinformations simultanément, en fait souvent une seule ». Doù lobjectif dun bon processus de décision darriver à la simplification nécessaire à la prise de décision.
Changer de point de vue : le passage de linfini au fini
Compte tenu de nos capacités, dès que nous voulons extrapoler, ou prendre des décisions sur un périmètre complexe au-delà de nos sens, nous devons trouver des règles de passage de ce périmètre au fini et réciproquement, c'est-à-dire nous affranchir de nos propres limites. Il sagit de passer dun point de vue local (autrement dit «egocentré ») à un autre plus global (qui implique un point de vue subjectif de survol, «allocentré») que nous ne pouvons directement appréhender avec nos sens physiques.
Comme le souligne A.B., « décider implique de choisir les informations du monde pertinentes par rapport aux buts de laction». Cest ce qui est sous-jacent au deuxième principe de la simplexité, celui de la spécialisation et de la sélection. En retour, « le prix à payer est que nous nous privons dun grand nombre dinformation. La sélection réduit le nombre de solutions disponible. Dans un tel contexte avoir plusieurs évaluations dune même variable pour pallier le risque derreur est du plus grand intérêt ». Cest le principe de la coopération et de la redondance, quon peut traduire par la capacité à « changer de point de vue ».
Alain berthoz illustre cette capacité par lexemple dun trajet dans une ville du point de vue du marcheur ou du point de vue global cartographique : « Ces deux points de vue sont complémentaires et composent une forme de simplexité. Par le détour de deux perspectives et la capacité de travailler avec les deux en parallèle ou simultanément, nous pouvons simplifier notre déambulation. [] Disons ici que cest la capacité de changer de point de vue qui nous permet de prendre des décisions ».
Pour changer de point de vue et disposer de cette vision globale, nous avons besoin de règles, de référentiels et dinstruments « simplexes » pour projeter quelque chose dinfini en termes dinformation en un espace de représentation fini. Pour comprendre larchitecture de lexistant ou la globalité des Systèmes dinformation, cest là où se joue la valeur des référentiels et des cartographies.
Nous y reviendrons plus tard. En ce qui concerne laspect gouvernance, en croisant les vues, on obtient une « vision 3D »(ou 360°) au plus proche de notre façon de nous diriger au réel, pas une vision « plane ». Cette vision sétablit sur différents axes, en fait un nombre plus important que celui de lIT balanced scorecard, mais pour rester dans la limite humaine dune perception globale, nous nen proposerons que 6, décrit dans la figure ci-dessous.
Vue360SI.png
Figure 8-1.
La vue «360° » du SI
Chacun des axes se subdivise lui-même en « sous-axes », soit différents points de vue du sujet. Bien entendu, pour prendre des décisions, il ne sagit pas de détailler toutes les données de chaque axe et sous-axes. Il faut ramener lensemble au plus petit nombre dinformations pertinentes par rapport à lobjet de la décision, ou la question que lon se pose.
« La simplexité est ce qui donne du sens à la simplification » ; les solutions simplexes sont portées par une intention, un but, une fonction. Cest ce principe qui contient la direction à prendre.
Avant toute chose, il faut partager les points de vue entre acteurs (les parties prenantes de la gouvernance), pour en sortir les questions à se poser. Ce sont ces questions qui permettront de déterminer lintention et dorienter les types danalyse à lancer, les critères de recherche et de classement pour les diagnostics à établir.
On peut vouloir simplifier les décisions à prendre par toutes les consolidations dindicateurs possibles et imaginables, si la construction de ces indicateurs nest pas en lien avec lintention, le but recherché, ils nauront aucune utilité, parce quaucun sens au regard de la question initiale, qui ne peut être posée individuellement, sur un seul axe de regard.
Lapproche pour collecter les bonnes informations, choisir les bons indicateurs par rapport aux questions posées, peut sinspirer de différents moyens. On peut, par exemple, adapter une approche qui existe déjà dans la qualité logicielle. Il sagit de lapproche « Goal Question Metrics », où il faut poser dabord la question en fonction de lobjectif pour savoir les métriques que lon souhaite utiliser.
On peut létendre aux questions de la gouvernance, et avec lapproche par « axes », affiner la question selon les différents axes choisis. Ainsi à la question « mon système dinformation est-il agile, peut-il réagir rapidement aux besoins métiers » ? Il faudra étudier la question sous différents angles. Sous langle des compétences on sinterrogera sur le fait davoir ou non les bonnes compétences, sur la capacité à les attirer, etc. Sous langle marketing on sinterrogera sur le niveau découte de son marché, sur les opportunités technologiques éventuelles non utilisées qui pourraient simplifier lusage des solutions, autonomiser les métiers, etc. Langle architecture pourra réagir en sinterrogeant sur la possibilité dutiliser ces nouvelles solutions, sont-elles interopérables avec larchitecture existante, etc.
Sous langle architecture, lagilité peut recouvrir plusieurs axes dinterrogation. Notamment celui de savoir si les applications spécifiques, héritées du passé, ont, ou non, au niveau du code, une architecture qui permette relativement bien de faire évoluer le code, ou si ce dernier est contraint par une structure lourde, avec des programmes obèses ayant de nombreuses lignes de code, peu ou prou de modularisation, etc (exemple de la figure ci-dessous).
GQM.jpg
Légendes figurant dans limage
Figure 8-2.
Exemple dapproche « diagnostic et métriques » guidée par les enjeux et les questions
La remontée des métriques permettra de se concentrer sur les quelques axes « de problèmes/contraintes » que fera ressortir le diagnostic et entraînera sans doute dautres questions danalyse. Existe-t-il des solutions darchitecture pour modulariser le code, à quel coût, en avons-nous les compétences ?
Cest une approche par allers-retours successif entre choix des questions, choix des métriques, choix des axes de diagnostic. Il sagit de trier par sélection les problèmes et darriver par fusion/dichotomie à une proposition de décision simple. Comme il est plus rapide de trier un jeu de cartes non en considérant un paquet, mais en le divisant de façon récurrente pour ensuite fusionner à chaque fois les résultats intermédiaires de tri.
Cest la méthode connue sous le nom de « divide and conquer» (vision anglo-saxonne plus positive que la traduction« diviser pour régner » française). Nous sommes bien dans une logique de récurrence, pour passer du fini à linfini » en considérant la formulation suivante « si vous savez passer de létape n à létape n+1 et que vous savez démarrer, vous pouvez traiter toutes les étapes ».
Lapproche inspirée de la méthode « GQM » (Goal Question Metrics) est un des moyens de « simplification » du processus de décision, qui vise à garder une vue globale, « à 360° » du SI pour « avoir plusieurs évaluations dune même variable pour pallier le risque derreur. »
Il en existe dautres, notamment en suivant le « principe de Pareto » (détaillé plus loin) avec une logique danalyse par la valeur.
Lanalyse par la valeur
Lanalyse par la valeur est davantage une approche de pensée, quune méthode, car, en réalité, il existe plusieurs méthodes sous ce vocable et différents outils, comme nous allons lexpliquer ci-après.
Le champ de lanalyse de la valeur est vaste, même sil tire son origine dune recherche de meilleure définition des besoins, en se concentrant sur la « fonction » (le « à quoi ça sert ? ») dun produit, avec la logique dobtenir la meilleure couverture des besoins au meilleur coût.
Dès lors, il est assez naturel que lapproche « analyse de la valeur » ce soit dabord répandue dans le domaine de lanalyse fonctionnelle, pour faciliter lexpression de besoin et la réalisation de cahier des charges fonctionnel.
Toutefois, limportant dans « lanalyse de la valeur » est la remise en question initiale, le principe de ramener tout choix (décision, fonction, outils, méthodes, priorités, etc.) à lintention, le but, la fonction, afin de pouvoir trouver les réponses en solutions optimales. Ce ne sont pas les moyens utilisés qui doivent contraindre la réflexion sur la performance et la compétitivité dune entreprise, dun produit, dun processus.
Sinon, si ces derniers ne fonctionnent pas assez bien, ou se basent sur des ressources rares (exemple historique), on va chercher à régler le problème au niveau des moyens quon maîtrise habituellement, alors quil faut peut-être, tout simplement, « faire autrement », dans la même intention. Il sagit alors non daméliorer un moyen, mais de « changer », et pourquoi pas, faire ce quon ne sait pas forcément faire sil le faut. Doù limportance de structurer méthodiquement lapproche, de « conduire » le changement.
Un peu dhistoire
Une naissance valeureuse
L'analyse de la valeur (AV) est une méthode née aux États-Unis juste à la fin de la Seconde Guerre mondiale grâce aux efforts de M. Lawrence Delos Miles, ingénieur à la General Electric qui devait résoudre un problème de pénurie de matériaux nobles. Miles découvre alors que dans un produit ce qui compte c'est la fonction qu'il exerce quelle que soit la solution utilisée pour satisfaire cette fonction.
À partir de ce constat il cherche des solutions créatives permettant de réaliser des économies et pour ce faire il cherche des solutions de produit qui répondent uniquement au besoin pour lequel le produit existe.
Définition de lAFNOR : l'Analyse de la Valeur est une méthode de compétitivité, organisée et créative, visant à la satisfaction de l'utilisateur, par une démarche spécifique de conception, à la fois fonctionnelle, économique et pluridisciplinaire. La valeur d'un produit est une grandeur qui croit lorsque la satisfaction du besoin augmente et/ou que le coût du produit diminue. La valeur peut donc être considérée comme le rapport entre l'aptitude aux fonctions divisée par le coût des solutions.
En France, plusieurs normes sont en vigueur concernant l'analyse de la valeur, on peut citer :
NF X 50-153 : Analyse de la Valeur - Recommandations pour sa mise en uvre - mai 1985.
NF X 50-151 : Analyse de la Valeur, Analyse Fonctionnelle - Expression fonctionnelle du besoin et cahier des charges fonctionnel (1991 dernière mise à jour septembre 2007
NF EN 1325-1 : Vocabulaire du Management par la Valeur, de lAnalyse de la Valeur et de lAnalyse Fonctionnelle - 1 : analyse de la valeur et Analyse Fonctionnelle - 1996 .
NF X 50-100 : Analyse Fonctionnelle - Caractéristiques fondamentales - 1996.
NF X 50-152 : Management de la Valeur - Caractéristiques fondamentales de l'Analyse de la Valeur - septembre 2007.
Le principe de lanalyse par la valeur étant posé en ces termes, son champ dapplication est assez vaste, non réduit à un produit ou un projet et couvre, sans être exhaustif :
La gouvernance de lentreprise
En facilitant la prise de décisions en se posant toujours la question du bénéfice en termes de valeur (et non uniquement en termes financiers) ramenés à loptimisation des coûts. En particulier pour les décisions financières (budgets de fonctionnement, investissements, économies). Ainsi on évite les approches de réduction de coûts qui conduisent à la destruction de valeur. Le « budget à Base zéro » ou le « cost killing » sont deux outils pour sinterroger sur « comment réduire efficacement les coûts ?
Lanalyse fonctionnelle
Champ historique de lanalyse de la valeur, lanalyse fonctionnelle décline le concept dans les méthodes dexpression des besoins. Elle permet dexpliciter les besoins tout en cadrant les objectifs et les contraintes Cest un outil méthodologique qui permet didentifier puis exprimer sous forme dexigences lensemble des besoins, attentes et contraintes relatifs à un projet.
La conception dun produit
Le Design To Cost (ou CCO en français, Conception à Coût Objectif) consiste à concevoir un produit en remettant en cause dès sa conception les matériaux éventuellement utilisés traditionnellement, pour satisfaire la fonction le plus économiquement possible.
La conduite du changement
On ne change pas pour changer, mais parce que cela devient nécessaire pour préserver la valeur, ou en créer. Il est important avant de lancer toute transformation den déterminer lintérêt, de revenir à lobjectif de création de valeur pour lentreprise, en ne se trompant pas sur ce que « proposition de valeur » veut dire (cf. « la valeur passe avant le R.O.I)
Comment ça marche ?
« Tueurs » de coûts
Réduire, « chasser » ou « tuer » les coûts, cest bien, mais encore faudrait-il maîtriser tout le reste. Il serait dommage quune « balle perdue » ségare ou que de fausses économies soient « in fine » destructrices de valeur.
On peut en citer quelques unes :
Bloquer ou reporter les investissements de fond matériel ou logiciels => les systèmes atteindront tôt ou tard un niveau dobsolescence tel quil faudra effectuer les investissements dans lurgence, avec des coûts très probablement supérieurs à ce quils auraient coûté en préventif
Choisir au « moins disant » financier un prestataire ou dimensionner au plus juste les plannings de projets => détérioration de la qualité, surcoûts et dérives des projets
Se défausser de son informatique et/ou des ressources rares => plus de proposition de valeur du Système dinformation
Externaliser pour réduire les coûts sans aucune étude préalable de létat des systèmes (voire remise à niveau) ou des niveaux de services internes => augmentation des coûts, réduction de la qualité
Bloquer les budgets dinvestissements/dinnovation => plus de proposition de valeur du Système dinformation
Il faut donc être méthodique quand on « chasse » les coûts, sauf à vouloir scier la branche sur laquelle on est assis. Lanalyse de la valeur est une approche qui prend tout son sens en ce domaine, notamment avec le « Budget Base Zéro ». Ce dernier nhésite pas à remettre en cause la légitimité des dépenses en remontant aux racines. Le budget de chaque activité est remis à zéro chaque année et lintérêt (création de valeur) de toute dépense doit être démontré
On ne change pas pour changer, mais bien pour obtenir un gain, quantitatif en termes financiers, ou qualitatif (avec probablement des retombées financières indirectes) ou parce que cela est indispensable pour préserver les ressources et les compétences maîtrisées par lentreprise qui sont les éléments fondateurs de la valeur créée. On peut également changer en raison de facteurs exogènes liés à lenvironnement social et économique et des contraintes de législation.
Mais quand il sagit de la décision propre de lentreprise, du groupe humain qui porte le projet de changement, cest toujours une question de valeur, à préserver, à étendre, à créer, un gain étant attendu en ce sens. Une création de valeurs où nous pouvons retrouver notre « vue à 360° du SI » sur les six axes définis précédemment :
Axe financier
Optimiser les ressources de fonctionnement (rationaliser les serveurs, par exemple) pour diminuer des coûts non justifié, augmenter le chiffre daffaires en distribuant grâce à un SI « ouvert », des offres « multi-canal » (mobile, PC, ..)
Axe marketing (DSI)
Améliorer limage de marque de la DSI et diminuer les « temps derrance » des utilisateurs, améliorer loffre de services,
Axe architecture
Améliorer lagilité de larchitecture pour améliorer la réactivité aux demandes dévolution,
Axe ressources humaines
Améliorer la gestion des « connaissances » clés en les formalisant pour les partager/transmettre, attirer les nouveaux talents
Axe métiers/affaires
Améliorer limage de lentreprise par des offres nouvelles obtenues grâce au SI (ebusiness par ex) .
Axe sécurité
Améliorer laccès au SI pour les utilisateurs nomades, tout en préservant la sécurité
.
Si lanalyse de la valeur se prête bien à « analyser » justement, et étayer les raisons de choix de solutions optimales, il faut également « choisir » au départ les sujets dattention de cette analyse (quels axes ? Quels sous-axes privilégier ?). Cest là quun instrument comme le principe de Pareto (selon la définition de Juran, voir description page suivante) est intéressant à plus dun titre. Nous le retrouvons également comme moyen darriver par fusion/dichotomie à une proposition de décision simple, qui peut être combiné à lapproche « GQM » telle que décrite précédemment.
Comment ça marche ?
La loi des 80/20
La « loi de Pareto » connue sous le nom de loi des 80/20 est une proportion remarquable mise en évidence de façon empirique par Vilfredo Pareto (1848-1923). Elle sénonce de la manière suivante : « 80% des effets sont générés par seulement 20% des causes » ou inversement (loi des 20/80), « 20% des causes génèrent 80% des effets ».
Le principe de Pareto est attribué à Joseph Juran, qualiticien, qui en a donné la définition suivante« le principe de Pareto est la méthode générale permettant de trier un quelconque agrégat en deux parties : les problèmes vitaux et les problèmes plus secondaires - dans tous les cas, lapplication du principe de Pareto permet didentifier les propriétés des problèmes stratégiques et de les séparer des autres ». La méthode ABC, quon doit au même personnage est une variante précisée ainsi « Jai un peu exagéré en avançant que le principe de Pareto permet seulement de séparer les choses en deux parts. En réalité, il existe 3 parties. La troisième est un "résidu" qui prend place entre les composantes prioritaires et les composantes secondaires. Ce "résidu" peut être dénommé "zone à risques" (awkward-zone). Chaque élément de cette zone à risques nest pas assez important pour justifier un lourd investissement dans lanalyse, mais leur regroupement dépasse les capacités danalyse » (Juran, 1964).
Le « diagramme de Pareto » est une sorte de « preuve par limage » pour voir plus facilement où concentrer les efforts (exemple ci-dessous tiré de wikipedia, avec des données hypothétiques sur les causes de retard au travail la ligne rouge est le cumul des valeurs en pourcentage. Ici les trois premières causes génèrent 80% des effets)
SHAPE \* MERGEFORMAT
Quelques exemples de la « loi »:
Management : 80% des problèmes peuvent se résoudre avec lanalyse stratégique de 20% des causes
Gestion de projet : 80 % d'accomplissement d'une mise au point nécessite 20 % de l'effort
Conception : Les fonctionnalistes les plus utilisées (80% du temps) méritent le plus d'attention, même si elles sont les plus banales, alors que celles qui sont peu utilisées (20% du temps) devraient se satisfaire d'un effort moindre.
Ergonomie : 20% des possibilités offertes à l'utilisateur sont utilisées 80% du temps.
Analyse des coûts : 80% des coûts sont l'affaire de 20% des postes.
La gestion du portefeuille applicatif
Contrôler ses biens logiciels
Nous avons vu précédemment combien les applications patrimoniales pesaient lourds dans la gestion dune DSI, et combien au final il y avait peu doutils pour aider à piloter les applications développées en spécifique en maintenance/production. En fait le champ des outils et méthodes est relativement insatisfaisant sur deux aspects primordiaux, la gestion du portefeuille applicatifs et la gestion du cycle de vie de lévolution des applications patrimoniales.
La « gestion du portefeuille dapplication » nécessite a minima une visibilité sur létat des lieux du parc applicatif, et une réelle stratégie de maintenance, incluant la maintenance préventive et la partie de maintenance perfective visant à lamélioration de larchitecture du système (exigences non fonctionnelles), souvent simplement oubliées ou délaissées faute de temps et de budget.
Définition
Les cinq types de maintenances
Maintenance Corrective
Identifier et retirer les défauts
Corriger les anomalies réelles
Maintenance Préventive
Identifier et corriger les fautes latentes
Systèmes avec des préoccupations de sécurité
Maintenance Perfective
Améliorer la performance, la maintenabilité, la portabilité
Ajouter de nouvelles fonctionnalités
Maintenance Adaptative
Adaptation à un nouveau (ou une montée de version) environnement (e.g., hardware, operating system, middleware)
Maintenance dUrgence
Maintenance corrective non programmée
(risques augmentés par un test imparfait)
Les applications logicielles vieillissent et se complexifient au fil du temps, cest un fait. Comment définir leffort préventif et le bon ratio dinvestissement pour garder le contrôle de ses actifs logiciels ? Car sans effort, la complexité du logiciel va augmenter, les coûts pour le maintenir en proportion, et la qualité perçue par les utilisateurs va chuter rapidement. Si par contre un effort préventif est réalisé pour « maîtriser la complexité », il est possible de contenir lentropie, et de limiter la dégradation de la qualité perçue au cours du temps, comme indiqué dans la figure ci-dessous.
Maîtrisecomplexite.jpg
Figure 8-3.
Maîtrise de la complexité et conséquences sur la qualité et les coûts
Il faut une maintenance préventive pour garder le contrôle et éviter non seulement laugmentation des coûts mais aussi les risques de dégradation de la qualité perçue, et les risques de mises en production (financier, juridique, image) qui sont liées à une dégradation réelle de la qualité du code. Mais il faut également que cette maintenance préventive soit économiquement viable.
Car à coûts et délais plafonnés, dune part, on ne peut pas avoir une qualification à couverture exhaustive du code pour y rechercher toutes les « fautes latentes » (qui produiront tôt ou tard des anomalies et des demandes de correction en production), dautre part, on ne peut pas réaliser toutes les opérations doptimisation de performance, de portabilité ou de maintenabilité quon pourrait souhaiter. Il y a, comme le montre la figure suivante, un « point déquilibre » à trouver pour que la maintenance préventive soit économiquement viable au regard de lobjectif poursuivi.
Budgetpreventif.png
Figure 8-4.
Léquilibre du budget préventif : ne pas dépenser trop, ni pas assez au regard du risque
Il faut donc établir le bon budget de maintenance préventive généralement acceptable, et aussi axer les efforts sur les vérifications indispensables à conduire pour limiter les risques selon une approche non seulement des risques, mais aussi de la valeur des applications.
Cest bien là où réside dailleurs une grande part de lutilité du portefeuille applicatif. Il sert à garder le contrôle de ses actifs logiciels, mais aussi à en surveiller la valeur, et à faire croître la valeur globale.
Il sagit encore une fois de se poser les bonnes questions et daborder les réponses, à la fois par des angles de vues complémentaires dans une approche multidimensionnelle (vue à 360° du SI) et par lanalyse de la valeur pour toute solutions proposées.
Evaluer la valeur des applications
Ainsi doit-on sinterroger pour une application qui ne donne plus satisfaction en termes de fonctionnalités et dont le coût en maintenance croît : Quelle valeur a-t-elle pour lentreprise ? Est-ce une valeur purement utilitaire, a-t-elle de limportance pour les métiers tout en restant relativement standard, est-ce que cette application est directement liée à notre chiffre daffaires, nos performances, notre productivité, notre capacité dinnovation? Si elle est utilitaire, peut-on lobtenir autrement en consommant moins de ressources, de temps et deffort ? On peut envisager dans certains cas de remplacer cette application par un service en mode « Saas » (Software As A service) si léquation valeur est respectée, le tout est de pouvoir le déterminer en positionnant lapplication sur les axes danalyse, comme dans lexemple de la figure ci-dessous.
PositionnementAppli.jpg
Légendes figurant dans limage
Figure 8-5.
Positionnement de la « valeur » des applications sur les axes danalyse
Dans lillustration ci-dessus, on peut sinterroger sur la nécessité de maintenir lapplication B en interne. Apparemment, il sagit dune application de back office/support, dont larchitecture est insuffisamment robuste et/ou ouverte et évolutive, la sécurité nest pas satisfaisante et elle consomme trop de ressources humaines pour un service somme toute moyen à un coût excessif. Doit-on lexternaliser en « tierce maintenance applicative », c'est-à-dire confier la maintenance à un tiers professionnel ? Cela coûtera sans doute plus cher que lapport, puisquil faudra de toute façon une remise à niveau avant lexternalisation. Peut-on la remplacer en mode « Saas » ? Si loffre existe pour une couverture de fonctions optimum, cest sans doute une des meilleures solutions.
Lapplication A et lapplication C présentent dautres cas de figure. Lapplication C est une application dans la droite ligne de la stratégie marketing de la DSI, elle est développée et maintenue par les bonnes ressources, sans doute dispose-t-elle des niveaux de services optimum pour les attentes des utilisateurs. Linvestissement est clairement nécessaire mais les coûts semblent un peu trop élevés, quen est-il réellement ?
Lapplication A est sans doute critique pour le métier, voire stratégique, et les coûts sont optimisés pour la satisfaction dun ensemble optimum de besoins. Cependant le ratio sur laxe ressources humaines est insatisfaisant. Y-a-t-il un bon dimensionnement des ressources ? Lapplication requiert-elle trop de ressources rares, ou y-a-t-il un risque de perte de connaissances et dexpertises (départ de sachants pour retraite ou démotivation) ?
Le cycle de vie des évolutions
Lanalyse du portefeuille applicatif effectuée et les décisions prises (investissement pour un effort de maintenance préventive plus ou moins grand, réarchitecture, remplacement par des services en mode abonnement, redimensionnement des ressources ou redocumentation, etc), encore faut-il gérer le cycle de vie des évolutions.
Il sagit ici de mettre en place lensemble des processus, outils et méthodes qui permettent de gérer de manière efficace (en termes de « valeur », au sens qualité du résultat produit en réponse à la demande versus coût de lévolution), lévolution des applications patrimoniales. Cest un besoin qui va bien au-delà de la gestion des exigences et des demandes de changements et qui doit progressivement conduire à la mise en place des meilleures pratiques, ou à lévolution des pratiques, dans toutes les étapes du cycle de vie telles que décrites dans la figure ci-dessous, avec des points clés de décision qui sont à gérer au niveau du portefeuille applicatif, par un comité stratégique.
LLM.png
Légendes figurant dans limage
Figure 8-6.
Cycle de vie de lévolution des applications patrimoniales
Pour autant, la gestion du changement est une composante clé dans ce cycle dévolution. Car, nous lavons vu, des demandes de changements non gérées dans le cycle de vie dun projet déstabilisent toute la construction et mettent en danger latteinte des résultats. Dans le cycle de la maintenance, si elles sont faites à la va vite ou sans tenir compte des impacts sur lexistant, elles conduisent à des défauts de qualité, des risques derreur en production et des incohérences globales.
Il faut donc, pour toute demande de changement, avoir un dispositif qui évalue la nature de modification demandée, la complexité de la modification, la criticité fonctionnelle et les risques dimpact (sur les composants du système existants). Ce sont des paramètres indispensables à la décision de réalisation et le cas échéant la planification de la réalisation, afin de dimensionner en conséquence les ressources et les tests nécessaires.
Trois aspects majeurs liés à la gestion des changements sont problématiques aujourdhui, et nature à évolution. Il sagit de lanalyse dimpact, loptimisation des tests et le calcul des unités duvres pour estimer le temps de réalisation et dintégration dune modification.
Par manque de documentation, de connaissance des applications et de dispositif daide à lanalyse, le temps danalyse dimpact pour les applications existantes est long et le résultat souvent incomplet. En réaction, particulièrement quand la demande dévolution est faite sous pression, les tests sont faits « à la va vite » et ne couvrent pas tous les cas quils devraient. Ce qui est également le cas dans un projet, ou plus une modification demandée sera proche de la fin du parcours, plus son impact pourra être signifiant, et plus il pèsera sur les délais, coûts et qualité du projet.
A un certain stade, les projets doivent faire passer les demandes de changement vers une version suivante. Si une certaine flexibilité est possible jusquau stade des spécifications détaillée, une fois les développements lancés, seules les modifications critiques doivent être prises en compte, et une fois lapplication stabilisée, les demandes doivent rentrer dans un cycle dévolution des versions de lapplication.
En maintenance, toute solution qui permet de fournir une aide automatisée à lanalyse des dépendances entre objets et composants de milliers de lignes de code est bien sûr à considérer de près.
Quant aux tests, comme il sagit en grande partie de tests de non régression, la mise en place dun référentiel de cas de tests sur la durée de vie dune application est une bonne pratique à ne pas négliger.
La problématique des unités duvre est autre, nous y reviendrons plus tard.
Partie 4-Les approches de modernisation
La partie 1 sest attachée à montrer le défi que constituait lhétérogénéité des applications dentreprise, construites au cours de cinquante ans dinformatique et de nombreux changements de paradigme. Les parties 2 et 3 se sont attachées à évoquer les enjeux, risques, défis et contraintes dévolution du SI, aussi bien à un niveau exogène, c'est-à-dire au niveau de lentreprise du fait de lévolution de lenvironnement économique et social, quau niveau endogène, c'est-à-dire au sein des DSI, dans lévolution nécessaire des organisations et des pratiques de pilotage. Dans cette partie nous allons aborder les différentes solutions tactiques de modernisation qui permettent de rénover un patrimoine et de le faire évoluer pour une meilleure proposition de valeur.
Le chapitre 9 remet toutefois en perspective ses solutions, pour rappeler quaucune na de sens sans une vision globale des objectifs dévolution.
Chapitre 9
Mise en perspective
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
"L'évolution ne tire pas ses nouveautés du néant. Elle travaille sur ce qui existe déjà, soit qu'elle transforme un système ancien pour lui donner une fonction nouvelle, soit qu'elle combine plusieurs systèmes pour en échafauder un autre plus complexe »
François Jacob, le jeu des possibles
La gouvernance de lhéritage
Toute tentative de modernisation de SI est inefficace dans la durée sans la mise en place effective dun modèle de gouvernance de linformatique.
Il ne faut pas oublier que le système dinformation doit permettre à lorganisation datteindre ses objectifs. Dès lors toute démarche qui se fonde sur la réutilisation et lamélioration des actifs logiciels existants doit être faite dans le but datteindre les objectifs corporatifs.
Quelles que soient les solutions de modernisation envisageables, un premier acte est détablir un diagnostic du patrimoine applicatif approprié aux enjeux, car toute demande dévolution doit être sous-tendue par un alignement avec la stratégie de lentreprise. La démarche doit être supportée dans la durée par la mise en uvre effective dune gouvernance de linformatique. Afin de :
Valoriser le patrimoine applicatif existant & le rendre plus cohérent, plus performant et plus agile.
Définir les schémas dévolution du SI et le rendre durablement plus souple
Faciliter une rénovation progressive, tout en inscrivant les nouveaux développements dans un ensemble cohérent
Cette inscription dune démarche dans la durée se justifie dautant plus que
La stratégie pourrait consister dabord à apporter une réponse tactique à un besoin court terme, avant de mettre en uvre en parallèle une vision plus long terme, éventuellement rendue possible grâce aux retours sur investissement de la première étape (exemple du service à la clientèle : doit-on soutenir le service à la clientèle dans une vision long terme ou répliquer rapidement à une attaque de la compétition?),
Les systèmes développés aujourdhui seront lhéritage, les « legacies », de demain. La modernisation va de pair avec une démarche durbanisation,
Le changement est inévitable. Les systèmes dinformation doivent le supporter, voire le précéder, et non pas devenir un frein.
Une stratégie de modernisation doit dès lors pouvoir sappuyer sur une démarche durbanisation et utiliser des modèles de « cas dusage métiers » par type de solutions de modernisation, comme outils de décision et de pilotage, afin de pouvoir les décliner , dune part, aux regards des enjeux de lentreprise, dautre part dun diagnostic de létat des systèmes, sur la base de remontées de métriques et de critères de décision factuels.
Cest pourquoi les approches que nous développons, même si elles illustrent des orientations différentes, ne sont pas exclusives : au contraire, les considérer séparément conduirait à en limiter voire annuler les effets. Il faut quelles sinscrivent dans cette gouvernance de lhéritage, sans laquelle la gouvernance informatique se retrouve déséquilibrée.
Lévolution préventive
La modernisation est un facteur dinfluence sur le succès des stratégies dentreprise
Bon nombre de directions générales ont pris conscience que linformatique intervenait de manière importante dans le succès de la stratégie de leur entreprise. Mais pour que cette dernière soit créatrice de valeur, il est indispensable de passer outre les coûts négatifs que les applications existantes génèrent.
Coûts induits en matière dopportunités perdues dinnovation, du fait du budget trop élevé sur la maintenance, coûts induits en matière defficacité, les systèmes existants devenus trop complexes nétant plus capables dévoluer pro-activement ce qui fait que toute modification dimportance, métier ou technique, est traitée en mode de crise. Les maux sont partagés par les entreprises et la longue liste devient une litanie : manque de documentation, difficultés dévolutions, difficulté dintégration, manque dinteropérabilité, coût total de possession, risques dinterruption de services induits par lobsolescence des plate-formes, etc.
Le schéma directeur du plan de modernisation sinscrit dans la gouvernance informatique
Si les maux sont connus, les remèdes ne sont appliqués le plus souvent que lorsque le malade ne peut plus bouger, sans stratégie densemble au-delà de contourner la crise. Or pour avancer plus loin, il faut savoir où on veut mener les systèmes existants, et pour cela, il faut un plan et des engagements stratégiques partagés qui alignent le métier et le système dinformation. Une lapalissade ?
Certes, cette logique de bon sens relève dune approche gouvernance mais selon une étude dITGI « le thème de la « gouvernance informatique » n'est pas encore rentré totalement dans les murs des dirigeants. Seuls 24 % des entreprises interrogées déclarent que c'est à leur plus haut niveau, que le PDG de l'entreprise a en charge cette gouvernance informatique ». Or sans implication de la direction, il est peu probable de réussir à développer cette nécessaire vision partagée entre métier et technologie
Un défi complexe pour un avantage compétitif majeur
La modernisation peut avoir à adresser les dimensions complexes de réel défis architecturaux, elle doit mettre en place des processus nouveaux, ne serait-ce que pour évaluer les architectures existantes et capturer puis réutiliser et migrer les artefacts logiciels existants, ou pour identifier et évaluer les services Web qui peuvent venir en remplacement danciennes applications. A ces processus peuvent correspondre des rôles et des responsabilités nouvelles, tels ceux du marketing des services S.I., qui va identifier les ressources disponibles et les développements doffres envisageables pour répondre au mieux aux attentes et besoins des clients de la DSI.
Il sagit didentifier la meilleure stratégie pour couvrir à la fois des besoins court terme et des besoins métiers long terme, et danticiper les actions pour maintenir a minima, voire augmenter la valeur des biens logiciels de lentreprise.
Avec une logique danalyse de la valeur du portefeuille dapplications, la modernisation peut remettre radicalement en cause lexistant. Toutes choses relativement nouvelles pour des systèmes anciens. Cest la condition pour obtenir les objectifs de valeur dune telle entreprise : diminution des coûts dexploitation et de maintenance, meilleure flexibilité et agilité, réduction du temps de mise sur le marché des nouvelles offres, et enfin possibilité de faire de linformatique une valeur différenciatrice capable de créer un avantage compétitif.
Sans cette gouvernance appliquée à la modernisation, elle ne restera que le mouton a cinq pattes de lévolution, développé dans le chapitre suivant : remplacement, ré-écriture, rearchitecture, rationalisation/industrialisation et
Réaction court terme !
Chapitre 10
Les approches tactiques orientées solutions
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
« Dans la vie, il ny a pas de solutions. Il y a des forces en marche, les solutions suivent. »
Antoine de Saint-Exupery
Sil ya beaucoup de choix possibles en matière de rénovation de patrimoines, en réalité, avant le choix tactique, il ny a quune alternative stratégique, faire une croix sur lexistant (il ne correspond vraiment plus aux besoins ou il est beaucoup trop coûteux pour des fonctions standard), ou pas. Cette alternative nécessite en préalable davoir connaissance de la valeur de ses applications, ou de sêtre mis en mesure de lanalyser correctement.
Ensuite, dans le premier cas (une croix sur lexistant), il existe plusieurs moyens de procéder, selon ladhérence au métier de lentreprise ou non.
Si les fonctions recherchées sont relativement standard et le coût des ressources pour les maintenir/développer trop lourd en interne, il faudra chercher un service équivalent, progiciel à installer ou abonnement à une plate-forme applicative.
Si lapplication peut réellement être un facteur de distinction pour lentreprise, mais quil faut radicalement en changer la conception et larchitecture, on peut songer à ré-écrire. Cette réécriture équivaut à un remplacement
Dans le second cas, la rénovation progressive dune application ayant de la valeur aux yeux de lentreprise, il existe plusieurs façons de procéder. Nous traiterons ici des techniques de réingénierie logicielle, pour remettre en état un existant spécifique ayant plusieurs défauts de « vieillesse ».
Abandonner, réutiliser, rénover lexistant
De nombreuses sociétés de services proposent des « solutions » de modernisation. Pour la plupart, ces solutions sont des approches projets pour des besoins ponctuels très spécifiques, dentreprises en difficulté avec une application trop coûteuse en maintenance, difficile à faire évoluer, ou qui font face à un problème dobsolescence avéré dun de leurs composants matériel ou logiciel. Cest souvent dans lurgence que la recherche de solutions seffectue dans le second cas et dans le premier, lapproche est essentiellement orientée coûts. Dans les deux cas, il sagit dapproches tactiques.
Quand on évoque les « stratégies » de modernisation possibles, les acteurs dans le domaine citent en général « les quatre R », ou les « quatre jambes » (expression de Michael Dee Hesler Microsoft Modernization program manager). Selon le cas : remplacement, ré-écriture, ré-architecture, replatforming ou : Application extension, application replacement, application and platform migration, application re-development.
Il est plus simple de résumer ces quatre R dans lalternative « faire une croix sur lexistant » ou utiliser la réingénierie logicielle, c'est-à-dire des techniques pour remettre en « meilleur » état un développement spécifique, c'est-à-dire en augmenter la qualité et lévolutivité.
Définition
Les quatre R de la modernisation
Remplacement : Il sagit décarter la voie du développement en spécifique pour prendre une solution standard.
Re-architecture : Il sagit de restructurer le code pour quil soit plus facile à maintenir, plus lisible, plus évolutif et réponde mieux au cadre architectural de lentreprise. Si cest une meilleure productivité en maintenance qui est attendue, elle se mesurera ou en diminution de charges, ou en meilleure réactivité aux demandes de changement.
Si cest une meilleure agilité du Système dinformation qui est attendue, on devra la mesurer par des indicateurs métiers (différence en rapidité de traitement de dossiers pour prendre en compte plus de demandes clients ou rapidité de mise en ligne de nouvelles offres, des prises de commandes plus rapides sur des cycles de ventes plus courts, etc.)
Replatforming : changement de plateformes ; Il sagit de migrer dune solution technique à une autre. En général il sagit de remplacer un serveur par un autre, ce qui saccompagne souvent dune conversion de base de données et éventuellement de langages. En migrant des Mainframes vers le client serveur, on jouera en priorité sur la réduction du TCO (Coût Total de possession). Elle se calculera sur léconomie réalisée sur le poste maintenance & exploitation, principalement au niveau du coût annuel des licences logicielles.
Ré-écriture : lapplication ne satisfaisant plus aux besoins qui restent très spécifiques à lentreprise, on décide de la réécrire dans un environnement de développements et des concepts architecturaux nouveaux, accordant plus de flexibilité et de pérennité. Il sagit souvent dun investissement qui prend le risque de linnovation.
Faire une croix sur lexistant
Remplacer ou réécrire reviennent au même constat, lapplication telle quelle nest pas la bonne réponse au besoin, elle ne vaut pas les ressources quelle consomme : il faut donc labandonner, au sens ou, tôt ou tard, elle coûtera bien plus que sa valeur.
Il se peut même quune troisième option requiert labandon dune application existante : la mise en uvre dune nouvelle application qui couvre le champ de lexistant.
Derrière ce constat, il est impératif de bien comprendre la couverture fonctionnelle de lapplication et davoir analysé les processus quelle supporte, les données quelle manipule.
Cette connaissance servira dune part à faire une «analyse des écarts » entre les besoins et lexistant, pour déterminer jusquà quel point ce dernier ne correspond plus.
En cas de satisfaction des besoins par lexistant, la redocumentation sera nécessaire pour décider dune rénovation ou dun remplacement par un service équivalent, facilement accessible et moins coûteux.
Sinon il faudra réécrire le cas échéant les besoins « modifiés ».
Dans tous les cas il faudra faire une seconde analyse des écarts, entre ces besoins réécrits et les progiciels du marché.
En général, on estime que si les progiciels ne couvrent pas 80% des besoins principaux, ils vont entraîner trop de développements spécifiques additionnels pour justifier du bénéfice de la standardisation ; Encore faut-il bien analyser cette règle des 80-20, comme nous lindiquions en évoquant la loi de Pareto. Cest une analyse de la valeur qui sous-tend lapproche.
Il ne faut envisager la ré-écriture que dans le cas de besoins radicalement modifiés et dune inadéquation très importante entre les nouveaux besoins et le niveau de satisfaction en réponse apporté par la solution spécifique actuelle ou les progiciels du marché.
Car outre le fait dignorer la capitalisation et la valorisation du patrimoine applicatif existant, les risques de ré-écriture from scratch, où rien nest ré-utilisé de lexistant, sont importants. En effet, ces derniers sont de facto comparables à des projets de développement classiques, avec les risques de dépassement souvent cités dans des études. Mais il y a plus. Une réécriture complète seffectue sur une échelle de temps « de facto » importante car on ne ré-écrit pas des applications complexes et volumineuses rapidement, ce sont souvent des projets pharaoniques avec un délai supérieur à trois ans. A cela il faut ajouter la gestion de nouvelles compétences, car dans une ré-écriture complète, larchitecture, les langages, les outils logiciels utilisés ne sont plus les mêmes.
Les exemples ne manquent pas, avec souvent des abandons devant la complexité de la ré-écriture. On citera une banque qui a abandonné son projet de réécriture au bout de 5 ans et 150ME investis. Une société dassurance a également abandonné un projet de ré-écriture sur 12 ans sans résultat, sans livrable coût 199 million $. Une institution publique en Scandinavie avait amorcé une ré-écriture en Java dune application en Cobol sur vieux systèmes avec une équipe de plus de cent cinquante personnes sur 3 ans. Au bout de ce délais, seuls 20 % des composants logiciels étaient ré-écrits, avec de surcroît une mauvaise qualité des livrables.
Lerreur dans ces exemples était de ré-écrire des applications sans modification réelle de la couverture fonctionnelle, juste pour en disposer sur des infrastructures plus récentes.
Or dès lors quil ny a pas de changement fonctionnel majeur, on peut estimer un ratio de coût a minima de 2 à 3 entre une migration dinfrastructure et la ré-écriture.
Avant de « faire une croix » sur un existant, il faut donc impérativement étudier la couverture des besoins quil propose ; une étude documentée de lexistant est donc un préalable indispensable à tout projet de refonte.
Réutiliser des services de surface
Quant on en vient aux stratégies de modernisation dun existant obèse résidants sur des Mainframes, de nombreuses études démontrent que la ré-écriture des applications est rarement envisageable, et le remplacement par des progiciels pas forcément adapté à des spécifiques vieux de trente ans et plus.
La « ré-utilisation » est souvent le choix de la raison, et nombreux sont les acteurs qui viennent sur ce marché proposer des solutions pour intégrer les services métiers dans les Mainframes. Toutefois les variantes sont nombreuses, et toutes ne satisfont pas à la même ambition : autrement dit, du revamping « Web » - i.e la séparation des couches de présentation de la logique métier - à lextraction de règles métiers pour en faire des services Web, la philosophie et la complexité ne sont pas les mêmes.
Une demande forte existe dans les banques et les assurances pour se donner la possibilité d'interconnecter les systèmes mainframes et les applications web. Une solution relativement simple existe qui consiste à « encapsuler » lapplication existante dans un service web qui pourra communiquer avec les autres au travers dune architecture orientée services (avec les couches dintégration nécessaires, notamment lESB). Les solutions analysent les messages et la logique de navigation des transactions mainframe, initialement prévues pour des terminaux et génèrent automatiquement le code nécessaire.
Lapplication est vue comme une boite noire et ce qui est exposé en services Web, reste limité aux entrées sorties. Si la solution répond aux besoins dintégrer un Mainframe dans une architecture SOA, elle reste cosmétique au sens où elle ne répond pas au besoin dapporter de lagilité à des systèmes monolithiques ; elle répond en fait à un autre objectif, le besoin de faire co-exister des systèmes. Typiquement, une nouvelle application de prise de commande dans cette logique pourra communiquer avec une ancienne solution de gestion de stock sur Mainframe. Mais les éventuelles règles métiers au sein de la gestion de stock ne pourront être manipulées pour sadapter aux nouvelles règles de tarification par offres, il faudra réappliquer une couche logicielle pour se faire.
Si, par contre, un découpage de la logique métier avait lieu au sein de lapplication, et non à ses entrées sorties, les règles métiers pourraient être extraites et utilisées en services Web, éventuellement paramétrées dans un moteur de règles, et sintégrer dans une architecture SOA tout en laissant le reste inchangé. Le cas échéant, on garderait la puissance du Mainframe en gagnant lagilité escomptée. Cest là que réside le potentiel de ce quon nomme la « réingéniérie logicielle ».
Rénover en profondeur avec la réingénierie logicielle
Quand lapplication patrimoniale est estimée comme un réel bien de lentreprise, les fonctions jugées satisfaisantes et le développement en spécifique justifié, nous entrons dans le cadre de la rénovation, de la la « réingénierie logicielle ». Sous ce concept se trouvent toutes les méthodes et outils pour partir dun « état » dun code existant, implémenté dans un environnement en production, état présentant des défauts variés, et arriver à un autre « état », jugé plus satisfaisant, éventuellement dans un autre environnement technique.
Le problème logiciel aujourdhui nest pas tant le développement que la maîtrise de lévolution. Les nouveaux développements suivent des processus de plus en plus rigoureux, les environnements de développement actuels sont sophistiqués et intègrent les bonnes pratiques du développement en matière de qualité et de traçabilité. Seulement, ces outils ne sont pas toujours à disposition de technologies anciennes et les méthodes de maintenance sur une quarantaine dannées ont peu de chance davoir suivi les mêmes principes de qualité.
Comment « remettre à niveau » ce qui ne lest plus et qui ne respecte pas lun ou lautre des principes de performance, dinteropérabilité, douverture, de réutilisabilité ou de flexibilité ?
Une application qui a été développée en spécifique a évolué souvent bien au-delà de la conception dorigine suite aux multiples évolutions et maintenances en production tandis que les documentations disponibles ne sont plus à jour, et quil nexiste pas de lien entre limplémentation et un modèle de conception qui permette de comprendre globalement les fonctions métiers de lapplication, encore moins de les modifier aisément.
Le « code source » existant devient le seul élément rattaché directement au système. Seulement, quand des applications sont depuis très longtemps en production, il semble ardu de reprendre connaissance des milliers de lignes de code manuellement et inenvisageable sans risques derreur.
Cest là où des outils de rétroconception et de réingénierie fournissent des aides à la compréhension et la redocumentation dune application.
Nous utiliserons dans ce chapitre la terminologie de H(Chikofsky, 1990)H , pour définir les tâches de rétroconception et de réingénierie d'un logiciel.
Ainsi la tâche de rétroconception (ou reverse engineering) consiste à "analyser un système afin didentifier ses composantes et ses relations dans lobjectif de créer des représentations avec des formalismes variés ou à des niveaux dabstraction différents" et la réingénierie est une tâche "dexamen et d'altération d'un système afin de le reconstituer sous une nouvelle forme suivie de l'implantation de cette nouvelle forme".
Comment débuter ?
Si le langage naturel est créatif, suggestif, associé au cognitif, le langage informatique se conforme impérativement à des règles syntaxiques. Telle est sa « logique ». Quant à la « sémantique » qui désigne en linguistique le sens dun texte pour le distinguer de sa forme, en informatique, elle est dabord « formelle » et désigne linterprétation dun langage sous forme de règles et de structure mathématiques (typage des données). On ne programmera pas un ordinateur de façon à le doter de la compréhension du « sens » du langage, sans lui fournir une représentation de domaines de connaissances, i.e des « ontologies », significatives et extensibles.
Quelle que soit lopération de modernisation que lon souhaite effectuer sur un code existant, il existe une première étape incontournable pour prendre connaissance du code et le stocker dans une forme exploitable pour lanalyse et la transformation automatique : le parsing de code.
En ingénierie logicielle, le parsing est défini comme le processus danalyse du code source dun programme de façon à déterminer sa structure grammaticale. Un parser est dès lors un outil logiciel dont lobjectif consiste à traduire dans une forme intermédiaire un langage de programmation, à laide dune description de la grammaire du langage. Inventés à lorigine à lusage des compilateurs et des interpréteurs des langages de programmation, le champ dapplication des parsers sest vite étendu aux outils de modernisation de code, dont ils sont une brique essentielle.
Si tous les parsers partagent le même principe danalyse, il nen reste pas moins des différences non négligeables entre eux. En effet, pour traiter des volumes imposants (MLOC) et des systèmes complexes, un parser « industriel » est indispensable. Il aura des exigences beaucoup plus fortes que des outils de restitution de graphe dappels ou de simples compilateurs, qui restituent un fichier au lieu dune base de données, notamment quant au niveau (la granularité et la complétude) des informations collectées.
Un parser « industriel », vise par définition des opérations industrielles de ré-ingéniérie. Pour être apte à les satisfaire, il doit fournir une représentation abstraite du code qui respecte des principes dacuité, de stockage de larges volumes dans une base de connaissance interrogeable, de complétude et de granularité des composants collectés, afin dune part dautoriser la recherche précise de patrons (« pattern ») et lidentification dobjets, dautre part, la transformation du code.
Cela nest pas suffisant, encore faut-il quil soit « extensible », c'est-à-dire quil ait la capacité de traiter les dialectes de langages inhérents à la grande variété d'environnements existants. Ainsi laccent en modernisation doit être mis sur les outils à échelle industrielle. Ils se définissent à la fois par un référentiel de gros volumes de code doté dun système de gestion, afin de pouvoir interroger lexistant avec un langage de règles danalyse et de transformation, mais également par leur capacité à développer rapidement de nouveaux analyseurs de langages.
Comment ça marche ?
Parser contre parser
« La connaissance par avance de la grammaire dun langage est une condition non satisfaite en ré-ingéniérie »
[] the condition that the grammar of the language is known in advance is not satisfied in the field of reengineering In Current Parsing Techniques in Software Renovation Considered Harmful (.ps), by Mark van den Brand, Alex Sellink, Chris Verhoef.
Il y a des milliers de langages existants, si on prend en compte en plus de la variété des langages, les extensions, les dialectes, les versions, etc. Pour exemple, il n'y a aucune application de COBOL en production qui utilise purement des programmes COBOL de norme ANSI. Comprendre une application en production « COBOL » sous MVS exige de comprendre le COBOL (sous ses nombreuses formes incluant OS/VS COBOL, VS COBOL II, MVS COBOL, etc.) mais aussi le JCL, le CICS, lembedded SQL, l'IDMS, et les références aux programmes dans d'autres langues telles que l'assembleur, le PL/I, le RPG. Cest là où des technologies de génération de parser, telles que Yacc ou Bison, atteignent leurs limites, car elles partent dune description de la grammaire du langage, considérée connue et délimitée, et non soumise à de continuels changements.
Afin de sadapter aux exigences spécifiques des applications en production, la modernisation requiert des outils de parsing incluant des « générateurs de parser » qui puissent étendre continuellement, par apprentissage, la connaissance des grammaires.
Le domaine de la réingéniérie logiciel est extrêmement porteur pour optimiser les projets de modernisation dune application patrimoniale issue dun développement spécifique, grâce à des possibilités dautomatisation de transformation vers une cible à partir de lanalyse de limplémentation de la source existante.
En particulier, les techniques de réingéniérie logicielle permettent :
La migration d'un système dinformation vers un nouvel environnement technologique :
Migration de plate-forme
Migration de base de données
Migration de langages
La ré-architecture dun code existant pour une meilleure maintenabilité et évolutivité, donc améliorer son « degré dutilisabilité » et son « degré dévolution »,
La redocumentation et le contrôle qualité à partir de mesures factuelles issues de limplémentation grâce à des outils de compréhension du code (inventaire, mesure des métriques qualités, navigateurs de code, références croisées et relations entre composants, etc) et le contrôle qualité des codes sources pour réduire les risques derreurs en amont du passage en exploitation.
La rétro-modélisation des applications existantes pour créer, par exemple, des modèles de conception UML, qui pourront ensuite servir de cadre à une génération de code vers la cible retenue.
La réingénierie logicielle autorise dautomatiser une bonne partie des opérations évoquées ci-dessus. En particulier, les migrations peuvent atteindre un taux élevé dautomatisation quand la source et la cible retenue partagent le même paradigme architectural (pour exemple conversion dun langage procédural à un autre).
Dès lors que la cible est à un niveau dabstraction plus élevé que la source, ou que la transformation implique une connaissance métier pour valider, par exemple, le périmètre dune règle de gestion, ou lassociation dune donnée métier à une variable, lautomatisation savère plus complexe et a ses limites (ex : en cas de changement de paradigme, type Procédural vers objet, Cobol vers Java, NSDK vers J2EE,
).
Le champ de la réingénierie logicielle
La figure suivante illustre le principe de la réingénierie logicielle et ses champs dapplications.
Réingénierie.png
Légendes figurant dans limage
Figure 10-1.
Le champ dapplication de la réingénierie logicielle
La rétrodocumentation
La réingénierie permet en particulier de reprendre connaissance du patrimoine, par lanalyse du code et des dépendances entre programmes. Le tableau ci-dessous illustre une classification des techniques danalyse pour reprendre connaissance des applicatifs à travers leurs code, et lutilité de ces techniques
Tableau 10-1
Classification des techniques de retro-documentation
DescriptionCommentaireAnalyse de code, qualimétrieOutils danalyse statique des codes sources, mise en évidence des défauts. Orientés métrologie. Opération qui peut être automatisée. Une attention particulière doit être mise sur les indicateurs qualités à choisir. A quelles questions doivent-ils répondre, par rapport à quel objectif ?Analyse de code, cartographieNotion de « portail » qualité, graphes de dépendances, et intégration avec des données « externes » au codeAttention à la capacité à analyser sur plusieurs programmes, et avec des capacités danalyse de langages variésAnalyse de redondanceRecherche de similarité de code à deux niveaux :
Syntaxique : à travers une représentation abstraite du code
Fonctionnelle : à travers des graphes de contrôles et de donnéesPour bien analyser laspect fonctionnel, lintervention humaine reste nécessaire.Analyse dimpactRecherche des dépendances entre objetsEtablir un dictionnaire de données est une étable préalable indispensableRétro-documentation des règles metiersRecherche de règles de gestion dans le code à travers de lanalyse de données métiers et lusage de graphe de contrôle du codeCette opération ne peut être que semi-automatique et nécessite une intervention humaine liée à la connaissance métier.Approche unitaire (extraction ciblée de règles)Ces outils restreignent le champ de recherche des règles et effectuent du « code slicing », c'est-à-dire du découpage de code.Cette opération ne peut être que semi-automatique et nécessite une intervention humaine liée à la connaissance métier.La conversion de langage
Pour des raisons pratiques defficacité et de coût, lévolution des applications ne suit pas celle des langages. Si un nouvel environnement de programmation devient la norme de lentreprise, la plupart des anciennes applications restent maintenues dans le langage de développement initial. Leur durée de vie se compte en décennies, voire en fraction de siècles. Il nest pas nécessaire dabandonner un langage, tant quil ne devient pas
une langue «morte ».
Autrement dit, sil ne fait plus lobjet de support, de formations, et si les compétences pour le programmer disparaissent. Nous donnerons donc la définition suivante dobsolescence pour un langage : un langage devient obsolète quand il nexiste pratiquement plus doutils de développement supportés par les fournisseurs ou de compétences sur le marché.
Auquel cas, il faut faire appel à des experts pour le traduire dans un langage plus répandu et ce, de façon plus ou moins automatisée, selon la source et la cible et la facilité le cas échéant à reconstituer le « signifiant conceptuel », classes, schémas, modèles. Car le développement n'est pas le point dur du génie logiciel, le problème est l'évolution, et en particulier, retrouver le « sens » qui a présidé aux implémentations, pour obtenir la flexibilité métier souhaitée.
Comment ça marche ?
Le principe du « fer à cheval »
Ce principe a été nommé ainsi par le Software Engineering Institute (1999) dans une note « options Analysis for Reengineering (OAR) : Issues and conceptual approach » fruit du travail de John Bergey, Dennis Smith,Nelson Weiderman,Steven Woods, pour décrire comment concilier réingéniérie logicielle et évolution darchitecture.
La démarche consiste à abstraire la problématique en " remontant " au niveau des modèles et à redescendre vers la cible en effectuant éventuellement des interactions complémentaires. Ce type de démarche fait appel à des techniques de reverse-engineering, de découpage de code(slicing) et de méta-modélisation.
Figure 1: Horseshoe Model for Integrating Reengineering and Software Architecture (source SEI)
Le principe du « fer à cheval » est indispensable à se rappeler pour juger de beaucoup de solutions proposées pour la modernisation, notamment dans le domaine des conversions de langage, car souvent les logiques de transformation restent à des niveaux plans intermédiaires qui peuvent être interprétés automatiquement, structure de code, voire représentation de fonctions. Le résultat quand les deux langages ne partagent pas le même paradigme (exemple langage procédural vers langage objet) peut être surprenant. Ainsi si lautomatisation de la conversion de langage est nécessaire, elle a ses limites : pour exemple, le « Jabol » ; hybride résultat dune conversion de source à source entre le Cobol et le Java.
Moderniser une application patrimoniale peut passer par la conversion de son code source à partir du langage initial, jugé obsolète, vers un langage de programmation plus moderne. Cette opération, à léchelle de millions de lignes de code, nest réaliste quà condition de disposer dun traducteur automatique, compte tenu des risques élevés dinsertion derreurs que provoquerait une traduction manuelle.
Lautomatisation nest pas pour autant un saint graal. En effet, des taux élevés de conversion automatique peuvent être atteints entre deux langages partageant le même paradigme (ex : procédural), la même syntaxe ou du moins des syntaxes compatibles. Si les différences syntaxiques entre la source et la cible relèvent dun changement de paradigme, comme pour le Cobol et le Java, il est illusoire de vouloir faire léconomie dune phase de « re-conceptualisation » intermédiaire. Cette dernière sert à identifier les objets à partir du code procédural existant, ou les fonctionnalités orientées objet, telles que les relations de sous-classe et le polymorphisme.
En effet, à procéder à une traduction automatique de source à source on risquerait dobtenir un langage hybride, une sorte de «Jabol» dans le cas de la traduction Cobol vers Java. Si la tentation existe de procéder à cette transformation, dans loptique de disposer doutils de développements plus moderne, ou de plus de profils pour maintenir le code cible, cette solution en réalité ne satisfait pas les exigences de la modernisation.
Lobjectif dune traduction est daméliorer la qualité du code traduit et daugmenter sa capacité à être traduit. Dans le cas du «Jabol», le résultat, paradigme procédural appliqué avec un langage orienté objet, ne sera compréhensible que par des programmeurs Cobol disposant dun vernis Java. En outre, les avantages de lorienté objet seront de facto écartés (principes des sous-classes, modularité, ré-utilisabilité,
). Quant à la lisibilité et la maintenabilité du code cible, elle est loin dêtre prouvée.
Pour passer dun paradigme à un autre, il faut une couche dabstraction dans le processus de transformation, et des règles extensibles de reconnaissance et de transformation de code.
Les systèmes dinformation ont à faire face à lhétérogénéité des langages aujourdhui, et ils auront également à y faire face demain. Il ny a pas plus de garantie quant à la durée de vie dun langage choisi à un moment donné, que de limite déterministe quant à la durée de vie dun langage éprouvé. Le Cobol est censé être mort depuis vingt ans, il se porte encore bien.
Dès lors, un pré-requis des solutions de conversion de code est ladaptabilité à de nouveaux langages, et la capacité à gérer des différences de niveaux entre la source et la cible. Ce type de solution doit fournir une représentation abstraite du code, phase dabstraction intermédiaire dans le processus de traduction avant la ré-implémentation en code cible, ainsi que des méthodes configurables et des règles interactives pour la définition et la reconnaissance de « pattern », comme les objets, les classes, etc.
La réarchitecture de code
Il y a de nombreux intérêts à ré-architecturer un code existant. Du simple fait de rendre la maintenance plus simple en diminuant la complexité des programmes et en améliorant la qualité du code, jusquà lobjectif dextraire des services métiers à réintégrer dans une architecture SOA, en passant par la modularisation qui sert autant à pouvoir réutiliser des fonctions que paralléliser le travail des équipes.
Selon les objectifs poursuivis, les opérations sont plus ou moins complexes et nécessitent plus ou moins dinteractions avec des compétences humaines et métiers.
Le refactoring (réarchitecture de code) vise à améliorer la structure du code pour le rendre plus maintenable et réutilisable sans pour autant modifier son comportement. Il sagit de transformations iso-fonctionnelles. On distinguera ici dans les pistes damélioration trois niveaux de refactoring, du plus automatisable, qui vise à améliorer la qualité du code maintenu, au plus complexe, qui vise à améliorer la ré-utilisabilité:
La restructuration syntaxique
Il sagit dune restructuration « simple » du code, pour le nettoyer des syntaxes incorrectes ou qui nuisent à la lisibilité et améliorer sensiblement sa qualité. Pour exemple, remplacer les clauses conditionnelles négatives (ex :if not (A > B and (C < D or not ( E > F) ) ) qui peuvent nuire à la lisibilité, par des conditions simplifiées (ex if (A = D or E > F)).
On peut ainsi restructurer un code automatiquement, par exemple en simplifiant les conditions, pour le rendre plus « lisible », ou en renommant les variables, ou pour corriger les syntaxes non autorisées qui peuvent être sources potentielles derreur. On peut également simplifier la complexité, notamment en réduisant les boucles de contrôles qui augmentent statistiquement les risques derreurs.
De même peut-on automatiser relativement aisément la suppression des « codes morts » : certains codes sont dits morts «physiquement» car il sagit de codes qui ne sexécuteront jamais, dautres sont dits morts « logiquement », car ils font appel à une condition de logique métier qui ne savèrera jamais vraie (ex numéro de police dassurance qui nest plus utilisé). Ces codes augmentent la volumétrie et la complexité des applications alors quinutiles.
Sil est simple didentifier les codes morts physiques automatiquement, les codes morts dits « logique » impliquent de pouvoir identifier les données de références et davoir un premier dictionnaire de données. Puis de passer par des techniques de découpage pour proposer à validation dun utilisateur une portion de code vraisemblablement morte « logiquement ».
Cest là ou progressivement on quitte le champ du syntaxique et du purement automatique.
Pour quantifier les bénéfices de la restructuration syntaxique, on peut mesurer :
La volumétrie du code avant/après la transformation
Les métriques qualité avant/après la transformation (Robustesse, maintenabilité, fiabilité, conformité à des standards, documentation ou critères sépcifiques tels que pourcentage de code mort « physique » ou codes similaires)
Le pourcentage derreurs/danomalies dans les mises en production avant/après la transformation
Le support dun outil pour automatiser ce type de refactoring syntaxique est extrêmement appréciable, voire indispensable, car vérifier les pré-conditions pour un type de refactoring précis requiert souvent une analyse de programme non triviale, et la transformation doit pouvoir sappliquer à lensemble du patrimoine, sans même évoquer les risques dintroduction danomalies dune intervention manuelle.
La restructuration syntaxique est hautement automatisable et bénéfique pour augmenter la maintenabilité du code, car elle peut en réduire la volumétrie, la complexité (par simplification de code complexe par un code « simple ») et elle traite toutes les syntaxes qui sont identifiées comme sources derreur potentielles, donc elle augmente la qualité du code résultant de la transformation.
Plus largement, on peut automatiser via des outils danalyse et de transformation de code, toute transformation de masse sur un code où les règles danalyse et de transformation se modélisent de manière univoque, cest à dire où les pré-conditions à remplir sont suffisantes pour identifier surement les segments de code cible de transformation et les post-conditions clairement établies.
Le champ de la restructuration inclut donc des changements dits « de masse » type extension de champs pour lan 2000, internationalisation,
). Il sagit de propager automatiquement dans tous le code du système (inter et intra-programmes), grâce à des graphes de flux de contrôles ou de données, une modification réplicable sur des bouts de codes ou des variables répondant à des conditions particulières bien bornées (ex : extension dun champ de date).
Cette propagation automatique dune modification « cadrée » minimise les risques derreurs des modifications manuelles, en plus de réduire le temps nécessaire à la transformation (inenvisageable en manuel sur des millions de lignes de code).
La restructuration pour factoriser des codes similaires
Elle est utile notamment pour factoriser les codes dupliqués ou similaires. Les codes similaires sont une des plaies des applications en maintenance, car ils sont le résultat dun effet « copy & paste », où, pour des raisons de rapidité, les mainteniciens reproduisent quasiment à lidentique un bout de code existant pour corriger un « bogue » ou introduire une évolution.
Par définition ce sont des segments de code que lon retrouve à plusieurs endroit dun système ou dans des fichiers différents, ou dans le même fichier mais dans des fonctions différentes, voire dans la même fonction. Au lieu de produire un code ré-utilisable à travers la factorisation dune fonction, la « copie » de code produit plus de risques derreurs et dincohérences (une personne qui corrige le code à un endroit ne pensera pas forcément à répliquer la modification dans toutes les « copies »). Les estimations classiques vont de 8% à 10% de codes similaires dans un code normalement industrialisé, mais suivant la longévité de lapplication de pourcentage peut augmenter sensiblement.
Le principe pour factoriser les codes similaires est dutiliser un outil danalyse statique de code en support de diagnostic de détection de clones, puis de remplacer les codes similaires par un appel à une fonction ré-utilisable.
Pour élargir lefficacité de la détection, on préférera opérer au niveau de la représentation logique. Quand un code est parsé et restitué sous forme darbre abstrait syntaxique, on peut calculer des tuples de métriques pour chaque sous-arborescence (i.e fonctions) et procéder à une comparaison des arbres/tuples (distance euclidienne).
Tuple Titre dune note ou remarque
En mathématiques, un tuple est une séquence de valeurs (aussi connu en tant que liste ordonnée) appelées composants du tuple. Un tuple est un n-uplet (paire, triplet, quadruplet,
). En programmation un tuple est une donnée objet contenant dautres objets en éléments, éventuellement de types différents. En SQL un tuple est une ligne de table (ex : nom, prénom, age,
)
Cette approche si elle peut être en grande partie automatisable dans la méthode de détection, et, une fois les codes isolés, dans la factorisation, nécessite toutefois une vérification humaine et donc des étapes dinteractivité.
Les opérations de refactoring doivent pouvoir sinscrire dans des cycles de tests de non régression pour la fluidité du processus.
La modularisation
Quand les sociétés ou organismes utilisent dénormes programmes qui sont monolithiques, elles en subissent les conséquences de la complexité dont la lourdeur de la maintenance. En effet, on ne peut paralléliser les équipes et les évolutions sont difficiles, car un simple changement peut nécessiter dêtre répliqué dans de multiples parties du code faute dune modularisation des fonctions.
Définition
Des modules solidaires mais solitaires
Un module peut être défini comme un groupe de fonctions ayant une cohésion forte et un couplage faible
Couplage faible
Pas de liens entre les données internes et des données manipulées par dautres programmes
Le module dit posséder ses propres zones de travail jamais utilisées par dautres modules
Liaisons externes (interface)
Les données dentrée/sortie sont des paramètres à passer au module
On définira de manière précise la structure des données dentrée à passer au module, de même que la structure des données fournies en sortie
Cohésion
La fonction doit être clairement identifiée et cohérente
La modularité des programmes est une orientation poussée depuis plus de vingt ans, surtout avec lorientation objet.
La fonction d'un module est l'ensemble des transformations appliquées par le module sur les données d'entrées pour produire les données de sorties, à chaque appel du module.
Pourquoi modulariser ? Il sagit tout à la fois de faciliter la maintenance, optimiser larchitecture et mettre en place les meilleures pratiques de mutualisation et de réutilisation.
La meilleure façon de résoudre un problème complexe est de le décomposer. Les programmes modulaires sont plus faciles à comprendre, documenter et maintenir et fournissent des éléments interchangeables, réutilisables et combinables entre eux.
Lobjectif est de réduire la complexité en restructurant le système en un assemblage de sous-systèmes plus simples qui peuvent être maintenus séparément. Le principe est de découper les programmes en modules, ou groupes de fonctions liées, découpage fondé sur lobservation quun module peut être défini comme un groupe de fonctions ayant une forte cohésion et un couplage faible. La modularité a pour bénéfices de faciliter la compréhension, la maintenance et la réutilisabilité, en particulier en autorisant la paralélisation des développements et des tests, et a pour conséquences une meilleure portabilité.
La maintenance sera facilitée car une modification sur un module sera automatiquement répercutée dans tous les programmes qui lappellent.
Les modules permettent la création dune bibliothèque de composants ré-utilisables
Lapplication du principe de modularité du code au niveau du développement est létape clé pour le rendre réutilisable
Le module étant un sous-programme, son autonomie est assurée par la force des choses (règles du langage de programmation).
Les spécifications externes (données d'Entrée / Sortie) et internes (règles de traitement) étant clairement définies, on pourra donner la programmation du module à toute personne compétente, même si elle ne connaît pas le reste du programme.
Les modules permettent la séparation des différentes composantes de l'application (ex: séparation données/traitements/affichage) afin de rendre leur développement indépendant les uns des autres.
En outre, via la modularisation, on peut envisager dextraire les règles de gestion écrites en « dur » dans le code pour les rendre paramétrables dans un moteur de règles, à des fins de flexibilité métier.
Selon lobjectif des bénéfices recherchés par la modularisation dun existant, le champ des techniques utilisées sera différent. Lapproche la plus étendue étant une recherche de modularisation applicative au niveau dun Système dinformation, pour passer dun patrimoine applicatif développés « en silos applicatifs », à une architecture dassemblage de composants.
Si la modularisation vise une application seule, elle peut être ou technique et dans ce cas on cherche à partager des traitements, ou fonctionnelle et dans ce cas on cherche à mutualiser des fonctions. On passe au niveau « sémantique » (niveau conceptuel/abstraction) quand on cherche à extraire la logique métier (services métiers ou règles de gestion) pour aller au-delà de lapplication et pouvoir viser lassemblage de composants métiers.
Le tableau page suivante illustre les différents niveaux de recherche de modularisation, les techniques possibles et les limites.
Tableau 10-2
Les techniques de modularisation
ObjectifMéthodeChallengesModularisation technique et structurelleIdentifier des blocs ayant un potential de modularisation pour découper le code structurellement. On piste des modules de contrôles et on peut aussi pister une « syntaxe » significative dun type de traitement éventuellement réplicable et modularisable dun point de vue technique (ex Perform en Cobol)Identification des « blocs » syntaxique :
Approche des appels et dépendances entre programmes / structure
Approche par syntaxe significativeLa représentation abstraite du code
Les limites de la recherche de syntaxe particulière sans données sémantiquesModularisation fonctionnelleIdentifier des blocs ayant un potentiel de réutilisabilité, ou pour construire des bibliothèques de « fonctions », ou pour factoriser les codes similaires.
Modules de traitement similaires: les journaux de logs, les traces, la synchronisation
Modules de contrôle et de mise en forme de dates, contrôle de montants, etc.
Point dentrée : donnée calculée et dépendances
« pattern mapping » : identification de patrons dalgorithmesLa recherche (syntaxe particulière, données particulières,patron,
)
Le mapping avec un patron de traitement
Le decoupage (semi-automatique, nécessitera dans tous les cas une intervention humaine)Modularisation sémantique orientée donnéesExtraire des fonctions ayant un sens métier (exemple, calculer le taux dendettement maximum, le montant de retraite moyen par mois, .. ;)
En particulier adapté pour lextraction de règles de gestion métier
Exposer des services métiers.
Très souvent des modules de traitement sont similaires d'un programme à l'autre, notamment les modules d'accès aux fichiers ou bases de données, soit directement en l'état, soit après des modifications minimes du code source.Données/variables lié aux graphes de contrôle
« pattern mapping » : identification de « services » type
« concept » : Technique utilisée pour détecter les propriétés communes dans un grand ensemble de donnéesLa recherche (syntaxe particulière, données particulières, patron,
)
Lidentification de concept
Le mapping avec un patron de services
Lintervention humaine pour la connaissance métier (considérer un ratio de 1 à 7 entre le coût de loutil et le coût des efforts humains de reconnaissance nécessaires)La migration de plateformes
Appelée également « replatforming » la migration dapplications vers une nouvelle plate-forme est en général envisagée pour deux raisons principales :
Obsolescence avérée de la plate-forme : arrêt du support et/ou de la commercialisation
Coûts excessifs : Plateformes propriétaires, verrouillage fournisseur, coût du modèle économique récurrent des Mainframes au regard du coût des licenses perpétuelles Unix, par exemple, ou de Linux, encore plus avantageux (pas de coût dacquisition)
Dautres aspects dinteropérabilité peuvent jouer, mais ils sont rarement les leviers qui activent la décision de migration. A ce niveau, elle est essentiellement technologique, lobjectif étant de migrer un système à « iso fonctionnalités ». On ne touchera pas à la couverture fonctionnelle de lapplication et on devra veiller à ce que le comportement applicatif soit identique dans lenvironnement cible à ce quil était dans lenvironnement source. Ce type de migration doit être transparent pour lutilisateur.
La migration a donc pour objectifs majeurs dadresser des facteurs de risques importants ou de réduire des coûts qui le sont tout autant. Les objectifs secondaires qui peuvent jouer sont la volonté durbaniser et de passer dans des environnements ouverts et/ou des architectures distribuées, ou celle de réduire les dépendances envers des plate-formes propriétaires avec des composants plus « portables » et réutilisables.
La migration va seffectuer en séparant présentation, données et traitements, tout en préservant liso-fonctionnalité et la performance. Cette solution présente lavantage de soulager rapidement le risque opérationnel (i.e fin de vie dune plate-forme) le cas échéant, du fait dun niveau dautomatisation élevé grâce à des outils éprouvés et des processus de migration connus. La réduction des coûts et la possibilité daccéder à des services interactifs, dans le cas du passage du Mainframe à des environnements ouverts sont également des bénéfices possibles (reste à faire le calcul du TCO).
Face aux bénéfices, les limites de la solution sont quelle ne résout pas les inconvénients dune architecture applicative monolithique et de codes de mauvaise qualité (excepté une restructuration syntaxique minimum).
Cette migration doit seffectuer avec les principes suivants :
Prouver liso-fonctionnalité
Garder les performances à la cible
Ne pas introduire de rupture « technologique » pour les équipes en place
Eviter dintroduire des anomalies en automatisant autant que faire se peut le processus
Quelle solution privilégier ?
La méthode
Encore une fois, il ny a pas de solution miracle qui sapplique à tous les cas de figures, pas plus que dapproche absolue qui les résoudrait tous. Reste à privilégier une méthode dapproche pour rénover progressivement et selon les enjeux, donc en fonction de lanalyse de valeur du patrimoine applicatif.
Afin de moderniser le patrimoine pour lexploiter au mieux et choisir une (ou plusieurs) solution(s), il faut dabord analyser sa complétude et sa qualité, avant de pouvoir déterminer quelle application mérite dêtre remplacée, réutilisée « en surface » ou rénovée en profondeur. Il sagit deffectuer cette analyse sur plusieurs axes ainsi quévoqués précédemment (la dimension risque étant incluse dans laxe sécurité) et la décision se fera sur la valeur, cest à dire le meilleur ratio entre la satisfaction optimum des besoins et le coût en consommation de ressources.
Il ne sagit pas seulement dobtenir un équilibre entre les coûts et les risques, il sagit de ne pas oublier à quoi servent les Systèmes dinformation. Les coûts ne veulent rien dire dans labsolu. Ils peuvent être faibles et pour autant devoir être revus. Rien ne sert encore une fois à maintenir une application en interne si elle napporte pas de valeur, mais ne pas investir dans une application, même sans extension fonctionnelle, peut dégrader sa valeur.
Une fois la décision prise de rénover tout ou partie dun patrimoine écrit en spécifique, il est très possible, voire recommandé, dutiliser plusieurs techniques pour préparer lévolution.
Comme le montre la figure suivante, la redocumentation du patrimoine applicatif est une étape qui précède toutes les pistes de solutions envisageables.
Car même si on ne souhaite pas rénover en profondeur une application, si on souhaite lexternaliser, il est indispensable de remettre au prestataire qui en aura la charge une application dans un état compréhensible sous peine de perdre les bénéfices escomptés dune éventuelle industrialisation, ou les réductions de coûts envisagées.
Quant au passage vers un progiciel, ou vers un service sous abonnement qui assure des fonctions métiers, il nécessite toujours un préalable, lanalyse des écarts pour établir si le niveau de « couverture » du progiciel ou du service est satisfaisant.
Repartir de zéro pour redéfinir les besoins est un principe louable si on souhaite effectuer une analyse de la valeur rigoureuse de chaque fonction pour ne focaliser que sur les fonctionnalités les plus utilisées, selon la loi de Pareto (les fonctionnalités les plus utilisées (80% du temps) méritent le plus d'attention, même si elles sont les plus banales, alors que celles qui sont peu utilisées (20% du temps) devraient se satisfaire d'un effort moindre).
Reste que cette logique doit être couplée avec lanalyse des fonctions existantes, pour accélérer cette phase de cadrage, car sinon, ou la phase durera plus longtemps que souhaité, ou on prendra le risque doublier des fonctions utiles, insérées au fil du temps dans le logiciel spécifique, suite à des demandes des utilisateurs.
Une aide à la redocumentation des applications, sous la forme pour partie doutils de réingénierie, est donc fortement souhaitable. Le niveau de redocumentation souhaitée est ensuite à envisager selon le niveau de réutilisation quon envisage.
Redocumenter des règles métiers est en particulier intéressant pour la ré-écriture, en simplifiant la mise en uvre de moteurs de règles, par exemple. On peut aller plus loin en voulant minimiser les risques dune ré-écriture complète via une logique de ré-utilisation progressive de « modules » de lancienne application, qui seront découpés et revus sous forme de services en insérant lapproche de ré-ingénierie dans une approche darchitecture globale.
La figure 10-2 montre comment la réingéniérie logicielle peut sinsérer dans une approche globale dévolution.
ReingenierieEvolution.png
Figure 10-2.
La réingénierie en support des besoins dévolution
Ensuite, pour chaque besoin, on peut trouver plusieurs types de solutions en réponse et il faudra à nouveau le support de lanalyse de la valeur pour faire le choix efficient qui peut conduire à lusage dune combinaison de solutions.
Une application critique pour le métier aujourd'hui, avec un réel impact sur l'efficacité opérationnelle, peut souffrir du coût de plateformes propriétaires et des limitations dinteropérabilité quelles imposent. Une migration dinfrastructures visera à diminuer le coût total de possession, dès lors quelle peut conduire à des économies significatives. Pourquoi ne pas y ajouter, au bon moment, des opérations de restructuration de code pour plus de facilité de maintenance ?
Le contrôle de lévolution
Dans tous les cas, tout projet dévolution doit débuter par une analyse du patrimoine, consolidée autant que faire se peut, par des outils danalyse automatique et des bases de connaissance.
Chaque projet doit être, également dans une logique de « cycle de vie de lévolution du patrimoine », une occasion de mettre en place, ou de venir enrichir, des référentiels de contrôle sur la durée, en particulier :
Référentiel de limplémentation
Les outils de cartographie, de qualité et de lotissement mis en place pendant le projet, pourront continuer à être utilisés et venir sintégrer à un portail ou une interface daccès unique, qui donnera la visibilité sur lensemble des cartographies techniques disponibles pour lanalyse de la qualité. Ces outils pour être totalement exploitables doivent combiner à lanalyse, un métalangage de description, des règles de transformation et une grammaire extensible ;
Référentiel de test
Un référentiel à enrichir progressivement des cas de test et des captures de référence (lors de la mise en uvre de tests de non régression). Cela afin dindustrialiser la totalité du processus de non régression (debug inclus) en cas de transformations
Référentiel de connaissance
Il sagit de retrouver progressivement le sens des applications, c'est-à-dire lobjectif de valeur auquel elles doivent répondre, les « objets sémantiques » qui sont les processus quelles viennent supporter, les données métiers quelles manipulent et les fonctions dusage quelles proposent. Les ontologies sont à envisager comme moyens. Ces ensembles structurés qui modélisent les concepts dun domaine, leurs attributs et les relations utilisées peuvent sappliquer à la connaissance métier de lentreprise, par la définition des données métiers de référence (le référentiel), puis des liens entre ces données, et des liens entre processus métiers, etc.
Définition
Ontologies : de la théorie à la pratique
Définition didactique :
Ontologie en philosophie. Partie de la métaphysique qui sapplique à lêtre en tant quêtre, indépendamment de ses déterminations particulières (Le Petit Robert).
Définition pratique appliquée à lingénierie des connaissances:
Une ontologie est une spécification rendant compte (on espère de façon générique) dune conceptualisation (Gruber,1990).
Pour plus de précision, selon Borst:"une ontologie est définie comme étant une spécification explicite et formelle d'une conceptualisation partagée".
Lexplication de cette définition est donnée par Studer :
Explicite
Tous les concepts, les relations, les propriétés, les contraintes, les fonctions et les axiomes sont définis explicitement.
Formelle
L'ontologie peut être traduite dans un langage interprétable par la machine.
Conceptualisation
un modèle abstrait qui correspond à l'identification des concepts appropriés à un phénomène dans le monde
Partagée
Toutes les connaissances détenues dans l'ontologie sont partagées par un groupe ou une communauté
Définition pour le Web sémantique
The semantic Web is an extension of the current web in which information is given well-defined meaning, better enabling computers and people to work in cooperation . Tim Berners-Lee »
La rénovation progressive du patrimoine
Nous allons tenter de définir ici les conditions pour une approche progressive de la rénovation dapplications patrimoniales, à la fois dun point de vue « transformation pour plus de réactivité métier » et dun point de vue « contrôle de lévolution logicielle ». Il ne sagit pas dêtre exhaustif sur un sujet complexe, mais de fournir des indications sur les points clés de lapproche.
Les principes généraux des objectifs présidant à la rénovation dun système dinformation pour plus de flexibilité, portent sur :
La définition et la mise en place de référentiels « sémantiques »
Ils modéliseront des informations qui ont un sens pour le métier de lentreprise et autoriseront un niveau plus souple de manipulation de ces informations, non contraint par limplémentation.
La modularisation des monolithes applicatifs
Pour que ce découpage puisse répondre au mieux à une approche guidée par les processus métiers
La définition des zones déchanges aux partenaires
La définition des multiples canaux daccès.
Nous décrirons six phases principales, qui ne sont pas obligatoirement séquentielles et peuvent être optionnelles, à lexception du diagnostic et du contrôle de lévolution, pour répondre à ces objectifs, explicitées dans le tableau ci-dessous. Nous nous attacherons dans les paragraphes suivants à en détailler les enjeux et points clés.
Tableau 10-3
Les phases dune rénovation progressive
ObjectifDiagnosticObtenir une meilleure visibilité de létat dun patrimoine pour prendre les décisions appropriées concernant sa rénovation. Etablir un diagnostic de létat de lapplication grâce à un inventaire des composants de limplémentation, et des mesures sur la base des enjeux (ouverture, flexibilité, optimisation des coûts,
)redocumentationLobjectif est de pouvoir comprendre ce qui est implémenté.Simplification/
rationalisationLa simplification et la rationalisation ont pour objectif de faciliter la maintenabilité et la réutilisabilité, en éliminant en particulier les redondances et les imbrications, pour supprimer autant que faire se peut les adhérences entre blocs fonctionnels.
Cette phase comporte un axe donnée et un axe modularisationTransformation dinfrastructureMinimiser les risques dobsolescences ou réduire les dépendances envers des produits (plate-formes , langages, bases de données) propriétaires ou diminuer un coût total de possessionIntroduction du paramétrageLobjectif est dautoriser les utilisateurs à réaliser des modifications « à la volée », sans pour autant passer par des cycles de redéveloppement et de tests.Contrôle de lévolutionmise sous contrôle de la qualité de lévolution, suivi et traçabilité des évolutions sur un existant, gestion du cycle de vie de lévolutionDiagnostic
Le diagnostic nécessite de déterminer les objectifs dévolution en fonction des enjeux damélioration pour ensuite pouvoir décliner les métriques appropriées (Approche GQM : Goal, Question, Metrics).
Le diagnostic doit sappuyer sur des critères de mesures factuels (métriques normées) obtenus par une analyse de limplémentation. Le support dun outil danalyse automatique est recommandé compte tenu des volumes manipulés et des risques dune intervention manuelle. Cet outil doit être paramétrable dans la définition des règles dinspection.
Redocumentation
Il faut être capable davoir une représentation abstraite du code, à stocker dans une base de connaissance, capable de collecter et traiter un volume important de lignes de codes (>1MLoc) et fournir une représentation abstraite suffisamment fine pour lacuité des recherches dinformation sur lexistant et la capacité à transformer.
La redocumentation peut seffectuer à plusieurs niveaux, suivant quelle restitue uniquement des informations sur limplémentation (Documentation des composants, Documentation des relations entre composants et des graphes de dépendances) ou quelle rajoute des informations de connaissance « sémantiques » (documentation des données métiers, documentation des règles de gestion), voire quelle remonte à la modélisation des besoins métiers.
La granularité fine permet de modéliser toutes les informations syntaxiques et sémantiques du programme (constante, instruction,
)
Afin denvisager la restructuration des sources du patrimoine applicatif, la capacité de transformer doit être inhérentes à cette représentation (arbre syntaxique, modèle dabstraction, production dune grammaire syntaxique propre au langage (les règles de transformation dépendent du langage))
En particulier on sattachera à recréer autant que faire ce peut une abstraction du code pour remonter au niveau de modèles, avant de pouvoir opérer des transformations sélectives (en fonction des objectifs/enjeux et risques).
Si on cherche à extraire la logique métier (services métiers ou règles de gestion) pour aller au-delà de lapplication et pouvoir viser lassemblage de composants, il faudra dabord définir les données de références nécessaires aux échanges globaux et locaux. Le « dictionnaire de données » est un composant indispensable de la redocumentation dans cette orientation afin de :
Savoir où sont manipulées les données métiers ;
Implémenter des conventions de nommages ;
Effectuer si nécessaire un typage de données (quelles sont les données de mon système qui représente une valeur monétaire, une date, ou un numéro de compte) ;
Effectuer lassociation sémantique des données métiers avec les données physiques pour pouvoir ensuite propager cette association à tous les objets à travers le graphe de flux de données (doù la nécessité de la complétude des graphes de dépendances) ;
Pouvoir identifier et redocumenter les parties de code implémentant des règles de gestion à partir de la connaissance des données métiers manipulées.
Simplification/rationalisation
La simplification et la rationalisation ont pour objectif de faciliter la maintenance et la réutilisabilité, en éliminant en particulier les redondances et les imbrications, pour supprimer autant que faire se peut les adhérences entre blocs fonctionnels.
Cette phase comporte un axe donnée et un axe modularisation
Données : les Référentiels des données doivent être structurés et leurs accès isolés et standardisés.
Modularisation : Il sagit de décomposer le SI en fonctions, de limiter les imbrications entre elles, de les rendre les plus modulaires possibles. Létape suivante serait de normaliser lappel de ces fonctions et de les référencer en une bibliothèque.
La modularisation ne peut être entièrement automatique, cest une approche semi-automatique. Il faut en particulier sattacher à :
Identifier les candidats à la modularisation en fonction des enjeux => Choisir les méthodologies de recherche de code en fonction des enjeux. Obtenir une représentation abstraite du code pertinente pour automatiser la recherche.
Nettoyer syntaxiquement avant de modulariser en approche globale.
Définir le processus de décision et les critères darbitrage pour attester de la validité dun fragment de code/composant proposé à la modularisation
Critère darbitrage fonctionnel sur la granularité de la décomposition
Critère darbitrage performance du système
Clarifier les critères techniques dextraction de composants
Transformations dinfrastructures
En matière de transformations dinfrastructures, il faut regarder avec intérêt les possibilités dautomatisation dès lors quon a affaire à des programmes volumineux. Il faut ainsi vérifier le niveau dautomatisation possible, passer par des processus de transformation industriels, avec une flexibilité quant à lapproche du tout automatique versus une approche de ré-écriture sélective.
En particulier une migration de langage procédural vers un langage objet nécessite des interactions complémentaires à ce qui peut être automatisable.
Introduction du paramétrage
Lobjectif est de pouvoir masquer les détails techniques dimplémentation et de remonter vers un niveau dabstraction qui autorise certaines modifications dêtre faites « à la volée » par les utilisateurs, sans pour autant passer par des cycles de redéveloppement et de tests qui impliquent les équipes techniques et des délais plus longs.
En particulier, les systèmes existants ont souvent des règles de gestion codées en dur. La rénovation consistera donc à identifier les parties de code implémentant ces règles de gestion pour les extraire et alimenter un moteur de règles, afin quelles soient accessibles et modifiables par les utilisateurs et non les développeurs.
Le paramétrage des règles de gestion via un moteur de règles obéit à la fois à un besoin de flexibilité métier et un besoin darchitecture. Dune part, en autonomisant les métiers via la mise à disposition doutils de modélisation et de développement de règles métier pour plus de flexibilité, dautre part, dun point de vue plus technique, en évacuant les règles métier de la grammaire BPEL (Business Process Execution Language) afin de favoriser maintenance et réutilisabilité des paquets de règles.
Contrôle de lévolution
Toute évolution/ intervention sur un code existant, peut potentiellement dégrader un système, et le rendre ou moins réutilisable (faute de documentation ou de suivi de principes darchitecture), ou moins maintenable, sil y a dégradation de la qualité du codage ou introduction derreurs La maintenance dun code existant doit donc être mise sous contrôle de la qualité de lévolution, particulièrement dans le cadre de lexternalisation de la maintenance, où la nécessité de réduire les dépendances/le verrouillage avec un prestataire est flagrante.
Le contrôle est à la fois « statique », au sens analyse des sources du code pour déterminer lévolution des critères qualité (maintenabilité, portabilité,
) et « dynamique », c'est-à-dire au sens de lexécution du code pour en déterminer entièrement le comportement.
Il faudra également veiller à la qualité de la documentation (documentation mise à jour régulièrement, modèle uml, etc.) voire de la mise à jour dun « référentiel de connaissance » si cette bonne pratique a été mise en uvre.
Le contrôle de lévolution ne sarrête pas à une analyse de la qualité des évolutions sur du code spécifique. Il sétend également à la mise en cohérence des différentes interventions et des opérations avec un cadre darchitecture dentreprise global, dans une approche durbanisation.
Si la tentation doublier le passé est facile, il est impossible déviter le futur. Et ce dernier est inéluctablement transformé par lhéritage du passé. Dans le cas des systèmes dinformation, les architectures émergentes doivent franchir lécueil dun existant complexe et hétérogène, avec lequel elles doivent composer. En créant un pont entre les anciens paradigmes darchitecture et les nouveaux, les techniques de « modernisation » aideront à franchir cet écueil.
Partie 5- Les meilleures pratiques de lévolution
Chapitre 11- Aspect dArchitecture dentreprise
Chapitre 12- lindustrialisation
Chapitre13 Innovation et « intelligence » de lévolution
« L'expérience, c'est le nom que chacun donne à ses erreurs. » disait Oscar Wilde. En cinquante ans dinformatique et de mise en place de système dinformation, la profession toute entière a eu le temps dapprendre du retour dexpériences des « erreurs passées ». Cela névite pas den répéter certaines, car lévolution humaine est bien plus lente que celle apparente des technologies, ce qui nous amène parfois à oublier des principes simples en nous laissant griser par la nouveauté. Reste quune « science a lâge de ses instruments de mesure » et que ceux des systèmes dinformation se construisent peu à peu, instruments de mesure de la valeur, cartes des territoires de linformation, référentiels dinformation ou de meilleures pratiques, logique dautomatiser les tâches réplicables, principes dabstractions et dimplémentations, etc.
Sans oublier, bien sûr, quune des meilleures pratiques des systèmes dinformation, cest ne jamais cesser de proposer des innovations dusage ou dorganisation, grâce à lexploitation des nouvelles technologies, tout en préservant lhéritage du futur.
Chapitre 11
Aspects dArchitecture dEntreprise
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Les espèces qui survivent ne sont pas les espèces les plus fortes, ni les plus intelligentes, mais celles qui s'adaptent le mieux aux changements."
Charles Darwin
«Nous nhéritons pas de la Terre de nos ancêtres, nous lempruntons à nos enfants ».
Proverbe amérindien
Ce proverbe pourrait devenir ladage des générations futures, forcées dhériter de nos expériences passées, c'est-à-dire de nos erreurs. Sans vision globale des composants du système dinformation, sans recherche de cohérence entre eux, les constructions de ces dernières années, au fil de leau, ont été erratiques et souvent causes de bon nombre de redondances, de manque de performances et de manque de qualité, en particulier de maintenabilité. La construction du système dinformation de lentreprise ressemble plus à un assemblage de legos en équilibre instables quà un temple grec, et les « voies de communication » entre les applications ressemblent plus aux rues de Paris avant le passage du Baron Hausmann quaux champs Elysées.
Pour contrer cette architecture instable, cette construction sans cohésion, les approches darchitecture dentreprise proposent des méthodes et des cadres de cohérence, notamment pour arriver à un Système dinformation capable de survivre au futur. Ainsi ce chapitre va expliquer les concepts darchitecture autour des systèmes dinformation fait pour durer, grâce à leur capacité dadaptation », et également lapproche des cartographies des systèmes dinformation, tellement liées à la définition de référentiels de larchitecture et indispensables pour débuter toute logique de reconstruction dune architecture densemble cohérente ou durbanisation du SI.
Le Concept de SI durable
Gouverner lhéritage du passé pour contribuer au futur
On le sait, lactivité humaine augmente la concentration de gaz à effet de serre (GES) dans latmosphère. Nous ne maitrisons plus à léchelle du globe les conséquences bien physiques de notre consommation effrénée dénergie. Tout se passe comme si, pour citer Robert Socolow, professeur dingénierie à Princeton, « nous avions lancé une expérience non contrôlée à léchelle du globe ».
Le monde virtuel des technologies de linformation nest pas mieux maitrisé, car au fond, il nest pas réellement virtuel. Il sancre dans la réalité par des machines, des fichiers, des centres de données, des listings de code, de la fibre optique, etc.
Une partie de liceberg réalité du monde des TIC sest montrée au grand public à travers une prise de conscience autour du concept denvironnement durable et justement, la consommation délectricité des ordinateurs, devenus si répandus, a fait frémir.
En réalité, la partie immergée de liceberg reste à maîtriser, aussi.
Certes la motivation des DSI et des responsables dinfogérance tourne aujourdhui, en matière dénergie, autour de deux problèmes cruciaux.
Le coût délectricité sur les data centers (centre de traitement des données)
Il sagit dun gros poste de dépense puisquil contribue à plus de 50% du coût total. Il dépasse les matériels informatiques et autres, sachant que ce sont les matériels non réellement informatiques qui font la moitié de la consommation énergétique
La disponibilité de lélectricité
Dans certains data center, il ny a plus assez délectricité disponible. Les locaux sont à moitié vides grâce à la miniaturisation des équipements, mais la surface restante ne peut être utilisée faute de disposer de courant pour lalimenter.
De ce fait, il y eu beaucoup dannonces sur de nouveaux ordinateurs « plus verts » et les bienfaits des méthodes de rationalisation et de virtualisation. Sur ce dernier point, beaucoup de DSI ont entrepris ainsi des actions visibles, légitimées par des réductions de coût.
Réduire toutefois les réponses à la durabilité à cette approche, cest ne voir quun aspect du problème, lequel nest pas davantage traité en globalité. Car si on remplace danciens ordinateurs par des ordinateurs plus verts, comment recycle-t-on les anciens, comment traite-t-on des déchets ?
Si la nouvelle génération de centre de traitements de donnés, même « dans les nuages » (voir laparté sur le cloud computing) est très standardisée (serveurs sous marque blanche, implémentation physiques identique, etc), et réduit lempreinte énergétique, elle ne répond pas forcément à la gestion dapplications spécifiques critiques dues à lhéritage informatique.
Comment ça marche ?
Le « cloud computing » ou linformatique dans les nuages
Le principe du « cloud computing » fait référence à l'utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier et liés par Internet (cest lancien principe de « grid computing », ou grille informatique). Un « nuage » est composé d'un certain nombre de serveurs distants interconnectés au moyen d'une excellente bande passante indispensable à la fluidité du système.
On peut « déporter » tout ou partie dune infrastructure informatique dans un « nuage » géré par un prestataire de service qui fournit les fonctionnalités liées au stockage (sauvegarde y compris) traitement et transport de données.
Ensuite, il y a le problème des données elle-même. Le volume des données ne cesse daugmenter selon un rythme encore appelé à croître avec lexpansion des moyens informatiques, les capacités des microprocesseurs (voir laparté sur la loi de Moore) et la diminution des coûts de stockage. IDC estimait cette croissance à 30% par an en 2008. La prolifération de données est semblable à une logique de consommation effrénée : tant que la ressource existe, nest pas rare et chère, le volume de données croît.
Définition
La loi de Moore demeure-t-elle vraie ?
Loi ainsi nommée du nom de Gordon Moore, un des trois fondateurs dIntel, qui, suite au constat que la complexité des semi-conducteurs proposés en entrée de gamme doublait tous les dix huit mois à coût constant depuis 1959, avait fait lextrapolation empirique dans « Electronics Magazine » que cette croissance exponentielle se poursuivrait.
En 1975 Moore réévalua sa prédiction en posant que le nombre de transistors des microprocesseurs (et non plus de simples circuits intégrés moins complexes car formés de composants indépendants) sur une puce de silicium double tous les deux ans. Sans parler des contraintes physiques que la « loi » de Moore peut rencontrer, en 2015, les processeurs devraient donc contenir plus de 15 milliards de transistors.
En 1960, Sony met sur le marché le tout premier téléviseur à transistor, le TV8-301, intégrant 23 transistors en silicium et en germanium. Ce dernier est suivi par lIntel 404, intégrant plus de 2000 transistor, pour nous mener à la dernière née des puces à quatre curs dIntel, sortie le 12 novembre 2007, la Core 2 Extreme, gravée en 42 nanomètres avec 820 millions de transistors répartis sur les quatre curs. Un nombre de transistors à comparer avec celui de lItanium 2 - 1,7 milliard, destiné aux serveurs haut de gamme. Sur près de quarante ans, la loi de Moore, une loi du changement, semble être restée relativement stable.
Donc même si de nouvelles technologies, de nouvelles fonctionnalités, des architectures optimisées apparaissent, de nouvelles données suivront. Linflation des données entraînera une demande de plus despace de stockage, de plus de matériels pour aboutir à plus de consommation dénergie et les centres de traitement des données devront à nouveau optimiser leur infrastructure.
Une question manque à léquation : est-ce que toutes ces données sont utiles ?
Certainement pas. Dun côté, il y a des emails, fichiers et vidéos personnels des employés qui peuvent se retrouver sur des réseaux Microsoft Windows. Computerworld estime déjà que 70% des capacités de stockage de ce type de réseau est dépensé inutilement.
De lautre, il y a des redondances de données complètement inutiles entre applications faute de référentiel standardisé.
Et pour finir, il y a aussi les impératifs réglementaires de traçabilité et de contrôle qui conduisent à un paradoxe : parce quon ne sait plus tracer et classifier avec pertinence ce qui a réellement de limportance, on sauvegarde trop, plutôt que pas assez. Il devient donc impératif, de casser le cercle vicieux. Selon Frederic Laura, dont lauteur conseille la lecture de la thèse à ce sujet : « Il devient impératif de canaliser les anciens et nouveaux flux de données dans les S.I. en mettant en place une véritable gouvernance des données (Data Governance). »
Green storage une thèse à « stocker » en mémoire
F.Laura « Green Storage : enjeux et facteurs clés de succès. Optimisation et rationalisation de linfrastructure de stockage pour un développement plus durable » (lien direct de téléchargement : HYPERLINK "http://www.cri.ensmp.fr/classement/doc/these_FRL_04.pdf" http://www.cri.ensmp.fr/classement/doc/these_FRL_04.pdf)
Comment ça marche ?
Optimisation de linfrastructure : pour rendre le réel des TIC
plus virtuel
Les deux mamelles de loptimisation dinfrastructures (matériels serveur, stockage, sauvegarde, poste de travail, etc) étaient, avant larrivée de la virtualisation, consolider et optimiser. Consolider en mutualisant les ressources, en réduisant les espaces inutiles, les systèmes trop consommateurs, en ramenant des applications dispersées sur de trop nombreux serveurs physiques sur des serveurs avec des partitions logiques (mais encore le même OS)°.Optimiser en utilisant des systèmes RAID , la déduplication et la compression, etc.
Larrivée de la virtualisation ouvre encore plus de perspectives à loptimisation.
Un logiciel de virtualisation permet de partitionner un serveur physique en plusieurs "machines virtuelles"; chacune d'elles exécute son propre système d'exploitation (OS) serveur et peut fonctionner de manière transparente en réseau avec les serveurs existants. Chaque serveur physique peut, en théorie, être divisé en plusieurs dizaines, voire centaines de serveurs virtuels. Les avantages sont les suivants :
En créant des « pools » de ressources, la virtualisation en améliore de manière significative lutilisation et libère les organisations de lhéritage du modèle « une application, un serveur ». La virtualisation permet dassocier à une activité normale les ressources appropriées et de pouvoir absorber les pics dactivités en ajoutant dynamiquement de nouvelles ressources si nécessaire. En outre, grâce à la virtualisation, on peut réduire le nombre de matériel dun centre de traitement de données et en diminuer ainsi les coûts dinfrastructure.
Au-delà des données, pour poursuivre dans la « réalité » du monde virtuel, il y a tous les programmes qui les manipulent et toutes les couches intermédiaires conçues pour faire communiquer le tout.
En 2000, Somerville estimait à 250 milliards les lignes de code en maintenance dans le monde, tandis que selon Mueller et al, 1994, le volume de code en maintenance doublerait tous les sept ans.
De la même manière, il faut un cycle de 5 à 10 ans pour voir lémergence de nouvelles technologies, en moyenne la durée dutilisation dun ERP est proche de sept ans (IDC), mais les applications critiques dentreprise, développées en spécifique, vivent plus de vingt cinq ans.
Les entreprises qui développent toujours de nouvelles applications, sans consulter l'existant et sans s'intéresser aux programmes qui n'ont plus d'utilité, vont être confrontées par négligence à une complexité croissante, et à des logiciels obsolètes ou redondants, freinant la capacité de leurs systèmes dinformation à réagir aux nouveaux alignements stratégiques.
Ces systèmes sont comparables à une ville qui, en se développant de manière anarchique, augmente les risques dincendie non maitrisé sur les bâtiments anciens, et diminue sa capacité à conduire des travaux davenir pour la croissance économique. Doù le concept durbanisation pour instaurer un cadre de cohérence à lévolution des systèmes dinformation. Par analogie avec larchitecture dune ville, ce concept va de pair et englobe celui de modernisation.
Pour éviter mille milliard de lignes de code ou de données immaitrisables dans un futur proche, il faut reprendre le contrôle des biens logiciels.
Parce quil est prévisible de perdre le contrôle dun système sur lequel on na pas de réelle visibilité -au sens où, à tout moment, on puisse mesurer la valeur de ce quil apporte et quon sache avec acuité comment et avec quoi il lapporte, sous peine de ne pas pouvoir réellement piloter.
Comment changer rapidement quand on ne sait pas mesurer rapidement limpact et le coût de nimporte quel changement métier sur le SI? Ou quand on ne dispose pas des moyens de tester efficacement au préalable ces changements? Quand on ne sait pas concevoir proprement le changement pour quil puisse se faire à la demande du métier, sans repasser par des cycles de développement et de mise en production complets ? Quand on ne sait pas ce qui a de la valeur, quelle soit de productivité ou métier, dans les processus, les données, les applicatifs ou les pratiques? Quand la fenêtre de dialogue entre métiers et informatique est unidirectionnelle ou avec des retours avants/ arrières, toujours en mode unitaire projet, plutôt quen mode collaboratif instantané avec une vision globale et transverse du SI?
Définition
La gouvernance ou comment instaurer un gouvernement « éclairé »
Selon le petit Larousse, la gouvernance, cest dabord laction de gouverner, une manière de gérer, dadministrer, pour exercer le pouvoir exécutif.
Le terme sest popularisé avec les différents scandales financiers aux Etats-Unis (Enron, Worldcom, Tyco, ..) qui ont conduit à des lois de contrôle. En particulier, aux Etats-Unis, la loi fédérale de 2002 sur la réforme de la comptabilité des sociétés cotées et la protection des investisseurs qui a imposé de nouvelles règles sur la comptabilité et la transparence financière. Le texte est couramment appelé loi Sarbanes-Oxley, abrégé en SOX. du nom de ses promoteurs les sénateurs Paul Sarbanes et Mike Oxley.
La demande, au-delà du seul contrôle financier, est dinstaurer une « gouvernance dentreprise » qui puisse rendre compte aux différentes parties prenantes (actionnaires, certes, mais aussi employés, clients, fournisseurs, partenaires et pouvoirs législtatifs) que lentreprise est bien gérée et administrée dune part dans le respect des lois sociales et économiques, dautre part dans la construction de sa « proposition de valeur » et la gestion de ses biens.
Une proposition de valeur bien construite suppose un partage de la valeur créée avec les différents contributeurs, tout en préservant la rentabilité économique de lentreprise.
La gouvernance du « Système dinformation » est un principe dérivé qui porte sur la façon de gérer et dadministrer le Système dinformation de lentreprise pour quil puisse contribuer à la création de valeur. La préservation et le développement des « biens immatériels », ainsi que la traçabilité et le contrôle des données financières, entrent dans ce cadre.
La question de la « gouvernance du SI » nest pas seulement stricto sensu dinstaurer un mode de gouvernement du SI et de sassurer que le système dinformation en action soit bien piloté. Il sagit plutôt de sinterroger sur : comment reprendre le contrôle? Une gouvernance qui ne regarderait que vers lavant sera amenée à trébucher faute davoir veillé aux fondations de son pouvoir.
Il sagit de reprendre le contrôle sur les informations, sur larchitecture (linfrastructure économique du SI), sur la façon dont on peut rassembler les individus dans une communauté dintérêts adhérant à une vision stratégique. La gouvernance, cest davantage la capacité à donner de la connaissance et de la souplesse à une organisation pour quelle sache sadapter aux évolutions sans renier le passé, que la volonté de conduire à force abrupte vers le futur.
Cest pourquoi la gouvernance est complexe et multidimensionnelle, car elle concerne autant les informations, les technologies que les hommes et quelle ne se décline pas seulement au présent : la prise en compte du passé et louverture vers le futur lui sont essentiels.
Les espèces évoluent avec leurs communautés écologiques. Cest une réalité du monde qui nous entoure et à loublier, nous avons mis en péril beaucoup de choses. Lenjeu de lévolution des SI est similairement dêtre capable de comprendre, réutiliser, adapter lexistant, le patrimoine applicatif. Pour cela, il faut apprendre à concevoir autrement, en introduisant la notion de recyclable dans la conception, pour les générations futures, tout en rénovant progressivement ce qui existe afin de pouvoir lutiliser dans les nouveaux schémas.
Mais si la gouvernance doit prendre en compte de multiples dimensions, elle a toutefois une priorité quelque soit langle de son regard : se concentrer sur la valeur.
Modernisation et urbanisation : les deux faces de Janus
Le concept européen durbanisation est frère de celui de modernisation. Le changement en informatique est inéluctable. Pour éviter un développement anarchique de son système dinformation qui conduira invariablement à une complexité non maitrisée, il faut envisager les nouvelles applications et technologies à laune de lanalyse et la réutilisation de lexistant
Un peu dhistoire
Lurbanisation : de la ville au système dinformation
Définition proposée par le Club Urba-EA: Urbaniser, c'est organiser la transformation progressive et continue du système dinformation visant à le simplifier, à optimiser sa valeur ajoutée et à le rendre plus réactif et flexible vis à vis des évolutions stratégiques de l'entreprise, tout en s'appuyant sur les opportunités technologiques du marché.
Lurbanisation représente laction durbaniser, cest-à-dire dorganiser le développement des villes. En Système dinformation, le principe est le même. Il sagit de substituer aux constructions « big bang » une démarche qui vise à faire évoluer le SI (Système dinformation) de façon continue, cohérente avec la stratégie de lentreprise et qui ne fasse pas « table rase » du passé.
Ce concept est apparu au début des années 90, la première fois lors dun exposé en 1989 du colloques de Cerisy intitulé « Les nouveaux rapports entre linformatique et lentreprise » par Elisabeth Heurgon( Responsable à lépoque des Systèmes dinformation de la RATP). Les concepts de l'urbanisation de l'habitat humain (organisation des villes, du territoire) ont été ensuite réutilisés en informatique (notamment par Jacques Sassoon dans les années 1990 dans le secteur bancaire) pour formaliser ou modéliser l'agencement du système dinformation (SI) de l'entreprise.
Les concepts durbanisation reposent « sur une organisation du système dinformation suffisamment modulaire pour pouvoir rénover une fonction (par exemple, la gestion des stocks) sans paralyser l'ensemble de l'entreprise, tout en définissant les principes et les protocoles permanents qui assureront la cohérence et le fonctionnement de l'ensemble sur le long terme » Selon Christophe Longépé (Le projet d'urbanisation du S.I., première parution 2001, 4e édition 2009 chez Dunod)
En parallèle du concept, est né le rôle darchitecte urbaniste, ou urbaniste du SI. Il vient sinscrire comme architecte à mi-chemin entre les métiers et le SI. Cest aussi à lui détablir les règles durbanisme et daccorder les permis" de construire et le cadre architectural des nouvelles constructions afin quelles sinsèrent dans le SI global en respectant le « patrimoine » et lenvironnement.
Il repose sur le constat qu'il est illusoire de vouloir reconstruire entièrement un système dinformation en faisant table rase de l'existant, mais qu'au contraire les réorganisations et modernisations sont permanentes, un peu comme dans une ville. Cet ouvrage montre comment organiser le système dinformation d'une entreprise de façon suffisamment modulaire pour pouvoir rénover une fonction
Le défi des nouveaux modèles reste de ne pas oublier lexistant des SI, sous peine de créer à leurs tours des strates de complexité. Il nest guère réaliste, pour des raisons de coûts, de délais, dadéquation fonctionnelle, dentreprendre une ré-écriture complète des applications métiers pour profiter des nouveaux paradigmes darchitecture, ou de substituer à un système dinformation spécifique, mémoire de lentreprise, un progiciel indifférencié.
Lenjeu est de faire évoluer cet héritage complexe, en minimisant les risques déchecs et les coûts. Insérer une nouvelle technologie par goût de linnovation ou pour la promesse de « ce quon pourrait faire avec » ne suffit plus à convaincre. Il faut linsérer là où elle sera nécessaire et en mesurer la valeur réelle. Cela veut dire analyser la différence entre larchitecture existante, les fonctions opérationnelles et les nouveaux besoins, ce quon peut réutiliser et comment évoluer progressivement vers un cadre architectural suffisamment souple pour amortir et intégrer les bénéfices des nouvelles technologies et répondre rapidement aux nouveaux besoins métiers.
La nécessité de décomplexifier et modulariser le SI est très vite apparue. Comme pour les fonctions, pourquoi ne pas décomposer un assemblage complexe, le système dinformation, en le considérant comme un assemblage de sous-systèmes plus simples ?
Modularisation.png
Légendes figurant dans limage
Figure 11-1.
Principe de la modularisation
Comme lindique la figure ci-dessus, lurbanisation du SI consiste à simplifier la boîte noire du SI en la décomposant en sous-modules fonctionnels, puis à simplifier et mutualiser dès que possible et rationaliser les échanges entre blocs. Par analogie avec lurbanisation dune ville il sagit didentifier, voire créer, des quartiers relativement indépendants et les relier entre eux par des voies de communication.
On va donc découper le SI en modules fonctionnels autonomes (suivant la logique de cohésion forte et de couplage faible) de taille de plus en plus petite :
les zones,
les quartiers (et les îlots si nécessaire),
les blocs (blocs fonctionnels).
Entre chaque module (zone, quartier, îlot, bloc) on concevra des zones déchange dinformations afin de découpler les différents modules pour qu'ils puissent évoluer séparément tout en conservant leur capacité à interagir avec le reste du système.
Ces zones déchanges sont soutenues par les concepts et technologies dintégration, dabord EAI (Enterprise Application Integration) et à présent ESB (Enterprise Service Bus).
Lurbanisation sappuie sur des pré-requis comme une redéfinition des axes stratégiques et une connaissance précise des processus métiers et du patrimoine afin que les nouvelles applications sinsèrent dans le cadre de cohérence, sintègrent à lexistant.
Cette démarche durbanisation passe par la définition des axes stratégiques de lentreprise puis par une cartographie de lexistant afin de pouvoir analyser le SI, de pouvoir proposer des recommandations, par la définition dune architecture cible et par son plan dévolution.
La cartographie implique un diagnostic de létat du SI avec une représentation commune à une maille qui permette
Didentifier les incohérences de construction : redondances, obsolescences
Didentifier les processus et les règles métiers mis en uvre
Didentifier le lien entre loutil informatique et le système dinformation
Lobjectif de lurbanisation étant déterminé , c'est-à-dire passer du « plat de spaghettis » à une structure modulaire, appréhendable et évolutive, alignée avec les objectifs de lentreprise, le principe connu, c'est-à-dire réduire la complexité dun tout en le décomposant en parties, lacte fondateur posé « établir une cartographie », reste la réalité : un labyrinthe avec non un, mais plusieurs, fils dArianne.
Car établir des cartographies utiles, partageables et exploitées est loin dêtre une sinécure, comme on le verra plus loin
Durabilité et chaîne dagilité
On ne peut couvrir les principes de « SI durable », sans évoquer également les « architectures orientées services » (SOA) et combien leur principe est liée à ces notions dévolutivité, de recyclage, de réutilisation.
En introduction du livre « Le système dinformation durable : la refonte progressive du SI avec SOA » (éditeur Lavoisier, collection hermes science, édition 2008) les auteurs, Pierre Bonnet, jean-Michel Detavernier et Dominique Vauquier écrivent : « lambition de construire aujourdhui nos systèmes dinformation de telle sorte quils ne limitent pas les capacités daction pour les générations futures est une ligne de conduite retenue par larchitecture orientée services. [
] Cest dans ce contexte que lentreprise se dote dune architecture informatique durable qui saura absorber les évolutions, c'est-à-dire capable de se recycler plus facilement face aux changements métier et technique. Il nest pas intéressant de reconstruire un système si celui-ci est incapable de sadapter aux nouveaux besoins qui se présentent. Nous devons penser différemment linformatique dans le but de la rendre recyclable au fur et à mesure des évolutions. »
Ainsi exprimée, lambition du système dinformation durable avec la SOA nest pas tant « penser différemment » quarriver à laboutissement tangible de courants de pensée tels que lurbanisation et la modularisation fonctionnelle dune part et de lautre, lélévation des niveaux dabstraction, des modèles des systèmes au-dessus des plates-formes de déploiement et
la logique dassemblage par composants de lorienté objet .
La première partie de ce livre évoquait CORBA et lOMA (le modèle SOA de lorienté objet), MDA (Model Driven Architecture les méta-méta modèles de linformatique) et également lévolution des architectures dintégration pour arriver à lESB (Enterprise Service Bus).
Tous ses composants sont les ferments en gestation de larchitecture SOA. Les catalyseurs qui ont permis la maturation en un concept global sont autant la logique douverture induite par le déploiement des Systèmes sur le Web et la nécessité dexposer rapidement des fonctions dusage, que lévolution des concepts de réutilisabilité avec la notion de service.
Un service répond à un besoin et ne traite quune seule préoccupation. C'est aussi un composant autonome qui ne dépend daucun contexte ou service externe. Surtout, on peut créer des services indépendamment de la plate-forme dimplémentation, sans besoin dêtre forcément en orienté objet.
Définition
A votre « service » , mais lequel ?
Le service est l'unité atomique d'une architecture SOA. Une application est un ensemble de services qui dialoguent entre eux par des messages.
Le service peut être codé dans n'importe quel langage et s'exécuter sur n'importe quelle plate-forme (matérielle et logicielle).
Un service est une entité de traitement qui respecte les caractéristiques suivantes
Large Granularité (coarse-grained) :
Les opérations proposées par un service encapsulent plusieurs fonctions et opèrent sur un périmètre de données large au contraire de la notion de composant technique.
Interface :
Un service peut implémenter plusieurs interfaces, et aussi plusieurs services peuvent implémenter une interface commune.
Localisable :
Avant dappeler (bind, invoke) un service, il faudra le trouver (find).
Instance unique :
A la différence des composants qui sont instanciés à la demande et peuvent avoir plusieurs instances en même temps, un service est unique. Il correspond au design pattern Singleton.
Couplage faible (loosely-coupled) :
Les services sont connectés aux clients et autres services via des standards. Ces standards assurent le découplage, c'est-à-dire la réduction des dépendances. Ces standards sont des documents XML comme dans les web services.
Synchrone ou Asynchrone.
Toute la difficulté de la conception en SOA est didentifier la bonne « granularité du service », c'est-à-dire la maille métier où le traitement a un sens en termes dusage et où il peut être facilement réutilisé et/ou adapté dans dautres circonstances, pour dautres besoins et processus métiers. Les services doivent impérativement dépasser les silos applicatifs traditionnels pour être utiles. Ils ne peuvent donc être conçus dans une approche danalyse fonctionnelle classique et surtout pas par des informaticiens qui en verraient dabord laspect ingénierie logicielle. Reste donc à définir la bonne méthode dapproche.
Une proposition intéressante, qui établit la continuité avec les méthodes durbanisation et les approches orientées objet est la méthode Praxeme. C est le nom d'une initiative ouverte, regroupant plusieurs sociétés (en association loi 1901) en vue d'élaborer une méthode publique.
Cette méthodologie d'entreprise couvre tous les aspects de l'entreprise, de la stratégie au déploiement. On y trouve, notamment, des procédés pour l'architecture logique et la conception des services (SOA), pour la conception des organisations et des processus, pour la modélisation sémantique (référentiel "métier"), etc.
Il apparaît que la maille service est la maille idéale pour faire fonctionner les systèmes ensemble, couplée avec trois logiques. Une première logique dindustrialisation des canaux de communication, où linfrastructure dintégration devient un ESB, un bus dintégration à léchelle de lentreprise et non limité à un silo applicatif. Une seconde logique de gouvernance des données et pour finir, une troisième logique de paramétrage, pour rendre le SI plus souple et autonomiser les métiers.
Si les techniques dencapsulation des applications existantes en mode services ont prouvé aujourdhui leur faisabilité et efficacité, il reste encore à aller au-delà pour que la notion de services ne soit pas juste une réfection temporaire dune façade, en laissant les fondations saffaisser. Cela nest pas quaffaire de technologie, il sagit dune rénovation en profondeur également de nos façons dagir. Il ne sagit pas seulement de penser linformatique différemment, mais de revoir nos organisations en ce sens.
Le SOA, ce ne sont pas des outils dassemblage de composants arrivés à maturité, cest un paradigme transformationnel.
Larticle « SOA is dead ; long live services » de Anne Thomas Manes, du Burton group, ne dit pas autre chose : sil y a eu des échecs spectaculaires, et aujourdhui une désillusion à la hauteur de ce que le concept SOA avait pu susciter comme enthousiasmes, cest que la mise en uvre dun paradigme transformationnel requiert
une transformation complète de notre façon de concevoir et dopérer les SI; ce nest pas juste affaire, ainsi quelle le souligne, « de déployer une nouvelle technologie et de créer des interfaces de service par-dessus des applications existantes ».
ACMS.png
Légendes figurant dans limage
Figure 11-2.
La chaîne dagilité de la communauté « sustainable IT »
Sustainable IT communauty (copyright http://www.sustainableitarchitecture.com/)
Dans cette optique de transformation, Praxeme et une communauté sur « sustainable IT », poussent également à lutilisation dune « chaîne dagilité », ou ACMS (Agility Chain management System), fondée sur lusage de concepts et outils tels que les les MDM, pour la gestion des données transverses à lentreprise (les données maître), les BRMS (Business Rules Management System), pour la gestion des règles métier, et les BPM, Business Process Management, pour la gestion des processus métiers et pour orchestrer le tout.
Les dispositifs des deux premières briques facilitent le partage sémantique et lensemble autorise des processus paramétrés (MDM et BRMS) et allégés (BPM).
Limplémentation de cette chaîne repose sur un cycle de développement itératif et commence par le MDM pour arriver séquentiellement au BPM.
Cest une approche qui a le mérite de sadresser au besoin de paramétrage du SI et de respecter lalignement en conduisant aussi lapproche avec les processus.
Les cartographies
Les systèmes dinformation des entreprises sont des territoires quil faut pouvoir cartographier pour voyager sans risque sur les terres connues, et explorer le potentiel de développement de nouvelles routes déchanges dinformation (extra-entreprise). Comme autrefois les lignes maritimes servaient aux échanges de biens matériels, ceux qui possédaient les « bonnes » cartes pour naviguer, disposaient dun temps davance pour la conquête de terres ou de commerces. Ainsi, pour les Systèmes dinformation, faut-il sinterroger sur les cartes de représentation de ce monde virtuel, comment les construire quelles représentations, quels repères, quels moyens de collecte ? - comment les exploiter quelles routes prendre, quels obstacles éviter, quels mouvements prévoir, de quelles connaissances se prévaloir ? - comment les comprendre et les étendre en explorant dautres « dimensions ».
Et de même que pour le monde réel, les cartes de notre monde « immatériel » se bâtissent sur les mêmes tâtonnements, les mêmes règles, certaines bien visibles, dautres plus subtiles.
Le géographe et les explorateurs
Les premiers cartographes rassemblaient les témoignages, les mesures déjà établies pour construire les cartes. De plus, ils se basaient sur des connaissances en mathématiques, voire en astronomie, pour établir des systèmes de projections pour modéliser la géométrie de la surface terrestre sur un plan. Ainsi fit Eratosthène, dont on dit quil était le premier géographe, en ayant conçu une carte du bassin méditerranéen, du moins des zones habitées, donc une représentation du monde connu, nommée écoumène.
Il est important aussi de noter quEratosthène avait établi de nombreux systèmes de classification, notamment pour la bibliothèque dAlexandrie et quil est à lorigine dune mesure de la circonférence terrestre. Autre géographe connu, Claude Ptolémée, avec son « Introduction géographique à la cartographie » a non seulement réutilisé plus ou moins le fruit des travaux de ses prédécesseurs, mais, pour mettre à jour des données sur les régions, utilisé les descriptions d'itinéraires et de périples disponibles à son époque, et « a priori » établi de nouveaux systèmes de projection.
Ce qui signifie deux choses, les premiers cartographes utilisaient des systèmes de projection, des référentiels et des repères, et ils établissaient des cartes du « monde connu », en fonction des descriptions obtenues.
« C'est exact, dit le géographe, mais je ne suis pas explorateur. Je manque absolument d'explorateurs. Ce n'est pas le géographe qui va faire le compte des villes, des fleuves, des montagnes, des mers et des océans. Le géographe est trop important pour flâner. Il ne quitte pas son bureau. Mais il reçoit les explorateurs. Il les interroge, et il prend note de leurs souvenirs. » . Cette citation du «petit prince » de Saint Exupery, nous rappelle également comment aujourdhui sétablissent bon nombre de cartographie - du moins fonctionnelles, la précision est dimportance et on y reviendra - des Systèmes dinformation : par la collecte dinformation à travers des interviews.
Le cartographe a besoin « dexplorateurs » sans cela il ne peut compiler la somme des connaissances de son temps et mettre à jour de nouvelles cartes. Ce que le cartographe apportera en plus, cest cette vision de comment établir une « projection » du monde et comment établir les repères de la carte.
Référentiel de lecture ou référentiel spatio-temporel
Car si la carte peut matérialiser le voyage, la « trace » et litinéraire, elle ne le peut sans repère et sans référentiel. Le mouvement se décrit et se partage en fonction dun référentiel spatial et temporel. Ce qui nous amène à nous pencher sur deux définitions de référentiel dont le distinguo est lourd de conséquences pour les Systèmes dinformation : le référentiel de lecture et le référentiel despace/temps.
Dabord, le référentiel de lecture de carte consiste à partager des définitions sur les données de la carte (informations et objets que lon veut y faire apparaître en fonction de lobjectif de la carte). Afin de faciliter la lecture des cartes et de traiter certaines informations plusieurs référentiels administratifs ou techniques sont utilisés dans nos « cartes » du monde. Ces référentiels ici agissent plutôt comme « mode opératoire », ce sont des systèmes de lecture, de partage de « sens » et sont plus ou moins assimilables à des catalogues ou des systèmes de classification dobjets, a priori « invariants». « Les géographies, dit le géographe [du petit prince], sont les livres les plus précieux de tous les livres. Elles ne se démodent jamais. Il est rare qu'une montagne change de place. Il est très rare qu'un océan se vide de son eau. Nous écrivons des choses éternelles. »
Outre que limpact de lhomme sur les océans pourrait nous faire sexclamer à linstar du poète « jai vu tomber tant de chose que je croyais éternelles !», les géographies des Systèmes dinformation ont un problème avec les choses éternelles, parce quelles ont un problème avec le temps. Et dans lappréciation de ce qui est réellement « invariant » pour établir une cartographie souvent partagée entre lutile à court terme et lindispensable à long terme; et dans lusage du temps comme repère pour pouvoir parler de mouvement et dévolution, et dans le temps donné à létablissement des cartes, tant pour la compréhension du périmètre, des objectifs, des repères (axes de représentation dans lespace et axe temporel), le choix ou létablissement dun modèle de projection, que pour la collecte.
Lutile et lindispensable
Lapproche de la cartographie pour une logique durbanisation du SI est une approche à long terme, où il faut pouvoir dégager la notion dinvariant métier, les objets métiers et leur sens.
Lidéal est de pouvoir disposer dun méta-modèle avec des couches dabstractions qui permettent lindépendance vis-à-vis des plateformes physiques et des modèles de réconciliation/dérivation (on se réfèrera au MDA, Model Driven Architecture, avec le PIM, Platform Independant Model et PDM, Platform Dependant Model). Peu à peu, cette logique nous guide vers une approche plus durable des Systèmes dinformation.
Encore faut-il restructurer lexistant en ce sens, et pour le restructurer, comprendre sa « géographie » et ses informations. Où commencer donc dans létablissement de la cartographie ? Envisager le modèle idéal cible (et sengager dans une « quête du graal ») ou commencer par répertorier les traces déjà existantes, les itinéraires tracés, quitte à ne garder de la route existante que le réellement signifiant (qui a un sens sur la durée du moins). Il y a un juste milieu entre vouloir tout cartographier en profondeur et se fixer dabord des objectifs de dialogue utile sur le plus grand périmètre possible pour avancer concrètement. Sauf à se perdre dans la cartographie du détail au détriment de lusage.
Selon les services que doit rendre la cartographie son objectif « dusage » (son utilité), on la voudra plus ou moins étendue, et on se concentrera sur les informations indispensables à faire apparaitre dans un premier temps pour prendre des décisions. Les cartes devront sétoffer de lexpérience pratique du parcours, comme autrefois les cartographes mettaient à jour leurs cartes avec le retour des explorateurs (et seulement sur lecoumen, le monde connu).
Il y a deux « temps » pour établir la carte avec lindispensable pour quelle soit utile dans lobjectif quon lui fixe. Celui de la réflexion pour une carte générale (indépendamment de tout voyage/projet), qui devra sastreindre à ne pas être trop détaillée, celui du parcours pour létoffer projet par projet avec ce qui savère réellement utile en plus de lindispensable.
Le temps comme repère.
Si nous voulons utiliser la cartographie du SI pour aller au-delà dun état des lieux statiques et pour savoir vers où progresser, ou déterminer vers où nous dirige un mouvement, on doit impérativement définir un système de référence.
L'évènement pourra sembler différent selon l'emplacement où se trouve l'observateur, et selon les repères qu'il a. Pour décrire le même événement de la même manière, les observateurs devront se mettre d'accord sur le « par rapport à quoi » ils étudient le mouvement.
Nous sommes donc ici dans lapproche « physique » et non plus catalogue du référentiel, où l"on appelle système de référence, ou référentiel un système de coordonnées muni d'une horloge." (Hladik, Chrysos). Cest là où des notions telles que le cycle de vie de linformation et le cycle de vie des objets prennent leurs importances. Cest là où la définition « dindicateurs dévolutivité» est importante, pour positionner tout ou partie du SI sur une « carte de référence » avec des coordonnés spatiales (des « axes » orientés danalyse) et temporelles.
Le temps de cartographier
Le problème est de passer dun repère despace, avec un ensemble important daxes orientés, a un repère plan. Les axes sont multiples dans un SI : quil sagisse danalyser les données, les applications, les flux, les processus, les tâches, les fonctions ou les compétences et « lalignement » avec une stratégie daffaires.
Comment choisir les axes danalyse à bon escient? Tout dabord faut-il se poser la question de laxiologie : à quelles fins ? Selon quelles valeurs/modèles ? Puis de lopérationnalité : quels objectifs ? Une certification, une optimisation précise ? Une mesure de performance, de maturité ? Encore faut-il le faire par rapport à un modèle de valeurs spécifiques aux natures de besoins (optimisation, conception, production, alignement stratégique), Quels référentiels dès lors utiliser ? Ce temps de définition du périmètre est indispensable pour optimiser le « temps » et lefficacité dune démarche de cartographie, et dès lors connaitre la « cartographie des référentiels » est un préalable à la cartographie du SI
Le problème est quon ne parle pas ici dun référentiel, mais de plusieurs, dont quelques uns sont évoqués ci-dessous. Certains sont des référentiels de lecture, dautres plus ou moins spatio-temporels dans la mesure où ils permettent de positionner le SI sur un modèle de maturité et dobserver lévolution sur des axes définis.
Les premiers référentiels évoqués dans les Systèmes dinformation ont été les référentiels de données, envisagé dans un premier lieu au niveau applicatif, pour désigner un ensemble rationalisé des données dont se sert une application. Lobjectif est double, dune part il vise le meilleur partage des informations de référence (en terme de qualité et de maîtrise des échanges de référence) dautre part il sinscrit dans une optique de meilleure réactivité du SI face aux évolutions. « Lévolution » en loccurrence du référentiel de donnés applicatif, cest le MDM, ou Master Data Management, qui réconcilie une approche globale des données de référence au niveau du SI.
Ces référentiels permettent une cartographie des applications, avec le flux dinformation entre applications. Reste à faire le lien entre les applications et les infrastructures techniques et les informations relatives à la sécurité des applications : donc éventuellement les référentiels de règles y afférant.
A un autre niveau les référentiels de processus métiers sont au-delà de lapproche applicative, car ils ne doivent pas être soumis aux contraintes dimplémentation ou dautomatisation mais bien apporter une modélisation partageable entre acteurs, avec des définitions sémantiques des objets métiers autre référentiel de « lecture » à construire -, un découpage en tâches et sous-tâches pour arriver à une granularité qui peut être observée/analysée (de façon à décomposer la complexité et pouvoir réutiliser des services). A la clé : partage dinformation, vision réellement attachée à la « valeur » pour les métiers plutôt quaux contraintes techniques, réutilisation, etc.
Quant aux référentiels de compétences, ils servent à tenir compte de laxe « ressources humaines », ils facilitent la gestion prévisionnelle des compétences et la capitalisation sur les retours dexpériences projet, déterminant les comportements attendus en fonction des activités et les pré-requis dexpériences ou de connaissances. Là encore, la granularité du découpage en sous tâche et tâche sera clé dans lefficacité du référentiel (objectif de formation attaché à une micro-activité par exemple).
Les référentiels portant sur la « qualité » ou les « processus SI » (tels COBIT, ITIL, CMMI), sont quant à eux des référentiels de meilleures pratiques qui permettent de positionner son SI sur une cartographie « cible ». Reste là encore, que chaque référentiel est plus ou moins bien adaptée à un domaine et des objectifs (ITIL : exploitation, CMMI : développement (avec une version maintenance), COBIT : contrôle et pour partie « gouvernance ») et que leur usage doit passer par une nécessaire réflexion sur laxiologie de la cartographie et les objectifs court terme/long terme.
On peut également parler de référentiel risques (y compris risques vis-à-vis de lévolutivité), pour que les entreprises puissent être en mesure d'y positionner leurs enjeux, d'évaluer leur exposition selon différents scenarii et de prendre ou faire prendre des mesures visant à réduire la vulnérabilité des enjeux où cela est possible.
Choisir dabord les axes danalyse (a priori ceux définis pour la gouvernance), cartographier les référentiels existants (internes et externes) et en réutiliser ce qui est pertinent, commencer avec lindispensable sur une trajectoire utile à court terme (projet locomotive par ex), voilà comment le cartographe peut débuter. Il lui reste toujours le problème de la collecte, et son besoin dexplorateurs.
La carte nest pas le territoire
Si la collecte par témoignages a évolué aussi dans les systèmes dinformation, de par lexistence de mesures automatiques (essentiellement remontées de sources techniques), il nen reste pas moins que de nombreuses données sont encore remontées par lanalyse humaine. On ne peut faire abstraction des questions suivantes : Qui collecte les informations ? Qui construit les cartes et pour quelle utilité ? Qui valide et publie les cartes ? Nous avons fait le distinguo entre le cartographe et lexplorateur, reste également à évoquer le commanditaire et se rappeler la citation de Philippe Rekacewicz, responsable de léquipe de cartographes de lAtlas du Monde diplomatique : « La carte géographique nest pas le territoire. Elle en est tout au plus une représentation ou une « perception ». La carte noffre aux yeux du public que ce que le cartographe (ou ses commanditaires) veut montrer. Elle ne donne quune image tronquée, incomplète, partiale, voire trafiquée de la réalité. ».
Certes, de par le choix dun système de projection du SI sur des axes danalyse, nous avons de toute façon une déformation de la réalité et nous devons nous satisfaire de représentation tronquée sauf à poursuivre un idéal de détails préjudiciable à lusage réel de la carte. Mais il serait naïf de croire que la cartographie des SI ne soit pas également sujette à des enjeux géopolitiques ; Quid de ce qui est entre deux eaux, deux domaines, deux responsabilités dans les cartographies applicatives ? On se dispute aussi sur les territoires limitrophes, pour repousser des responsabilités du champ des mesures de performance, si elles nont pas été prises en compte dans le choix des indicateurs qui permettront les mesures, ou étendre son pouvoir de décision.
Dès lors, il faut une logique transverse, une légitimité du cartographe qui lui permette dacter aux frontières sans avoir à chercher un consensus qui nest pas forcément à lavantage commun de lentreprise mais qui sinscrit plutôt dans la logique datteinte dobjectifs individuels insuffisamment mis en cohérence. Ensuite, le choix des axes danalyses, le choix du niveau de représentation, relève dune stratégie dentreprise, une volonté de directions, et cest la valeur escomptée de lexploration qui décidera des explorateurs.
Les référentiels
Ainsi quévoqué précédemment les référentiels sont de multiples natures, quil sagisse de référentiels de lecture ou quils soient plus ou moins spatio-temporels dans la mesure où ils permettent de positionner le SI sur un modèle de maturité et dobserver lévolution sur des axes définis.
La cartographie des référentiels sur la « vue 360° » du SI
Un référentiel, par définition, est un ensemble déléments formant un système de référence. Ils sont des guides qui font autorité dans une profession et que lon consulte pour trouver une information dans un domaine particulier. Ils peuvent aussi être plus directifs et fournir avec précision un ensemble dexigences à satisfaire pour lobtention dune certification reconnue.
La pratique et lexpérience ont conduits les professionnels des logiciels et des Systèmes dinformation a constituer un certain nombre de référentiels, modèles types ou cadre générique de meilleures pratiques. La figure ci-dessous illustre sur la « vue 360° du SI », les différents types de référentiels, et nous allons revenir sur quelques uns des modèles et cadres de références.
Certains sont des référentiels de lecture, dautres plus ou moins spatio-temporels dans la mesure où ils permettent de positionner le SI sur un modèle de maturité et dobserver lévolution sur des axes définis.
Référentiel360.png
Légendes figurant dans limage
Figure 11-3.
Les différents types de référentiels sur la « vue 360° » du SI
Par extension, nous avons mis dans « sécurité » tout ce qui concerne le contrôle qualité et la vérification de la conformité à des exigences.
Une des premières briques de la qualité et du contrôle est le référentiel de test. Il contient les jeux de données et les cas de tests spécifiques aux services fournis par le SI et facilite les opérations sur des applications en production en autorisant lautomatisation des tests de non régression. Il est important de réaliser ces référentiels au plus tôt dans le cycle de vie dune application, en principe dès la modélisation, afin de limiter les erreurs qui peuvent être générées au moment des spécifications et tester « statiquement ».
Les référentiels, ITIL, CMMI, Cobit, sont des référentiels de type « guide », portant sur les processus internes de la DSI, afin que les développements, lexploitation, les pratiques de contrôle conduisent à produire des Systèmes de meilleure qualité, conformes aux exigences, pour des coûts et des délais moindres. Ils sont donc considérés sur laxe sécurité, dans la classification « processus et procédure qualité et contrôle ».
CMMI, aussi bien quITIL, proposent des certifications à plusieurs niveaux selon le degré de maturité que lorganisation a dans la mise en uvre des recommandations et le respect des prescriptions.
CMMI peut être considéré comme un référentiel « spatio-temporel » car il distingue plusieurs niveaux de maturité de lentreprise ( 1 à 5).
De plus, le SEI (Software Engineering Institute) à lorigine de CMMI (Capability Maturity Model for Integration) a étendu le modèle original, axé sur les développements logiciels en spécifique, sur des modèles de maturité pour la gestion des compétences (CMM for people), ou des modèles de contrôle des sous-traitants pour la maintenance (CMM for maintenance).
Le modèle MDM (Master Data Management) est une réponse à la gestion du dictionnaire de données de référence, qui offre une première brique de la compréhension « sémantique » des métiers. Pour être complets, nous devrions lui adjoindre un référentiel des « règles de gestion », pour faciliter la flexibilité des systèmes développés.
Les référentiels darchitecture dentreprise
Côté architecture, il existe plusieurs cadres de références dentreprise (EAF, Enterprise Application Framework) qui proposent des méthodes globales pour aborder la conception et la réalisation dun Système dinformation dans une logique architecture dentreprise, en recensant les informations à collecter et comment elles interfèrent entre elles et sont manipulées.
Ainsi, le framework de Zachman, représenté par la figure suivant, est un cadre très général, pratiquement exhaustif, qui croise deux dimensions, celles du questionnement sur ce quon veut réaliser (Quoi, Comment, Où, Qui, Quand, et Pourquoi) avec des groupes de parties prenantes : Visionnaire, Propriétaire, Concepteur, Réalisateur, Sous-traitant et Exécutant. Si la vue est holistique (elle ramène des vues individuelles et complémentaires à lensemble dans lequel elles sinscrivent), elle est malheureusement peu exploitable, avec les 36 modèles générés.
Zachmanframework.png
Légendes figurant dans limage
Figure 11-4.
Le framework de Zachman
Copyright John A.Zachman
Zachman est un guide de référence fort utile, mais il est peu exploité en pratique en entreprise. Du fait de sa complexité et des limites humaines dappréhension, car nous rappelons ici la difficulté davoir une perception globale dun ensemble dès quil comporte plus de sept éléments.
Autre cadre darchitecture très connu, le Togaff, dabord conçu par le DoD (Department Of Defense) aux Etats-Unis, puis repris et développé par lopen Group ; A linverse du cadre de Zachman, le Togaff est davantage porté par les entreprises ; Il identifie quatre « plans » de description de lentreprise :
Larchitecture métier (description de lorganisation et des activités, par les fonctions et les processus)
Larchitecture des données (modèle logique des données)
Larchitecture applicative
Larchitecture technologique (choix techniques et infrastructures)
La méthode praxeme (initiative pour une méthode publique) a été élaboré en France dans le cadre du chantier praxime, pour devenir ensuite une méthode publique poussée par une organisation loi 1901. Ses principaux contributeurs sont les sociétés SACEM et SMABTP.
Praxeme se fonde sur une « Topologie du Système dEntreprise », un schéma qui identifie et articule « huit aspects », qui sont les angles de vue (« dattaque ») du système pour pouvoir le représenter de la manière la plus efficace possible.
Praxemetse.png
Légendes figurant dans limage
Figure 11-5.
Topologie du Système dEntreprise selon Praxeme
Copyright Praxeme
Du bon usage des référentiels
En plus des référentiels déjà cités, on ajoutera sur les axes métiers et marketing SI cette fois, le BABOK (Business Analyst Body Of Knowledge) qui est le guide international conçu par lIIBA (International Institute Business Analyst) pour recueillir les meilleures pratiques des analystes daffaires, notamment dans la gestion des exigences (traçabilité des besoins, des demandes des utilisateurs, exigences fonctionnelles ou non fonctionnelles).
Sur laxe sécurité et contrôle qualité, il faut également citer le PMBOK, du PMI (Project Management Institute) pour la gestion de projets .
De nombreux guides existent sur lensemble des axes de la « vue 360° du SI ». Ils sont plus ou moins complets, plus ou moins précis sur la façon de décliner les modèles, mais ils sont pour la plupart très utiles pour se référer aux meilleures pratiques. Lobjectif pour une entreprise nest pas de poursuivre une certification à lun ou lautre de ces modèles pour garantir la maîtrise de son SI. Il faut dabord quelle maîtrise sa compréhension de lutilité des différents référentiels par rapport à sa propre situation, ce quelle peut en choisir pour combler ce qui lui manque ou améliorer ce quelle a déjà, ou ce quelle doit créer quelle ne trouvera pas forcément dans les modèles existants, mais qui savère indispensable pour une vue complète du système dinformation, en tant que recueil des questions et des vues en réponse.
Ce ne sont pas les référentiels ni les outils qui font la gouvernance, même sils sont nécessaires pour partager de linformation et des savoir-faire. De ce fait, la modernisation dun Système dinformation passe par la nécessaire réflexion sur les outils utilisés, « comment » ils le sont, et pourquoi ils devraient continuer, ou non, à lêtre. Lart de la méthode, en somme, est aussi important que celui de la technique, et tous deux nécessitent un savoir-faire, qui doit sapprendre par la pratique et plus que du
« bon sens ».
Le bon sens, selon Descartes, est une chose reçue en partage par tous les hommes, cest " la puissance de bien juger et distinguer le vrai d'avec le faux, qui est proprement ce qu'on nomme le bon sens ou la raison, est naturellement égale en tous les hommes; et ainsi que la diversité de nos opinions ne vient pas de ce que les uns sont plus raisonnables que les autres, mais seulement de ce que nous conduisons nos pensées par diverses voies, et ne considérons pas les mêmes choses. Car ce n'est pas assez d'avoir l'esprit bon, mais le principal est de l'appliquer bien. »
Le bon sens ne suffit donc pas, car si tous ont reçu la capacité à bien juger, reste à lexercer en cherchant une vérité qui nest pas acquise, en utilisant cette capacité de distinguer ses erreurs (le vrai du faux) dans la faculté de concevoir, la mémoire, limagination, la volonté de créer. Ainsi a priori il est possible de bien gouverner sur la base de décisions raisonnables qui se bâtiront sur notre connaissance des faits. Doù lintérêt effectivement davoir des référentiels, des bases de capitalisation, des outils pour nous donner une meilleure connaissance des faits.
Toutefois, il ne faut pas oublier deux fondamentaux. Les référentiels sont rarement complets et dessinent au mieux une carte à une échelle figée (un angle de vue), du système dinformation. La connaissance des faits est le plus souvent partielle, et il faut accepter une part dincertitude dans les choix, nécessaire, compte tenu de ce que nous pouvons savoir, car poursuivre une cartographie complète et détaillée du Système dinformation, qui reflèterait toutes les diverses voies de la pensée, est irréaliste. Ensuite, la réalité de la vie est le mouvement, le changement est la seule constante. Une gouvernance en accord avec la réalité exige dès lors une grande adaptabilité, dont lensemble des référentiels existants dits de « gouvernance » ne se font pas forcément le reflet.
Chapitre12
Lindustrialisation
Il HYPERLINK "http://www.evene.fr/citations/mot.php?mot=faut" faut HYPERLINK "http://www.evene.fr/citations/mot.php?mot=etre" être HYPERLINK "http://www.evene.fr/citations/mot.php?mot=ambitieux" ambitieux, mais il ne HYPERLINK "http://www.evene.fr/citations/mot.php?mot=faut" faut pas se HYPERLINK "http://www.evene.fr/citations/mot.php?mot=tromper" tromper d' HYPERLINK "http://www.evene.fr/citations/mot.php?mot=ambition" ambition. HYPERLINK "http://www.evene.fr/celebre/biographie/jacques-de-bourbon-busset-276.php" \o "Voir la fiche de Jacques de Bourbon Busset" Jacques de Bourbon Busset
Pourquoi linformatique rêve-t-elle dindustrialisation ? Sans doute pour effacer définitivement le fameux paradoxe de Solow évoqué au chapitre 4 et de montrer lexemplarité de la performance des processus internes des services informatiques. Eux qui doivent justement optimiser, par lautomatisation des échanges et la numérisation de linformation, les processus de lentreprise.
Certes, il est légitime de perfectionner les processus de conceptions, de développements et de maintenance dapplications. En particulier pour lier la conception à limplémentation, automatiser les tâches réplicables, envisager de meilleures façon de gérer des traitements de masses ou de répliquer ce qui peut lêtre. La cible est louable : il sagit de réduire les coûts et les délais des projets tout en optimisant la qualité des résultats produits. Toutefois, il faut garder à lesprit que la création de valeur ne passe pas par le tout standard ou tout industriel.
Avant de répliquer des processus existants à laide des TIC pour quils soient plus performants et les améliorer continuellement, la valeur des systèmes dinformation est également de remettre en cause les façons de faire. Il ne faut pas hésiter à faire autrement si nécessaire, quand la valeur est au rendez-vous.
De même quil ne faut pas sattendre à pouvoir appliquer des moules à des situations complexes, sans avoir à ajuster et instancier des principes créés pour être le plus génériques possibles à des environnements existants qui, eux, sont uniques.
Enfin, il ne faut pas se tromper de cible et oublier les préalables à lindustrialisation : avoir des méthodes, des outils, des instruments de mesure et de pilotage et un environnement de production relativement standardisé. Demander à lexternalisation les bénéfices de lindustrialisation immédiatement, en confiant à un prestataire une application spécifique artisanale, est une incompréhension de fond de tous ses principes.
Le triptyque : Coût, délai, qualité et ses limites
Linformatique nest pas encore une discipline industrielle à en croire le manque de prédictibilité de projets, mais elle tend de plus en plus à emprunter ses derniers concepts aux modèles de lindustrie : usines « logicielle », « industialisation », centre de services, « lean six sigma », etc.
Revenons aux définitions. On trouvera dans le Petit Larousse celles-ci : « lindustrialisation cest laction dindustrialiser, le fait de sindustrialiser ». « Industrialiser, cest donner un caractère industriel à une activité, caractère qui se traduit par la mécanisation et la production en masse ».
Dès lors, lindustrialisation dun produit ou dun processus, cest utiliser des techniques de production qui permettent de pouvoir répliquer en grande quantité la fabrication de produit à partir de manière première, ou de faire en sorte quun processus soit reproductible à grande échelle. Lobjectif recherché cest de maîtriser la qualité du produit fini, et de pouvoir fabriquer plus de produits à des coûts et des délais moindre.
Cest dans la définition même de lindustrialisation quon peut en trouver les avantages et les limites pour les systèmes dinformation. En particulier, on ne fabrique pas forcément des produits à grande échelle dans ce domaine et la chaîne de production joue plus sur une chaîne de « valeur » à faire collaborer ensemble des expériences et des expertises différentes ; La matière première ici, cest lhumain.
Sans pour autant comparer linformatique avec une chaine de production, il est possible dautomatiser certaines tâches répétitives et contraignantes du développement, pour exemple des activités de test et de compilation, et dès lors de laisser les développeurs et les concepteurs se concentrer sur la valeur ajoutée et linnovation des solutions.
En matière de maintenance, on peut minimiser les coûts et les délais tout en augmentant la qualité à travers une automatisation sélective des opérations et des modèles de sous-traitance « sous contrôle » de tout ou partie du processus, tout en garantissant que le résultat sera mieux structuré, plus aisé à maintenir et faire évoluer, avec des coûts dexploitation moindres quau départ. Ce sont là les bénéfices de lindustrialisation du processus.
Il est également possible de trouver ladéquation « coût, délais, qualité » en utilisant les meilleures pratiques issues des leçons de la maturité informatique.
Lapproche MDA (Model Driven Architecture) soutenue par lOMG prévoit plusieurs modèles, du métier indépendant de la plate-forme physique à celui lié à la plate-forme physique et des logiques de génération qui permettent de garder le lien avec le besoin métier. Ainsi les logiciels développés le sont dans une logique de « chaine de production » entre la conception et la construction.
De façon plus globale, la vision architecture dentreprise a pour ambition de mieux formaliser autant le système dinformation en tant que brique métier de lentreprise que lentreprise et ses autres processus métiers à travers les cartographies et représentations/modèles fournis par le système dinformation. Les référentiels tels quITIL, CMMI, COBIT sont dailleurs des « cadres de cohérence » pour identifier les meilleures pratiques en matière de processus propres au métier « DSI ». Ainsi le métier sindustrialise dans ses méthodes de conception, construction et pilotage.
Reste quil ne faut pas confondre « meilleures pratiques» avec « production de masse », et assimiler un « cadre de cohérence » à un moule unique. Les systèmes dinformation sont des productions intellectuelles avec des ressources physiques particulières, chaque produit est unique, de par son adhérence avec un existant et des enjeux dentreprise quil sert. Il faut savoir instancier les modèles.
Tant quil sagit dindustrialiser un processus de maintenance parce que lon juge que la conception de lapplication existante est rôdée - ce qui veut dire peu ou prou de changement dans les besoins, plutôt des corrections mineures et du support dinfrastructure et utilisateur - tout va relativement bien. Industrialiser le développement logiciel dune application via des briques réutilisables de services a ses limites dans la réplicabilité de modèles, quant cette nouvelle application doit apporter une valeur perçue unique, différenciatrice tant dans sa conception (nouvelles méthodes et/ou nouvelles technologies) que dans son usage.
On est dans la haute couture ou dans linnovation industrielle, et, oui, il faut faire des maquettes et des prototypes avant dêtre certain de la faisabilité technique et la recevabilité marché ou utilisateurs dun concept, et des tests au plus tôt pour limiter les risques et augmenter la qualité. Les systèmes dinformation «cur de métier » ne sont pas dans une logique de « production de masse ».
Cest là où lindustrialisation atteint ses limites et là où lanalyse de la valeur doit sinscrire en rupture avec des méthodes damélioration continue, pour ne pas hésiter à rompre avec un existant qui ne répond plus à léquation valeur car il névolue plus quen fonction du triptyque « coûts-délais-qualité ».
Les modèles de lindustrie qui font rêver linformatique
Lamélioration continue
De la roue de Deming utilisé dans les manuels qualité de toutes sociétés de services dans les années 90, au six sigma et sa roue « DMAIC », à lapproche lean, puis lean Six Sigma, le souhait est le même : rendre prédictible linformatique, contrôler des chaînes de production de « services » calibrés, améliorer les processus de fabrication jusquau « zéro défaut ».
Le principe amorcé par la méthode « PDCA » de Deming soit « Plan Do check Act » illustre sous la forme dune roue un cycle damélioration continue. Ce principe a été repris et amendé dans de nombreuses autres méthodes et référentiels récents : ITIL et la gestion des services ou Togaf, par exemple.
Les méthodes qualité damélioration continue des processus sont non exclusives entre elles et plutôt complémentaires, on retrouve des points communs entre lapproche PDCA et le DMAIC (Define Measure Analyze, Improve, Control°) ou le DFSS (Design For Six Sigma) de six sigma ou encore les 5S du lean management.
Définition
Linvention continue de la roue damélioration
Six Sigma
C'est une méthodologie de contrôle de la qualité basée sur létude d'indicateurs de variation (sigma) créée par Motorola dans les années 80. Adaptée à la production industrielle, elle vise une qualité proche du zéro défaut en mesurant la dispersion des produits autour dune moyenne (notion statistique d'écart type).
Le six sigma peut se définir en cinq phases 5 (méthode DMAIC) :
définir : déterminer les exigences du client et les processus adaptés,
mesurer : supprimer les suppositions des exigences du client par rapport au processus,
analyser : identifier les écarts entre les performances. Classer les problèmes par importance,
améliorer : mettre en uvre les moyens nécessaires pour éliminer les problèmes,
contrôler : vérifier que les actions correctives produisent le résultat espéré sans nouvelle anomalie.
DFSS
DFSS (Design For Six Sigma) est la méthode d'analyse des processus qui reprend les quatre dernières étapes de six sigma en les adaptant :
identifier : définir les exigences des clients et leurs limites,
concevoir : choisir les concepts, analyser les risques,
optimiser : optimiser la conception pour diminuer les variations du processs de production,
valider.
Le Lean management
Cest une technique de gestion essentiellement concentrée vers la réduction des pertes générés à lintérieur dune organisation, pour une production et un rendement plus justes (inspirée de Toyota dans les années 70s).
Les objectifs sont :
réduire la durée des cycles de production,
diminuer les stocks,
augmenter la productivité,
optimiser la qualité.
Parmi les outils du Lean figurent les « 5S » :
les 5S, (Seiri : débarrasser, Seiton :ranger, Seiso : nettoyer, Seiketsu : standardiser, Shitsuke : progresser)
le Kaizen : principe damélioration continue
le Kanban : principe de flux tendu ou de flux tiré
Ces méthodes, apparues dans les années soixante-dix, continuent à faire des émules et il ny a pas jusquaux méthodes agiles où on nen trouve des traces. Ainsi Jeff Sutherland, le père de Scrum, reconnaissait linfluence du Lean dans la première version de sa méthode.
Si elles sont utiles pour approcher un processus existant et loptimiser, elles ne sinscrivent pas « en rupture ».
Elles peuvent servir pour calibrer « ce qui tourne », pas pour « inventer la roue ». Il faut voir ces méthodes comme des moyens doptimiser des processus réplicables, pas des moyens dinnovation dusage ou de création de valeur.
Ainsi, il serait utile de pousser lanalogie avec la roue un peu plus loin pour se poser quelques questions de « sens » de la démarche. Car après tout, une roue, cest en principe pour faire avancer un véhicule. Pour avancer vite et loin, Il paraît évident quune seule roue ne suffit pas pour tenir un bon équilibre et quil faut lui ajouter des axes, un moteur, une destination et éventuellement un système de navigation, plus ou moins sophistiqué.
Les projets informatiques fourmillent de références aux véhicules à roues, pour exemple de quelques unes : Nul besoin de construire une Rolls Royce quand on a le budget pour une Deux-chevaux, inutile de rouler en Ferrari dans les bouchons parisiens et ce nest pas parce quon est nombreux sur une bicyclette que lon pédale plus vite.
On pourrait rajouter une autre analogie : inutile de faire tourner une roue si elle tourne à vide, même si on empêche les retours en arrière avec des « cales », c'est-à-dire des « systèmes qualité ».
La roue de Deming et le sens du mouvement
La roue de Deming, lapproche lean ou six sigma sappliquent dans un univers assez « cloisonné » celui de la production et de lamélioration continue de problèmes plutôt mécaniques ou de procédures plutôt déjà définies. Ces approches ne sinscrivent pas réellement en rupture. Il sagit daméliorer ce qui existe. On ne se pose pas la question de savoir si le projet mené, le produit fabriqué, le processus utilisé, va dans la bonne direction. On applique une méthode et des directives pour produire plus vite et mieux, sans « déchet ». Reste que si la question de départ sur la valeur dusage de ce quon fait nest pas posée, il est clair quon peut améliorer « à vide » des façons de faire inadaptées.
Un système dinformation est un ensemble d informations, de ressources et de moyens pour les manipuler, échanger, stocker, exploiter, dont lobjectif nest rien dautre quaméliorer un système réel, en support à des processus existants ou pour automatiser ce qui peut lêtre ou laméliorer grâce à des technologies de communication dinformation.
Surtout, cest un système dont la valeur repose sur la capacité des ressources humaines à en tirer parti, que ce soit dans lusage ou dans la possibilité de ladapter à des besoins, et le faire évoluer pour apporter une plus value dans léchange ou lexploitation de connaissances. Lhumain est au cur du système, dune manière ou dune autre.
De nombreux projets applicatifs ont échoué parce quils avaient sous-estimé la nécessaire part de formation aux usages. Désormais, laccompagnement au changement est une condition sine qua non à laquelle on songe au plus tôt. Cela nest pas antinomique avec la roue de Deming, on reste ici dans le domaine du planifiable.
Mais que dire de ladaptation ? Lêtre humain a prouvé sa capacité dadaptation au fil des millénaires, grâce aux méthodes sélectionnées par lévolution. Ces dernières sont davantage empiriques que planifiées La roue de Deming, le fameux PDCA, part dun problème identifié et quelque part répétitif ou réplicable, quil est possible danalyser sur un grand volume de données. Elle nest pas adaptée pour limprévu ou des situations qui évoluent rapidement et pour lesquelles les solutions planifiées laissent trop peu de marge de manuvre pour adopter rapidement une alternative radicalement différente. Elle correspond bien à la construction des pyramides, mais correspond-t-elle aux changements que nécessitent les aléas dun monde beaucoup plus ouvert et est-elle adaptée à la créativité ?
Pour rappeler le parallèle avec lévolution des civilisations, et le distinguo entre les « sociétés froides »et les « sociétés chaudes », la roue de Deming est dans une logique de répétition, pas de remise en cause. Elle peut améliorer une situation donnée, elle peut apporter des solutions, mais elle napporte pas de fluidité dans lapproche créative des problèmes, elle peut même « noyer » dans les procédures les méthodes empiriques ou intuitives de résolution.
La méthode PDCA est séquentielle, lente, et ne favorise pas forcément un échange rapide entre plusieurs points de vue différents, la liberté des « commentaires » est dans le « check » mais faut-il vérifier, ou comme Deming lui-même le pressentait « étudier », les résultats ? Car vérifier signifie que lon essaie de corriger par rapport à une idée préconçue, avec le risque danalyser les résultats via un filtre subjectif. Etudier ouvre plus de latitude, sans pour autant résoudre laspect très encadré du moment où on accepte les « retours et commentaires ».
Telles sont les premières questions de sens. Cela ne veut pas dire que lapproche PDCA est mauvaise. Là nest pas le propos. Il sagit de questionner lapproche par rapport à lusage et ne pas en faire « un cheval de bataille » pour toutes situations, pas plus quune roue de secours. Encore une fois, une seule roue ne suffit pas pour avancer. Lintuition ne suffit pas non plus pour résoudre tous les problèmes et entre lintuition dune chose et sa preuve qui en permet lexploitation, le temps peut sécouler très lentement. Ce nest pas parce que les grecs avaient lintuition de latome quils ont inventé la fission nucléaire.
Lhumain en moteur de lévolution
Cela dit, nous arrivons au deuxième questionnement concernant la roue de Deming, celui portant sur la connaissance. Lexpression « On ne peut améliorer ce quon ne peut mesurer » est souvent associée au PDCA ou au DMAIC. Certes, il faut avant toute chose faire létat des lieux, mesurer ce qui pose problème pour identifier les axes damélioration. Il faut donc « prendre connaissance » du système qui pose problème ou qui est à améliorer. Mais ny-a-t-il pas, dans lapproche, un risque de paradoxe ? Si nos connaissances sont restreintes à nos propres méthodes, à nos propres habitudes, quelle est la probabilité de ne pas répliquer une erreur de conception à lorigine du système, due à un point de vue trop restrictif ? Dans ce cas, on améliorera une erreur, mais on ne changera rien à son origine. Par exemple, réduire le coût de pièces inutiles est une erreur. Ce qui amène à la plaisanterie du détournement du PDCA en « Please Dont Change Anything ». La logique a une deuxième faille : elle focalise sur les dysfonctionnements. Elle ne cherche pas les succès, ne valorise pas les cas où des solutions « naturelles » sont apparues et nétudie pas ces cas et leur potentiel de changements.
Pour raisonner efficacement, il faut pouvoir sortir dun cadre prédéfini qui aurait tendance à nous apporter ou de la surinformation, ou des paramètres restrictifs. Il faut être capable de disposer dune base de connaissances élargie et agile, et déchanger rapidement des informations entre différents acteurs qui représentent différents points de vue. Ainsi la rapidité de la résolution de problème dans nos cerveaux résulte de la catalyse dun échange massif dinformations entre tous les acteurs, de même que pour notre système biologique (pour lequel les acteurs sont les agents anti-infectieux). Par analogie, pour analyser rapidement une situation complexe, rien ne vaut un échange entre individus ayant des expertises complémentaires et des points de vue différents.
Appliquée aux systèmes dinformation, lidée serait non seulement daméliorer les échanges entre les parties prenantes qui doivent concevoir ou améliorer un système, et douvrir ces échanges au monde extérieur, via un réseau entre pairs qui échangeraient rapidement sur les meilleures pratiques et les cas de résolution connus. Bien sûr, les échanges avec lextérieur peuvent avoir leurs limites. Mais une civilisation qui ne les pratique pas névolue pas, ni dans son langage, ni dans sa culture. Et on peut considérer les systèmes dinformation comme une sorte de « corpus » qui modélise et formalise la culture dune entreprise, ses métiers, ses ressources. Pour que lentreprise entre dans la logique dune histoire en mouvement, elle doit faire du système dinformation un véhicule de lévolution.
Léchange entre acteurs humains du système dinformation est le moteur principal de lévolution. La roue de Deming nest pas forcément une roue motrice, elle est un support pour des problèmes ponctuels canalisés. Pour continuer sur une ligne droite, il faut lui adjoindre un système de direction et dautres roues pour faire un véhicule qui « tienne la route ». A la roue de Deming orienté « amélioration continue », on peut adjoindre les méthodes lean et six sigma. Mais pour remettre en cause le «corpus» des textes fondateurs (écrits ou non) du système dinformation, pour le faire évoluer dans le sens où il créera de la valeur, il faut ne pas hésiter à commenter ce corpus. Que ce soit avec des méthodes comme le BBZ (budget Base Zero le budget de chaque activité est remis à zéro chaque année, et lintérêt, au sens création de valeur, de toute dépense doit être démontré), le Design To Cost (conception à coût objectif) ou tout simplement lanalyse de la valeur.
Limportant est dans la remise en cause de « ce qui fait sens » pour pouvoir sadapter à un univers mouvant, à une route de lévolution qui nest pas, et ne sera jamais ni plate ni rectiligne.
Industrialisation des logiciels
Le principe dusine logicielle
Industrialiser les développements poursuit les objectifs suivants :
Maîtrise de la complexité
Fiabilité
Réutilisabilité
Confort de développement
Maintenabilité
Lapproche industrielle a commencé avec la volonté dautomatiser le lien entre la conception et les développements, tout dabord avec les ateliers de génie logiciel, ensuite avec les environnements de développement intégré (IDE) dont lobjectif est de fournir un ensemble doutils clé en mains pour faciliter la vie du développeur. Aujourdhui, même lopen source bénéficie dIDE robustes, lesquels couvrent tout le cycle de vie des applications du développement au déploiement.
De latelier logiciel à lusine
Cette première étape mène à la notion datelier, avec des modèles, des outils spécialisés, mais pas encore, si on veut faire le parallèle avec lindustrie, à une vraie automatisation de la production et une réutilisation de conception et de composants pour créer toujours plus vite de nouvelles lignes de produits. Cest là lambition de la « Software factories » (ou fabrique de logiciels), lusine de linformatique du 21e siècle. Son objectif est de simplifier et d'accélérer la fabrication de systèmes logiciels de qualité, avec des patterns (modèles de conception) spécifiques à certains environnements. Une software factory combinera les atelier de modélisation et de génération de code avec des processus, des outils, des « plans » pour fournir aux développeurs un environnement adapté exactement à leurs besoin singulier, en réutilisant les concepts et composants déjà existants.
Certes, après linvestissement initial nécessaire, le résultat vise à des projets plus prédictibles, de meilleure qualité et qui devraient conduire à une maintenance du résultat plus aisée, du fait de lexploitation de « pièces communes ». Il reste toujours à « aller au-delà » des pièces standard pour créer des produits logiciels « différentiateurs».
Ils ont dit
Le logiciel, cest lusine !
« Une usine logicielle est une ligne de produit logiciel qui configure outils extensibles, processus et contenu en utilisant un modèle dusine logicielle basé sur un schéma afin dautomatiser le développement et la maintenance dinstanciation dun archétype produit en adaptant, assemblant et paramétrant un cadre de composants de référence » Jack Greenfield
Dit autrement, une bibliothèque de fonctions se base sur un langage de programmation pour créer une application, un framework est un ensemble de bibliothèques de fonctions utilisable pour créer une application, une « software Factory » permet de rassembler des modules et fonctionnalités pour créer une application.
Lindustrialisation de la maintenance
Linfogérance et lexternalisation ont longtemps fait rêver les entreprises pour lillusion de pouvoir en obtenir des réductions de coûts drastiques, sans effort.
La déception en était prévisible. Ce nest pas en réduisant les coûts de la main duvre quon réduit les coûts du système dinformation, ou les coûts de maintenance dune application, bien au contraire.
Bien sûr, on peut choisir un prestataire, par exemple en tierce maintenance applicative, en se disant quil saura éventuellement mieux faire ce que lentreprise tente de réaliser en interne, grâce à sa connaissance de létat de lart des pratiques, ses outils, ses méthodes, ses collaborateurs expérimentés, et la possibilité den mutualiser les bénéfices à grande échelle.
Reste que si ce qui lui est livré à maintenir est très spécifique, dans un très mauvais état de qualité, que la visibilité des processus, fonctions et données de lapplication est quasiment nulle, quil nexiste aucun référentiel à jour qui décrive celle-ci, il ny a pas de miracle. Ce ne sont pas les processus standard de la maintenance qui amélioreront ce qui a été livré, parce quils supposent des pré-requis qui ne seront pas respectés.
Ensuite, si létat est mauvais au départ, le prestataire aura peut-être tout intérêt à rester dans le cadre correctif ou de très petites évolutions, nétant pas en mesure deffectuer des analyses dimpact approfondies, ou si lapplication livrée est « monolithique » et de fait, difficile à faire évoluer.
Si le contrat avec le prestataire ne fait apparaître que des coûts et des délais de correction aux anomalies, il est prévisible quau bout du compte, la qualité de lapplication se dégradera rapidement et que lévolutivité pourra tout autant être remise en question.
En 2008, dans une enquête auprès des directions informatique, il ressortait pour le Gartner, que passé les douze premiers mois de lune de miel entre le fournisseur et le client, les contrats étaient en majorité renégociés, avec le manque de flexibilité comme issue la plus importante, à 50% des réponses. Pour citer Gianluca Tramacere, analyste sourcing au Gartner : « la majorité des entreprises ont établi des relations dexternalisation sur le long terme, fondées sur des impératifs immédiats de réduction des coûts à court terme. Ces accords en général manquaient de la flexibilité requise pour sadapter à la nature dynamique des environnements métiers et nous avons prévenu les entreprises que cette inflexibilité conduirait à terme à coûter davantage à lentreprise ».
Si la maintenance se prête à la mise en place de processus répétitifs, avant de vouloir obtenir le bénéfice de ces derniers, il faut une phase dindustrialisation. Il ne faut pas se leurrer, cette phase nécessite des efforts de mise en uvre et donc des coûts associés. La figure ci-dessous illustre cette démarche.
industrialisationmaintenance.png
Figure 12-1.
Lindustrialisation progressive de la maintenance
Il y a des pré-requis à toute maintenance industrialisée, le premier est de sinterroger sur la valeur de lapplication. Car après tout, mieux vaut passer par un abonnement à des services logiciels que continuer à maintenir en interne, voire externaliser, une application standard.
Cela étant posé et la spécificité de lapplication pour le métier ne faisant aucun doute, il faut inventorier/cartographier les composants applicatifs, évaluer sa qualité, la redocumenter, pour fournir une application « lisible », c'est-à-dire dont on comprend le fonctionnement (à quoi ça sert) et le mode de fonctionnement (comment ça marche). On profitera de cette phase de « prise de connaissance » de lapplication, pour mettre en place les outils, méthodes et référentiels de la maintenance, qui sont indispensables à toutes démarches industrialisées. Un soin tout particulier doit être apporté aux référentiels de « gestion des exigences », de «test » et de traçabilité du code, c'est-à-dire la « gestion de configuration ».
Ensuite seulement peut-on établir des indicateurs de contrôle pour suivre la qualité des livraisons et lintégration des changements, et obtenir de lindustrialisation une réduction des coûts et une meilleure qualité. Il faut également intégrer dans la stratégie de maintenance, le niveau deffort « préventif », ainsi quévoqué précédemment, pour ne pas « dégrader » la qualité.
Dans tous les cas, que la maintenance soit externalisée dans des « centres de services » ou confiées à une équipe interne, il faut établir un contrat de services, avec des SLA (Service Level Agreement) pour bien définir les niveaux de services attendus de la maintenance et y incorporer comme indicateurs de suivis des niveaux de service, les indicateurs de qualité et dévolutivité obtenus en fin de phase dindustrialisation. Afin de pouvoir suivre le processus qui va de lémission dune demande de changement au passage en exploitation sans erreur dans la livraison dune correction ou dune évolution.
Il faudra également évoquer, dans le cadre du contrat, la part des activités et du budget qui sera dévolue à la maintenance préventive, notamment pour provisionner les activités de rénovation de lapplication qui la rende plus facile à modifier pour sadapter à lévolution naturelle des besoins métiers.
Définition
Les centres de services et la mutualisation
La notion de centre de service « partagés » est apparue pour définir une fonction « informatique » industrialisée, avec la mutualisation de compétences, de ressources et de services
Le CIGREF définit un centre de services partagés informatiques comme une entité interne autonome chargée de fournir (delivery) des services informatiques nécessaires à plusieurs sociétés ou divisions au sein dun Groupe. Ces services à valeur ajoutée sont réalisés de bout en bout, industrialisés et mesurables.
Le CIGREF distingue trois sortes de CSP :
les CSP informatiques (ex : infrastructures, applicatifs,
messagerie, projets, Plan de Reprise dActivité PRA)
les CSP applicatifs (ex : un centre de compétences ERP),
et les CSP métiers (ex : un CSP compta, RH, achat, juridique)
Une entreprise peut donc avoir un ou plusieurs CSP, par branche,
par zone géographique..
Lobjectif est clairement lindustrialisation, par le biais déconomies déchelles sur les achats de prestation, la mutualisation des moyens, et un centre dédié en termes de méthodes, outils et compétences.
Reste que ce centre, opéré ou non en interne de lentreprise, ne peut fonctionner sans clarification des niveaux de services attendus, contractualisation de ces derniers dans de SLAs, et logique de facturation à ses clients sur la base dunités duvre compréhensibles par ces derniers.
Les unités duvre
Les unités duvre, cest dabord un moyen de pouvoir estimer sur des mesures fiables et partageables ce que va coûter, en efforts et en temps, la mise en uvre dune demande, quil sagisse dune demande de mise en uvre dun nouveau service informatique, de corrections/réparations dun service ou dun matériel existant, ou dune extension dun service.
Quand on fait réparer sa voiture, on souhaite avoir un devis au plus près de ce que va coûter la réparation, avec des unités duvre compréhensibles comme le coût des pièces et la durée de réparation avec la charge en heure ou jour/homme de la main duvre quelle implique et le coût associé au type de main duvre (qualifiée ou non).
Pour la refacturation des services en interne, il est important davoir des unités duvre qui ait un sens pour les métiers, pour quils comprennent ce que leur coûte une amélioration dun processus. Cest lobjectif damélioration quil faut facturer (temps de traitement diminué dune facture, volume de facture sans erreur augmenté, baisse des coûts des litiges, coût de transaction réduit, accélération dun processus de prise de commande, etc), pas le temps passé multiplié par un taux journalier moyen, sans cela le client interne naura pas de visibilité de la valeur du service, il nen verra que les coûts.
Pour estimer la charge en développement, il est nécessaire davoir des méthodes destimation, des « abaques » pour planifier la durée du projet et définir les charges en j/h par type de ressources/compétences nécessaires.
Dans une relation avec un prestataire extérieur qui assure une maintenance, le principe est de pouvoir partager ces « abaques », pour estimer la charge de la réponse à tous types de demandes, en particulier celles liées à lévolution dun existant, qui implique la mise en uvre dun contrat de longue durée.
De ce fait, les méthodes destimation font partie des «bonnes pratiques» de lAQL (Assurance Qualité Logiciel) et définir des unités duvre standards pour la maintenance et la recette applicative externalisées (TMA & TRA), devient un passage obligé.
Pour autant, ce qui semble une évidence nest ni facile ni simple à mettre en uvre puisque de nombreux programmes de mesure sont abandonnés en moins de 18 mois. Si les estimations pour les développements deviennent fiables, il ny a pas détudes systématiques sur le sujet qui permettrait de définir un modèle de productivité « unique » pour la maintenance. Y-a-t-il dailleurs un modèle unique ? Pas forcément, il suffit den voir pour preuve les différentes méthodes (COCOMO, COSMIC, Points de Fonction) utilisée à des titres divers pour mesurer la charge de la réponse à une exigence ainsi que de ses éventuelles évolutions. Toutefois ces méthodes ont mûries, et certaines apparaissent relativement bien rôdées pour des types dapplications particuliers, tels la méthode des points de fonction (IFPUG version 4) pour les applications de gestion
Un peu dhistoire
« Une science a lâge de ses instruments d emesure » Pasteur
La problématique de mesure et destimation des coûts logiciels a un historique. Barry Boehm a présenté dans les années 80, un premier modèle, appelé COst COnstructive Model (COCOMO), qui se fondait essentiellement sur le nombre de lignes de codes sources pour évaluer la charge de développement. Outre une efficacité toute relative au langage (tout les langages ne sont pas égaux devant la représentation algorithmique), en ce qui concerne la maintenance qui relève de la rétro-ingénierie (on travaille sur des codes existants), ce nest pas une mesure fiable, un algorithme pouvant avoir une dizaine dinstanciations différentes très dépendantes du programmeur et non de la fonction implémentées.
Le COCOMO initial (« basique ») était issu dun panel de projets analysés par Boehm. Pour un projet proche de léchantillon de départ, la méthode pouvait fournir des résultats assez réalistes. Mais pour les autres
les divergences ont rapidement sautées aux yeux. Dou dautres versions plus « évoluées » de COCOMO mais encore dépendantes du comptage de lignes de code mal adapté aux applications orientées données.
A la même période Albrecht proposait une autre approche, un comptage indépendant des technologies utilisées, la méthode des points de fonction, fondée sur la prise en compte des besoins exprimés par le client. A son avantage la possibilité dévaluer la charge dès les spécifications fonctionnelles. Sa mise en application a démontré son efficacité dans le cadre de linformatique de gestion ou pour les logiciels à forte composante dinterfaces graphiques. En revanche, la méthode a ses limites lorsquil sagit de mesurer des applications en temps réel ou embarqués qui ne manipulent quun faible volume de données et elle ne prend pas en compte les charges liées à des algorithmes complexes ou le pilotage déléments matériels.
Lorganisation IFPUG (regroupement dutilisateurs de la méthode des points de fonction) a depuis travaillé sur les limites de la proposition initiale dAlbrecht pour lamender avec des critères plus objectifs et la prise en compte de facteurs dinfluence technique. La méthode COSMIC ( COmmon Software Measurement International Consortium) sest attachée quant à elle, avec une approche par processus et par couche, à fournir une meilleure assimilation de la structure des logiciels en temps réel.
Lensemble de ces travaux est reconnu et défini dans la norme ISO 14143, qui caractérise ce quest la mesure de la taille fonctionnelle utilisée par les modèles des points de fonction IFPUG et COSMIC.
La condition sine qua non pour débuter est davoir défini un périmètre applicatif de mesure significatif, pour ne pas mesurer dans « labsolu » une fonction. Si cela se conçoit aisément dans une phase de développement, cest paradoxalement plus difficile dans une maintenance où la tentation est grande de mesurer à laune de groupes de programmes.
Convenablement cartographier et lotir fonctionnellement une application existante est un pré-alable à une bonne mesure. Les points de fonction bruts (PFB), sont estimés sur lévaluation des traitements (manipulation de données, calculs et recherches par exemple) et la détermination du poids des groupes de données suivant des grilles de complexité (cf. la norme ISO 14143). Ces PFB sont ensuite nuancés par un certain nombre de coefficients dajustement, relatifs à des caractéristiques du système (tels que communication de données, complexité des traitements, portabilité de lapplication, réutilisation,
) pour obtenir des PFA (Points de Fonctions Ajustés) puis des formules de conversions (dépendant du langage, du type dapplications) sont utilisées pour la traduction des PF en charge de travail, voire en coût pour obtenir les unités duvres.
Les points de fonction « brut », peuvent être remontés automatiquement des codes existants pour des applications de gestion, en recherchant les instructions codées relatives aux types de traitements décrits par la norme, ainsi quen analysant les données et groupe de données. La problématique va être dans le passage de lestimation de leffort au calcul de lunité duvre pour évaluer une demande de changement. Pour cette dernière une analyse de limpact en termes de traitements et de données va être effectuée, de laquelle on pourra déduire les points de fonction bruts.
Mais si l'estimation de l'effort est juste, l'estimation de la charge risque dêtre plus relative car sujette à une multiplication par une valeur subjective. Pour une maintenance, en plus de coefficient « classiques », les paramètres dajustement à prendre en compte sont liés au niveau de connaissance de lapplicatif de léquipe en charge, à la portabilité, à la documentation existante, à la capacité danalyser avec acuité le code (et dés lors la capacité à mesurer de façon fiable traitements et poids de données), à la capacité à identifier rapidement les cas de test à rejouer pour la non régression, etc.
Cest pourquoi si les points de fonction sont une piste intéressante pour estimer des charges, encore faut-il être conscient des limites et procéder par étape. Cest sur la durée que le référentiel « points de fonction » prendra tout son sens en comparant progressivement les résultats obtenus et en industrialisant la méthode. Toutefois, ces unités duvre seront pratiques au sein dun grand groupe qui pourra les imposer à un sous-traitant ; Mais la possibilité de faire réellement des benchmarks sur ces mesures est vraiment à interroger en maintenance, compte tenu des paramètres dajustement évoqués qui sont très spécifiques à un environnement dentreprise.
Dans tous les cas, une société a tout intérêt à tracer toutes les unités duvre employées en son sein et construire progressivement son référentiel dabaques sur les meilleures pratiques remontées, ce qui impose également de faire des bilans de projet étayés sur les coûts, charges et de justifier les écarts par rapport aux estimations initiales.
La standardisation
Les avantages des standards
On peut difficilement mettre en doute lutilité des standards de formats pour linteropérabilité entre systèmes. Ce qui est valable pour les systèmes dinformation intra-entreprise lest encore plus pour les flux inter-entreprises, et au niveau global, pour le commerce électronique. Il faut trouver des formats partageables, sortir des systèmes propriétaires, on en convient. Bien sûr, quand le format de données devient plus sectoriel, sort du cadre de linteropérabilité technique, sentache dinformation métiers, donc typées sémantiquement, les choses deviennent plus difficiles, il suffit de regarder lhistoire des normes déchanges de données de lEDI (Odette, Galia, ..), les nombreuses versions sectorielles au-delà du standard UN/EDIFACT, ou plutôt « des standards ».
Mais il est clair que normaliser les échanges de données informatisé, partager un ensemble de règles communes, facilite et fiabilise des échanges étendus pour l'Administration, le Commerce et le Transport. On ne peut que saluer les efforts qui ont été mis en uvre dans ces domaines par les organismes de normalisation dhier, poursuivis dans dautres domaines par les organismes daujourdhui, tel lOMG qui uvre continuellement pour plus de réutilisabilité, douverture et dinteropérabilité des systèmes.
Standardiser des processus métiers nécessite de prendre en compte la localisation
Au-delà des standards déchanges, on peut aussi avancer que la standardisation au sein dune entreprise de certains processus métiers assez « normés » (tels ceux liés à la comptabilité générale), le fait duniformiser et consolider des processus et données techniques, permette des économies déchelle, la mutualisation des pratiques, la fiabilisation des informations.
Cest le principe même des progiciels. Si toutefois les processus ne sont pas réellement standard - au sens ouverts à lensemble de la communauté informatique, sans restriction daccès et normalisés par un organisme indépendant -car cela reste des processus propriétaires avec les droits de propriétés inhérents, ils sont une façon duniformiser et dindustrialiser des pratiques. Avec toutefois des limites prévisibles à luniformisation, pour preuve la découverte, une petite décade de cela, par les éditeurs logiciels dun principe connu depuis longtemps par les grands du marketing à la Procter & Gamble et qui a conduit au retrait local de produits « innovants » lancés au niveau mondial, que ce soit des systèmes de couches culottes ou des concepts car faisant fi des différences socio-culturelles, des diversités de goût, voire de la syntaxe ou de la traduction locale. « Vérité en deçà des Pyrénées, mensonge au-delà » disait Descartes.
Il ne sagit pas seulement de donner son point de vue selon le versant de la montagne quon occupe, il sagit de façon très pragmatique, dans le domaine informatique des échanges dinformation, de respecter les obligations légales locales. Nous parlerons ici, pour illustration, du plan comptable à la française qui a conduit certains éditeurs, tel PeopleSoft, a beaucoup investir dans la localisation de leur produit sous peine de ne pouvoir le déployer.
Un plan comptable à la Française, aussi spécifique quil puisse paraître à des yeux anglo-saxons, reste pour autant du domaine normé. On sait ce quil y a dedans, on peut faire ce quil faut pour structurer la collecte et la consolidation dinformation de façon à ce quelles correspondent aux exigences de traçabilité. On peut donc continuer à avancer dans la standardisation sous réserve de prendre en compte les contraintes de chaque environnement (local et/ou métier). On peut avancer, au delà de la standardisation technique qui assure la compatibilité et linteropérabilité des équipements, dans la standardisation des échanges de données (donc des formats, de la structure, à la syntaxe et au sens) pour faciliter la compréhension et lexploitation des données par les systèmes dinformation et fiabiliser la communication et le partage dinformation. On peut avancer également, dans la standardisation des processus pour généraliser les meilleures pratiques et diminuer les coûts de mauvaises saisies ou détapes automatisables , voire réduire les coûts de développement et de maintenance.
Labus de standardisation peut être préjudiciable
Certes on peut continuer à avancer, mais en ayant conscience des limites. Tant que les choses sont normées naturellement, ou du moins ont une nature qui conduit rationnellement au processus de normalisation, la standardisation est une bonne chose, elle apporte une valeur au sens de la réutilisabilité, de la fiabilité et de la réplicabilité à grande échelle, mais quand la valeur des choses dépend justement de leur différence, de leur « atypisme », les processus de standardisation peuvent conduire à des aberrations.
Prenons les processus achats, la base du « e-procurement » (approvisionnement électronique) est de standardiser un catalogue de fournitures et de rationaliser en lautomatisant et en lintégrant avec le « back-office » (comptabilité générale et financière), le processus des demandes dachats. Cela réduit les temps de recherche de produit/fourniture, supprime les erreurs de saisie, limite les litiges, supprime les comportements de type « Maverick buying » (comportements dachats anarchiques effectués en dehors dun contrat cadre et au coup par coup avec des fournisseurs différents). A priori, la liste nest que positive. Jusquà un certain point, car le succès de la standardisation des processus achats de petites fournitures conduit à vouloir létendre au MRO (commande de matériel de maintenance et de réparation), puis aux achats de production au sens large, puis, pourquoi pas, aux achats hors production, jusquà létendre aux sous-traitants de prestations intellectuelle.
Si lon peut normaliser une méthode de recherche de sous-traitants, passer des contrats cadre qui garantissent un certain niveau de services et de prix, voire uniformisent des politiques groupe pour limiter les risques juridiques, peut-on vraiment standardiser la « matière grise » comme la matière technique ? Quen est-il de lévaluation des sous-traitants et de la catégorisation des prestations intellectuelles ? Jusquoù le taylorisme des « cols blancs » et lindustrialisation des services est une bonne chose ?
Il faut comparer ce qui est comparable
Cest là que la standardisation atteint ses limites. Dune part, on ne peut pas traiter la matière grise de la même façon que la grande distribution traite lachat de produits laitiers ou de boite de conserve, sauf à conduire à une politique du « moins disant » qui diminue automatiquement la valeur pouvant résulter de la prestation. Dautre part, dans toute approche dévaluation, de «benchmarking », la base reste de comparer ce qui est comparable. Certains contrats cadre de prestations partent sur un délai moyen de réponse à toute demande de proposition, quotation et engagement y compris, quelle que soit la nature de la demande en entrée.
Ce qui conduit à traiter de la même manière des interventions de quelques jours ou des projets de plusieurs mois, et à gripper le système de réponse, sans même parler de lapproche toute expertise confondue. Mieux vaut classifier un tant soit peu le type des demandes, la nature des expertises requises, le niveau de difficulté (lié éventuellement à la connaissance des systèmes existants), pour laisser le temps minimum nécessaire à une analyse correcte de la demande afin que lévaluation du temps et des moyens requis pour réaliser lintervention soit la plus pertinente possible, et non pas axée sur le coût minimum.
Il peut être utile de saider, pour la classification, de benchmark permettant de mesurer des fourchettes de niveau de difficulté en comparaison avec des projets similaires ayant déjà eu lieu, dans des sociétés diverses. On peut approfondir avec une approche de quantification volontariste, type unité duvre, à condition toutefois que la définition de ces unités duvres ne soit pas discutable et puisse être communément admise par le plus grand nombre, quelque soit le besoin, le métier, les technologies et les contraintes de lexistant.
Ce qui nous amène à penser, compte tenu de lhétérogénéité des approches et des existants, que lapproche qualitative de comparaison par similarité peut savérer parfois plus efficace. Dans tous les cas il faut établir une capitalisation sur la durée qui mixe les deux approches, quantitative et qualitative.
Ensuite, des approches stéréotypées du benchmarking peuvent conduire à des comparaisons de solutions erronées. Des critères trop formatés dappréciation conduiront, par exemple, à évaluer chaque ligne dune matrice de choix indépendamment les unes des autres pour arriver à une note globale éventuellement pondérée par la priorité attribuée à chaque critère.
Mais ce qui ne sera pas regardé, cest la pondération des critères entre eux. Pour exemple, deux solutions sont jugées sur la capacité de léditeur à apporter du support et sont évaluées sur ce point en fonction du dimensionnement et de la localisation des équipes de support ; lune des solutions nécessitant peu ou prou de support au regard de lautre, cette comparaison des équipes de support na pas de sens indépendamment de la facilité dutilisation/de déploiement et de la robustesse du produit.
Cet exemple est peut-être caricatural, mais on peut rappeler que lengouement initial pour lopen source était majoritairement sous-tendu, pour beaucoup dentreprises, par les baisses de coûts drastiques des licences, sans quelles pensent un instant à considérer les coûts dadministration, de support et de formation des équipes. La considération du fameux « TCO » (Total cost of Ownership) du Gartner, est venue après coup.
Ainsi, pour tout benchmark, faut-il garder à lesprit une approche globale, qui privilégie une vision sur lensemble des axes du Système dinformation (métiers/services, économique (valeur/coût/risque), organisation et ressources humaines, infrastructures, architecture données et informations, processus de développement, maintenance et exploitation) tout en ne mesurant pas ces axes indépendamment des uns des autres mais bien dans leurs interactions.
Dans le cas dun déploiement mondial de processus standardisés, la question est toujours de vérifier, entre deux approches de solution, laquelle convient le mieux. Il sagit de choisir entre prendre un progiciel unique et le déployer de façon indifférenciée au niveau mondial pour ensuite le localiser, ou choisir des systèmes locaux ouverts et interopérables, adaptés aux législations locales, parfois déjà dans la place, permettant une réconciliation au niveau global en communiquant avec un système transverse « par-dessus ». Le choix entre les deux approches nest pas standard, car il dépend ici vraiment de lhéritage organisationnel et informatique des sociétés.
Dans un environnement de monopole, on peut imposer un standard de facto. Dans un environnement concurrentiel, on doit se différencier. Et cest là ou une diversité politique est essentielle, cest là où il peut être intéressant de chercher des fournisseurs hors normes pour ne pas reproduire ce que la plupart savent faire le mieux, c'est-à-dire ce que tout le monde fait. Une entreprise naime pas quon bouscule ses idées reçues, une entreprise est un tissu humain, et les hommes naiment pas le changement. Mais le changement nest pas un choix, cest une nécessité dévolution.
Autant il est primordial de pouvoir standardiser des formats de composants, déchange et de données pour favoriser linteropérabilité, enjeu non discutable, autant on peut sinterroger sur la limite à ne pas franchir dans la standardisation des tâches et services à fort quotient intellectuel. Vouloir standardiser à tous prix ce qui ressort de processus humain déchanges et de réflexions, dexpertises et dexpériences, et ce, pour limiter les risques, ou pour une approche plus noble de trouver où se créée la valeur afin de la répliquer, conduit à une uniformisation des pratiques qui peut, à grande échelle, être à linverse préjudiciable à la création de valeur et à la différenciation.
Linformatique en flux tendu
Les origines
Le flux tendu (ou JAT pour «Just In Time ») est un classique de la chaine logistique, qui consiste à minimiser les stocks et les en-cours de fabrication. Initié au japon dès les années soixante, il rassemble un ensemble de techniques, de lamont à laval de la production, qui visent donc à améliorer la productivité globale de lentreprise et réduire les coûts induits par les stocks.
Au fil du temps, les techniques de pilotage de la chaine logistique se sont améliorées, bénéficiant des dernières avancées technologiques en matière dinformation et de communication. Aujourdhui, on parle davantage de « demand driven supply chain », au sens où le pilotage est tiré par la demande du consommateur final, et non plus loffre/ la disponibilité des produits. Des avançées technologiques telles que le RFID (notamment pour la traçabilité), louverture et linteropérabilité des systèmes dinformation entre acteurs (grâce à Internet), et lusage de solutions de type « business intelligence » ont conduit à des pistes tangibles damélioration et doptimisation dans ce sens en permettant rapidement dévaluer/estimer les tendances et être pro-actifs.
Evidemment, on en voit toute limplication à une époque de crise économique qui conduit à réduire justement la production dans de nombreuses industries souffrant dune baisse de la demande, mais également à ajuster loffre à de nouveaux types de demandes et/ou comportements dachat dans la grande distribution.
Ce flux tendu pratiqué de manière industrielle, est aujourdhui relativement bien maitrisé par les industries ayant à gérer des stocks et/ou des matières premières, sur lensemble des étapes de la chaine, de la conception/fabrication, au transport, distribution, commerce et après-vente. Mais quen est-il des économies plus immatérielles? En dautres termes, cette logique de flux tendu est-elle uniquement applicable à des problématiques de gestion de stocks et au secteur de lindustrie ?
Le flux tendu est aussi attendu des «chaines de production» de système dinformation
Le parallèle
On parle désormais déconomie et dactifs immatériels de lentreprise. Il est évident que les technologies de l'information et de la communication, et de façon plus globale, les systèmes dinformation, jouent un rôle prépondérant dans cette nouvelle donne économique, et ce, à deux titres principaux. Dune part, en tant que constituants du capital immatériel dautre part, en tant que réels outils de production. En effet, une base de données client est un actif immatériel (plus précisément une immobilisation incorporelle selon les termes admis). La mise en ligne dune offre de services à la personne, à travers un portail dabonnement ou une offre de services dinformation dédiée à un secteur (exemple pharmacie, santé), nécessite de passer par un processus de production informatique, qui transforme une (ou des) matière(s) première(s) pour aboutir à la livraison de produits finis.
La « matière première » ici, cest dune part des ressources immatérielles telles que la connaissance, linformation (méta-données, référentiels, etc), le savoir-faire (ressources humaines et méthodes), et des ressources physiques (plate-formes serveurs, réseaux, etc). La chaine de transformation, cest passer de la conception du système, qui va utiliser ce type de matière première dinformation, à la livraison de lapplication en production.
Dès lors, si on se penche sur une autre définition du juste-à-temps, celle du « zéro délai » ou des « cinq zéros », zéro panne, zéro délai, zéro papier, zéro stock et zéro défaut, on peut envisager dappliquer la théorie du flux tendu à la conception de systèmes dinformation, mis à part la problématique de stock (et encore, il y a toujours à gérer le parc informatique). Le zéro panne, zéro défaut, portent sur la garantie de continuité de services et la Qos (Qualité de services). Le zéro papier, a priori, se comprend de lui-même, même sil y aurait beaucoup à en dire en termes de gestion de documents, de numérisation et darchivage. Le « zéro délai », cest ce qui est attendu aujourdhui des systèmes dinformation : la rapidité dévolution, c'est-à-dire zéro délai pour aligner le SI aux besoins marché, ou, du moins, réduire au minimum le temps de passage entre lexpression du besoin et la livraison du service informatique, pour sortir les bons produits à temps.
Là, force est de reconnaitre quentre la cible et la réalité, il y a un monde : justement, le monde industriel. La mise en place du juste à temps et des différentes techniques qui sy appliquent, a pris plusieurs dizaines dannées aux industries. En réalité, les étapes ne sont pas si industrielles que cela dans la conception et la mise en production dapplications informatiques et il reste beaucoup à faire pour aboutir à des processus de « production » dits industriels.
La mise sous tension du système dinformation
A linverse, le niveau dattente est nivelé sur celui des productions industrielles, doù un niveau certain de stress induit. Ainsi, si on regarde plus précisément le secteur des télécommunications, a fortiori tributaire des systèmes dinformation et de la maîtrise des nouvelles technologies, loffre de services, en particulier pour les mobiles, est bien tirée par la demande, et le DSI « na pas le choix des dates auxquelles sortent les nouvelles offres. », comme le soulignait Jean-Luc Lucas - Directeur des Plateformes de Service chez FRANCE TELECOM le 19 novembre 2008 à une table ronde de DSI organisée par Compuware France. Dans ces conditions, lanticipation est nécessaire, lévolution « à chaud » aussi.
Doù une mise sous tension du système dinformation, qui doit saligner sur un résultat industriel, tout en ne disposant pas encore de processus totalement industriels. Devenir « plus industriels », avoir des « processus industriels » que recouvre ce souhait si largement partagé, si ce nest lenfance de lart de lindustrie? Certes, on parle aujourdhui de « lignes de produits logiciels », conçues dans des usines logicielles (software factory »), capable dassembler des briques, grâce à une base de modèles qui permet de standardiser et d'automatiser la conception, l'intégration, la validation et la maintenance des logiciels.
Mais les gains espérés dune telle évolution, productivité, innovation, compétitivité, ne sobtiendront quen allant au-delà dune logique centrée sur la construction dune usine et ses chaines de montage. Pour que le comparatif ait du sens, il faut aussi ré-exploiter les techniques doptimisation de la chaine de production, et appliquer la logique de flux tendu à lévolution des services fournis par les Systèmes dinformation, ce qui suppose a minima :
Avoir des méthodes danalyse de la valeur applicables à tout nouveau projet/développement de service. Il sagit de répondre à une question a priori simple. Est-ce que le "produit" (au sens résultat) de ce projet, le service que remplira le logiciel développé répond parfaitement aux besoins qui en ont déterminé lexistence et ce, au coût le plus faible ? Il faut dès lors en comparer la « valeur métier » au sens par exemple de nouvelles parts de marché, de la satisfaction client, de la qualité dun produit ou dun service, avec le coût total de « fabrication » (coût du projet y compris matériels et logiciels et coûts annexes tels la formation),
Considérer les coûts informatiques comme de réels coûts de production et non des coûts « administratifs » ou de « support »,
Avoir, pour optimiser la chaine de production, des méthodes et des modèles (exemple le développement rapide RAD, ou agile), qui facilitent la réplicabilité des processus et dès lors libèrent des contraintes de localisation,
Aller au-delà de la fabrication dune « usine »
Il reste ici un champ dexploration où linnovation nest pas seulement de ré exploiter les techniques de lindustrie, mais bien de trouver, avec les nouvelles technologies, une possibilité daller au-delà de linformation « brute », de la « donnée » et de modéliser facilement « le sens » de ce quon veut concevoir, afin de réduire davantage encore le délai entre le besoin exprimé et sa concrétisation, en supprimant les interprétations intermédiaires. Dans ce cas, la logique du flux tendu appliquée à linformatique prendrait tout son sens. Mais cela reste encore très futuriste.
Chapitre13
Innovation et Intelligence de lévolution
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
Mot-clé du chapitre (balisage sémantique)
La nécessité est la mère de l'invention.
Platon
Celui qui n'appliquera pas de nouveaux remèdes doit s'attendre à de nouveaux maux ; car le temps est le plus grand des innovateurs.
Francis Bacon
Linnovation fait partie des meilleures pratiques de lévolution des systèmes dinformation, car, sans elle, il ny a pas dévolution. Quil sagisse dun côté, dinnover dans les usages en adoptant de nouvelles technologies que les autres rechignent encore à adopter et dès lors avoir une longueur davance sur ses concurrents, ou de lautre côté, dinnover dans les services du système dinformation en proposant des échanges dinformation et/ou des modèles de transactions économiques qui nexistent chez aucune autre entreprise. Si linnovation était strictement régulée par des lois et des processus que tous peuvent apprendre et répliquer, ce ne serait plus linnovation, car elle est faite dinvention, dintuition et de prise de risques.
Restent néanmoins certains principes, certains retours dexpériences des systèmes dinformation que ce chapitre va sattacher à décrire. De même quil abordera également lévolution des compétences et des organisations, car cest dans ces domaines que linnovation en système dinformation amène souvent ses plus grands fruits et où lévolution des TIC a entraîné des changements profonds, qui sont loin dêtre terminés avec les métamorphoses du Web évoquées dans la première partie.
Linnovation
Peut-on mettre linnovation dans les meilleures pratiques de lévolution? Les meilleures pratiques, cest une somme de connaissances utiles et des méthodes efficaces qui ont été accumulées avec les retours dexpérience. Linnovation, cest une création en action, cest la capacité dinventer et de créer quelque chose de nouveau. Il sagit dintroduire une rupture dans un domaine particulier, faire quelque chose quon ne savait pas faire avant, ou faire autrement. Donc pourquoi les retours dexpérience pourraient-être utiles ?
Il y a bien des meilleures pratiques en innovation, non pas tant au niveau de la création et de lémergence des idées, mais dans le processus qui mènent de lidée une fois créée, à sa mise en uvre et son adoption. Dans cette optique, les retours dexpériences sont plus quutiles pour comprendre non forcément ce qui marchera, mais pour éviter les pièges des occasions dinnovations manquées, ou des innovations restées « orphelines dusage », car jamais adoptées.
Différenciation ou nécessité
Cest la rencontre entre le concept ou linvention et la facilité dusage qui génère ladoption.
Dans les systèmes dinformation, linnovation, cest introduire des moyens technologiques, ou des pratiques dutilisation de linformation, pour transformer loffre de services, ou devenir plus performants et donc, plus compétitifs.
Linnovation dans ce domaine, cest trouver un moyen de différenciation dans la proposition de valeur de lentreprise, que les concurrents ne savent pas faire ou ne peuvent pas faire.
Il y a deux moyens, adopter rapidement de nouveaux concepts ou outils pour avoir une longueur davance dans la façon dont ils vont transformer les usages, ou créer réellement un service nouveau, à laide des technologies de linformation et des communications.
Dans le premier cas, il faut être visionnaire, dans le second, il faut être créatif. Etre visionnaire présente des avantages et des inconvénients, selon la longueur davance que lon a vis-à-vis du marché et de la maturité des technologies utilisées. Si la longueur davance est trop courte, la différence concurrentielle sestompera très vite. Si elle est très importante, il y a les risques de manque de maturité et de « non adoption » à gérer.
Il y a un délai certain entre larrivée dun nouveau concept en informatique et ladoption massive. La question est : quand faut-il adopter ? Pas trop tôt, pour ne pas « payer les pots cassés », pas trop tard, pour ne pas être quun suiveur, qui va payer pour une condition nécessaire, mais pas
suffisante. Car, en effet, le service ou la fonction fournis par linformatique nétablissent pas de réelle différenciation métier dès lors quils sont largement adoptés, et standardisés dans les modes de fonctionnement de la plupart des entreprises. En choisissant sur étagère, si vous avez ce que tout le monde a, quavez-vous de plus ? Toutefois, il y a un certain seuil où il devient indispensable de mettre en place certaines fonctions de support informatique standard, car ne pas les avoir vous fait perdre, si ce nest gagner, des contrats, des employés, ou de la satisfaction client.
A linverse, oui, vous ne vous distinguerez pas à les mettre en place
sauf si vous les utilisez judicieusement afin de proposer vraiment un nouveau service et si vous êtes le premier à le faire. Cest là, entre autres points, que lon distingue cette frontière ténue entre innovateurs et premiers suiveurs.
Ainsi les grandes entreprises ne se posent quasiment plus la question de savoir sil faut mettre en place des progiciels de comptabilité/finance, ou de RH. Le centre de gravité de la question se déplace plutôt sur lequel choisir, comment éventuellement upgrader lexistant, ou lexternaliser (jusquau niveau des processus parfois, avec le Business Process Outsourcing) et/ou faut-il le remplacer par une offre Saas éventuellement plus économique ?
Ce qui est plus exemplaire, cest de voir apparaître à grande échelle la mise en pratique de solutions technologiques aujourdhui éprouvées, mais jusqualors reléguées à des expériences individuelles, et qui sont parfois trompeusement qualifiées dinnovation.
Quand le concept rencontre largement le marché, il ny a plus innovation, mais nécessité.
Ainsi la dématérialisation, déjà proposée il y a une dizaine dannée à travers des offres de gestion de documents combinant reconnaissance de caractères - RAD (Reconnaissance Automatique de Documents), LAD (Lecture Automatique de Documents) et LAF (Lecture Automatique de Formulaires) le workflow, la signature électronique et larchivage légal, a vue non seulement ses offres acquérir la maturité technologique nécessaire, mais également son champ dapplication se démultiplier, notamment dans le secteur public, en dématérialisant le dialogue avec lusager.
Pour les administrations, la liberté daccès et légalité de traitement face à linformation et le service égal pour tous publics entrainent certes des contraintes techniques et dévolution dans la mesure où dune part, il faut migrer un existant avec une masse critique, dautre part, quel que soit la nature du service (information, démarche administrative, traitement des réclamations, téléprocédures, ..), la qualité du résultat, que le support soit papier ou « numérique », doit être la même pour tous les administrés en terme de délais et de pertinence de réponses. Mais le mouvement est bien là, quand la plupart des usagers peuvent aujourdhui utiliser les télé-procédures pour déclarer leurs revenus, réaliser des démarches spécifiques ou sinformer via des portails dédiés.
On peut proposer des services différenciés avec des technologies relativement standard
Bien sûr, limpact sur lorganisation nest pas négligeable, et il faut savoir négocier le changement. Si concrètement, dématérialiser, cest substituer un flux électronique à un flux physique (En un sens plus restreint, cest dissocier linformation de son support traditionnel, le papier), les processus métiers qui sont sous-tendus par des processus de traitement de linformation, peuvent être, à certaines étapes, contraints par le type de support (documents, formulaires, courriers, pièces justificatives, etc.) et le « véhicule » (ex : courrier physique) du flux associé. En dématérialisant, non seulement on accélère le traitement en mettant linformation plus vite à disposition des systèmes métiers, mais on permet également un meilleur suivi de lavancement des dossiers, et lon peut faire abstraction de tâches répétitives de classement ou circulation manuelles, sans valeur ajoutée.
Reste que ce passage pour partie au numérique, sil est bien négocié, allège considérablement le coût global dun processus. Par exemple, il permet la réduction du coût et de la charge de contact avec les administrations pour les entreprises, la réduction du coût dû à des erreurs de saisie pour les dossiers dassurances, de réclamations, etc., tout en permettant plus de réactivité en supprimant les allers-retours par les contrôles et le suivi adéquat. De surcroît, il autorise plus de présence, au sens disponibilité du service. Pour exemple, la banque multi-canal permet de fidéliser des populations nayant pas la possibilité de se déplacer aux horaires douvertures des agences. La qualité du service en est amélioré, à partir du moment où des informations de première importance sont également transmises via SMS, tel quun découvert bancaire, par exemple.
Ainsi la dématérialisation, qui ne consiste pas à proprement parler en une application spécifique cur de métier, était typiquement un moyen de se différencier par le service. Aujourdhui, cest tout simplement une nécessité de service. On ne peut plus ne pas lavoir.
Domestiquer la «courbe des tendances »
Faut-il être le premier à mettre en place de nouveaux concepts informatique?
Pour le tertiaire et lhigh tech & electronic, quand les produits et les actifs deviennent de plus en plus immatériels, les opportunités de créer rapidement et à moindre coût des services différentiateurs avec de nouveaux modèles technologiques, économiques ou organisationnels, sont élevées. Le système dinformation, avec la tertiarisation de léconomie, est plus que jamais un outil de production dans cette nouvelle donne économique.
Reste quil y a aussi des risques, et beaucoup dambiguïté à vouloir tenir la position « être le premier » à introduire une rupture technologique. Cest aussi valable pour les entreprises utilisatrices qui mettent en place de nouvelles technologies que pour les éditeurs/constructeurs qui les conçoivent ou les développent. Pour mémoire, IBM sest vue doublée par Oracle, plus rapide à commercialiser un Système de Gestion de base de Donnée relationnelle que « Big blue » , pourtant à lorigine du concept.
Ensuite, les vrais paradigmes de rupture, comme UNIX, comme lopen source, sont sur des cycles dadoption longs et comme tout vrai paradigme, apportent des bouleversements autres que technologiques, car ils ont des impacts organisationnels et
métier. Pourtant les entreprises qui ont su bénéficier au plus tôt des avancées de linteropérabilité ou des avantages de lopen source ont pu marquer des points pendant un moment.
En informatique, savoir innover à bon escient, cest savoir domestiquer les montagnes russes de la « hype curve », cest à dire la courbe des tendances du Gartner qui sapparente si bien à des montagnes russes. Dabord il y a lexcitation de la montée, puis, sans prévenir, avec juste une petite oscillation dincertitude, le haut le cur de la descente (voire le rejet), à laquelle on peut rajouter souvent une petite boucle temporelle (jy vais, jy vais pas), puis larrivée, tranquille, avec tout le monde, au plateau de productivité.
HypeCycleGartner.png
Légendes figurant dans limage
Figure 13-1.
« hype Cycle » ou la courbe dadoption des technologies émergentes selon le Gartner
Pour se différencier, mieux vaut dailleurs y arriver avant les autres, et comme les montagnes russes se font en wagons, mieux vaut pour cela partir le premier, avec les précautions requises (au moins en attachant sa ceinture). Partir au bon moment, et sur le bon chemin (certains natteignent jamais le dit « plateau de productivité »), voilà lépineux problème de linnovation.
Le paradoxe dAchille et la tortue
Dans le paradoxe dAchille et de la tortue, émis par le philosophe grec Zénon dElée, le héros dispute une course à pied avec le reptile et lui concède « élégamment » une avance de cent mètres. Tout lenjeu du raisonnement du philosophe est de démontrer quAchille na jamais pu et ne pourra jamais rattraper la tortue. Achille ne le pourra pas, puisqu'il doit toujours parvenir d'abord au point que la tortue vient de quitter, et celle-ci aura pris un peu d'avance. Achille doit donc passer par une infinité de points que la tortue a déjà franchis. Même si la distance entre eux se réduit de façon infinitésimale, il reste toujours une distance à franchir qui sadditionne aux précédentes, pour que la somme de secondes qui sécoulent avant quAchille ne rattrape la tortue comporte une infinité de termes. Il lui faudrait dont une durée infinie pour rattraper la tortue. Bien sur, la démonstration mathématique des séries convergentes a résolu le paradoxe, pour la course à pied, tout du moins.
Mais quest-ce que le temps et lespace de la course à linnovation? A quel moment, dans la logique de concurrence des entreprises, le zélé Achille va rattraper la tortue à qui il a laissé cette si généreuse avance? Ce nest plus ici une suite mathématique où une série infinie de nombre peut converger vers un résultat fini. Car la tortue peut profiter des cent mètres pour entreprendre sa métamorphose. Ce qui nest plus continu, ce sont les paramètres de départ : un reptile contre un héros agile. Imaginons un instant que la tortue devienne oiseau, et le talon dAchille est révélé.
Mais point nest besoin de métamorphose, une autre fable rappelle quà trop sommeiller, on se laisse aussi distancer. En dautres termes, une entreprise qui reste sur ses acquis de leader et ne veut pas prendre le risque dinnover, prend justement un risque : celui de se laisser distancer pas ses challengers. Cest là où il est intéressant de se situer dans le modèle du cycle de vie de ladoption des technologies de Everett Rogers. Faut-il être parmi les innovateurs ? Les premiers à adopter? En tous cas, pas les derniers.
DiffusionOfInnovation.png
Légendes figurant dans limage
Figure 13-2.
Cycle de diffusion de linnovation
Image sous license HYPERLINK "http://en.wikipedia.org/wiki/Creative_Commons" \o "Creative Commons" Creative Commons HYPERLINK "http://creativecommons.org/licenses/by-sa/3.0/" Attribution-ShareAlike 3.0
Innover daccord, mais comment ? Surtout en informatique, là où il y a tant de concepts différents, de nouvelles technologies, de nouvelles solutions, de référentiels, tant de pistes et de présumés miroirs aux alouettes, que le DSI, transformé en entrepreneur sil touche à linnovation et veut en faire une source de valeur pour lentreprise, sinterroge sur la direction à prendre et a du mal à calculer ses risques. Certes sil y avait des recettes miracles pour innover, il ny aurait par nature plus dinnovation. Mais lon devine bien certains principes, certains effets pervers aussi à vouloir à tous prix diminuer les risques inhérents à linnovation en lencadrant par des processus.
C'est avec la logique que nous prouvons et avec l'intuition que nous trouvons
Linnovation mérite-t-elle des processus ? A force de vouloir contraindre la logique dinnovation à rentrer dans des étapes structurées, on peut la perdre, car lenjeu nest pas de savoir a posteriori ce quil fallait penser a priori. Décrire à un moment, via les processus, les réalités que nous trouvons sous nos sens et nos vies ne suffit pas. « Qui dit ce qui est ne peut induire de là ce qui devait être », ainsi que lexprimait Henri Poincaré, mathématicien et philosophe, lequel a introduit la différence entre un « axiome » et une définition.
Laxiome est une hypothèse, non démontrable, posée au préalable, admise comme étant vraie, le plus souvent issue dune intuition que nous avons a priori. La définition vient a posteriori, en cela quon doit la démontrer comme non contradictoire avec les axiomes. Pour reprendre en fil conducteur lapproche de Poincaré et sa citation « cest avec la logique que nous prouvons et avec lintuition que nous trouvons », linnovation est dabord, avant toute chose, affaire dintuition, pour déterminer le bon paradigme de lévolution. Ensuite seulement, il faut prouver de façon logique son apport et comment la mettre en uvre. Qui dit intuition, dit risque, effectivement, mais cela, cest un axiome de linnovation. Qui dit intuition dit surtout vision des « possibles », et parfois, vision « différente ».
Y-a-t-il dès lors des conditions particulières pour que cette intuition vienne ? Linnovation demande-t-elle des talents spéciaux? Est-ce quinnover est un métier ou une capacité?
Partons sur laxiome suivant, que nous ne contestons pas : « Il y a un potentiel dinnovation dans chaque employé dentreprise ». Sous ce concept, nous trouverons la fameuse boite à idées de Renault, implémentées depuis presque une quinzaine dannées, ou le programme « dinnovation participative », lancé par Accor en 2001. Derrière ces initiatives, Il faut certes des processus aussi pour canaliser les idées, les récompenser - cest un principe du Knowledge Management en entreprise, la contribution y est récompensée par une valeur monétaire, ou une forme de reconnaissance professionnelle. Mais la question essentielle à se poser, sans chercher nullement à amoindrir lapport des contributions, est la suivante : combien didées sont des raisonnements a posteriori, c'est-à-dire des idées damélioration et doptimisation des processus existants, et combien sont réellement « transformationnelles » ? Une « boite à idées » nest pas de nature à faire prendre des risques, ou proposer une vision différente, elle peut induire comment « faire mieux », mais peu ou prou proposer comment faire « autrement ».
La reconnaissance et la liberté des réseaux du Web : un ferment de linnovation ?
Ce potentiel dinnovation individuel sexprimera sans doute mieux dans un environnement ouvert, où le risque de porter ombrage à lorganisation de lentreprise sera amoindrie, voire inexistant, et où la forme de reconnaissance sera relayée et démultipliée par laudience. Ainsi, typiquement, les réseaux sociaux sont candidats à être un terreau dinnovation. Reconnaissance par les pairs, culture déchanges, pas dorganisation hiérarchique, foisonnement didées
Cest peut-être là où le bât blesse.
Pour garder Poincaré en « guide » de linnovation, si on reprend ses termes : « l'esprit n'use de sa faculté créatrice que quand l'expérience lui en impose la nécessité. ». Ce qui peut induire dune part, que la recherche et linnovation ne font pas forcément bon ménage
en même temps, et dautre part, quun environnement « foisonnant » didées, mais non contraint à la nécessité dinnover, naura pas forcément lintuition nécessaire pour avancer. A contrario, lécosystème de lopen source a trouvé un modus vivendi où lexpérience elle-même lui impose la nécessité davancer, ensemble, et avec une logique de projets introduisant la rigueur là où elle est nécessaire.
Pour innover, il faudrait donc concilier un environnement non contraint par des processus stricts ou une organisation hiérarchique, mais contraint par la nécessité davancer, à un espace ouvert déchange didées, et mélanger des personnalités intuitives pour définir les axiomes, avec des approches plus rigoureuses pour prouver logiquement que le chemin est bon.
La recherche de linnovation, est une recherche de « sens » (de valeur pour lentreprise) dans le choix de chemins possibles. La capacité à innover pourrait être un mélange entre louverture aux champs des possibles, et la capacité à choisir rapidement un possible parmi dautre. Langle de vue et la rapacité de laigle, poussé par la nécessité de la faim. Pour innover, il faudrait donc pouvoir disposer dune vision large dun terrain (le « survoler » en voyant tous les chemins possibles) et avoir la capacité à sengager rapidement sur lun ou lautre, en dehors dune logique organisationnelle imposée a posteriori.
Poser la bonne question, partir du bon axiome intuitif de ce qui, en informatique, permettra la création de valeur pour lentreprise, cest cela qui ouvrira le champ des possibles et donnera lavance nécessaire à la tortue, « challenger » dAchille. Plus que jamais, en période de crise, celui qui aura su partir à temps , et sengager dans une réelle transformation, sera assuré de garder son avance, face à ceux qui restent sur leurs acquis.
Mais cela nous amène à un autre paradoxe. A lheure où de nombreuses voix se rejoignent pour dire (ou prédire ?) que linnovation sera un outil de sortie de crise, quel est le budget réel accordé à linnovation ? En informatique, si différents spécialistes saccordaient à avancer que moins de 5% du Budget IT était dévolu à linnovation avant la crise, tout porte à croire, à une époque au mieux « dIso-budget », que le pourcentage est encore moindre aujourdhui. Est-ce suffisant ? Ou ne serait-il pas temps que la réduction de coûts soit entreprise non pour dégager plus de bénéfices immédiats, au risque de bloquer le futur, mais en restant à « iso-budget », dédiée à augmenter linvestissement en innovation ? Il y a fort à parier malheureusement que linnovation ne tombant pas sous le coup de processus bien structurés et dindicateurs totalement quantifiables a priori, on choisisse de faire une croix sur ce quon ne sait pas maitriser par peur du risque, au risque de ne plus maitriser la « sortie de crise » a posteriori.
Lévolution des compétences et des organisations
L'environnement des systèmes dinformation est par nature changeant. Des entreprises apparaissent et disparaissent, constructeurs, éditeurs, et jusquaux utilisateurs, des regroupements se font, tandis que pléthore de nouveaux fournisseurs proposent des technologies certes attractives, mais dont le couplage avec les applications existantes nest pas toujours limpide. La complexité des fusions et acquisitions, des consolidations de sociétés, mettent également en lumière la nécessaire restructuration des systèmes dinformation pour plus de qualité, de cohérence, de capacité de collaboration (interne entre métiers et externes vis-à-vis des partenaires et clients), condition de ladaptation au changement.
Mais, d'un point de vue humain, comment s'adapter, comment évaluer l'expertise nécessaire à le faire, en particulier pour appréhender les nouvelles technologies, comment mesurer les retours d'expérience, capitaliser sur et exploiter ce qu'on a appris? Enfin, comment faire évoluer les compétences pour toujours contrôler que les informations que nous collectons, stockons, manipulons et utilisons à grande échelle grâce aux technologies, sont, d'une part, pertinentes, fiables et sécurisées, d'autre part utiles, certaines pour supporter au quotidien le fonctionnement de l'entreprise, d'autres pour élaborer et mettre en uvre de façon cohérente la stratégie et les tactiques nécessaires à l'atteinte de ses objectifs?
Dans un monde de changement, doit-on privilégier la capacité à faire évoluer rapidement les expertises technologiques, ou, dans un monde également et surtout hétérogène, où se juxtaposent des strates technologiques, veiller à ne pas perdre les compétences acquises et privilégier l'expérience? La formulation de la question propose déjà une réponse où il ne faut pas opposer expérience à expertise, l'une et l'autre se complétant. Mais la réponse ne s'arrête pas là : expériences et expertises ne suffisent pas à supporter complètement l'évolution. Il faut également «créer le lien» entre des savoir-faire et savoir-être différents.
« Expérience est le nom que chacun donne à ses erreurs» écrivait Oscar Wilde. Connaissant lironie de lauteur, il est clair que lexpérience des uns ne vaut pas celle des autres. Au-delà de l'ironie, une erreur est souvent source d'expérience quand nous apprenons à en retirer de la sagesse et à avoir le recul nécessaire pour ne pas la reproduire. Ainsi évoque-t-on souvent, en programmation, des «erreurs de débutants», signifiant ainsi qu'après quelques années, éviter ce type d'erreur devient un automatisme.
Le lien entre savoir-être et savoir-faire
Si on prend un développeur débutant ayant été formé sur des technologies récentes (deux ou trois ans d'âge), il a certainement plus de capacités à développer rapidement sur ce nouvel environnement qu'un programmeur ayant dix ans d'expérience et devant se former à ces technologies. On peut même dire que le débutant a paradoxalement plus d'expertise sur les technologies en question que le programmeur confirmé. Toutefois, il est probable qu'ils mettront l'un et l'autre le même temps à développer une application; car le développeur débutant fera des erreurs qui nécessiteront des retours en arrière, tandis que la personne expérimentée rattrapera son retard d'apprentissage par la méthode.
D'où l'intérêt d'utiliser le principe de programmation en binôme (pair programming) issues des méthodes agiles et de l'extrême programming (XP) en l'optimisant via le couplage expertise et expérience, pour transférer des compétences complémentaires. Doubler les équipes n'augmente pas la durée de développement, mais réduit les coûts liés aux erreurs de non qualité du logiciel. De même, les «revues de code» (pair review), sont une approche encore complémentaire, au sens ou, intervenant plus tard dans la chaîne de développement, elles permettent d'utiliser justement expérience et expertise pour réduire au maximum les erreurs avant mise en production, et un partage d'expérience à une autre échelle.
Au-delà de la programmation logicielle, l'expérience est une valeur sûre dans toutes les approches de gestion des projets, car si des méthodes, des référentiels et des outils existent pour structurer l'approche, issus de nombreuses capitalisations, reste que leur mise en uvre requiert le bon sens de déterminer, en fonction de chaque entreprise, ce qui peut être adapté rapidement et qui amènera à court terme un retour d'investissement mesurable et ce qui ne fera qu'alourdir des processus pour peu de plus value.
De même faut-il avoir «l'intelligence des situations» qui s'acquiert par la pratique, pour exploiter efficacement les indicateurs de gestion de projet, pour y déceler les signes avant-coureurs de dérive ou de non-qualité et mener une politique de gestion des risques adaptée, mais également pour dialoguer avec différentes instances de décision et pour gérer en cohésion une équipe soudée vers les mêmes objectifs. Ce dernier point est un critère clé de réussite parfois plus efficace qu'un tableau de bord n'intégrant plus la dimension humaine des projets.
Une expérience assez large des concepts et usage des systèmes dinformation est un atout dans l'approche de conception des nouveaux systèmes, où la compréhension des enjeux métiers facilite ou le choix de progiciels verticaux, ou la modélisation des objets et des processus métiers réellement significatifs, et ce, dans une architecture d'entreprise. Mais il n'est pas forcément besoin d'avoir une réelle expertise métier pour se faire, l'essentiel est ici de savoir collecter les informations, en déterminer la pertinence et les types de liens, puis d'avoir la capacité à «modéliser» cette connaissance acquise dans un schéma visuel compréhensible par d'autres, et exploitables dans un processus de développement éventuellement outillé, ou un processus de choix de solution par analyse des écarts («gap analysis»).
Lintelligence de linteraction
A «l'expérience» de la méthode, doit se coupler une utilisation de capacités assez spécifiques. Elle nécessiterait d'utiliser au moins trois des formes d'intelligences qu'Howard Gardner, théoricien des formes multiples d'intelligence, a classifié au nombre de sept, (in «frames of Mind : the Theory of Multiple Intelligence»): l'intelligence interpersonnelle, pour interagir de façon adaptée avec les tenants du savoir métier et avec les développeurs, l'intelligence spatiale, pour avoir une représentation spatiale de «l'architecture d'entreprise» et comprendre comment y progresser, et l'intelligence logico-mathématique, c'est à dire une intelligence plutôt orientée vers l'analyse et les raisonnements logique, la catégorisation et la classification.
Cette dernière d'ailleurs est un exemple intéressant d'évolution des expertises, pour en revenir à l'exemple de la programmation logicielle, car elle fait apparaître une évolution des schémas de pensée. En effet, l'évolution des langages informatiques, les successions de paradigmes, suivent une logique relativement similaire à l'évolution des langages des civilisations, au sens où dans ces derniers, des mots, des règles syntaxiques ou lexicales, sont apparus pour répondre à l'évolution des besoins quotidiens, d'abord axés sur la survie (chasse, pèche, climat), ensuite tournés vers les échanges, le commerce facilitant l'enrichissement du langage.
Ainsi la fonction crée le besoin d'usage du mot, et par conséquent, le mot, qui lui-même à son tour, conduit à d'autres niveaux d'échanges. De ce fait, l'évolution des langages d'abord procéduraux vers des langages de plus haut niveau d'abstraction, avec une logique objet, puis pattern, s'est accompagnée aussi d'une évolution des schémas de programmation, et des compétences.
Il y a une dizaine d'années, on s'effrayait du taux d'échec à former d'anciens programmeurs Cobol au C; aujourd'hui, compte tenu du fait que les mainframes sont loin de l'agonie qu'on leur prédisait, on forme inversement de jeunes programmeurs au Cobol, et il existe également du «Cobol-Objet», bien que moins répandu. De plus, les «barrières d'apprentissage» pour passer d'un monde à l'autre se sont estompées.
La différence vient probablement du fait que les premiers «Cobolistes» n'étaient pas tous informaticiens, mais certains formés sur le tas à l'usage du Cobol. Les générations suivantes ont été formés aux approches algorithmiques, elles utilisent plus donc, des capacités proches de ce qu'Howard gardner nomme «intelligence logico-mathématique».
Un exemple amusant de cette évolution pourrait être le «problème d'Einstein» et des cinq voisins. Einstein le présentait à son époque comme accessible seulement à 2% de la population. Aujourd'hui, ce problème est posé à des élèves de collège ou de lycée, en tant qu'exercice logique relativement simple.
Une conséquence d'une évolution de l'enseignement, plus orienté vers le raisonnement logique. De même, l'évolution des technologies conduit à une évolution de l'éducation et également des schémas de réflexion.
Ils lont dit
Le problème quEinstein estimait accessible à 2% de la population
On a cinq maisons alignées de couleurs différentes. Dans chaque maison vit une personne de nationalité différente. Chaque personne boit une boisson différente.Chaque personne fume un type de cigarette différent. Chaque personne élève un animal différent.Il faut trouver qui élève les poissons.
Indices :
L'anglais vit dans la maison rouge
Le suédois élève des chiens
Le danois boit du thé.
La maison verte est juste à gauche de la maison blanche.
Le propriétaire de la maison verte boit du café.
Le fumeur de Pall Mall élève des oiseaux.
Le propriétaire de la maison jaune fume des Dunhills.
L'homme qui vit dans la maison du centre boit du lait.
Le norvégien vit dans la première maison.
L'homme qui fume des Blends vit à côté de celui qui élève des chats.
L'homme qui élève des chevaux vit à côté du fumeur de Dunhills.
L'homme qui fume des Blue Masters boit de la bière.
L'allemand fume des Prince.
Le norvégien vit à côté de la maison bleue.
L'homme qui fume des Blends a un voisin qui boit de l'eau.
Jamais autant qu'aujourd'hui, la phrase d'Einstein «il ne faut pas chercher à tout savoir, mais savoir où tout chercher» n'a pris autant de relief avec la masse de connaissances numériques disponibles sur Internet. Naviguer sur Internet ne suppose pas forcément expérience ou expertise, mais capacité à dépasser des systèmes de classification et catégorisation logique pour établir des liens ouverts, voire intuitifs et trouver, par des voies multiples, la solution à un problème, par exemple, une brique open source pour une fonction de développement classique plutôt que de la développer.
Evaluer l'opportunité et la réelle valeur ajoutée de cette brique nécessitera alors de l'expertise et l'intégrer à tout un «cadre de référence» pour le développement, requiert l'expérience des méthodes et des organisations. Mais il est intéressant de voir que cette approche réutilisabilité et recherche de l'information sur Internet est une évolution dans l'approche des problèmes liés à l'implémentation des Systèmes dinformation, que ce soit dans la recherche de solutions ou de meilleures pratiques. Le nivellement de l'accès à l'information ne doit pas conduire à sous-estimer le potentiel de cette information, mais bien à une nécessaire réflexion sur les formes d'usage qui peuvent en être fait et comment les relier entre eux.
Si «l'expertise» au sens connaissance se nivelle par le partage ou par la mise à disposition de larges bases de connaissances, ce qui prime n'est plus l'expertise technique mais la capacité à faire le lien entre cette connaissance et un besoin déterminé, sans forcément passer par une analyse de causalité trop «stricte», donc une intelligence « logico-mathématique».
Depuis longtemps les approches en gestion des compétences distinguent différents types de «savoir», savoirs formalisés (connaissances et procédures) et les savoirs agissants (savoir-faire, expérience) ou savoir, savoir-faire et savoir-être. Ainsi, elles distinguent ce qui pourrait être «expertise» d'un domaine de connaissance, ce qui est savoir-faire acquis par la pratique; et une notion, pas toujours bien définie, de capacités relationnelles.
Mais leur défaut principal est souvent de s'appuyer sur un système de classification hiérarchique, une arborescence assez stricte, pour recenser différentes expertises technologiques ou métiers, ou des niveaux d'expériences, avec des passerelles et des logiques d'évolution par «filières» et très compartimentées.
C'est mésestimer la dimension collaborative, l'intelligence interpersonnelle, qui permet d'optimiser l'usage de compétences complémentaires et de faire évoluer les individus dans un réseau social : l'entreprise. Ainsi qu'évoqué précédemment, les binômes de programmation en alliant nouvelle expertise et expérience, font avancer plus vite, pour un résultat de meilleure qualité. Ce n'est pas forcément l'expertise qu'il faut développer, mais la capacité à travailler avec d'autres expertises, et à transférer sa connaissance à d'autres contextes. De plus, au-delà de l'expérience et de l'expertise, il faut comprendre quelles formes de capacités, ou formes «d'intelligences» sont requises dans des situations données, qui peuvent varier du tout au tout pour une même tâche selon le contexte en entrée.
Contrairement à Howard Gartner qui pense les formes d'intelligence comme exclusives (un individu aura une forme d'intelligence plus développée que les autres), le monde des systèmes dinformation, son évolution même, nous force à les voire multiples et complémentaires, et également à réaliser l'impact des technologies sur nos formes de raisonnement ou d'approche qui évoluent au fil du temps.
C'est pourquoi, pour une réelle approche d'évolution des compétences qui supporterait l'évolution des technologies et des systèmes, il faut raisonner non par compétences individuelles, mais en entrant la dimension des inter-relations entre individus. Ainsi il faut privilégier les binômes permettant de coupler une expertise nouvelle à une expérience éprouvée et réaliser un transfert bidirectionnel, savoir relier les compétences a priori distinctes entre individus pour en retirer les complémentarités en terme d'approche et garder «l'intelligence» des situations pour maintenir les expertises nécessaires au fonctionnement des anciens systèmes (ex des mainframes), tout en intégrant les experts de ces derniers dans des groupes de réflexions mixant également des expertises sur les nouvelles technologies et des compétences diverses.
Ces «réseaux de réflexion et d'expertises», fondés sur l'échange, le partage et la transmission de savoir entre tous ses membres, doivent se concevoir en intra-entreprise, mais aussi en inter-entreprise, tant il est vrai que les facteurs d'évolution peuvent être endogènes - pouvant résulter d'une décision de l'entreprise qui décide de maîtriser son évolution - ou exogènes (provenir de l'extérieur) et se développer sous l'influence des meilleures pratiques constatées chez d'autres entreprises.
Des binômes agiles pour lévolution
On pourra rétorquer que la mise en place de binômes, la réflexion sur l'inter-relation des compétences, les groupes de réflexions inter-métiers, ou enfin les réseaux d'expertises mettant en commun des générations de développeurs ou d'architectes formés à des paradigmes différents, représentent un coût d'investissement que les entreprises ne sont pas prêtes à fournir, car non lié à un projet déterminé. A une époque de réduction de coût, la gestion des connaissances, au sens large, ne fait pas recette. A cela, on peut rétorquer d'une part, que les technologies de partage d'information et de collaboration peu coûteuses abondent grâce aux solutions open source, et d'autre part , pour faire un client d'il à Einstein, en matière de coût, tout est relatif ...à ce que l'initiative rapporte.
Car son premier champ d'application pourrait être l'évolution pratique des systèmes existants. En effet, pendant quInternet modifie radicalement le paysage de lusage des technologies, les entreprises doivent faire face plus que jamais à la gestion de leur héritage informatique. La gouvernance est à ce prix.
La réalité, cest que bon nombre de systèmes existants ont des fonctions redondantes dans plusieurs systèmes, si ce nest des processus redondants, une visibilité insuffisante sur les flux de données, peu de traçabilité des processus, et des données dont la qualité et la cohérence sont à revoir, sans parler des structures. Ils nont pas été «nettoyés» non pas par ignorance de la situation, mais parce que cela représentait un investissement a priori purement technique pour des applications existantes, le plus souvent visées par des réductions de coût. A court terme, le retour sur investissement était difficile à mesurer.
Aujourdhui, on mesure davantage le prix de ce non investissement au cours des dix dernières années (pour ne pas dire les vingt), à laune des difficultés dintégration, de convergence et dévolution. Nous ne devons pas négliger cette expérience, et agir tant quil est temps. Rendre progressivement agile lexistant, bien plus que ladapter au jour le jour de nouvelles technologies, oui, ce pourrait être un nouveau concept issu des erreurs du passé, et la première piste de réflexion pour une évolution des compétences axée sur l'inter-relation et la collaboration entre experts des systèmes existants et «tenants» des nouvelles technologies ou architectes des approches durables.
Alors, avant que lécart entre le passé dont nous héritons et le futur que nous devons anticiper ne soit trop douloureux et les deux extrêmes irréconciliables, il est temps pour les entreprises de prendre conscience, au-delà de la vitesse incroyable de lévolution des technologies, de la nécessité dêtre agile aussi bien dans leurs choix et nouveaux projets, que dans la façon dont elles feront évoluer leur héritage et
leurs formes d'intelligences.
Dautre part, elles ne devront pas oublier ce principe de gouvernance issu de la République de Platon, ou Socrate montre qu'un chef - un gouvernement - ne commande pas ce qui est en son propre intérêt mais toujours ce qui est dans l'intérêt de celui qu'il commande.
Ils ont dit
Il faut manifester pour lagilité !
Dans lapproche agile à en croire le « manifeste agile » (www.agilemanifesto.org),les personnes et interactions priment sur les processus
Conclusion
Un principe de gouvernance de lévolution pourrait être de considérer le système dinformation comme un organisme vivant.
En effet, tout SI a des invariants au sens dun « cadre architectural », on retrouvera les mêmes principes généraux darchitecture qui font quil y a forcément des plates-formes matérielles, des serveurs, des réseaux, des interfaces, des données de référence, des environnements de développement qui suivent certains paradigmes, des domaines dapplications qui sinscrivent dans des cartographies fonctionnelles métiers, et des méthodes ou des processus relativement standardisés le cas échéant.
On peut donc toujours lier un système dinformation implémenté à linstanciation de concepts connus. Mais linstanciation ne sarrête pas aux seuls processus matériels et à la connaissance physique de lunivers matériel dans lequel le système dinformation sinscrit. La réalité est devenue beaucoup plus complexe que cela au fur et à mesure où linformation immatérielle sest démultipliée, ainsi que les outils qui la gèrent. Le système dinformation est vivant parce quil est « mouvement », il évolue en fonction des besoins des entreprises, mais également en fonction des compétences des personnes qui le manipulent et qui le considèrent différemment.
Définir le SI en tant qu«organisme vivant », signifie aussi, en principe, quil est un ensemble constitué par des éléments ou organes remplissant des fonctions différentes et coordonnées. Ce qui conduit à le regarder comme un tout en matière de bonne gouvernance, en portant attention aux parties qui forment ce tout et non pas en le morcelant dans des parties distinctes qui ne permettent pas davoir la coordination densemble nécessaire à poursuivre une stratégie et des objectifs spécifiques et adaptables aux besoins.
Cela étant dit, considérer les systèmes dinformation comme des organismes vivants, a dautres implications majeures pour la gouvernance.
La gouvernance, cest prévenir la sclérose du SI et permettre la reproduction pour durer
Aristote et Descartes partagent lidée du mouvement comme une des caractéristiques du vivant, mais si chez le premier le mouvement est conçu comme changement, le second le perçoit davantage comme un mouvement « mécanique ». Cette dernière approche du père des automates a sans doute eu jusquà présent la préférence des approches de modélisation des systèmes dinformation, qui sattachaient à modéliser des états et des transitions internes (ex : réseau de pétri). Pourtant, lapproche dAristote serait à privilégier dans la gouvernance dun SI flexible et durable.
Sans vouloir redessiner une définition du vivant qui est un exercice périlleux dans lequel de nombreuses questions biologiques, éthiques et philosophiques se posent et qui font que stricto sensu, la comparaison a des limites, deux concepts sont intéressants à développer dans le cadre de la notion de systèmes dinformation vivants. Le concept dévolution qui va de la naissance, au développement et à la mort, et le processus actif dauto-entretien, qui recouvrerait la fonction de lutte contre les maladies et les accidents, et la reproduction.
Le système dinformation vivant change en permanence et développe comme tout organisme des pathologies, qui ont des symptômes auxquels on peut appliquer un diagnostic et, éventuellement, des posologies. Sil ne peut pas être protégé contre tout accident, on peut du moins en réduire les risques (tels que les risques dobsolescence avérée, les risques dincohérence ou de non sécurité des données,
), comme on peut réduire les risques daccident cardio-vasculaires en limitant les facteurs de risques (tels que le tabac, le cholestérol, la sédentarité,
) par une bonne hygiène de vie.
Le changement implique aussi, pour tout organisme vivant, une dégradation progressive. De ce fait, il est logique denvisager la « mort » de tout ou partie de certains systèmes dinformation, cette dernière arrivant quand lorganisme, sclérosé, ne peut plus évoluer et se réparer. La contrepartie est de repousser cette « mort » le plus longtemps possible avec la prévention médicale nécessaire pour se régénérer, et pour durer, engendrer de nouveaux systèmes dinformation pour perpétuer une fonction semblable avec de nouvelles forces.
Quant au processus de reproduction, il consisterait, pour un système dinformation, à partir de « gènes » invariants (des données dentreprise, des règles métiers, des meilleures pratiques, des traitements réutilisables par exemple), à créer un individu de la même famille, mais avec un nouveau « corps », plus jeune, plus robuste, plus capable de sadapter et dévoluer rapidement, en évitant la sclérose le plus longtemps possible.
« Créer un nouveau corps » signifie changer radicalement les outils, back office, front office et éventuellement terminaux nomades. Typiquement, « webifier » des écrans 3270 en leur donnant une « ergonomie » Web est juste un lifting sur un vieux système ; changer radicalement larchitecture des interfaces pour utiliser toutes les opportunités du Web 2.0 est un changement de génération de corps avec des nouvelles capacités, de nouveaux types dinteraction possibles avec le client, qui offrent de nouvelles perspectives de ventes ou de services dinformation, à une caisse de magasin spécialisé par exemple, grâce à une interface riche à plusieurs onglets et à agrégation de contenus.
Un système dinformation qui permet dalerter via SMS, avant un découvert prévisible, est dune autre génération quun système qui ne permet de réaliser ce découvert que dans un bulletin papier mensuel, avec les agios qui laccompagnent. Un système dinformation utilisant un ordonnanceur, de la géolocalisation et toutes les nouvelles solutions technologiques liées à la mobilité, permettra une gestion fine des forces dintervention sur le terrain, et loptimisation des interventions afin darriver en urgence au bon moment dans des situations critiques, ou fournir un service dintervention réactif, à lheure près, pour la plus grande satisfaction des clients, en réduisant les coûts logistique, dopérations, de pilotage et de maintenance. La technologie NFC utilisée pour rendre des téléphones plus intelligents, plus interactifs, peut autoriser lachat dun produit vendu en distributeur en approchant le téléphone portable de la vitre, ou gérer efficacement la vente et le contrôle de billets de spectacles.
Créer un nouvel « individu » pour un système dinformation, ne signifie pas seulement changer le « corps » grâce à de nouvelles solutions technologiques. Il faut également avoir un nouvel « esprit », c'est-à-dire faire évoluer lorganisation et les pratiques en parallèle du « corps ».
Pour gérer le SI comme un organisme« vivant », il faut reconnaitre les invariants du savoir-faire et accepter le mouvement qui est la condition de la vie
En dautres termes, il ne faut pas hésiter à faire les sauts générationnels quimpliquent des ruptures technologiques pour avoir un SI durable. Il faut se méfier, selon Bergson « des habitudes quon érige en lois, répugner au changement, cest laisser distraire ses yeux du mouvement qui est la condition de la vie.»
La sclérose des systèmes dinformation, leur manque de flexibilité actuel, nest pas seulement dû aux limitations des outils hérités du passé, mais aussi à lincapacité à remette en cause et à se dégager dun choix précédent pour en faire un nouveau. En ne considérant pas les systèmes dinformation comme vivants et soumis à des changements permanents (et des maladies), cest une sorte dinaptitude à enrichir un point de vue sur le réel que lon a créée. A linverse, ne pas considérer les invariants des systèmes dinformation, cest dune part, ne pas être capable de reconnaitre et prévenir les symptômes de maladie connues quant ils se présentent, dautre part, ne pas être capable de « transmettre » le savoir-faire acquis pour évoluer sur la durée.
Nous avons besoin des outils informatiques, des meilleures pratiques, des automates, pour nous aider à évoluer, mais sans le mouvement de la main qui contrôle loutil, sans la capacité « non programmée » à changer sa direction et son usage, lautomate est sans intelligence et ne fait quimiter mécaniquement le « mouvement » de la vie. Une bonne gouvernance du système dinformation, au-delà des méthodes et des types doutils préconisés des meilleures pratiques de lévolution, cest prendre en compte aussi bien le savoir-faire propre à un domaine de connaissance (les invariants qui recèlent lessence de lhéritage et de la filiation) que souvrir au mouvement, ne pas hésiter à lanticiper, pour savoir sadapter intelligemment au changement. Lun ne se conçoit pas sans lautre.
Annexe
Les grands changements de paradigme qui ont précédés Internet
« HYPERLINK "http://www.dicocitations.com/citation.php?mot=toute" Toute HYPERLINK "http://www.dicocitations.com/citation.php?mot=theorie" théorie, y HYPERLINK "http://www.dicocitations.com/citation.php?mot=compris" compris HYPERLINK "http://www.dicocitations.com/citation.php?mot=scientifique" scientifique, ne peut HYPERLINK "http://www.dicocitations.com/citation.php?mot=epuiser" épuiser le réel, et HYPERLINK "http://www.dicocitations.com/citation.php?mot=enfermer" enfermer son HYPERLINK "http://www.dicocitations.com/citation.php?mot=objet" objet dans ses HYPERLINK "http://www.dicocitations.com/citation.php?mot=paradigmes" paradigmes. »
Edgar Morin
Ce chapitre évoque les grands changements de paradigme du monde des systèmes dinformation en trois périodes de quinze à vingt ans. Ce choix, tout arbitraire quil soit, vise à refléter partiellement les durées de cycle dadoption de « rupture » dans les méthodes et usages traditionnels, jusquà ce que le ferment de la rupture dune période devienne les assises mêmes des fondamentaux de la suivante. La dernière période « les architectures distribuées » a vu toutefois une accélération des cycles à partir de larrivée dun catalyseur des changements, la plate-forme globale Internet.
Première époque La période centralisée (années 50-60)
Le règne des titans
Au début, était le règne des «Mainframes», c'est-à-dire des grands systèmes centralisés, avec un système dexploitation(OS) propriétaire. Les programmes ne sont pas « portables », c'est-à-dire quils ne peuvent pas sexécuter sur nimporte quelle plate-forme car ils ont de fortes adhérences aux machines (chaque ordinateur est différent de par la structure matérielle, los, etc.). La logique est de développer des applications indépendantes (sans réutilisation de fonction de lune à lautre), les données sont redondantes (car non indépendante de la structure de la base) et les utilisateurs sont
hors système dinformation.
En effet, le système est un peu autiste vis-à-vis de ses utilisateurs. Les interfaces sont en mode caractère, les traitements en « batch », c'est-à-dire que les instructions sont exécutées par lot, de manière non interactive. On parle exceptionnellement de système «conversationnel» quand il y a interaction entre lutilisateur (un analyste programmeur dans la plupart des cas) et lordinateur à travers une interface qui autorise des choix dans le déroulement dun programme. Le côté graphique de linterface en est à la préhistoire qui se terminera avec lantiquité en 1970, avec lapparition des terminaux 3270 : des lignes de caractères verts sur fond noir.
Lusage est restreint aux grandes entreprises et/ou aux grands programmes de recherche (notamment spatial, avec Apollo). Lordinateur ne cherche pas à plaire au plus grand nombre, il na rien de « personnel », il est programmé pour des applications de gestion propre à lentreprise, ou des applications de calcul scientifique.
Ce sont les années de la course à la performance, il ny a jamais assez de puissance, mesurée en MIPS (Million dInstruction Par Seconde), que lon paye dailleurs très cher.
Comment ça marche ?
Les MIPS : Une unité de mesure qui ne fait pas lunanimité
Les coûts logiciels pour des Mainframes sont des coûts de License récurrents à payer annuellement + des coûts de maintenance, qui se sont établis longtemps sur des unités de mesure au MIPS. Les MIPS, ou Millions dInstruction Par Seconde) sont censés représenter la puissance de calcul dun processeur. Toutefois, la vitesse dun processeur variant en fonction de nombreux paramètres (taille cache mémoire, charge, fréquence daccès des I/O, niveaux logiciels, partitions,
), cette mesure a connu dironiques substitutions quant à son sens, de «Misleading indicator of processor spead » à « Management impression of processor speed », en passant par « Marketing Indicator of Processor Speed ».
La programmation se fait en langage de bas niveau (assembleur, par exemple), jusquà larrivée de langages procéduraux de deuxième génération, notamment le Cobol. De même, le stockage des données se fait sous forme de fichiers. La conséquence en est une lourdeur daccès aux données, de par la nécessité de connaitre le détail de limplantation physique pour y accéder, un manque de sécurité (nimporte qui peut modifier le fichier) et labsence de contrôle de concurrence entre utilisateurs doù un risque de modifications qui sannulent.
Les amorces du changement
Au début des années 60, apparaissent les premiers systèmes de gestion de base de données calqués sur les structures de données Cobol, qui donnent naissance aux bases de données hiérarchiques. Une des plus célèbres est celle créée par IBM en 1966 pour le compte de Rockwell et le programme Apollo, IMS (Information Management System).
Certaines annonces de la fin des années 60 et le début des années 70 préfigurent le changement de paradigme de lépoque centralisée vers lépoque des systèmes ouverts et les futures ruptures technologiques, à travers :
Larrivée de langages permettant de manipuler les données avec des pointeurs dadresse ;
Lapparition de bases de données dites « en réseau » (le modèle de données est organisé en mailles), élargissant le modèle hiérarchique initial (un fils peut avoir plusieurs pères) ;
Lapparition de terminaux ligne, puis écran (3270) ;
Lapparition des systèmes transactionnels à partir de la fin des années 60.
Deuxième époque La période dOuverture (décennies 70-80)
Les applications alors développées avec leur traitement dinstructions par lots, souvent de nuit, ne satisfont pas aux besoins qui apparaissent dapplications plus proche du temps réel. Car si une comptabilité, un système de paye, des statistiques, peuvent se satisfaire dopérations à fréquence annuelle, trimestrielle, mensuelle, hebdomadaire, voire au mieux quotidienne, un système de réservation, la gestion de stocks, ne peuvent sen satisfaire.
Ces systèmes ont besoin daccès fréquents aux données par de multiples opérateurs simultanés qui doivent, pour des traitements courts et répétitifs, pouvoir obtenir des temps de réponse faibles (une à quelques secondes), et être assurés que toute opération de mise à jour quils effectueront sera bien prise en compte par le système.
Les systèmes transactionnels
Ce sont les besoins à lorigine des systèmes transactionnels et des premiers moniteurs homonymes, qui gèrent les parties télécommunication et base de données indépendamment des transactions, à cette époque et pour la plupart écrites en Cobol. La partie gestion indépendante est ainsi généralisable et réutilisable. Des systèmes transactionnels multi-serveurs (IMS dIBM, TPS sur GE-600) apparaissent, ainsi que des systèmes transactionnels multi-tâches (CICS dIBM, OLBS sur GE-400, TDS-6 puis DMIV/TP, TDS7 et TP8 dans le monde BULL, STRATEGE chez CII).
En parallèle, les systèmes de gestion de base de données évoluent de façon à ce que la gestion de la structure de la base soit progressivement séparée des données elles-mêmes. Les prémices du modèle relationnel apparaissent pour la première fois dans le journal ACM à travers la description dun modèle théorique issu des travaux dEdgar F. CODD, chercheur dIBM, dans le cadre du projet System/R. Les principes du modèle: établir des relations logiques entre les données de type "équivalence", "négation", "infériorité" et même des opérations comme la "jointure". Le modèle logique permet de saffranchir dune grande partie des problèmes physiques liés au stockage.
Entre cette communication en juin 1970 et la sortie du premier système de gestion de base de données relationnelle (SGBDR) commercialisé dIBM, 11 ans dexpérimentations vont sécouler.
Onze ans durant lesquels SQL, Structure Query Language, fera son apparition en 1976. Il sagit du langage SEQUEL issus des premières expérimentations dIBM et renommé pour éviter une confusion avec une marque existante.
Onze ans mis à profit par une société inconnue alors, Software Inc., pour commercialiser un SGBDR doté du langage dinterrogation SQL. En loccurrence il sagissait du produit ORACLE, de la société (désormais) éponyme.
En parallèle, des universitaires de Californie, Michael STONEBRAKER et Eugene WONG, commencèrent à réaliser à titre expérimental un nouveau prototype au sein de la prestigieuse Berkeley University. Avec quelques autres professeurs, ils formèrent alors une société Relational Technology Inc. et annoncèrent, en 1981, la première version commerciale de leur SGBDR : Ingres et le langage daccès QUEL étaient nés.
Une kyrielle de produits SQL firent ensuite leur apparition : DG/SQL (1984), SYBASE (1986), INFORMIX, RDB, UNIFY, etc.
Définition
Des transactions acidulées qui suivent des protocoles
Une transaction est une série dopérations indivisibles et est valide uniquement si lexécution sest effectuée convenablement. Ce mode est une transaction ACID (Atomic Consistent Isolation Durable) dont les propriétés sont :
Atomicité
Une transaction est soit exécutée entièrement, soit non exécutée (auquel cas létat du système est celui qui précède le lancement de la transaction)
Consistance
L'état après l'exécution respecte l'invariant d'état.
Isolation
L'exécution de la transaction est indépendante des autres transactions. Elle n'en attend rien et ne fournit rien autrement que par l'état des données. (implication : parallélisme, performance, etc)
Durabilité
Ses résultats survivent à tout dysfonctionnement pouvant survenir après sa terminaison. Pour défaire ce qua fait une transaction, il faut une autre transaction.
Commit & Rollback sont les deux notions associées pour les bases de données
Transaction = requêtes cohérentes ensemble
BEGIN début de transaction
COMMIT fin de transaction, validation
ROLLBACK fin de transaction, annulation
Les modèles déchanges transactionnels entre lordinateur central et les terminaux sont de trois types, dépendant du protocole réseau utilisé
Conversationnel
Basé sur APPC (IBM)
Client Serveur
Basé sur lusage du RPC (Remote Procedure Call)
Queue de messages (MQ : Message Queuing mode asynchrone)
Basé sur le modèle « OSI-TP » (7e partie)
Unix : une rupture significative
Toutefois, la rupture de cette période, le vrai changement de paradigme commence avec un article des communications de lACM (Association for Computing Machinery) de juillet 1974 qui éveille lattention sur le système dexploitation Unix.
Référence Article ACM
D. M. Richie, K. Thompson « The UNIX Time-Sharing System » CACM vol.17 pp 365-375 July 1974
Ce dernier est un système temps-partagé (time sharing), c'est-à-dire quil répond au besoin de développement dapplications pour un usage interactif sur terminaux (dabord télétypes) et à linterrogation de données au coup par coup au contraire des applications transactionnelles qui permettent la manipulation contrôlée de grands volumes de données au moyen de transactions pré-écrites.
Ils lont dit
Lélégance dUnix par Ken Thompson et Dennis Ritchie dans le journal de lACM
« Un OS puissant pour un usage interactif na pas besoin dêtre coûteux, que ce soit en matériel ou en efforts humains. [] Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité dutilisation ».
Unix est révolutionnaire pour lépoque et il bénéficiera de plusieurs avantages majeurs : sa facilité dutilisation, comparée aux autres systèmes, sa portabilité (de principe, voir laparté sur la guerre des clans Unix), sa logique de développement initiale non propriétaire et son faible coût. Créé à lorigine sur un mini-ordinateur (DEC PDP-7), il na pas besoin dun ordinateur central dun demi-million de dollars pour tourner et son principe de licence unique viendra également mettre à mal le modèle de coûts annuels des Mainframes.
Unix marque également larrivée des systèmes dits ouverts, avec des interfaces de programmation standardisées, des interconnexions de périphériques et en encourageant le développement du matériel et du logiciel par les tiers. Certes, il faudra attendre les années 1990 pour une véritable standardisation avec lopen group, mais les graines sont semées.
Un peu dhistoire
La guerre des clans Unix
De la première mouture de lunix Time Sharing System inventé aux Bell labs dAT&T par ken Thompson et Denis Ritchie à nos jours, de nombreuses versions dUnix ont vu le jour, avec deux branches rivales issues de la même racine, dun côté (celui dAT&T), la famille des Systèmes III et V et de lautre, la distribution BSD (pour Berkeley Software Distribution).
Les deux clans ne sentendent pas sur un standard commun, et des clones Unix apparaissent et se multiplient comme des petits pains. La guerre des clans connait de nombreux épisodes. En 1984, Sun Microsystems et AT&T travaillent en commun, au sein dun comité de standardisation réunissant des éditeurs commerciaux et nommé X/Open, sur un Unix unifié, hybride de System V et BSD et qui deviendra System V Release 4. En raison dune lutte de pouvoir et surtout une lutte économique, en mai 1988 IBM (en rival de SUN) et huit autres constructeurs forment dans le dos dAT&T, lOpen Software Foundation (OSF) pour standardiser Unix et lui donner une interface de programmation graphique. Les spécifications de lOSF se basent ouvertement sur BSD.
AT&T réplique avec un consortium ralliant 46 marques, Unix International, mais sans plus de succès. La société fonde alors USL (Unix System Laboratories) en 1992, et lui transfère tous les droits Unix. Cette société est rachetée par Novell la même année, lequel éditeur cèdera la marque Unix à X/Open en 1993. En 1995, ce dernier lance le programme « Unix 95 » pour limplémentation dune spécification Unix unique. X/Open « ralliera » définitivement tout le monde quand il fusionnera en 1996 avec lOSF pour devenir lOpen group.
Les systèmes ouverts marquent une ère où les logiciels ne sont plus dépendants des constructeurs informatiques traditionnels. La concurrence peut jouer à plein régime pour les nouvelles applications. Ainsi les implémentations dUnix sur des architectures propriétaires (exemple : linterface Unix sur MVS) nont pas connu de succès, tant pour la pauvreté du catalogue dapplications quen raison du prix daccès élevé pour qui na pas déjà de Mainframe.
Larrivée des ordinateurs personnels
Louverture débutée avec Unix prend aussi une voie parallèle avec la commercialisation en 1975 du MITS Altair 8800, le premier représentant de ce qui allait devenir les ordinateurs personnels, autrement dit, les PC (Personal Computer). Le changement de paradigme potentiel nest pas moindre que celui déclenché par Unix (qui va bouleverser le paysage des constructeurs traditionnels), mais il nest pas perçu alors, sauf par
deux étudiants, Bill Gates et Paul Allen.
Ces derniers voient avec lAltair une machine qui peut sortir du cercle des grosses entreprises et des gros budgets de recherches scientifiques, une machine que tout le monde peut acheter et potentiellement programmer : cest une révolution ! Enfin, ce quon entend par tout le monde, ce nest certainement pas monsieur tout le monde, car il nexiste pas de langage permettant de programmer lAltair 8800.
Quà cela ne tienne, les deux étudiants développent un outil permettant de programmer cette machine en Basic. Ils fondent à la suite une entreprise dont les cinq premières années sont dominées par la commercialisation de Basic pour les ordinateurs personnels de lépoque, y compris lAppleII, ainsi que par celle de compilateurs C, Fortran et Cobol.
Microsoft, tel est le nom de cette petite société touche à tout qui ne décolle vraiment quen 1980, grâce à un accord historique. Elle achète à Seatle Computer Products les droits de son système dexploitation 86-DOS, le retravaille pour en faire MS-DOS, et le licencie à IBM. Lassociation durera une décennie, jusquà ce que Microsoft développe sa première interface graphique pour DOS, Windows.
Ils lont dit
Le marché des PC
« Je pense qu'il y a un marché mondial pour quelque chose comme cinq ordinateurs. » Thomas Watson, président dIBM, 1943
Cette phrase prête à sourire hors de son contexte, mais imaginez les ordinateurs de trente tonnes de lépoque, valant des millions de dollars, et vous comprendrez en quoi le marché dalors navait rien à voir avec celui quouvrait la révolution détectée par les fondateurs de Microsoft.
Ainsi Bill Gates, de son côté, a vu venir : «a computer on every desk and in every home» (un ordinateur sur chaque bureau dans tous les foyers),
La vision de Microsoft autour de ce que pourrait être lavenir du PC a très vite incorporée la nécessaire dimension de linterface graphique. Windows a ainsi été largement inspiré de lenvironnement graphique quavaient développé les chercheurs de Xerox au PARC (Palo Alto Research Center) et qui allait également équiper les machines d'Apple.
Est-ce la visite de Steve Jobs (fondateur dApple) à Microsoft qui inspira Bill Gates ? Au-delà des querelles éventuelles sur la propriété de lidée initiale, le fait est que, sans interface graphique ergonomique, intuitive, les PC étaient destinés à rester dans un cercle restreint de programmeurs et de technophiles. De la même façon, Internet nest pas né avec le Web, mais cest lapparition de la « toile », autrement dit, de linterface graphique, qui a permis le déploiement de son usage.
Un nouveau modèle économique
Les années 80 ont donc créé une nouvelle donne avec lapparition des systèmes ouverts, mais aussi avec les ordinateurs personnels couplés à des interfaces pour les utilisateurs dépassant le mode caractère ou ligne (ce sont les « GUI » Graphical User Interface). La généralisation du remplacement de terminaux traditionnels (53270 et VIP) par des micro-ordinateurs marque également le tournant vers lépoque des architectures distribuées.
Elles ont créé aussi, avec la logique de licence logicielle perpétuelle et la possibilité de développer des applications qui ne tournent pas uniquement sur la machine dun constructeur en particulier, une nouvelle donne économique.
Le principe de licence perpétuelle est davoir des frais dacquisition unique (on ne paye quune seule fois le logiciel) pour un droit dutilisation définitif dans la version achetée. Cela nempêche pas davoir des frais de maintenance annuel, ni davoir éventuellement à payer pour des montées de version. Mais, par rapport à une logique de paiement récurrent suivant des unités de mesure plus ou moins représentatives, cela peut entraîner des économies de coûts conséquentes.
Ces changements de paradigmes voient aussi leffondrement des constructeurs informatiques traditionnels de lépoque, dont le modèle économique était fondé sur les systèmes propriétaires. Autrement dit, des systèmes à forte marge, difficiles à remplacer dès lors que des applications critiques à long cycle de vie ont été développées dessus et y adhèrent fortement. Le coût ou les risques de migrer ces applications, les « refondre » (en les redéveloppant dans de nouvelles technologies) ou les remplacer par des progiciels est dailleurs tel que souvent, les systèmes et les applications restent imbriqués pendant des décennies, jusquà ce que les risques dobsolescence ou les contraintes de lexistant face à de nouveaux défis dévolution imposent le changement.
Les systèmes ouverts nont pas toutefois fait disparaitre le modèle du Mainframe, qui séduit encore par des performances et des garanties de sécurité et disponibilité. Par contre, ils ouvrent bien la porte à une nouvelle période de linformatique, celle des architectures distribuées.
Troisième époque les architectures Distribuées (1990- 2000)
Le modèle client-serveur
Larchitecture centralisée des débuts, avec des relations maître et esclaves entre un ordinateur central dominant et des terminaux passifs, laisse progressivement la place au modèle «client-serveur», ou un ordinateur en interroge un autre (lui transmet une requête pour lui demander ses services) et attend sa réponse, le tout dans un protocole de communication prédéfini.
Définition
« A votre service cher client » le modèle client/serveur
Client
Processus demandant lexécution dune opération à un autre processus par envoi de message contenant le descriptif de lopération à exécuter et attendant la réponse de cette opération par un message en retour.
Serveur
Processus accomplissant une opération sur demande dun client, et lui transmettant le résultat
Requête
Message transmis par un client à un serveur décrivant lopération à exécuter pour le compte du client.
Réponse
Message transmis par un serveur à un client suite à lexécution dune opération et en contenant le résultat
Le mode de « dialogue » entre clients et serveurs peut être synchrone ou asynchrone. Dans le premier cas, il ny a pas de file dattente, les messages sont émis aussitôt et on attend leur traitement (mode bloquant, ex : RPC, Remote Procedure Call). Le mode asynchrone quant à lui utilise une file dattente dans un mode non bloquant qui favorise le multitâches (ex Files FIFO, email, ..)
Si ce modèle suit une logique traditionnelle pendant quelques temps ou le poids dun serveur centralisé domine sur les postes clients, petit à petit, lapparition dordinateurs plus puissants avec des systèmes dexploitation ouverts, lévolution des réseaux, lapparition dinterfaces et dAPI (Application Programming Interface) standards qui facilitent linteropérabilité, transforment durablement le modèle pour aller vers une architecture répartie, dabord à deux niveaux (1 niveau client, 1 niveau serveur).
Une partie des traitements peut se faire sur un poste client, un client peut avoir un à plusieurs serveurs, un serveur peut avoir plusieurs clients. Il y a trois composantes clés dans cette répartition : la présentation (interfaces textuelles ou graphiques, interactions, entrée des données, validation, etc.), la logique dapplication (les traitements associés) et les données, au sens stockage et accès. Selon la répartition entre le client et le serveur de ces composantes clés on parlera de « client lourd » ou de « client léger », comme illustré dans la figure ci-dessous.
ClientLourdLeger.png
Figure 2-1.
La balance entre client lourd et client léger
Dans le cas dun client dit lourd, on stocke les données et les applications localement, le client effectue une bonne partie du traitement et le serveur stocke les fichiers mis à jour. A lautre extrême un client dit léger ne dispose que de fonctionnalités minimales (impliquant dès lors beaucoup de charge sur le serveur et le réseau).
Entre les deux, il y a plusieurs modèles, le Gartner dailleurs identifie cinq classes de répartition pour les systèmes client/serveur à deux niveaux (aussi nommés 2-tiers pour les deux rôles, celui de client ou de serveur) : base de données réparties, données distantes, transactions réparties, présentations distantes, présentations réparties.
Les niveaux darchitecture
Peu après le milieu des années 90, avec notamment lexpansion des premières applications Web, est apparu le besoin de diviser la couche serveur, particulièrement dans des environnements hétérogènes ou le nombre de clients nest pas connu précisément, ce qui nécessite une architecture souple, qui peut sadapter à un redimensionnement des paramètres de volumétrie (scalability). Ce nombre de clients pouvant atteindre des milliers, il devient plus rationnel de mettre à jour la logique applicative sur un niveau serveur dédié, plutôt que sur tous les postes clients et également davoir un niveau dédié pour gérer laccès aux bases de données.
Cest lapparition des architectures client serveur à trois niveaux (three-tier), où apparaît une sorte de couche du milieu sous la forme dun serveur dapplications. Ce sont des couches logiques, c'est-à-dire que plusieurs niveaux peuvent être sur la même machine physique. Cette couche du milieu sera nommée «middleware» en anglais, et officiellement « intergiciel » en français, même si cette traduction na jamais rencontré de succès.
Définition
Un middleware millefeuilles
Un middleware a pour objet, dans le contexte denvironnements hétérogènes, de fournir une couche logicielle de services de communication transparents entre différentes applications informatique, serveurs et clients, indépendamment de leurs plate-formes.
Le middleware peut lui-même être séparé en plusieurs couches logicielles spécialisées. Pour assurer les connexions entre les serveurs de données et les clients, il va disposer de services de communications entre composants et applications avec des protocoles synchrones ou asynchrones. Par exemple lObject Request Broker (ORB) qui est le conduit/bus par lequel les requêtes sur les objets transitent au cur de larchitecture CORBA (Common Object Request Broker Architecture). LORB est un protocole synchrone qui a joué un grand rôle dans la standardisation des middlewares. Les middlewares déchange asynchrones sont principalement quant à eux à base de message (MOM pour Message Oriented Middleware).
Le middleware ne fournit pas que la gestion des protocoles de communication pour faire appel aux services offerts par une application. Il fournit également dautre nature de services, quils soient spécifiques (par exemple accès aux Bases de données avec des protocoles tels quODBC, services de groupware MAPI) ou plus généraux (répertoires répartis, services dauthentification, service de temps, services de fichiers, services dimpression, services répartis de type NOS(Networked OS)).
Ainsi les serveurs de composants ont pour objectif de libérer le programmeur de tous les aspects techniques de larchitecture distribuée pour quil se concentre sur la logique métier. Si bien quun middleware peut devenir un millefeuille de serveurs dapplications logiques, tous dédiés à différents type de services daccès, de transactions et déchanges.
Ce découpage permet de mieux penser les applications et de tirer parti de lorientation vers lobjet qui commence à apparaitre au milieu des années 90. En effet des couches indépendantes favorisent lévolutivité, la maintenance du système et la réutilisation de composants applicatifs. Linterfaçage est plus aisé avec les SGBD existants du fait dun serveur de données dédié, le développement saffranchit de la localisation physique des composants et la montée en charge est facilitée.
Pour autant, il faut nuancer le panégyrique. Avec le client-serveur et la multiplication des interfaces, les problèmes de sécurité, de temps de réponse et de performance se multiplient dautant que de trois niveaux au multi-niveau (architecture N-tiers) la barrière est vite franchie. Une architecture multi-tiers simpose dans un univers ou les rôles entre clients et serveurs sont de plus en plus interchangeables (chaque serveur peut agir comme un client vis-à-vis dun autre serveur), ou les clients mobiles sont considérés (dès lors un poste client devient le serveur du client mobile) et où les fonctionnalités sont délégués à des serveurs spécialisés (communication, Web, applications, serveur de données).
Bien sûr, plus il y a de «boites», c'est-à-dire de partie distribuée du système, plus il y a de connexions à faire entre les parties du système et à gérer de protocoles de communication. Ainsi, dans lexemple ci-dessous, les flèches représentent les connexions à faire entre les parties de ce système extrêmement distribué. Certes, le dessin est simplificateur, car, entre chaque couches, il faut considérer un « tiers ».
Toutdistribue.png
Figure 2-2.
Les « boites » du tout distribué
Entre le niveau présentation sur les clients et le niveau applicatif, il y a un tiers daccès (avec des protocoles de communication comme http, XML, SOAP, ..), qui lui-même communique avec la couche des traitements applicatifs à travers des protocoles comme MOM, ou encore SOAP (Simple Object Access Protocol, protocole orienté objet bâti sur RPC).
Entre le niveau traitement applicatif et le niveau gestionnaire de ressources, il y a un tiers dintégration, qui communique des deux côtés avec les protocoles adéquats (ex MOM vers le niveau traitement, ODBC ou JDBC vers le gestionnaire de ressources).
Lintérêt de cette représentation simplificatrice de boites est de montrer ce quon gagne dun côté en modularité et parallélisme à multiplier les boîtes, les opportunités dencapsulation de conception orientée composants, de réutilisation, et ce quon perd de lautre en simplicité, de par la complexité à gérer les sessions de connections et la coordination nécessaire.
Plus il y a de boîtes, plus il y a de changement de contexte et détapes intermédiaires à exécuter avant de pouvoir accéder aux données. Les performances sen ressentent inévitablement. Ainsi, il y a une balance à trouver entre les avantages et les inconvénients à multiplier les indirections.
Comment ça marche ?
Quel type de répartition de composants doit-on choisir dans une architecture distribuée? Faut-il couper les tiers en quatre ?
Toute la complexité des architectures client-serveur et distribuée réside dans la répartition des composants. Il ny a pas de recettes miracles, que des cas particuliers. Cela dépend du contexte de lentreprise (réseaux et matériels), du type dapplication, du type dinteractions, des temps de réponse demandés, aussi.
Le client léger, par exemple, implique beaucoup de charge sur le serveur et le réseau.
Les architectures à deux niveaux sont typiques des environnements avec peu de clients (du moins un nombre limité et connu), des environnements plutôt homogènes et éventuellement propriétaires.
Les architectures à trois niveaux sont plus adaptées quand le nombre de clients nest pas fixe et peut sétendre à des milliers et pour gérer des accès à des sources de données hétérogènes.
Quand les systèmes se complexifient, le choix du nombre dinteractions dépend de la conception (un niveau dindirection en plus peut résoudre un obstacle à la conception) et de la performance requise (un niveau dindirection en moins améliore la performance).
!"#$@ABCOPQklmnopqrsßàáûüôüôáÓÊÓ´áÓ©©©áwáÓÊÓaáÓ©©*júh/N«h%0JXUmHnHu!h%CJOJQJaJmHnHu#j}h%UmHnHujh%UmHnHuh%mHnHu*jh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu$jh/N«h%0JXUmHnHujh7&Uh7& q ~
|
wÅ!
z
Ó
2YÌ$uÙ'æúôîîîîîîîôôôôôôôôîîîîîîîôôîV
Æ.!
U
Æ.!
Tgd/®ûüýþÿ ! " \ ] ^ x y z { | } ~ é ê ë
íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jîh/N«h%0JXUmHnHu#jqh%UmHnHu*jôh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jwh%UmHnHu
*
+
,
-
Y
Z
[
u
v
w
y
z
{
|
}
~
ú
û
ü
íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jâh/N«h%0JXUmHnHu#jeh%UmHnHu*jèh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jkh%UmHnHu ;<=>¦§¨ª«¬®¯ËÌÍÎðñòíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÖh/N«h%0JXUmHnHu#jYh%UmHnHu*jÜh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j_h%UmHnHu
1234TUVpqrtuvwxy¢£¤¾íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÊh/N«h%0JXUmHnHu#jMh%UmHnHu*jÐh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jSh%UmHnHu ¾¿ÀÂÃÄÅÆÇãäåæþÿ
!
"
#
?
@
A
B
W
X
Y
s
íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j¾
h/N«h%0JXUmHnHu#jA
h%UmHnHu*jÄ h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jG h%UmHnHu s
t
u
w
x
y
z
{
|
°
±
²
Ì
Í
Î
Ð
Ñ
Ò
Ó
Ô
Õ
ñ
ò
ó
ô
+íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j²h/N«h%0JXUmHnHu#j5h%UmHnHu*j¸h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j;h%UmHnHu +,-/01234PQRS]^_yz{}~ ¡ÝÞßùíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j¦h/N«h%0JXUmHnHu#j)h%UmHnHu*j¬
h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j/
h%UmHnHu ùúûýþÿ !678RSTVWXYZ[wxyz©ª«ÅíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*j h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j#h%UmHnHu ÅÆÇÉÊËÌÍÎêëìí!"#$%&BCDEtuvíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*jh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jh%UmHnHu µ¶·¸ÝÞßùúûýþÿ !RSTníÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*jh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jh%UmHnHu noprstuvw¶·¸ÒÓÔÖ×ØÙÚÛ÷øùú íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jvh/N«h%0JXUmHnHu#jùh%UmHnHu*j|h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÿh%UmHnHu !"$%&'()EFGH\]^xyz|}~ ÃÄÅßíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jjh/N«h%0JXUmHnHu#jíh%UmHnHu*jph/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jóh%UmHnHu ßàáãäåæçè-./123456RSTUyz{íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j^h/N«h%0JXUmHnHu#jáh%UmHnHu*jdh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jçh%UmHnHu æ4{åFÊrÚ2lÍDÀ#þX²ñVÌùóóóùùííííùùííííùùíùùùùùíùùU
Æ.!
W
Æ.!
V
Æ.!
º»¼½Þßàúûüþÿ !"XYZtíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jRh/N«h%0JXUmHnHu#jÕh%UmHnHu*jXh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÛh%UmHnHu tuvxyz{|}ÂÃÄÞßàâãäåæç#$%?íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jFh/N«h%0JXUmHnHu#jÉh%UmHnHu*jLh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÏh%UmHnHu ?@ACDEFGHdefg§¨©ÃÄÅÇÈÉÊËÌèéêëõö÷íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j: h/N«h%0JXUmHnHu#j½h%UmHnHu*j@h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÃh%UmHnHu 6789OPQklmopqrst·¸¹ÓíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j."h/N«h%0JXUmHnHu#j±!h%UmHnHu*j4!h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j· h%UmHnHu ÓÔÕ×ØÙÚÛÜøùúû+,-/01234PQRSghiíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j"$h/N«h%0JXUmHnHu#j¥#h%UmHnHu*j(#h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j«"h%UmHnHu
¨©ª«ûüý ?IJKeíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j&h/N«h%0JXUmHnHu#j%h%UmHnHu*j%h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j$h%UmHnHu efgijklmnª«¬ÆÇÈÊËÌÍÎÏëìíî!"#=íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j
(h/N«h%0JXUmHnHu#j'h%UmHnHu*j'h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j&h%UmHnHu =>?ABCDEFbcde¹º»½¾¿ÀÁÂÞßàáíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jþ)h/N«h%0JXUmHnHu#j)h%UmHnHu*j)h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j(h%UmHnHu !"#$%ABCDyz{º»¼½ÛÜÝ÷íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jò+h/N«h%0JXUmHnHu#ju+h%UmHnHu*jø*h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j{*h%UmHnHu ÷øùûüýþÿ567QRSUVWXYZvwxy«íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jæ-h/N«h%0JXUmHnHu#ji-h%UmHnHu*jì,h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jo,h%UmHnHu «¬¯°±²³´ÐÑÒÓõö÷6789ghiíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÚ/h/N«h%0JXUmHnHu#j]/h%UmHnHu*jà.h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jc.h%UmHnHu
¨©ª«ÎÏÐêëìîïðñòó345OíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÎ1h/N«h%0JXUmHnHu#jQ1h%UmHnHu*jÔ0h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jW0h%UmHnHu OPQSTUVWXtuvw©ª«ÅÆÇÉÊËÌÍÎêëìíÿíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÂ3h/N«h%0JXUmHnHu#jE3h%UmHnHu*jÈ2h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jK2h%UmHnHu !"#$@ABC
¡¢¤¥¦§¨©ÅÆÇÈ íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j¶5h/N«h%0JXUmHnHu#j95h%UmHnHu*j¼4h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j?4h%UmHnHu Ì"§'õC ò B!!ñ!^"Ï"+##ð#S$×$%%%æ%L&Ñ&a'Á'%((ùóóùùùùùóóùóóóííííùùùùùóóóóW
Æ.!
V
Æ.!
U
Æ.!
!"$%&'()EFGHmno®¯°±ÒÓÔîíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jª7h/N«h%0JXUmHnHu#j-7h%UmHnHu*j°6h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j36h%UmHnHu îïðòóôõö÷ ! " < = > @ A B C D E a b c d } ~ íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j9h/N«h%0JXUmHnHu#j!9h%UmHnHu*j¤8h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j'8h%UmHnHu ¡ ¢ ¾ ¿ À Á Ï Ð Ñ ë ì í ï ð ñ ò ó ô !!!!! !!!;!íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j;h/N«h%0JXUmHnHu#j;h%UmHnHu*j:h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j:h%UmHnHu ;!Î>è>íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jÊ
h/N«h%0JXUmHnHu#jM
h%UmHnHu*jÐh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jSh%UmHnHu »=>v>ð>O??@g@æ@WA¹AB`B×BTC°CDDèDKEµEFcFÃF9GGëGé>ê>í>î>ï>ð>ñ>ò>????+?,?-?G?H?I?L?M?N?O?P?Q?m?n?o?p????¥?íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j¾h/N«h%0JXUmHnHu#jAh%UmHnHu*jÄh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jGh%UmHnHu ¥?¦?§?ª?«?¬??®?¯?Ë?Ì?Í?Î?î?ï?ð?
@@@@@@@@@0@1@2@3@C@D@E@_@íÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j²h/N«h%0JXUmHnHu#j5h%UmHnHu*j¸h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j;h%UmHnHu _@`@a@d@e@f@g@h@i@
@@@@Â@Ã@Ä@Þ@ß@à@ã@ä@å@æ@ç@è@AAAA3A4A5AOAíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j¦h/N«h%0JXUmHnHu#j)h%UmHnHu*j¬h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j/h%UmHnHu OAPAQATAUAVAWAXAYAuAvAwAxAAAA±A²A³A¶A·A¸A¹AºA»A×AØAÙAÚAäAåAæABíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*j h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j#h%UmHnHu BBBBBBB B
B&B'B(B)BBXBYBZB]B^B_B`BaBbB~BBBB³B´BµBÏBíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*jh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jh%UmHnHu ÏBÐBÑBÔBÕBÖB×BØBÙBõBöB÷BøB0C1C2CLCMCNCQCRCSCTCUCVCrCsCtCuCCCC¨CíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jh/N«h%0JXUmHnHu#jh%UmHnHu*jh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jh%UmHnHu ¨C©CªCC®C¯C°C±C²CÎCÏCÐCÑCúCûCüCDDDDDDDD DD?D`DaDbD|DíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jvh/N«h%0JXUmHnHu#jùh%UmHnHu*j|h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÿh%UmHnHu |D}D~DDDDD
DD¢D£D¤D¥DÄDÅDÆDàDáDâDåDæDçDèDéDêDEEE E'E(E)ECEíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jjh/N«h%0JXUmHnHu#jíh%UmHnHu*jph/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jóh%UmHnHu CEDEEEHEIEJEKELEMEiEjEkElEEEEE®E¯E²E³E´EµE¶E·EÓEÔEÕEÖEèEéEêEFíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j^h/N«h%0JXUmHnHu#jáh%UmHnHu*jdh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jçh%UmHnHu FFF F
FFF
FF*F+F,F-F?F@FAF[F\F]F`FaFbFcFdFeFFFFFF F¡F»FíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jRh/N«h%0JXUmHnHu#jÕh%UmHnHu*jXh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÛh%UmHnHu »F¼F½FÀFÁFÂFÃFÄFÅFáFâFãFäFGGG1G2G3G6G7G8G9G:G;GWGXGYGZGvGwGxGGíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*jFh/N«h%0JXUmHnHu#jÉh%UmHnHu*jLh/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÏh%UmHnHu GGGGGGGGG¸G¹GºG»GÇGÈGÉGãGäGåGèGéGêGëGìGíG H
HHHHHH4HíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j:h/N«h%0JXUmHnHu#j½h%UmHnHu*j@h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#jÃh%UmHnHu 4H5H6H9H:H;HHZH[H\H]HHHH¦H§H¨H«H¬HH®H¯H°HÌHÍHÎHÏHÙHÚHÛHõHíÞÓÞÀ¯À¡¡À¡ÓÞÓpÞÓÞÀ¯À¡¡ZÀ¡ÓÞÓ*j.h/N«h%0JXUmHnHu#j±h%UmHnHu*j4h/N«h%0JXUmHnHuh%mHnHuh/N«h%0JXmHnHu!h%CJOJQJaJmHnHu$jh/N«h%0JXUmHnHuh%mHnHujh%UmHnHu#j·h%UmHnHu *hË~ëhw°>*hc(h/@hcQh}hhhù"j¶hkÃUhkÃjhkÃUhw°h³b3hYz"Cr^t_t¸týtËv×v÷vøvùvúvdw{wÑwðwMxcxexfxy·yØzõz{/{È{ë{A|M|ì|=}i} }¼}Ú}"~@~c~
~~~6KÌÎÝó *+-u¦Ù*
LF}¾ñ ¡úõõõõðëõõõæáÜÜÜÜëõõõõ××Ògd3DgdV?½*gdA.äQgdA.ä.gdA.ägdÎgdÎgdA.ägdc(ä
%
O
m
á
Q\airsé)9AN¦§¯½¾ä¡Û\{Îãò"+,>Ttu¥¦*+>?ØÙ)*
üøüøüøüøüôðôüôüìüðüðüðèüäÝÙôÝÕÝÙÝÑÍÝÉÝÅÝÍÝÍÝäÁͺÁºÍºÁºÍºÍºÁºÕºÁì§$hÎhý15B*CJ,OJQJphhý1hý1hý1hhÈxðhr%Xhè(!hQhh)JÓh)JÓh)JÓh5xÕhÎhcQh}hhÁh³b3ALuÀ!5E»»»"»/»B»Y»»¬»ç»é»ô»8¼9¼|¼ç¼½$½@½w½½½¾¾Ò¾-¿.¿9¿R¿Ð¿ÏÀâÀÁÁÁ+Á,ÁOÁ`ÁyÁÊÁïÁ%Â(ÂÏÂýÂÃmÃnÃÃèÃ'Ä(ÄDÄFÄåÄæÄüøüôðìüðüôðüôüèôäðôðôàäàøÜØÔÐÉÅÁº¶äºÁ²®²Á²ªÁ¦ª¦ª¦²²²ª²hÓ`h^6h6m=h^6hhk$$h¹Rh2/{hÿ)th^6hÕqZhâ_Jh^6hÔ}zhórîhÀOÙhórîhx
hÕfhßCéhË~ëhh[Þh}hhzhºh$¨hñ@Bh
3hÚ9¦¿Ð¿ÐÀâÀèÃ\ŲÆÈGÉYÉÉËÒÌÎÐ}ÒÚÓ,ÖØ¥ÙÜÜ ÜúõðëæááááÜ×ÒÒÒÒÒÒëëëëÍÈ;gdx
;gdA.ä*gdA.äQgdA.ä.gdA.ägdA.ägdgdk$$JgdórîKgdórîBgdx
æÄÅ.Å/Å0Å5ÅYÅiÅÅ¡ÅÆÆƱƲÆâÆãÆÇÇÇ%Ç)ÇGÇSÇUÇqÇ~ǶÇÅÇËÇÖÇÙÇåÇÈÈÈÉ$É:ÉEÉXÉYÉÉÉ¥ÉoʵÊÄÊÑÊñÊÿÊËËAÌÒÌåÌõÌÍÍ^Í~ÍÍÍͧͯͽÍÖÍØÍhÎnÎÎΤΧÎËÎüõñõüõüêæêæêüâüêüêæüêÞêÞêæêÞüæüêüêÚüæÖæüÒüÒÞÎÊÎÆÎÆÎÆÎÆÊÎÊÎÆÊÎÊÆÊÆÂÆÂƾÆÒƾÆh²kho8Úh0]hJ7h0Qh;Ëh}hh"B`hÿ)th
(PhrIh6m=h^6h2/{hÓ`h^6h^6KËÎàÎÏÏ7ÏXÏÏϢϤϪÏèÏíÏîÏ}ÐÐÐÐЦÐÀÐÁÐÓÑÝÑãÑäÑÒÒCÒDÒ2Ó7Ó@ÓbÓ{ÓØÓÙÓÚÓéÓëÓóÓ^ÔaÔlÔÔ¦ÔéÔÕ-ÕfÕtÕvÕ#Ö,Ö9ÖMÖkÖ{ÖÖÖÖÖ«Ö»ÖüøôøôøôðøüøðøæÔÏÇÀô¼ô¼ô¼¸¼ü¼ü¼ô¼ô¼ô¼øü±±©±©±©±©±¥±¡¥±±¥±ü¥ü±hibhqhRuÅhÿ)th^6h^6hihó*hó*hó*hó*hó*] h²k]#hó*0J_B*CJOJQJaJph"""h0]h0]6]hZíh²kh0]ho8Ú?»ÖÊÖÍÖÑÖ×× ×××/×O×~××Ø
ØØ#Ø)Ù8٤٥ٮÙÎÙþÙÿÙÚÚÚÚ£Ú½ÚÛÚæÚíÚÜ Ü
ÜÜÜÜ Ü?ÜEÜFÜGÜbÜcÜdÜeÜgÜhÜÜÜÜÜÊÜÜÜÝÝÝüøüñüíøüñíñíñüñøñøñéñíñíñåáÝáñåñÖñÝÎÝÇÃÇÝ¿»³»³ª³»¿¦¢¦ÝhqºhhhchqºhDmHnHujhDUhDhh"hx
hIhx
j·h"B`Uh^6hQ]Ãh^6hkÃhQ]Ãhibhqh^6h^6ho8Úhÿ)t; Ü?ÜhÜÜ¡ÜÊÜÜÜÝ Ý©Þ¿Þ=á$ä%ææÍé=ëëëÍí±îåï²ðúôïêåØÏØÏÊÅÅÅÅÅÅêååååågdA.ägdP`gd"B`4Á^Á`gd"B`QgdA.ä.gdA.ägdA.ä$gdh" gdA.äÝÞ¹ÞºÞ¾Þ¿ÞøÞßß ßJàcàààªàÈàááEâZâ^ääàäåiå«åØå%æææ§æÑæ
ç+çEçRç³èÔè÷èøèùèüè^é~ééÌéÍéøTøoøø§øÅøÝøFùÐùÑùÜùúú°ýÎýÜýèýþ8hMµhtÔh64umHsHh64umHsHhMµmHsHhtÔhMµmHsHhUha|mHsHhUhEmHsHha|hEmHsHha|mHsHhtÔh{mHsHhtÔhEmHsHDáD@E`E¨EF:F;FòååØØØFkdIJ$$IfTlÖÖFÿ3j+&7ÿÿÿÿÁ
ÿÿÿÿ
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÿÿÿÖÿÿÿÖÿÿÿÿÿÿ4Ö
laöyttÔT
)$If`gd64u
)$If`gdtÔ
)$If`gda|;FaFïFFGâGVH¯HÕHI'J)Jöííííííààà
)$If`gdtÔ )$IfgdtÔ ($IfgdA.ä
åIðI(J)J*JOJhJJJJKWKmKwKK°K¼KÅKõKLLMLOLPLQL
LÉLéLëLEMmMóMôMõMNNeNfN£N¤N¯NøíâÞÚÏÇÏÇÏí¿íÇí·¬¤¬Ç¬íÚ · {¤¬¤¬ w lh7&hEmHsHh{h7&h75úPJmHsHhtÔh75úCJOJQJh7&h75úmHsHh75úha$ªmHsHhtÔh75úmHsHhPOæmHsHh}hmHsHh_ mHsHh7&hí`QmHsHhí`QhMµhtÔhMµmHsHhtÔhí`QmHsHh?émHsH')J*JOJJÓJKK°KPLmd[[[[NN
)$If`gdtÔ )$IfgdA.ä ($IfgdA.äkd»³$$IfTlÖÖFÿ3j+&7Á
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöyttÔTPLQL
LêLëLEMmd[[N
$If^gda$ª )$IfgdA.ä ($IfgdA.äkdz´$$IfTlÖÖFÿ3j+&7Á
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöyttÔTEMFMlMmM±MôMNeNmdd[[NN
)$If`gda$ª )$IfgdA.ä ($IfgdA.äkd9µ$$IfTlÖÖFÿ3j+&7Á
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöyttÔTeNfN¤NO'OQOxO¯OPmd[[[[[N
)$If`gdtÔ )$IfgdA.ä ($IfgdA.äkdøµ$$IfTlÖÖFÿ3j+&7Á
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöyttÔT¯NÞNO&O^OkOlOwOO®O¯OPPPëPîPQ¹QÏQ[ReRRÕRÖR×RÛRâRS~SSÒSÓS÷TU¾UÁUÅUÉU\V|V¦VFWGW[W]W^WzWþWXX$XÖXõêõêõêõêõßÔÌÔÁ¹ÁÔ±ÔÁÔÁß©¥©¥¡hµ& hw_hh¹RhÓ]»h \h>L^hÉqhÉqh»!Qh~^h75úh}hmHsHha$ªmHsHhtÔhEmHsHh_ mHsHhtÔh{mHsHh7&h75úmHsHh7&hEmHsHh7&h{mHsH3PP-QQ[RÖR×RâRSòòòòò`WN`gd»!Q`gd»!Qkd·¶$$IfTlÖÖFÿ3j+&7Á
t Ö0ÿÿÿÿÿÿö&6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöyttÔT
)$If`gdtÔS*STS~SNTU¾U¦V^W±YåY)Zc\]¹]^Õ`*cc:hÁ;uh+|h+|h+|hh+|5hhnW5h&Håhzhïçh+3hnWh}hhd>hhPÃ5hh+35hhd>5hPÃhûhì^Èhì^Èhûhì^Èhì^È8Ô à
¡¡B¡M¡Q¡È¢á¢E£F£û£¤«¤¬¤¹¤Å¤Æ¤Ø¤Ù¤î¤¦,¦C¦S¦e¦
¦ì¦í¦ô§ø§¨¨`¨»¨Ç¨Ï¨H©U©bªcªdªeªxªC«D«E«F«G«R«U«¬¬¬¬¬÷ï÷ëçãçãçãçßçëÛ×ÓÏËÇÏÛÏÛÏÓÏü¸¼¸¼¸´¸´¸´Ã¬¸Ë¨¡¨Ã¨ã¨¡Ãhö(çjð5hÁ;uUjehÁ;uUh3ChþµhþµjÜhÁ;uUh¤N¨hì^Èhì^Èhì^Èhà2Ùh}hh:-h8`h ®hÕfhzh;óhÁ;uh&Håh+|hh+|5hhPÃ57í¦a¨cªeªyªª¥ªçªD«E«G«V«u««²«¬¬#¬B¬O¬|¬Ù¬|¯W±³kµúúúõðëæÞÙúõðëæÞúõðëæÞúúúú3gdþµ$a$gdþµgdþµgdþµ gdþµ;gdþµgdA.䬬"¬K¬L¬O¬{¬Ø¬Ù¬?]F®G®[®]®l®|¯¯k°°®°À°Ð°Ñ°å°K±U±W±f±±ª±Î±ì±÷±ø±"²:²?²@²U²²¸²ë²³³;³å³ç³R´V´Û´÷´jµkµ¶¶·°·³·´·Ä·Ú·Þ·ê·:¸K¸]¸Ä¸æ¸ç¸è¸¹¹O¹Q¹_¹üøüôüôüíéøéøåéáÝÙéÙÕáéáåéÕéáÎáÎáÎáÎáÎáÊÎáÎÆÎáÎÂÎÂÎáÎÕÎÝÕÂÕáÂáÝáݾÝÕÝÕÝÕÝÕÝhOqhCh ®h}hh£h8`hq$
h(rh8`hzhh¤N¨h3Chþµhö(çhÁ;uhþµKkµ¶·K¸ç¸¹R¹ºª»Ì»î½pÀrÀ~ÀÀªÀÖÀ3ÁmÂSÆýÆÇ'ÇúúúííííúèúúúãÞÙÔÌúúúÇÂQgdA.ä.gdA.ä$a$gd>âgd>âgd>â gd>â;gd>âgd>â#& þ^& `þgdö(çgdA.ä_¹m¹ºº*º,º-º7ººº¼ºÆºíº »!»©»ª»²»µ»Â»Ì»d¾ü¿ÀoÀpÀqÀrÀyÀzÀ|À2Á3ÁOÁÁÁ¡ÁhÂj³´ÂÃ$ëÃÉÃiÅRÆSÆýÆ'ÇÇ Ç¢Ç£Ç´Ç·Ç¸Ç~ÉÉÊüøôðìôìðìðìðìðèäàðàÜØìØÜÐØüÌüÌÅؽµ½Ø©ü©ü©ì©¥Ø©¥¡¡¡¡¥h>hA
hÂfh*[ÕhWN,hzhWN,6hzh}h6hzh¦t¡6h3Ch>âh>âj¹ÈhOqUh¦t¡hUmDh"UÃh+3h¢;¾hzh!Óh«@h8`hOq:'ÇÉÊóÊÿÊËË/Ëø@øBøCøWøføù$ù÷ïçïçïçïãÜØãÔÐÌÐÈÐÈÄÈÀ¼Ä¼¸¼Ì¼¸Ì¸¼¸ÐãÌãÌã¸ã¼¸´¸Ä¸Ä´°¬Ä¨¬¨¤¨¤¨ ¨¬h[(h;ãhÉ(#h~øhkÃh}hhÀÅh@hçh¥TÎhÐ|2hXPhØhtFhã"Eh']òhËkMhËkMhXPh6hXPhËkM6hXPh,f²6?$ù8ù]ùùù¬ùàùâùãùíùúkúú¿úûû/û5ûIûXûûíûüüRü]üdýeýÄýÅýÙýçý
þþþ;þGþIþXþ²þÏþÿ8ÿdÿ23Ì*+,-ãY[\|£¨¸¹ØÙÚâðôû¾ûüøôðôðøìðèôäôàôàðôàôðôÜôèÜØÜèüèÜèüàÔàÔàðàÔèÔàÜðÐðìÌìÌìØìØìÈèÈèÈèÈèÈèÈìÈìÈìÄìh/o0hº²hOqh/ hÆhI°h[(hNæh}hh~øh~F6hc-h;ãhÉ(#hLû$,FS[¡àö²÷
ï%RSU « ¬ '!R!i!ð!ò!ó!ô!ÿ!*"8"R"j"o"r"¥"¦"§"Ö"##.#/#$!$ùõùñíñéåáÝáÝáÝáÝåñÖñÖñÖÏñíñíñíñÈñÈñÀñ¼¸´°é¬´¨´¬´¬´¬¤¬ ¤¬ ¤ ¤¬¤õhê0hÆ_ýhp²h%h¶dAhh ®h~F6h~øhNMê6h
ZhNMêhrÑhNMêh«?WhNMêhhBhÕSh/o0h~øh}hhNMêhhNMêhNMê?¾;¨:>½¥S ¬ ó!r"§"#/#ð#@$T$x$úíúèÛÛÛÛÛÛèèèÖèèÛÛÛÛÛÑÌQgdA.ä.gdA.ägdgSÁ#& þ^& `þgd«lIgdA.ä4Á^Á`gd~ø*gdA.ä!$@$v$w$x$â$ù$%%%W%f%v%{%%M&Ô&Õ&Þ&a'k''æ'è'~((³(´(µ(¹)í)î)C*c*d*í+î+±,Î,ÿ,
--5-;-¤-ã-/.A.ª.÷./&/D/M/N/ª//¿0g1h1i1j1w11117282W2f2222«2æ2üøôøüðüðüðøðøðôøðìôìôèìôìèäìôìôèìôèàÜàØàÔàÔàÔÜØÔØÔÜÔÐÔØÔÐÔÈàÄäÄäĽ¹à¹à¹àØh¶zÐh3Chg¿hg¿jg hp²UhÊ-¦hAd/h¶dAh~øhhp²h3Hhµp©hF>xh÷gDh%hÆ_ýIx$%%Õ&µ(d*ù*î+/../À0g1j11§1´1Û1823467½8¿8Û8ú89úúúúúúõõõõõõðëæáÙõõõõõðëæ$a$gdg¿gdg¿gdg¿ gdg¿;gdg¿gdA.ä*gdA.äæ233O3r33Ï3041424344l5m5666D6E666§6¨6Ï6Ð6
7E7~77778J8f88¼8½8¾8¿8Ö8×8Ú8999@9999:S:{:}:::;,;S;T;Ù;^?^S^h^¹^º^»^Â^Æ^Î^Ï^Ð^Ñ^ø^@_G_H_I_q___Ê_Ë_M```e`f`g`h````ª`Ð`Ò`¤bÎbÖb×bñbdd¸dòêâÞÚÖÚÏËÇËÃËÃË¿»Ã·Ã¯·¿·Ú·Ú·¨¡¿¡Ã¡Ë·¿·¿·¿·Ã·Ã·Ã¨Ã·¨hÀbhÍ?h3Hh-zhî&Àhä@hî&Àhî&Àhî&ÀjÙþ h{ýUh-zhh{ýhî&Àhphºh3Ch ;ëh5
âh ;ëhÈ=¤E¤¤¤¤¤%¥¥¥½¥â¥ã¥¦¦²¦³¦å¦æ¦#§$§§¨¨£¨³¨,©P©Z©ªª°ªÙª-«D«q««°«´«
¬*¬À¬Á¬£¤¼½¿a®b®~®6¯N¯Þ¯ß¯ù¯K°°µ°üøôøðìèôèôäôäèàèÜèØìÑìÑìÑìÍìÑøÜøÉÅôÅôÅôÅÀɵ¡µµ¡µ¡µ¡µÍh8¿hó
RmH sH hó
Rhh75mH sH hh7mH sH hh7hh7mH sH hNú6hó
Rhh7hP=Ùhu+#hu+#h¦Úhs|Bh^5Khh¿Ìhu+#h}dhÓ}shIOh+3:ߥâ¥ã¥¦¦¦¦î:îîîî´kdÿE#$$IfFÖÖrU&åĤ!Ñßàßà
t Ö0ö6öÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁyt$If^`gd¦¦¦$§6§î:50.gdA.ägdA.ä´kdÙF#$$IfFÖÖrU&åĤ!Ñßàßà
t Ö0ö6öÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁyt$If^`gd6§w§§-©L©ªÁ¬Í¬¤b®6¯ß¯K°m²Í´þµ·¡·T¹©º'½3½Q½R½úõõõõðëúæææææððððáðððÜ×Î $Ifgdk$$'gdA.ä&gdA.ägd~B¯OgdA.ä.gdA.ägdA.ä*gdA.äQgdA.äµ°¶°à°þ°±V±T²k²l²m²
²à³Ì´Í´½µ¾µ¿µÃµÄµÎµüµýµþµ¶¶Ê¶Ô¶F··· ·¡·©·°·¶·È·Ì·Ý·Þ·è·ö·¸¸¸S¹T¹ã¹6º
º¨º©º³º¿º¼ä¼%½&½'½/½0½1½üøüøüøüøôøüðèäßØÑØÑØÊÃð¿ð»ð·°¬¨¬»¬¤»¬»¬»¬»¤»¿» » ¤ ¿¤¤¬¤¤hÄS}htàhsyÅhG1 h³c}hP=ÙhFah"t
hº.ZhshÓ}shÓ}shùhÓ}sh+èhÓ}shÓ}shÓ}shìFÓ hìFÓ6h}dh Ùh8¿6hìFÓh Ùh8¿hgF¡¾?¾¾¾¾¾¾ò¾ô¾õ¾ý¾þ¾&¿:¿I¿J¿K¿¿¿¿±¿²¿Â¿ÀÀÀ3ÀüøüøñøíøåÚÏÚÄÚåÚå¼åÚåÄ°§ÄøíøÚøíøååÄíøÄÚåÄhö^)hG1 h7&hG1 mHsHhghG1 mHsHhghö^)mHsHhVc5mHsHhVchö^)5mHsHh¹mHsHh7&hö^)mHsHh7&h+3mHsHh7&hiJmHsHhVcmHsHhiJhtàhtàhG1 hÄS}2R½V½_½`½g½?¾¾ööiö`W )$IfgdA.ä )$IfgdVckd³G#$$IfTlÖÖFÿ3qZÿÿÿÿ>ÿÿÿÿÿÿÿÿé ÿÿÿÿÖ0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÿÿÿÿÿÿÖÿÿÿÖÿÿÿÿÿÿÿÿÿ4Ö
laöytX¤T ($IfgdA.ä¾¾¾ó¾ô¾pg^^ )$IfgdA.ä ($IfgdA.äkdÊH#$$IfTlÖÖFÿ3qZ>ÿÿÿÿé ÿÿÿÿÖ0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÿÿÿÖÿÿÿÖÿÿÿÿÿÿ4Ö
laöytX¤Tô¾õ¾þ¾K¿¿pg^U )$Ifgdg )$IfgdVc ($IfgdA.äkd»I#$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytX¤T¿¿²¿À4Àpg^U )$IfgdA.ä )$IfgdVc ($IfgdA.äkdtJ#$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytX¤T3À4À5ÀOÀPÀ¶ÀæÀçÀèÀÁÁ=Á>Á?ÁfÁoÁÁÁ±Á×ÁÚÁÜÁÞÁðÁ Â)Â*Â+Â,§·ÂÃÂòÂ÷ÂýÂÃ*ÃYÃÞÃãÃúÃÄÄ6Ä8ÄÍÄÐÄGÅpÅŪÅÈÅØÅòÅ÷ÅÆÆõñíñâ×õÐíÅ×ºí¶²¶®¶²¶²ª¶ª¶ª¶ª¶ª¶ª¶¦¶¦¶¦¶¢¶¶¶¦ª¦®®ªh
öh×2_hhRvh¹hX}vhVchÓ}shµy#htàh7&hiJmHsHhghiJmHsHhtàhG1 h7&htàmHsHh7&hö^)mHsHhiJhG1 h7&hG1 mHsH94À5ÀPÀ¶ÀçÀpg^U )$IfgdA.ä )$IfgdVc ($IfgdA.äkd-K#$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytX¤TçÀèÀÁÁ>Ápg^^ )$IfgdA.ä ($IfgdA.äkdæK#$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytX¤T>Á?ÁÅÂ8ÄNÅÇØÇèÈWÉæÉïÊ·ÌßÎpkkkkkkkkkkkgdA.äkdL#$$IfTlÖÖFÿ3qZ>é Ö0ÿÿÿÿÿÿö6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö
laöytX¤TÆ:ÆlÆæÆèÆîÆóÆØÇÈ1ÈLÈPÈaÈbÈmÈÈȦȷÈåÈæÈçÈèÈWɤÉåÉæÉéÉïÊËÌbÌÌÌÌÌÌÌÌÌ·Ì×ÌþÌ>ÍKÍÍÊÍË͸ÎÞÎßÎãÎåÎíÎ.Ï0Ï1Ï2Ï4Ï´ÏñÏcÐdЫÑÁÑ1Ò³Ò&Ó'ÓüøôøôøôðôðôðìôìðôðèôøèôäàäàäìäÜäÜäÜäÜäàäüÜØÔÜØÔØàÜàÐàÈÀȹб¹±¹àÐàüàhdÏhvñhtNá6hTfhtNáhvñhvñ5hvñhtNá5hvñhTfhfhµZKhtNáhCh%%hÓ}shVch×2_hhRvhæFKDßÎíÎ1ÏeТкÐûÐ0Ñ«Ñ'Ó9ÓzÓÇÓøÓÔºÔGÖé×ÙÜðÜñÜ
ÝúõõõõõõõðúõõõõëðððððÚÍ
($If`gd$If^`gdgdÄS}gdA.ä*gdA.ä.gdA.ä'Ó9ÓyÓzÓÉÓèÓÔÔ¹ÔºÔ+Õ=ÕÕ®ÕFÖGÖÙØýØÙÁÙÉÙÚÚ ÛÜDÜïÜðÜñÜ
ÝÝcÝdÝÝÝݲݳÝÅÝÆÝÉÝÊÝÍÝÎÝÑÝüøüñøñêãßÛ×ÛÏÛËÛÇÛÿÿû·³·¤¤¤¤p¤¤¤hh¸±CJOJQJ^JhhCJOJQJ^Jhh#·CJOJQJ^Jh#·hþ-íhhþ-íCJOJQJ^Jhéeh·qhÓèh+3h_Zfhëu:hí hX¤ho+·6h¶zÐho+·h ÙhP=ÙhP=Ùh>khSh>kh>kh>khS,
ÝÝÝÝ'ÝAÝcÝ
ttttt$If^`gdykdXM#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁytcÝdÝÝÝL;.
($If`gd$If^`gd²kdíM#$$IfFÖÖrUôïëY¤!ûünK
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁytÝݢݦݪݮݲÝ
ttttt$If^`gdykdÄN#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁyt²Ý³ÝÆÝÊÝÎÝÒÝÖÝL;;;;;$If^`gd²kdYO#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁytÑÝÒÝÕÝÖÝ×ÝùÝúÝýÝþÝÞÞÞÞ Þ
ÞÞÞÞÞ Þ#Þ$Þ'Þ(Þ+Þ,Þ-Þ[Þ\Þ_Þ`ÞcÞdÞgÞhÞkÞlÞmÞÞÞÞ¥Þ¦Þ§ÞÞÞßÞàÞñâñÓâñâñâñâñâñÓâñâñâñâñâñÓâñâñâñâñâñÓâÌâ½âªwhh#·5CJOJQJ^J% jàðhh#·5CJOJQJ^Jhh#·5CJOJQJ^J% jßðhh#·5CJOJQJ^JhhÂdCJOJQJ^Jh#·h#·hhCJOJQJ^Jhh#·CJOJQJ^Jhhþ-íCJOJQJ^J.ÖÝ×ÝúÝþÝÞÞ
ÞL;;;;;$If^`gd²kdP#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁyt
ÞÞÞ Þ$Þ(Þ,ÞL;;;;;$If^`gd²kdÏP#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁyt,Þ-Þ\Þ`ÞdÞhÞlÞL;;;;;$If^`gd²kdQ#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁytlÞmÞÞÞL;.
($If`gd$If^`gd²kdER#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁytÞÞ¦ÞàÞ
tt$If^`gdykdS#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁytàÞáÞûÞ"ß
t`$$If^`a$gd$If^`gdykdS#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁytàÞûÞüÞ ß!ß8ß9ß]ß^ßßßߣߧߨ߲߫߬߯߱߾ßàCàKàëáââ8â9â:âxâ®âÌâã
ãñÞλñÞλñññññ{wsosk{kg_wk[kWh+3h}R·j¤V#hÄS}UhäjyhD=Àhéeho+·hÄS}hÂdhhCJOJQJ^JhhÂdCJOJQJ^Jhh#·5CJOJQJ^JhhÂd5CJOJQJ% jàðhhÂd5CJOJQJ^JhhÂd5CJOJQJ^J% jßðhhÂd5CJOJQJ^Jhh#·CJOJQJ^J""ß#ß8ß_ß
t`$$If^`a$gd$If^`gdykd*T#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁyt_ß`ßßß
t`$$If^`a$gd$If^`gdykd¿T#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁytßߣߨ߬߰߱ß
ttttt$If^`gdykdTU#$$IfFÖÖ0Uô¤!°
t Ö0ööÖÿÿÖÿÿÖÿÿÖÿÿ4Ö4Ö
laöÁyt±ß²ß¾ßà9â;âKâLGB==8;gdÄS}gdA.ä'gdÂd&gdÂd²kdéU#$$IfFÖÖrUôÛa¤!çCCC
t Ö0ööÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿÖÿÿÿÿÿ4Ö4Ö
laöÁytKâjâxâôãå9ç;çJçiçwçðç9é°êRëëäëçìïðÛñUòsò^óôúõððððëæáÜðððÏÏÏððððÊððgd B#& þ^& `þgd'fgd'fgd'f gd'f;gd'fgdA.ägdÄS} gdÄS}
ãóãôãåå åôåüå0æ7æ8æ=æFæJæWæfæ
æêæ7ç8ç9ç:ç;ç=ç>çFçIçðçúç¼èééé7é'ê¯êRëaëgëë´ëãëäëæìçìoíííÊíøíîî+î2îBîÿîïïfïï¸ï¹ïüøôðôðìðìðèðìðìðìèìðàÜØèØèØÔÐÌèÈèÌÄ̽̽̽¹Ä²ÄȮȧȧȧèȮȮ®hí hí h6hñ39hñ39hhwOhîhwOhwOhwOhîhñ39h´ghìJÔhéeh'fhùj¡·$h\Uh\hÒ 9 : ; ? @ ] ^
<
A
ÆÌ\
]
¹
º
³´ÉÎ-67Vlmr^aòåÕòåòåòåÅòåòåÁº¯Á¤º¯¯¯¯¯ºÁvÁrÁº¯Áº¯h}hh7&h$UmHsHhèðh$Uh$Ujhèðhâj×Uh7&hâj×NHmHsHhèðhâj×mH sH h7&hâj×mHsHhèðhâj×hâj×jz*hèðhâj×PJUj¿
*hèðhâj×PJUh7&hâj×PJmHsHjhèðhâj×PJU,
<
A
ne\\ )$IfgdA.ä ($IfgdA.äkd/*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>Æ̳ne\\ )$IfgdA.ä ($IfgdA.äkdÝ*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>³´ÉÎXÑ-6ne\\OOOO)
&F$IfgdS-U )$IfgdA.ä ($IfgdA.äkd
*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>67mr^ne\\ )$IfgdA.ä ($IfgdA.äkd9*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>^_ßnee\\ )$IfgdA.ä ($IfgdA.äkdç*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>abßöûª«¯ÂÃèîIQRÜçè
¨©ªÀÚüý & ( / 0 8 9 ] ^ _ Ï Ó "+"óèäÝèäÖÝèÝäËÝèäÝèäÝè伶²ª²¦¦²²²²h;bh|zh}hhAÂÃèîIne\\ )$IfgdA.ä ($IfgdA.äkdñ*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>IJQRÜne\\ )$IfgdA.ä ($IfgdA.äkd*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>ÜÝçè&UóR¢ne\\\OOOO)
&F$IfgdS-U )$IfgdA.ä ($IfgdA.äkdM*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w> ¢
#Lòa\WWRMHgdÉdEgdÉdE;gdÉdEgdA.ägdÉdEkdû*$$IfFÖÖFÿ2 ã"©Þ
t Ö0ö?6ööÖÿÿÿÖÿÿÿÖÿÿÿÖÿÿÿ4Ö4Ö
laöyt#w>)
&F$IfgdS-UL©ªý"¤"$ï$'½(r)
,é..1ý2323\33°3ö34÷4÷òííííííííííííäÛÖÖÖÍÈ¿K`gdRÜ>ì>í>ô>Ç?ç?ø?M@R@@üøüôüðìðåáåÚÓÚðÏðôËðáðôÇðôðËÃü¿ÃÇÿ»Ëǻ÷÷ÃüûóÃËÃËóóóóôÃËìˬh«#=h[,ÃhÍ{hh7hR`h8,+h[,ÃhhAh`Cýh`Cýh`Cý6hÈ!\hOñhOñhR`hOñhOñhqih`CýhcBhhcBhhcBh9¸n¦p4rüsþstt-tu\v«wy°zì}·¹ÁàíDt.µÈ
Nf0úúúúõðëúúúúúúúúõæðëúúúúúáúgdçY¨ gdA.ägdA.ägdA.ä;gdA.ägdA.äüsýst
ttt-tuu$v[v\vvvÞvw7wªw«wÕxyyÏy°z"{-{1{9{:{U{j{Î{æ{þ{-|B|g|}||¨|©|´|»|Ø|}h¦t¡hH8>hmLj¼h"UÃhz¦hMØhÄ2h3îhùabh1HìhÍG\hJWáhÍ:ùh>eFÓÒ½ÔvÖ×ÚÙ}Û?ÜÝ\ÝÝàá$á8ábáá¶á´âÙâöâã¥ä&æúúúúúúúúõðëâÙÔÔÔÏÏÊúúÅgdA.ägdÞq¯JgdçAÔBgdA.ä`gd#w>`gd#w>gd.Bgd1'ô/gdàF¬gdA.ä¶á´âØâöâ¦ã§ã»ã¥äTåUå³è¶èïéêXëZëìììëì"íhíiíííÖíãíïïð'ðeòòLóOóPódófóxó¼óÂóÈóÔóÛóãô¨õ©õ¹õÎõ¼öq÷ ÷OøÂøöøùEùFù¼ùÙù]û^ûiûÍûñû÷óïëçãëßÛß×ßÓßëßëçëÏëßËïÄ×Ä׼ÄÏÄ×¹ãĹÄ×Ä×ıĹÄ×ĩĩĩĹĢhhì]©hBk"hOhBk"hRÏ6h¡ShhhhRÏhì]©hM·h}hhhz#fhhhIåh6hRÏhçAÔhçAÔhçAÔ6@&ææ×æFçç7éËéLêìiííÖíïñìñxótõ¨õBø5ù^û]üiüü¿üòòòííííííèíííííííííííßÖÑBgdA.ä`gd#w>`gd#w>gdÞq¯gdA.ä#& þ^& `þgdàF¬ñûüCü]üeüfüiüüýÞþüþÎw¥ºÚçè4?qv3gh
&'_aÀÁÐÒÓs t
@
U
à
ý
{|}|}
ø
ÛùõùñíéåíáÝáÙÝÙÝÙáÕÑÍÉÅÁÅÁÅÁŽ¶½Ùá½²®²½²®²®§²£²§²§²½²®§²½®½®ÁhjThÔ4MhhÌy;hÔ4Mh45øhÔ4MhTVhòKhjTh°H\hòKhTVhnÞhshöyhÞq¯hBk"hW?Ìh6h#w>hhì GhOhhRÏ=¿üéüýsýýOÿäÿؼèh
'2SÁ
}
Üûúúõðëëãã×ÒÍÍÍÈþ¾¾¾¾¹gdÞq¯*gdA.äQgdA.ä.gdA.ägdA.ägdtÔ#
&FÁ^ÁgdW?Ì#
&FgdW?ÌgdW?ÌJgdA.äKgdA.äBgdA.äÛÜúûXvúû£YZ¡ä'ÐÑÒá/ÿµô¼Íëôh{|}:Oj´âõ¡`Ñï/oßàï÷&E,!0!?!F!üøôøðìðèøèäàäàÜØÔØÜÔÜÔÜàÜØÜØÜØÜØÜØÜØÜØÜìÜØÜØÜÍØÍØÍØÜØÜÉØÔØÔØÅÉÁɺɺɳÉhöyhöyhshöyhQPeh¡ShöyhÞ
èhÞ
èh¯~hÞ
èhW_.hE>?@AYDZDeDTEUEFFëFGH#H?MBMeMfMwMxMM MÉMÊMËMÌMÙMÜMNN?NCNDNUNO/OOOÍOP/POPVPWPdPüøüøüñíñüâüÞüÞ×ÓÌÈÄÈÀÈÀ¼À¸´¸°¸È¨È¤°¸¤¸ ° ´í´¤´h9_ýmHsHh7&hülmHsHhülh 8éhÞq¯j²;h¡SUh9_ýhU5hÏ@h90µhQPehhú"OhIlhú"Ohöh=%«h=%«hsvbh=%«h=%«mH sH hBk"h°H\h=%«hr>Ã>?g?é?@
@@F@ì@A³AÄAÓAåAæAúAûAlBBXCüøüôüðôðéåáåáÝáÙåáÕôÕáÝáåÙåÑÍÑáÕáÑÉÝÉÝÉÝÉÝÕÝÉÝÉÙÉ»´ô´°ð¬¨ôð¡ô¡hÔ2¼hÔ2¼hIåhöVøhÈ R q Ó Ô , . Æ ç Y m ¨ P¤ q¤ ¤ ¤ ¬¤ Ĥ ͤ ª Bª fª õ« +¬ ¨ ª õ ò° ü° ± e± ú² F³ G³ p´ ¸ X¸ üõüîüõüõüõüõüõüõüõüõüîüîüçüçüçüçüçüçüçüçüçüçüçüàüàüÙüÙüÙüÌÁ¶ü¯ü¯ü¨h`Øhüh.Zhüh.ZhümH sH hShümH sH hShü0JRmH sH hyihüh'hühD[hühMnýhüh·(hühüBm ¨ l º × £ £¥ ]¦ 9§ ¨ ¯© &ª 1ª gª J« T« é« õ« ,¬ 6¬ ü¬ © ª ö úõõðõõõõõõõëæáÔÏÔÏÔÏÔÏÏÏPgdü4Á^Á`gdü*gdüQgdü.gdügdügdügdüö !®