GDF Suez, L'Oréal, Danone, ERDF ont récemment nommé leur Chief Digital
Officer (CDO) comme 40% des sociétés du CAC40 et la plupart des grandes
sociétés au monde. Ce nouveaux CxO est supposé être le catalyseur de la
transformation vers le numérique en même temps que le rempart contre les
nouveaux entrants qui font place nette sur leur passage.
En
effet, les grands leaders des différents secteurs industriels ont vu
leurs homologues d''autres domaines se faire “tondre” par des nouveaux
entrants. Ces derniers ont pour première priorité d'exposer leur
processus de vente, de production, de livraison via l'Internet au sens
le plus large (PCs, tablettes, mobiles, etc.). Ils veulent ainsi être
les plus efficaces et les plus transparents possibles pour attirer la
plus large fraction de la demande potentiellement infinie générée par
Internet.
On peut ici citer Amazon pour la vente par
correspondance, Paypal pour les services financiers et plus récemment
Uber pour les services de taxi. Ajoutez ensuite qui vous voulez selon
votre secteur de prédilection.
Donc, las de voir leurs
homologues décimés par la jeune génération et voulant éviter de subir le
même sort, les grandes sociétés nomment leur messie pour éviter de
passer à la trappe grâce aux bonnes méthodes de cet(te) homme / femme
providentielle.
Au-delà d'une vision à long terme très éthérée,
on attend du CDO des recettes tactiques concrètes qui font progresser
efficacement le sujet de la transformation chez son employeur.
La
participation récurrente aux projets lancés lors de ces transformations
numériques fait émerger, selon mon expérience, quelques meilleures
pratiques techniques et méthodologiques que je veux détailler ci-après.
La fixation des bons objectifs est essentielle
: le plus important est certainement le désenclavement. En effet, ces
grandes sociétés ont toutes des systèmes historiques qui “font tourner
la maison” au quotidien en gérant les processus de commande,
fabrication, livraison. Ces systèmes sont le plus sont propriétaires
(mainframes, etc.) donc peu flexibles et péniblement interconnectés avec
les autres serveurs de la maison et l'Internet. Il est impératif de
fixer un objectif ambitieux de transformation du système principal vers
des technologies modernes et ouvertes qui lui permettront de participer
ensuite directement et efficacement à l'ensemble des processus du métier
qui seront exposés sur Internet.
Dans la même veine,
la fluidité et la continuité de ces processus sont critiques.
Il serait vain voire létal de donner une impression de grande fluidité
des processus internes par une “vitrine” (le site Internet ou les
applications mobiles) trop attirante et procurant un faux semblant de
transparence et d'efficacité si l'interconnexion entre la vitrine et
l'arrière-boutique (= le système de gestion) est ensuite essentiellement
manuelle sous la responsabilité de “petites mains” qui ne peuvent
qu'introduire erreurs et délais en copiant les informations entre les
divers systèmes.
Après les objectifs (= le QUOI), vient le chemin
pour les atteindre (= le COMMENT). A nouveau, de multiples projets nous
ont procuré les expériences suivantes.
L'absence de risque est vitale :
les systèmes à transformer sont massifs. Pour la seule utilisation
interne, ils servent déjà des milliers d'utilisateurs. Il est impensable
pour tout CDO digne de ce nom de proposer une approche “Big Bang” où
l'héritage informatique est remplacé du jour au lendemain par un nouveau
système. Nous voyons donc (et recommandons vivement !) régulièrement
des transformations incrémentales où la charge de travail mainframe
historique est mutée sur une période longue de plusieurs mois vers le
nouveau système (cloud privé x86, etc.) : d'abord quelques utilisateurs
pionniers puis une première vague plus consistante avant que le gros des
troupes ne débarque sur le nouveau système qui aura ainsi été purgé de
ses problèmes de jeunesse en gênant la productivité au minimum.
La fluidité et l'homogénéité vont de pair avec la sécurité
: les processus doivent rester efficaces tant pour les éclaireurs
pionniers que pour les autres collaborateurs avec lesquels ils échangent
dans le pilotage des processus dont ils sont responsables. En clair, le
nouveau système et l'ancien ne peuvent être disjoints : ils doivent
partager leurs données en temps réel autant en lecture qu'en écriture et
si possible à travers une seule et même base de données (pour éviter
les « machines infernales » de synchronisation bidirectionnelle...).
C'est la condition sine qua non d'une transformation sans heurts nu
perte de contrôle.
L'efficacité doit continuer à primer :
la transformation numérique emmène la société davantage vers le monde
de l'Internet où les marges financières et les délais de réaction sont
toujours plus étroits. Donc, la vie en parallèle de l'ancien et nouveau
système pendant la longue période de transition nécessaire à la sécurité
(voir plus haut) ne doit pas nécessiter la maintenance à double des 2
systèmes (anciens et nouveau): l'un doit dériver automatiquement de
l'autre. C'est en général le nouveau système qui est construit
automatiquement à partir du système historique. En particulier, durant
la transition, les changements apportés au système historique doivent
pouvoir être automatiquement reportés sur la nouvelle plates-formes.
C'est le chemin en général le plus naturel.
La cible doit être soignée :
la plate-forme technologique du nouveau système doit offrir tous les
gages d'un système moderne en termes d'agilité, de flexibilité, de
scalabilité. Notre expérience est qu'il souvent ici souvent favorable de
se mettre dans le sillage des gorilles de l'Internet (Google, Facebook,
Amazon, etc.) en copiant leurs meilleures pratiques voire en utilisant
les technologies qu'ils publient en Open Source sur Internet. Ces
sociétés n'ont pas eu à faire de transformation numérique : elles sont
néés avec l'Internet et en représente certainement les formes
canoniques, voire l'ADN. Elles ont donc forcément vu juste dans
l'élaboration de leur système informatique car il est le composant
essentiel de leur structure interne.
L'architecture doit être ambitieuse :
quand on les expose sur Internet, le volume de traitement des systèmes
de gestion peut exploser brutalement car la demande (au moins en
informations) peut brutalement devenir colossale. Il faut donc
travailler ici aussi à la mode des gorilles du Net : un composant de
base (serveur x86) de taille modeste mais “empilable” à volonté et par
tout petit incrément afin de ne pas avoir en entrer dans des
« branle-bas de combat décisionnels » interminables à chaque besoin
d'augmentation de capacité. Empiler de nouveaux serveurs coûtant
quelques milliers d'euros est très simple à mettre en oeuvre, beaucoup
plus que l'achat d'une seule machine coûtant plusieurs millions ! C'est
un mode de développement “biologique” tout à fait conforme à la vision
d'évolution organique de l'Internet. Quand on veut basculer vers un
nouveau paradigme autant aligner son mode de fonctionnement sur celui de
l'étalon !
Ce livre de recettes peut sûrement être encore étoffé
mais son application garantit déjà une transformation numérique très
réussie. Il est bien sûr nécessaire de trouver à ces ingrédients
génériques leur déclinaison pertinente dans un contexte particulier : la
petite épice supplémentaire qui laisse un souvenir impérissable à tous
ceux qui y goûtent ...
Source: blog
Media and Tech (par didier durand)