1. L’identification du Cas d’Usage
La toute première étape, consiste, en toute logique, à partir d’une question métier à résoudre. A titre d’exemple, dans le cas du groupe La Poste, il s’agit de l’optimisation de la distribution du courrier en France.
Pour regarder cette vidéo, vous devez consentir aux Cookies de notre partenaire Youtube Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
A partir d’entretiens et d’ateliers fonctionnels avec les directions métiers concernées, les besoins et problématiques sont identifiés et formalisés. L’approche Design thinking peut également être mise à profit afin d’associer à l’analyse de la situation une dimension qualitative et collaborative pour aller au plus vite et au plus près d’une solution.
De manière générale, une fois le(s) cas d’usage métier identifié(s) l’extraction de la matière brute, la Data, peut démarrer, un peu l’équivalent du pétrole brut dans le domaine de l’énergie.
2. La Data Préparation
La Data, à ce stade, est le résultat d’observations élémentaires que l’on a enregistrées dans une base de données, qu’elles soient structurées ou non structurées.
De même qu’un véhicule ne peut fonctionner avec du pétrole brut, l’Intelligence Artificielle ne peut être alimentée par des données brutes. Il s’agit en conséquence de procéder, ici, à soigneusement préparer la Data. La Data Préparation [DataPrep] est une étape cruciale et indispensable au succès des algorithmes d’IA. Elle occupe une part significative du travail des Data Engineers et des Data Scientists qui doit être menée de manière approfondie et rigoureuse. Elle a notamment pour but de rendre les données exploitables et consiste en recodages, changements de format, voire transformations mathématiques plus ou moins complexes suivant le cas d’usage à l’étude.
3. Transformer la Data en information
La deuxième étape de transformation, ou de raffinage selon notre analogie pétrolière, consiste à transformer la Data en information. Les données croisées avec d’autres données, sont ainsi enrichies et transformées en information.
Dans notre exemple de La Poste, les données relatives aux volumes de courrier sont croisées notamment avec les données du calendrier. Il est constaté un lien fort entre les deux : le volume de courrier distribué dépend de la période du calendrier. Dans cette optique, plus les données adaptées au cas d’usage sont enrichies et croisées plus forte est la probabilité d’obtenir des résultats pertinents. A l’inverse, et c’est tout l’art du métier, si l’IA est alimentée en données non pertinentes, les résultats ne seront pas opérationnels et l’adage « garbage in – garbage out * » s’applique.
*Si les entrées d’un système sont mauvaises, les sorties le sont forcément aussi.
4. Modéliser, tester et industrialiser l’IA
L’étape suivante consiste à modéliser l’IA en utilisant des algorithmes de Data Science. Ce processus itératif nécessite l’application d’une méthode précise dont la plus élémentaire, (mais pas la seule), est la méthode « CRISP ». (voir notre article sur La méthode CRISP : la clé de la réussite en Data Science)
Nous pouvons après cela entamer la phase de test et de validation. Cette phase très importante permet de s’assurer que l’IA réponde bien aux attentes métier, tant du point de vue usages que du point de vue algorithmique. Une vigilance particulière doit être accordée à la question de robustesse [consistance des réponses de l’IA en fonction des données d’entrée] ainsi qu’aux potentiels biais qui pourraient être introduits au moment du processus d’apprentissage de l’IA. Ce n’est que lorsque la phase de validation est passée avec succès que l’on peut envisager de mettre l’IA en production puis à disposition des métiers.
Si le projet, dans ses composantes techniques, est abouti, son déploiement reste un étape clé de réussite. Les bénéfices que les utilisateurs peuvent en tirer doivent être explicitement formalisées et faire l’objet d’une appropriation par les métiers.
Au-delà des bénéfices finaux, la mise en application de l’IA induit l’adoption d’un processus d’utilisation tout au long de l’exploitation du modèle. C’est précisément pourquoi les utilisateurs métiers doivent être impliqués dès le début du projet. Il s’agit de réunir les conditions de succès du projet : adoption et, in fine, ROI.
L’interview de Nathalie Gounel, Directrice Data Management, Marquage et traçabilité de la Branche Services Courrier Colis de La Poste est un exemple de la méthode ci-dessus appliquée conjointement par les équipes de Business & Decision et de La Poste.
Directeur DataScience et AI Business & Decision et enseignant en Data Science et Intelligence Artificielle à l’EPF, ma mission consiste à concevoir pour les clients actuels et futurs des services leur permettant d’utiliser la DataScience et toute une gamme de prestations autour de l’IA, spécialement conçues comme levier de croissance et de développement de leur activité.