« Qu’est-ce ça mange en hiver c’t’affaire-là » Nos cousins québécois utilisent cette charmante expression pour signifier à leur interlocuteur qu’ils ignorent tout de la chose dont on veut les entretenir. L’intelligence artificielle, qui figurera parmi les thèmes incontournables du salon Supply Chain Event, a selon moi toute sa place dans ce bestiaire des concepts qui échappent un peu au commun des mortels (dont je suis). En l’occurrence, hiver ou pas, on sait tous « plus ou moins intuitivement » que l’IA doit « manger » des data en grande quantité. Surtout s’il s’agit de machine learning avec ses algorithmes auto-apprenants qui ont besoin qu’on leur fournisse de très nombreux exemples. Depuis dix ans, il existe un sous-domaine de l’IA, le deep learning, qui fait appel aux mathématiques des réseaux neuronaux profonds. Et j’ai appris récemment, lors de conférences sur le thème de l’IA et la supply chain, le terme ébouriffant de « reinforcement learning » (apprentissage par renforcement) et son évolution, le « deep reinforcement learning » qui a permis à Google de terrasser le meilleur joueur humain de go.
L’algorithme (ou l’agent) va apprendre de lui-même à résoudre de mieux en mieux un problème, à condition qu’on lui dise ce qu’il a le droit de faire et qu’on lui donne la possibilité d’avoir une action et d’en mesurer les conséquences. En fonction du succès de cette action et de l’atteinte de l’objectif final, il obtient une gratification. « Il » va chercher à renouveler l’expérience indéfiniment pour maximiser la récompense obtenue et deviendra toujours plus performant dans la résolution du problème. L’espoir suscité par cette approche, c’est qu’à partir du moment où l’on sait coder les règles et évaluer la fonction de récompense (ce qui ne doit pas être si évident tout de même), cet algorithme peut apprendre et tester des scénarios avec très peu de données historiques. On pense tout de suite aux problématiques de prévision de ventes pour les produits à très faible rotation ou en phase de lancement, non ?
Pour l’instant, la start-up DC Brain teste cette méthode avec Daher. Ce dernier est Lead Logistic Provider du projet international Iter pour la construction de la plus grande installation expérimentale de fusion nucléaire jamais construite. Ses innombrables éléments, de toutes tailles, continuent d’affluer en France, en provenance de nombreux pays. L’algorithme de DC Brain s’attache à déterminer dans quel entrepôt (parmi une centaine) et à quel emplacement chacune de ces pièces doit être stockée pour optimiser les flux. Il y a beaucoup d’attentes sur ce projet qui, s’il donne les résultats escomptés, pourrait inspirer d’autres initiatives dans le domaine de l’optimisation des supply chain industrielles. DC Brain teste même un deuxième algorithme qui « nourrirait » le premier en données synthétiques. Passeront-ils l’hiver ?