L'IA, notamment avec une approche dite « machine learning », est donc un outil de corrélation, et non pas de causalité : il serait donc tout à fait présomptueux de retirer l'homme du process. « Il est temps de repenser la relation entre l'homme et l'algorithme » considère Julien Laugel, chief data scientist chez MFG Labs, une société du réseau de partenaires technologiques de Mews Partners. Et de faire remarquer qu'en ce qui concerne le jeu de Go, le deep learning a ouvert de nouvelles voies en matière de stratégie, alors pourquoi pas en SC ? Mais pour que cette collaboration basée sur l'échange entre l'Homme et l'algorithme soit constructive, la notion de confiance est capitale. « Dans un projet d'algorithme IA d'aide au choix de solutions transport sur lequel nous avons travaillé, nous nous sommes aperçus qu'il était fondamental d'améliorer le retour et l'affichage des résultats à l'utilisateur et de trouver un équilibre des responsabilités et des tâches. Inversement, l'utilisateur va aussi fournir de la donnée à l'algorithme pour lui permettre d'être plus efficace sur la durée » témoigne Julie Pronzac, chief experience officer de MFG Labs. L'un des risques, pour Serge Tisseron, psychiatre, docteur en psychologie et membre de l'Académie des technologies « Pour une technologie au service de l'homme », c'est que l'humain soit victime de son « biais cognitif », d'une « illusion animiste » vis-à-vis de la machine. « A terme, pour prendre des décisions d'importance majeure, la tentation de suivre les algorithmes sera de plus en plus forte, la question étant de savoir si nous allons continuer à reconnaître à l'être humain la capacité de se tromper... » s'interroge-t-il. JLR
Julien Laugel et Julie Pronzac, Chief Data Scientist et Chief eXperience Officer chez MFG Labs. ©JP Guillaume
Julien Laugel et Julie Pronzac, Chief Data Scientist et Chief eXperience Officer chez MFG Labs. ©JP Guillaume