In Tribune expert

La tendance générale des communications autour du Machine Learning génère auprès des différentes populations concernées (analystes, chargés d’études, dataminers, …) un premier abord pouvant être inconfortable. Ceci est embêtant car il est facilement concevable que cela permet de répondre à certaines problématiques au cœur de la connaissance client.

Le foisonnement des publications traitant d’algorithmes de type « boîte noire » comparé à la quasi inexistence d’articles expliquant clairement les principes et le fonctionnement de cette thématique explique cet inconfort.

A ce titre et dans une optique de pragmatisme, il nous paraît important aujourd’hui de rétablir un peu d’équilibre.

De quoi parle-t-on exactement ?

Le Machine Learning appartient au domaine de l’intelligence artificielle, dont l’objectif est :

  • de créer et mettre à jour des modèles (prédiction, classification, …) en combinant / optimisant des algorithmes(probabilistes, statistiques, mathématiques, …),
  • avec une certaine rapidité d’exécution (objectif du temps réel),
  • et une intervention réduite de l’homme (automatisme).

Ces éléments se basent sur des comportements passés avec comme leitmotiv de permettre une prise de décision fiable et répétée autant que nécessaire sur les actions futures, et ceci grâce à des technologies permettant de travailler sur des jeux de données plus riches.

Il y a donc 3 notions importantes qui composent le Machine Learning : Les Algorithmes / L’Exécution / L’Automatisation.

Les Algorithmes

Les algorithmes font partie d’un enchaînement de calculs réalisés pour permettre d’améliorer la compréhension d’informationscontenues dans les datas, d’identifier des sous-populations d’individus au comportement similaire ou encore de définir des priorisations d’interactions avec certains clients.

La communauté des Data Scientists dispose de nombreux algorithmes, supervisés ou non supervisés, paramétriques ou non, qui sont pour la plupart éligibles à une utilisation dans un process Machine Learning.

Le premier aspect du « Machine Learning » consiste à mettre en place des méthodes de combinaison / agrégation / optimisation de modèles qui améliorent la robustesse des informations en sortie, et garantissent ainsi la confiance à leur accorder.

La complexité réside donc uniquement dans la connaissance des algorithmes disponibles et de leurs avantages / inconvénients vis à vis de la problématiques à traiter.

L’Exécution (Temps Réel)

La majorité des secteurs tend aujourd’hui vers une vision des interactions clients pour appréhender dans son ensemble, la réalité du consommateur et de leurs comportements.

L’enjeu est alors le suivant : être en mesure d’effectuer un suivi permanent de l’activité et des arbitrages consommateurs en testant des hypothèses en temps réel pour ajuster et optimiser les propositions commerciales de manière quasi instantanée.

Il est ainsi essentiel d’adopter les moyens analytiques capables de générer des éléments d’aide à la décision optimaux, tout en conservant une maîtrise intelligente des données. Et les ressources technologiques pour récolter, regrouper, traiter et analyser des données en grande quantité le permettent désormais.

Le deuxième aspect du Machine Learning réside dans la capacité à maîtriser les nouvelles technologies, notamment la parallélisation des données & traitements, pour tendre vers des exécutions instantanées.

Ici la complexité réside dans la nécessité de remettre en question certains paradigmes (bases relationnelles, stockage physique, …), ou encore d’apprendre de nouveaux langages (Python, R, …). Le suivi et l’analyse des technologies émergentes pour identifier celles qui perdureront est aujourd’hui au cœur des travaux menés par beaucoup d’entreprises. La représentation suivante des principales technologies selon 2 axes (Type de Traitement / Vitesse d’exécution) résume les grandes tendances actuelles :

L’Automatisation

Avec l’explosion des flux de données que nous connaissons (digital, objets connectés, …), il apparaît clair que les Data Scientists auront à en traiter une quantité et une variété bien plus grande qu’ils ne le font actuellement.

L’un des objectifs primordiaux est donc d’optimiser l’intervention humaine pour appréhender les problématiques auxquelles ils feront face, tout en tenant compte des 2 dimensions précédemment décrites (algorithme / temps réel)

Le troisième aspect du Machine Learning est lié à l’automatisation des traitements pour répondre à l’ensemble de ces exigences.

Ici la complexité est d’aboutir à un résultat opérationnel, fidèle à la réalité et pour lequel la confiance sera suffisante pour la prise de décision. Et pour y parvenir la majorité des approches existantes mêlent un système de « Batch Processing » couplé à des applications dites « Fast Data ».

Conclusion

Ainsi, la mise en place d’une démarche de Machine Learning ne doit pas être « complexifiée » par un angle d’approche trop théorique, et si vous tenez compte des 3 grands aspects que nous venons de décrire, la mise en place d’un tel projet pourra vous apporter un vrai ROI.

Le ROI de ce type de démarche sera d’ailleurs le sujet de notre prochain article … alors « stay tuned’ !

Recent Posts
AVISIA
Retour d'expérience d'une plateforme big data sous hadoop