En savoir plus sur la Data

Stratégie Data Driven

Trajectoire Data Driven

ACCOMPAGNER NOS CLIENTS DANS LEUR TRAJECTOIRE DATA CENTRIC

Les enjeux DATA, technologiques & organisationnels, sont aujourd’hui des sujets centraux pour toutes les entreprises. L’innovation devient stratégique et bouscule les process établis.

Comment transformer l’entreprise dans sa globalité ?

Comment s’assurer que l’innovation se transforme en un levier de croissance et trouve écho auprès de l’ensemble des Directions et collaborateurs ?

Nous mettons à la disposition de nos clients savoir-faire & savoir-être, convaincus de la nécessité d’allier compétences projet & maîtrise historique Data, afin d’accompagner les entreprises dans leur transformation digitale.

Exploitation stratégique de votre Capital DATA :

  • Diagnostic de l’existant
  • Définition de la cible technologique & organisationnelle
  • Adaptation des processus

Stratégie de transformation pour atteindre l’agilité :

  • Formation et accompagnement des Directions et collaborateurs vers la transition technologique et organisationnelle
  • Conduite du changement & stratégie d’adoption

Réussir la transformation de la démarche centrée sur les process en démarche centrée sur la donnée

AMOA

ACCOMPAGNER NOS CLIENTS DANS LES PHASES CLÉS DES PROJETS

Les contraintes de marché sont de plus en plus fortes sur les entreprises. La réactivité (ou le “time to market”) est devenue un enjeu stratégique et la mise en œuvre rapide des projets un important levier de performance globale.

Pour ce faire, il est crucial de délivrer des “produits” répondant aux besoins exprimés avec pragmatisme et évolutivité.

En s’appuyant sur leurs compétences métiers, nos consultants AMOA accompagnent nos clients dans les missions clés de la Maîtrise d’Ouvrage :

  • Comprendre les Directions Métiers : la “meilleure réponse” aux besoinx métier doit passer par une phase d’analyse du fonctionnement et des processus. Ce diagnostic est rendu possible par une immersion au plus près des acteurs opérationnels.
  • Concrétiser et valider les besoins fonctionnels par une étape de prototypage
  • Fédérer l’ensemble des acteurs du Projet autour d’une cible commune : quelle que soit la méthode projet choisie, l’un des principaux facteurs clés de succès reste l’alignement des acteurs sur la cible à atteindre. Les difficultés doivent être partagées et les zones d’ombre levées. De par son rôle charnière, il revient à la MOA de jouer ce rôle de chef d’orchestre entre toutes les Directions de l’entreprise prenant part au projet.
  • Contrôler la qualité des données et homologuer les solutions : un niveau de confiance élevé garantira une adhésion forte des utilisateurs finaux.
  • Maîtriser le projet : une gouvernance adaptée, souple et fiable permettra le respect des coûts et des jalons, tout en permettant les évolutions au fil de l’eau lorsqu’elles sont nécessaires.
Architectures Big Data

ACCOMPAGNER LA MISE EN ACTION DE VOTRE DATALAKE

Après la transformation des systèmes d’informations orientés « Produits » en systèmes d’informations orientés « 360° Clients », les datalakes impliquent une nouvelle évolution de la modélisation des données. Celles ci doivent aujourd’hui s’adapter pour proposer un niveau de détail de l’information plus fin (parcours de navigation web, contenu d’un appel à un call center, …etc.) et afficher une vision événementielle (ou chronologique) des échanges.

C’est ce que nous appelons un système d’informations en interactions dont le but va être principalement de regrouper les différentes informations disponibles sous forme d’interactions contextualisées. Et grâce à cela, il devient alors possible de traiter tout type de besoins au sein de l’entreprise : du reporting business temps réel à la mise en place d’algorithmes de machine learning.

Pour y parvenir, nous vous accompagnons tout au long de votre démarche afin de :

  • Identifier les différentes sources de données disponibles,
  • Définir les use cases potentiels avec les données disponibles,
  • Sélectionner et concevoir l’architecture technique de réception de ces sources de données (Data Hub ou Data Lake),
  • Réaliser le choix des outils pertinents à chaque étape (stockage, traitement, recherche, dataviz, datascience, …etc.),
  • Batîr les processus d’alimentation et de contrôle de la qualité des données,
  • Mettre à disposition des différents utilisateurs (technique, analytique, fonctionnel) les outils et les informations pertinentes.

Business Intelligence

Stockage & traitements

ACCOMPAGNER LA MISE EN OEUVRE DES TECHNOLOGIES ADAPTÉES

En fonction de la nature des données (structurées ou non) et de l’usage que vous souhaitez en faire (batch, interactif, temps réel), nous vous accompagnons dans la définition de la technologie de stockage idéale. Du plus au moins structuré : HDFS, Moteur de recherche (Solr, Elastic Search ..), Nosql (MongoDB, Cassandra), stockage structuré (HBase, Parquet, Hive, Spark, Impala..) & base de graphs (Neo4J).

Au cours du cycle de transformation et de structuration de la donnée, les différentes étapes de Data Management nécessitent d’ailleurs souvent un recours au stockage des informations sous de multiples formes.

L’ingestion des données amène également de nouvelles façons d’intégrer et de gérer la donnée: intégration de sources diverses (Sqoop), en flux (Flume, Kafka), traitements distribués (MapReduce, Hive, …) et ordonnancement de tâches (Oozie).

La mise en oeuvre de ces technologies nécessite la connaissance de langages de programmation tels que Java, scala, pig ou python que nous maîtrisons et nous travaillons avec les distributions Hadoop les plus courantes comme Cloudera, Hortonworks ou MapR. Notre objectif est de pouvoir vous accompagner tout au long de vos projets :

  • Conseil en architecture distribuée,
  • Conception, design et modernisation d’architectures de bases de données classiques et/ou distribuées,
  • Modélisation des données,
  • Développement de traitements distribués,
  • Réalisation de prototypes permettant de tester grandeur nature les usages potentiels sous forme de datalab,
  • Intégration/Ingestion des données (online ou offline) et quel que soit l’environnement (SI Entreprise / Cloud computing / DMP externe),
  • Mise à disposition d’infrastructures Big Data dans le cloud dans des délais très brefs : de 24 heures pour une infrastructure Hadoop standard à une semaine pour une infrastructure dont le socle logiciel aura été personnalisé selon vos besoins.
Smart BI & Data Viz

DONNER AUX UTILISATEURS LA RAPIDITE ET L’AUTONOMIE NECESSAIRES A L’EXPLOITATION DE LEUR CAPITAL DATA

La SMART BI ou BI agile est la nouvelle approche de la Business Intelligence qui regroupe la Data Visualisation, la Data Discovery et la Self BI, permettant la réalisation en démarche Agile et collaborative.

Son principe est fondé sur des cycles de réalisation courts, itératifs et guidés par les usages métiers, fondés sur les principes d’agilité et de collaboration.

Nos démarches de déploiement de la Smart Bi sont entreprises avec les objectifs suivants :

  • Améliorer la capacité à délivrer à travers des cycles plus rapides et moins rigides
  • Renforcer les capacités d’analyse par l’autonomie et la responsabilisation des utilisateurs
  • Favoriser l’émergence des nouveaux cas d’usages
  • Augmenter le ROI métier

L’enjeu de la Self BI est quant à lui double : Rendre les utilisateurs BI plus autonomes mais aussi plus responsables.

Nos équipes conçoivent et intègrent des plateformes modernes dans les SI de nos clients, permettant aux utilisateurs de :

  • Préparer et enrichir leurs données
  • Explorer librement les données
  • Créer et paramétrer eux-mêmes leur reporting & dashboard
  • Partager leurs analyses ou résultats de façon collaborative

DATA VIZ

A travers notre expertise, nous facilitons la transformation de vos données en visualisations dynamiques et interactives permettant de :

  • Apprécier visuellement la performance de votre business
  • Observer clairement les points d’alerte ou de satisfaction
  • Mettre en évidence des tendances
  • Découvrir des liens/corrélations insoupçonnés
  • Améliorer votre business par des décisions avisées

De façon plus détaillée notre expertise vous accompagne sur les différentes étapes de ces projets :

  • La connexion des outils de dataviz à vos données,
  • L’exploration, l’analyse, et la visualisation des données,
  • L’application des best-practices de dataviz,
  • Le Story telling,
  • La partage collaboratif des résultats.
Dashboard & Reporting

TRANSFORMER LA DONNÉE EN INFORMATION EXPLOITABLE PAR TOUS

La restitution est une des phases clé du processus de Business Intelligence. Elle matérialise le passage de la donnée en information.

Nous allions notre connaissance des solutions de BI classique et nos compétences en développements spécifiques pour offrir à nos clients les moyens adéquats de consulter les informations élaborées à partir de leurs données.

Nous adaptons les solutions en fonction de l’usage de chacun.

Tableaux de bords – Mesure de la performance :

  • Personnalisation de tableaux de bord stratégiques, adaptés aux enjeux de pilotage métier
  • Mise en place de vues « cockpit » avec différents indicateurs de performance pour les cadres de Direction
  • Optimisation de l’expérience utilisateur à travers une ergonomie pensée intuitive

États de restitutions opérationnels :

  • Reporting de masse automatisés
  • Conception de rapports ad-hoc
  • Développement de restitutions spécifiques
  • Niveau de granularité fin, selon les besoins d’analyse

Data Science & Machine Learning

Data Science

METTRE EN OEUVRE DES ALGORITHMES AUX SERVICES DES BESOINS MARKETING

Dans une optique de définir ou optimiser une stratégie marketing relationnel, nous intervenons de la définition à la mise en opération des actions grâce aux compétences marketing, data, digital et informatiques de nos équipes. Nous apportons une vision complète du parcours omnicanal des clients et mettons à disposition des directions marketing les inputs nécessaires à la définition de leur stratégie.

Avec une approche différente en recherche constante du ROI, cela constitue pour vous une vraie réponse opérationnelle et innovante tout au long du cycle de vie client.

  • Collection & Socle Analytique :
    • Identifier, adapter et structurer les informations pertinentes,
    • Calculer les indicateurs métier nécessaires pour le pilotage de votre business,
    • Feature engineering des axes analytiques adaptés à chaque problématique.
  • Data Intelligence :
    • Extraire de la connaissance à partir des données utiles,
    • Identifier les use cases pertinents et les leviers de performance (Big Data, réconciliation on & off line, …),
    • Analyser, modéliser et déployer les algorithmes pertinents.
  • Activation & Interactions CRM :
    • Utiliser la connaissance pour gérer les interactions clients,
    • Adapter les propositions et offres aux clients quel que soit le canal (print, mail, web, boutique, call-center, etc.) et le type d’interaction (synchrone ou asynchrone),
    • Mise en place de matrice d’offres en temps réel.
Machine Learning

ACCOMPAGNER NOS CLIENTS DANS L’UTILISATION ADÉQUATE DU MACHINE LEARNING

Aujourd’hui la question n’est plus de savoir s’il faut mettre en place des algorithmes de machine learning ou pas, mais plutôt de savoir comment les mettre en œuvre de façon efficace et industrielle.

Pour rappel, un processus dît machine learning se caractérise par 3 aspects :

  • Utilisation d’un modèle à des fins de prédiction, prévision ou classification qui s’appuie sur des algorithmes (probabilistes, statistiques, mathématiques, …),
  • Automatisation complète des étapes permettant l’amélioration continue de la qualité du modèle,
  • Capacité d’exécution de ce modèle en temps réel pour maximiser son impact business et la réponse à la problème problématique rencontrée.

Ce processus se base sur des comportements passés avec comme ambition de faciliter la prise de décision fiable et répétée autant que nécessaire sur les actions futures.

Tout ceci grâce à des technologies permettant de travailler sur des fréquences de mise à jour des données de plus en plus courte (batch processing).

AVISIA bénéficie de nombreux retours d’expérience sur cette typologie de projets qui nous confèrent une réelle expertise dans :

  • La maîtrise des nombreux algorithmes, supervisés ou non supervisés, paramétriques ou non, éligibles à une utilisation dans un process Machine Learning,
  • Les méthodes de combinaison / agrégation / optimisation de ces algorithmes qui améliorent la robustesse des informations en sortie, et garantissent ainsi la confiance à leur accorder,
  • La parallélisation des données & des traitements pour tendre vers des exécutions instantanées (fast data),
  • La maîtrise des écosystèmes (hadoop, Spark, AWS …) des langages (R, Python, PySpark, …) et des plateformes de Data Science (Dataiku, SAS Viya, Alteryx, …) pour le déploiement en production.
Data Engineering

LE DÉPLOIEMENT MACHINE LEARNING EN PRODUCTION

Le data engineering est un véritable carrefour de nombreuses compétences comprenant développement informatique, architecture, administration de plateforme Big Data et connaissances en data science.

Data Engineers et Data Scientists sont complémentaires pour apporter à l’entreprise une meilleure connaissance de ses clients et de son business : ils tirent le maximum d’informations pertinentes issues notamment des nouvelles données collectées, tels que les données issues des réseaux sociaux, les données de voix…

Nous vous accompagnons à ce titre pour :

  • Identifier les nouvelles données à collecter, notamment en scrappant les réseaux sociaux ou via les plateformes de données open source,
  • Ingérer ces données dans le datalake, industrialiser les traitements, et réfléchir à un mode de stockage optimal,
  • Préparer les données pour les usages analytiques,
  • Accompagner vos Data Scientists pour challenger / déployer les modèles de machine learning de manière performante, en optimisant les traitements,
  • Développer des API permettant aux différentes applications de consommer les résultats des modèles développés.

Les compétences de nos data engineers sont larges :

  • Maîtrise de l’écosystème Hadoop et son administration (HDFS, YARN, Oozie, Zookeeper, Hive…)
  • Prise en main et utilisation des fonctionnalités de l’environnement Amazon Web Service (AWS RedShift, S3, EC2, …)
  • Développement d’applications via MapReduce ou Spark (Développement en Scala, Python)
  • Développement d’API REST
  • Connaissances des méthodes de machine learning
  • Développement de micro batch pour traiter des données temps réel via Kafka.

Découvrez nos agences et notre environnement de travail

Rejoignez-nous et venez participer à l’aventure

Nous contacter

AVISIA